誰も「真実」を信じない
AIによる偽画像や偽映像が社会にあふれると、私たちは目の前にある映像や写真を見ても素直に信じられなくなる。「これは本物なのか、それともAIが作ったものなのか」と疑ってかかるしかない状況が生まれてしまうのだ。実際、すでにそうした社会へと移行しつつある。
問題はそれだけではない。事実であるものを「これはAIが作った偽物だ」と言い張ることも可能になってしまった。これは噓つきが得をするという意味の「噓つきの配当」と呼ばれる現象だ。つまり、AIによるフェイクの存在を逆手にとって、都合の悪い事実をもフェイク扱いにしてしまうことである。
事例として、2023年にイーロン・マスク氏が法廷で直面したケースがある。彼の発言を録音した音声が裁判の証拠として提出された際、マスク氏は「これはディープフェイクだ」と反論した。しかし後の調査で、それは本物の音声だったことが確認されている。
普通であれば誤った反論をした側が不利になるはずだが、ここで注目すべきは「ディープフェイクだ」と主張すること自体にはリスクがほとんどない、という点である。結局、「勘違いだった」で済ませることができてしまうのだ。
しかも、人々の受け止め方はさらに複雑だ。ある人物を強く支持している人にとっては、「これはディープフェイクだ」という本人の主張の方が真実として受け止められる。
後になって「本物だった」と訂正情報が出ても、それが支持者に届かなければ、誤った理解がそのまま固定化されてしまう。つまり「フェイクの氾濫」と「噓つきの配当」が組み合わさることで、事実と虚構の境界がますますあいまいになってしまうのである。
この現象は民主主義にとって致命的なリスクを孕んでいる。選挙戦の最中に不利な証拠映像や音声が出てきた場合、候補者は「これはディープフェイクだ」と言い張ればよい。仮にそれが事実であったとしても、一定の支持層は「やはり自分の支持する人が正しい」と信じ込み、その後の訂正や検証を受け入れない。結果として、真実が暴かれても人々の意識を変えることが難しくなる。そもそも真実が暴かれるのは選挙戦後かもしれない。
つまり、AIによるフェイクの拡大は二重の意味で危険だ。第一に、大量のフェイクの中で本物を見抜くことが難しくなること。第二に、事実であっても「フェイクだ」と言い逃れる余地が常に存在してしまうこと。この「噓つきの配当」は、フェイクを仕掛ける側だけでなく、事実を突きつけられた側にも強力な武器を与えてしまう。
私たちは今や、映像や音声といった「動かぬ証拠」さえ動かされてしまう時代に生きている。これまで以上に検証を重ねる姿勢が求められる一方で、人々の心が一度「これはフェイクだ」と思い込んでしまえば、その思い込みを解くことは極めて難しい。













