ディープフェイクについて考えると、ともすれば哲学的な問題に行き着く。例えばこうだ。ディープフェイクが、大国に対する妨害行為に利用されるというときに、自分の顔がハードコアポルノ動画の出演者の顔にすげ替えられることを心配している場合だろうか。



提供：Getty Images 提供：Getty Images

ディープフェイクとは、人が実際とは違うことをしたり言ったりしているように見せかける偽造動画のことだ。「Photoshop」で画像の修正がいともたやすくなったように、ディープフェイクのソフトウェアが登場して以来、そうした動画に容易にアクセスできるようになっただけでなく、フェイクだと見分けることが、ますます困難になっている。

そして、自分の画像をインターネットに載せないよう細心の注意を払っていない限り、今日にでも自分がディープフェイクに登場してしまう可能性がある。

「オンラインで自分の画像を公開するというのは、自分を人目にさらす行為だ。しかも、制限なく公開している。強制されたわけではなく、まして盗まれたわけでもない」。こう警鐘を発しているのは、ダートマス大学教授のHany Farid氏だ。同氏は、デジタルフォレンジックの専門家として、ディープフェイクのような行為の根絶を目指している。

ディープフェイクは、顔認識の悪い一面が表れた使い方だ。本来の顔認識は、既に日常生活のなかで重要な機能を果たしつつある。「Googleフォト」で、特定の友人のスナップ写真を検索する技術もそのひとつだ。一方、空港やコンサート会場で、知らないうちに顔をスキャンされている可能性もある。

通例の顔認識が、人の顔の特徴をコンピュータに分かる独自のコードに変換するのに対して、ディープフェイクのソフトウェアは、本物かどうか疑われもしないほど巧妙に、人のアイデンティティを合成しようとする。人の人生を台無しにするだけでなく、国家元首や有力な経営トップ、政治家候補者などに対する市民の認識すら操作できるという点で、悪夢のような事態をも引き起こしかねない技術だ。

だからこそ、Farid氏のようなデジタルフォレンジックの専門家、さらには米国防総省の研究者までもが、ディープフェイクの検出方法を確立しようと急いで取り組んでいる。だが、米国防総省の国防高等研究計画局（DARPA）でメディアフォレンジックプログラムのマネージャーを務めるMatt Turek氏によると、よくできた今のディープフェイクは、検出するより作成するほうがずっと容易になっているという。

ディープフェイクは、人の顔のさまざまな点がカメラ上でどう動くかをとらえ、動いたり話したりする人物を、いかにしてそれらしく作り上げるかを追求する技術だ。写真のようにリアルなデジタルパペットを思い浮かべるといい。人工知能（AI）によってその発達は加速しているが、動画を作るには、顔の画像を大量に供給しなければならない技術でもある。

悪いことに、ディープフェイクが登場したときにはもう、ほぼあらゆる人の顔がソーシャルネットワーク上で共有されるようになってから10年以上が経過していた。もっとも、世間の目を避けたところで、ディープフェイクから逃れることにはならない。今日の世界では、ほとんど誰もが人目にさらされているからだ。