ハリウッド女優、ガル・ガドット（Gal Gadot）と義理の兄とのセックスがインターネット上に流出している。もちろん、ガドット本人ではない。身体は違う。しかし、確かにガドットの〈顔〉だ。実は、既存の近親相姦ポルノの、出演女優の顔をガドットの顔に置き換えたムービーなのだ。完全に、ガドットが出演したポルノのように見える。

このムービーは、機械学習のアルゴリズムを利用して作成された。誰にでも簡単に手に入る素材と、オープンソースのコードを使っているので、ディープラーニングのアルゴリズムについて実践的な知識をもっていれば誰でも制作できるのだ。

ただ、よく見れば不自然さはある。顔が動きに合わない瞬間や、<不気味の谷>* も生じている。しかし、一見すると、フェイクには見えない。しかも、制作したのは映画『ローグ・ワン/スター・ウォーズ・ストーリー』（Rogue One / A Star Wars Story, 2016）で、CGI（Computer Generated Imagery）を駆使して若きレイア姫をよみがえらせた巨大特撮スタジオなどではなく、掲示板サイトである〈reddit〉ユーザーだというのだから驚きだ。彼の名は、〈ディープフェイクス（deepfakes）〉。Googleが提供する、研究者や大学院生、その他機械学習に興味のある誰もが無料利用できるオープンソースの学習ツール〈TensorFlow〉などを使用して、彼は、このムービーを作成した。

動画の登場人物にセリフを被せられるAdobeのツールや、録画した映像に、リアルタイムでキャプチャした顔の動きを転送する〈Face2Face〉のアルゴリズムなどと同様、新手のフェイク・ポルノにより、改めてこう実感する――私たちが今いるのは、ユーザーの都合に合わせて、容易にムービーの登場人物の言動を操り、セックスさせることさえできる世界なのだ。

これまでにもディープフェイクスは、スカーレット・ヨハンソン（Scarlett Johansson）、メイジー・ウィリアムズ（Maisie Williams）、テイラー・スウィフト（Taylor Swift）、オーブリー・プラザ（Aubrey Plaza）、ガル・ガドットのフェイク・ハードコア・ポルノをredditに掲載している。私は、上記俳優の事務所や広報に連絡し、フェイク・ポルノに肖像を使用されている旨について伝えた。各所から返答があり次第アップデートする。

Photoshopによるアイコラ・ヌード写真など、有名人のフェイク・ポルノには、昔から熱心なファンがいる。ディープフェイクスの投稿にコメントや投票をするユーザーたちは、フェイク・ポルノ最前線でもある彼の作品を支持している。

ディープフェイクスはプライバシーを理由に、身元を明かすのを拒否したが、質問には答えてくれた。ソフトウェアは、例えばTensorFlowをバックエンドとしたKerasといった、複数のオープンソース・ライブラリがベースだという。有名人の顔写真の収集にはGoogleの画像検索やストック写真、YouTubeの映像を利用している。ディープラーニングは、相互接続されたノードがインプット・データを自動計算するように設定した、ニューラルネットワークによって形成されている。アルゴリズムにポルノとガル・ガドットの顔を徹底的に学習させると、ノード自ら判断し、映像の操作など、様々なタスクを完了させる。

人工知能（AI）研究者のアレックス・シャンパンダール（Alex Champandard）氏のメールインタビューによると、それなりに良いコンシューマー向けビデオカードなら、数時間もあれば処理できる作業だそうだ（CPUなら数日かかる）。

「もはや大した技術ではありません」とシャンパンダール氏。

ここまで簡単だと恐ろしい。技術的な課題はあるが、必要なのは大量の顔写真だ。私たちは、自分の顔のデータベースを既に構築している。2015～16年、Googleフォトには240億枚もの自撮り写真がアップロードされているのだ。アマチュア・プログラマーが自ら組み立てたアルゴリズムで、特定の個人を貶めるためのセックス・ムービーを制作するのも容易だ。

ディープフェイクスは、自らを、専門の研究者ではなく、単に機械学習に関心があるプログラマーだという。

「賢いアイコラの方法を見つけたんです」と彼は自らのアルゴリズムについて話す。「顔写真が数百枚あれば、簡単に、歪んだ画像を数百万枚つくり、ネットワークに学習させられます。それができたら、ネットワークに別人の顔を入力します。ネットワークが〈これは歪んだ画像だ〉と自動認識すると、学習した顔に置き換えようとします」

ディープフェイクスがredditのコメント欄に書き込んだ説明によると、使用したアルゴリズムは、NVIDIAの研究者により開発されたアルゴリズム（例えば、夏の映像を瞬時に冬の映像に変えるためのディープラーニングなど）に似ているそうだ。今回のディープフェイクスの応用例について、NVIDIAの研究者にコメントを求めたが、返答はない。

ディープフェイクスの投稿に、完璧なムービーはない。ガドットのムービーでは、時折、彼女の顔の周りに四角が出現し、そこからオリジナルの映像が見えてしまう。また、口や目も、オリジナルの女優のセリフとはそぐわないときがある。しかし少し目を細めて、これがオリジナルだと思い込めば、この女優はもうガドットだ。ディープフェイクスの過去作品と比べてみても、その精巧さは圧倒的だ。

ポルノ女優のグレース・エヴァンジェリン（Grace Evangeline）は、Twitterのダイレクトメッセージでインタビューに答えてくれた。今回のガドットのフェイク・ポルノがアップされたSendVidなど、無料動画サイトで出演作品が無許可公開されるのは、ポルノ・タレントにとって慣れっこだが、今回は違う、こんな例は初めてだ、という。

「大切なのは同意です。毎回確認するべきです」とエヴァンジェリン。「ムービーにおいても、個人のプライベートにおいても、同意が重要です。セレブのフェイク・ポルノには、本人たちの同意がありません。つまり、間違った行為なんです」

プロのポルノ・タレントにとっても、自分の身体を侵害されれば気分はよくない。セックス業界でのキャリアが15年にもなる元ポルノ・タレント、アーリア・ジャニーン（Alia Janine）は、ガドットのフェイク・ポルノについて、「実に嫌な気分になる」と電話インタビューで述べた。「女性は操り人形であり、自分の好きな行動を強いてもいい〈モノ〉にすぎないという、男性たちの女性観が表れていると思います。ムービー内のポルノ俳優、女優たちへの敬意が欠けています」

ディープフェイクスに、このテクノロジーの倫理的問題を意識しているか尋ねた。アルゴリズムの開発中に、同意やリベンジ・ポルノ、脅迫メールなどの問題について考えないのだろうか。

「全てのテクノロジーは、悪用される可能性があります。止められません」。ディープフェイクスは、『ワイルド・スピード SKY MISSION』（Furious 7, 2015）で、2013年11月に事故死したポール・ウォーカー（Paul Walker）のシーンを埋めるために、同じテクノロジーが使用されている事実に言及しながら、こう続ける。「違いがあるとすれば、誰でも簡単にできてしまうという点です。より多くのアマチュアが、機械学習研究に寄与すること自体は、私は〈悪〉だと思いません」

しかし、倫理的な問題が「かなりある」とシャンパンダール氏は語る。テクノロジーの悪用が避けられないのは確かだが、カウンターは打てる。

「大規模かつ公的な議論が必要です」とシャンパンダール氏。「みんなが、フェイク画像やフェイクムービー制作の簡単さを知るべきです。今から数ヶ月後には、本物と偽物が見分けられないくらいになるでしょう。実はフェイク・ポルノは、昔から制作可能でした。しかし、それをカタチにするには、多くのリソースや視覚効果のプロが必要でした。それが、今や、新しめのハードウェアとプログラマーがひとりいればできます」

シャンパンダール氏は、フェイク・ムービーを検知できるテクノロジーの研究、開発を進め、真偽を見極めること、そして、インターネットの利用規定を改善し、フェイク画像やフェイク・ムービーに伴う迷惑行為の規制を提案している。