ポルノ俳優の顔をAI（人工知能）を使って有名人と差し替えた“フェイクポルノ”が増加している問題を、海外の複数のメディアが伝えています。

発端は2017年12月に、掲示板サイトのユーザーがAIを使って顔をすげ替えるツールや、顔を人気女優に差し替えたフェイクポルノ動画を投稿したこと。このツールはGoogleが公開している技術を使用していました。ニュースサイトMotherboardによると、動画はよく見ると不自然だけどパッと見はだまされる出来とのこと。その後、別のユーザーが簡単に使えるツールを公開し、フェイクポルノの投稿は増えたといいます。

投稿が広まる一方で、削除に乗り出す動きも見られます。こうした動画の投稿にはGIF投稿サイト「Gfycat」が多く使われていたそうですが、Gfycatは対策を開始したようで、Gfycatに投稿すると消されるとユーザーが報告しています。GfycatはニュースサイトThe Vergeに「規約により問題があるとみなしたコンテンツは削除できる。このコンテンツを積極的に削除している」とコメント。また、チャットサービスDiscordが、フェイクポルノを共有するチャットグループを閉鎖したとも報じられています。

AIを使って顔写真を笑顔にするアプリが登場したり（関連記事）、音声データから口の動きをリアルに再現するシステムが開発されたりする（関連記事）などAIによる画像処理は進化しています。利便性をもたらす一方で、使い方によってはこのような問題も起こることが浮き彫りになっています。