財務省・福田淳一事務次官のセクハラ疑惑や、ジャニーズが誇る人気アイドルグループ・TOKIOの山口達也メンバーが起こした強制わいせつ事件など、性に関するスキャンダルが日本社会を賑わせている。

そんな最中、世界各国ではテクノロジーを使った新たな性犯罪への懸念が高まっている。そのテクロジーとは、人工知能（AI）を使ったイメージ生成だ。ディープラーニングなどのAI技術は、画像解析分野で大きな成果を発揮してきたが、昨今では特定の人物と卑猥な写真を合成する最新技術としても進歩し始めている。分かりやすく言えば、本物と見分けのつかない「アイコラ写真」を生成できてしまうツールになるという訳だ。また画像はおろか、動画さえも生成できてしまう「ディープフェイク」なる技術が登場し、セレブや有名人を対象に被害が拡大している状況がある。

【関連記事】>>>映像の人物を“入れ替える”「CycleGAN」公開…動画編集に革命!?

【関連記事】>>> AI利用した「フェイク映像」実験の恐怖！...音声を学習し口の動きを生成

隣国・韓国ではすでに、AIによる「画像生成」や「ディープフェイク」が、プライバシー問題、また性犯罪と関連した領域で議論され始めている。直近では、韓国の大統領官邸・青瓦台の「国民請願掲示板」に、ディープフェイクなど新手のテクノロジー犯罪を防いでくれという要求が殺到しているというニュースが大きな話題となった。昨年12月30日に締め切られた、「一般人を侮辱する写真流布を処罰してほしい」また、「デジタル性犯罪規定の強化」というタイトルの請願には、それぞれ12万3288人、1万763人が署名した。

「ディープフェイクの制作と配布を防いでほしい」という請願も相次いでいる。請願文を書いた人物は、「あらゆる売春、裸（写真）の合成依頼、ディープフェイクデータが行き来する海外に拠点を構えたSNSを捜査するため、より多くの警察人員と予算を投入してほしい」「ディープフェイクは、それ自体が厳然とした性犯罪」などと訴えている。