AIで人気女優の「フェイクポルノ」作成可能に…もし日本で公開したらどんな犯罪？

海外のネット掲示板に、エマ・ワトソンやスカーレット・ヨハンソンといった人気女優が、ポルノに出演しているように見える動画が投稿されて、話題になっている。しかもこの動画、本物ではなくて、ネットで集めた顔写真とポルノ動画をAI（人工知能）に機械学習させて作った「フェイクポルノ」だという。

技術の進歩は目覚ましく、今後、ますます本物と偽物の区別はつきづらくなりそうだ。このような「フェイクポルノ」を制作して公開する行為は、現在の日本ではどんな法的問題があるのだろうか。小林正啓弁護士に聞いた。

●名誉誉毀損罪が成立する可能が高い

「日本の法律を前提として考えると、女優に限らなくても、本人の承諾を得ないで、他人の顔画像とポルノ映画を合成して、一見見分けがつかないようなものを作成して公開すれば、刑法上、名誉毀損罪が成立する可能性が高いと考えられます。

なぜなら、現代日本において、ポルノに出演したことがあるという事実は、その人の社会的評価を低下させることといえるからです。

裁判例としては、アイドルタレントの顔写真とヌード写真を合成したアイコラ画像をネット掲示板に掲載した人について、名誉毀損罪の成立を認めたものがあります（東京地裁平成18年4月21日判決）。

被害者が女優である場合、偽計業務妨害罪が成立する可能性もあります。今回のケースは、アイコラ問題と同様に考えてよいと思います。

ただし、名誉毀損罪が成立するのは、その動画を閲覧すれば、その人がポルノに出演していたと誤解するような場合です。故意に、あるいは合成技術が未熟であることによって、明らかに合成とわかる動画を作成した場合、名誉毀損罪は成立しません。この場合には、侮辱罪の成立が問題となるでしょう」

●「技術悪用の可能性が高まっている」

「民事上は、一見して合成とわからないような動画を作成して公開した場合、不法行為として、名誉毀損に基づく損害賠償請求権が認められるでしょう。ほかにも、肖像権の侵害や、被害者が女優である場合にはパブリシティ権の侵害に基づく損害賠償請求権が認められることになるでしょう。

また、ポルノにも著作権は発生しますから、その制作者などに対して、著作権法上の責任を負うことになります。

さらに、無断で顔画像を使われた被害者は、ネット掲示板の運営管理者に対し、人格権に基づく妨害排除請求権として、当該画像の削除を請求できると考えられます。

近ごろ、画像合成や音声合成の技術が飛躍的に発展し、素人目には本物と区別のつかない動画や音声の作成が可能になっています。それに伴って、悪用の可能性が高まっています。

今回のような事例はまだ、既存の法律で対応可能と思われますが、他人の声を合成したり、詐欺に利用するなどの悪用ケースは、既存の法律で対応できなくなる可能性もあります。

技術発展のためには、過剰な規制は禁物ですが、悪用の可能性については、注意深く見守っていく必要があります」

（弁護士ドットコムニュース）