2019年06月27日 21時00分 ソフトウェア

女性の写真を1クリックで裸にしてしまう「DeepNude」が登場



AIを用いて有名女優のポルノ映像を作成するという「フェイクポルノ」が2017年末から2018年にかけて大流行しましたが、これと同じようにAIやニューラルネットワークを用いることで、女性の写真から服だけを削除して裸にしてしまうという凶悪なアプリケーション「DeepNude」が登場しています。



This Horrifying App Undresses a Photo of Any Woman With a Single Click - VICE

https://www.vice.com/en_us/article/kzm59x/deepnude-app-creates-fake-nudes-of-any-woman





DeepNudeは服を着た女性の写真から、服部分だけを削除し、胸や外陰部がはだけた裸の写真に変換してしまうというもの。女性の写真のみ変換可能で、実際にDeepNudeを使用したというIT系ニュースサイト・Motherboardは、「服を着た状態の女性でも成功するものの、肌の露出が多い写真の方がより効果的にヌード写真に変換できた」と記しています。



フェイクポルノはAIを使ってムービー内の人物の顔を違和感なく別の人物に入れ替えることができる技術「DeepFake」を用いて作成されました。しかし、今回作られたDeepNudeは「DeepFakeよりも使いやすく、作成も速い」とのことで、より凶悪なフェイクポルノが生まれる可能性があります。



DeepNudeはダウンロード版のアプリと、オンライン上で試し使いできるデモ版があります。記事作成時点ではダウンロード版アプリは「メンテナンス中なので12時間後にもう一度チェックして」と表示されダウンロードできません。



AI Powered X-Ray App | DeepNude

https://www.deepnude.com/





というわけで、「Try Online」をクリックしてデモ版を使用してみます。





サンプルとして水着の女性画像が2枚表示されるので、どちらか好きな方を選択。





続いて赤枠部分にある顔アイコンに写真の女性の顔部分が合うように調整して、「Transform」をクリック。





すると女性の写真から水着がきれいに消えました。





リベンジポルノ活動団体であるBadassのカテリン・ボーデンCEOは、「これはとても恐ろしいことです。裸の写真を撮ったことがなくても、誰でもリベンジポルノの犠牲者になる可能性があります。このような技術は一般向けに公開されるべきではありません」と語っています。



メリーランド大学のロースクールに勤めるダニエレ・シトロン教授は、「(DeepFakeやDeepNudeのような技術は)性的プライバシーの侵害です」と語っています。加えて、「本物の陰部が写っているわけではありません。しかし、他の人たちは(DeepNudeが作った裸の写真を見て)あなたが裸になったのだと思うでしょう。DeepFakeの被害者たちは私に『何千人もの人々が自分の裸を見て、自分の体はもはや自分のものではないかのように感じた』と語りました」と述べています。





DeepFakeが公開されたのは2019年6月23日で、無料でダウンロードできるアプリ版には大きなウォーターマークが埋め込まれるようです。しかし、50ドル(約5400円)の有料版ではこのウォーターマークが消え、代わりに画像の左上に「FAKE(偽)」という文字が追加されるのみとなります。この「FAKE」マークは画像の左上に表示されるだけなので簡単に切り取り可能であり、Photoshopで削除することも容易とのこと。



Motherboardはテストとして10人以上の男女の有名人を裸に変換しており、結果は写真により異なるものの、カメラの方を向いたビキニ姿の女性の写真は特にうまく裸に変換できたとしています。Motherboardによれば、DeepNudeのアルゴリズムは「衣服の下にある胸の角度から、乳首の位置や影を正確に補完します」とのこと。なお、Motherboardはうまく裸に変換できた事例として、テイラー・スウィフトやタイラ・バンクス、ナタリー・ポートマン、ガル・ガドット、キム・カーダシアンなどの写真を公開しています。



ただし、低解像度の写真や漫画のキャラクターなどではうまくいかなかったようです。





MotherboardはDeepNudeの開発者である「アルベルト」を名乗る男性と連絡を取ることに成功。アルベルトさんは2年前の2017年にGANsなどの技術を知り勉強を始め、カリフォルニア大学バークレー校が2017年に開発したpix2pixをベースにDeepNudeを開発したとのこと。DeepNudeのアルゴリズムをトレーニングするために、1万枚以上の女性のヌード写真を用いたとも語っています。アルベルトさんはDeepNudeの男性版も開発予定としながら、男性の場合はインターネット上でヌード写真を見つけづらいのが難点だとしています。



アルベルトさんは「ネットワークは多角的なものであり、それぞれが異なるタスクを持っています。ひとつは服を認識し、ひとつは服を消し、ひとつは服をはがした際の乳首などの位置を推測し、ひとつは裸をレンダリングする」と語っており、この複合的な処理により変換に時間がかかるようになっているものの、いずれは処理を高速化していく予定とのこと。



なお、MotherboardによればDeepFakeを用いたポルノ映像の場合は映像の変換に数日かかる模様。しかし、熟練した画像編集者であっても、Photoshopを使って裸のコラージュ写真を作るには数分必要とのことで、DeepNudeの手軽さは凄まじいものがあるとMotherboardは指摘しています。



by João Silas



カリフォルニア大学バークレー校でコンピュータサイエンス学部の教授を務めるハニー・ファリド氏は、「我々はDeepFakeのようなものをより早く発見できる必要があるだろう。そして、技術の進歩をより安全に保護し、意図しない有害な方法で使われないようにするための方法を、学者や研究者はより批判的に考えていく必要がある」と語っています。



・2019/06/28 14:42 追記

DeepNudeの開発者であるアルベルトさんは「世界はまだDeepNudeへの準備ができていなかったようだ」とツイートして、ブラウザから利用できたデモ版がアクセス不可能となりました。

