Facebookは、アプリでリベンジポルノを防止、削除するためのツールに何年も前から取り組んでいるが、そうした画像を共有しようとする悪質なユーザーを阻止できていないようだ。同社は毎月報告される約50万件ものリベンジポルノを評価しなければならないという。NBC Newsが米国時間11月18日に報じた。Facebookは、「Instagram」「Messenger」「WhatsApp」などの人気の高いアプリも傘下に置いている。



提供：Angela Lang/CNET 提供：Angela Lang/CNET

世界最大規模のソーシャルネットワークであるFacebookは2019年に入り、リベンジポルノなどの本人の同意なく投稿される性的画像を検出する、人工知能（AI）を利用したテクノロジーを発表した。ユーザーの報告を受ける前に検出できるという。2017年にも、Facebookで共有されることを防ぐ目的で、ユーザーが性的画像をFacebookに提出できるパイロットプログラムを導入している。

しかし、Facebookの製品ポリシー調査を統括するRadha Plumb氏はNBC Newsに対し、このパイロットプログラムは、当初の説明が十分に明確でなかったと述べた。そして否定的なフィードバックを受けた後、同社は2018年にリベンジポルノを防止し、被害者を支援するより良い方法を探るための調査プログラムを開始したという。

Plumb氏はNBC Newsに対し、「自分の画像が共有される経験がどれだけつらいものであるかを聞き、製品チームは、報告に対応することのみに限らず、自分たちにできることを見つけ出そうという意欲に満ちていた」と述べた。

Facebookでは現在、コンテンツモデレーターを除いて25人のチームが、性的な写真や動画が本人の同意なく共有されることを防止する取り組みに専念しているという。

米CNETはFacebookにコメントを求めたが、回答は得られていない。