米Facebookは11月27日（現地時間）、自殺をほのめかす投稿や「ライブ動画」（以下、まとめて「投稿」）をAI（人工知能）を使って検出して専門対策チームに報告する機能を欧州連合（EU）を除く世界で提供開始したと発表した。

同社は2011年から自殺防止対策に取り組んでおり、問題のある投稿についての報告をFacebookの専門対策チーム（Community Operationsチーム）がレビューし、必要に応じて報告されたユーザーにアドバイスのメッセージを表示している。

報告のあったユーザーに表示するメッセージ

従来は、友達などの第三者からの報告に基づいていた。今後は、AIもパターン認識技術で自殺をほのめかす投稿を検出し、専門チームに報告する。これにより、従来より迅速に自殺の危険のあるユーザーに接触できるようになるとしている。米国では過去1カ月このAIをテストし、その間に100件以上の投稿がチームに報告されたという。

AIがチェックするのは投稿自体だけでなく、コメントも対象だ。例えばライブ動画のコメントに「大丈夫？」「助けが必要？」などのコメントが付くとAIがそれを検出し、報告する。

ライブ動画での通知

FacebookはAIを支援対象の優先度判断にも使う。問題を報告された投稿をパターン認識でさらに解析し、緊急性の高い投稿のレビューを優先するようCommunity Operationsチームに通知する。

また、チームメンバーが個々の投稿のどの部分が問題かを迅速に判断できるよう、例えば動画の場合はコメントが集中している部分を提示する。

Community Operationsチームは年内に7500人以上になる見込みではあるが、この人数で世界中から寄せられた報告に対処している。

FacebookはAI技術の正確性向上と偽陽性回避に努めていくとしている。