１月２０日、米フェイスブックは、ドイツで選挙の不正を防止するとともに人工知能（ＡＩ）を倫理面で検証する取り組みを開始したと発表した。写真は同社のロゴ。サラエボで昨年３月撮影（２０１９年 ロイター/Dado Ruvic/Illustration）

［ミュンヘン ２０日 ロイター］ - 米フェイスブックFB.Oは２０日、ドイツで選挙の不正を防止するとともに人工知能（ＡＩ）を倫理面で検証する取り組みを開始したと発表した。同社が個人情報の保護や民主主義の擁護に本腰を入れていないとの批判に対応する。

フェイスブックのシェリル・サンドバーグ最高執行責任者（ＣＯＯ）はミュンヘンで開かれた会議で「当社は２０１６年もしくは１年前からでさえ、全面的に変わった」と指摘。「現在は会社の経営に根本的に異なる姿勢で臨んでいる」と述べた。

サンドバーグ氏によると、同社はドイツの連邦サイバーセキュリティー当局と選挙の不正防止を支援する新たな提携で合意したほか、ミュンヘン工科大学でのＡＩの倫理に関する研究に７５０万ドルを提供する。

同氏は、フェイスブックはテロリストのコンテンツやネット上のヘイトスピーチを割り出して削除するのにＡＩを活用していると説明。ＡＩの活用を「適切に行う必要がある。これは極めて重要だ」と語り、バイアスを防止する上でＡＩの技術が確実に管理されることが重要との見方を示した。

昨年には、フェイスブックの米国内ユーザーの個人情報を英コンサルタント会社ケンブリッジ・アナリティカが不正に入手した問題が発覚。この問題を巡って批判が相次ぎ、フェイスブックには厳しい１年となった。

同社のマーク・ザッカーバーグ最高経営責任者（ＣＥＯ）は米議会で個人情報流出問題について厳しく追及され、米規制当局が同社に対する処分を検討しているとの報道もある。