米Facebookは12月15日（現地時間）、米大統領選で浮上したFacebook上の虚偽ニュース拡散問題の新たな対策を発表した。

同社のマーク・ザッカーバーグCEOは、これまで「Facebookはテクノロジー企業であり、メディアではない」と語ってきたが、同日の投稿で「Facebookは従来のどんなものとも異なる新種のプラットフォームだ。私はFacebookをテクノロジー企業だと考えているが、われわれには情報を表示するテクノロジーを構築すること以上の大きな責任があることを認識している。Facebookは人々が公に発言する新しい種類のプラットフォームであり、それはわれわれに新しい種類の責任があるということだ」と語った。

虚偽ニュース対策として同日発表されたのは以下の4つの取り組みだ。それぞれ、しばらくのテスト期間を経て段階的に導入していく。

報告メニューに「これは虚偽ニュースです」の選択肢追加

ニュースフィード上の投稿の右上にあるプルダウンメニューの「投稿を報告」の選択肢として「It's a fake news story」（これは虚偽ニュースです）が追加される。

第三者事実確認組織による虚偽判定

ユーザーからの報告やその他のシグナル（アルゴリズムが判定するものなど）で虚偽情報である可能性がある投稿を、国際的な事実確認組織Poynterに参加している各国の団体（日本からの参加団体はまだない）に送り、判断を仰ぐ。Poynterには、米ABC News、米Associated Press、米Washington Postなどのメディアも参加している。

そうした団体が虚偽だと判定した投稿については、非表示にはしないがフラグを立て、ニュースフィード上での表示ランクも下げる。

フラグの立った投稿をシェアすることはできるが、シェアしようとすると警告が表示される。フラグ付きの投稿は広告あるいはプロモートの対象にはならない。

共有された数のランキングへの反映

ユーザーが読んでも共有しようとしない投稿はミスリードする内容であることが多いことが分かったとして、読まれているわりに共有されないというシグナルを表示ランクに反映させるテストを実施する。

スパムサイト対策

営利目的で虚偽ニュースやデマを投稿するドメインを広告ネットワークから締め出す。パブリッシャーのWebサイトを解析し、ポリシー強制が必要かどうかを判断する。