米Facebookの「モデレーター」のための1400ページに上る社内マニュアルを入手した米New York Timesが12月27日（現地時間）、その問題点を解説する記事を公開した。

モデレーターとは、Facebook上の問題のあるコンテンツの削除を判断する担当者で、現在は約1万5000人いる（FacebookがNew York Timesにそう語った）。この人数で世界中の20億人以上のユーザーが投稿する膨大なコンテンツから問題のあるものを瞬時に判断して削除している。

New York Timesはこのマニュアルを、Facebookの従業員から直接入手したという。この従業員は、Facebookが多くのミスを抱えたまま、あまりにも強大な力を持つことを恐れていると語った。

この記事を書いたマックス・フィッシャー記者は自身のTwitterアカウントで、「Facebookは、われわれが持っていたよりもさらに、政治や社会に対して非常に大きな、そして目に見えない力を発揮していると思う」とツイートした。

フィッシャー氏は記事で、画像付きでこのマニュアルの問題点を解説した。例えば、（短時間で誰でもが判断できることを目的に）非常に複雑な問題を単純なイエスかノーかのルールで判断させようとしていたり、ミャンマーでのコンテンツを「無秩序なパワーポイントのプレゼン」のガイドラインで判断しなければならなかったりする。

また、フィッシャー氏が取材したあるモデレーターは、自分が理解できない言語の投稿についても判断しなければならず、その場合はGoogle翻訳に頼っていると語った。また、モデレーターが判読できない言語での投稿は掲載を承認するという原則があるという。

フィッシャー氏は、このマニュアルには問題があるとし、Facebookが粗末なマニュアルを管理できない外部企業に与えて世界中の政治・社会問題に介入していることは大きな問題だとツイートした。

Facebookのマーク・ザッカーバーグCEOは28日、恒例の1年の振り返り投稿で、フェイクニュース対策でも大きな成果を上げていると語った。同氏はこの問題について、複数年の改善計画を立て、そのロードマップに沿って前進しているとしている。