フェイスブックはパートタイムの請負業者を雇い、投稿のファクトチェック（事実確認）を迅速化すると発表した。今後数カ月にわたって米国で実施されるパイロット・プログラムの一環だ。これによって、フェイスブックの既存のファクト・チェッカーが虚偽の記述をより速やかに発見し、排除できるようになるという。

新たなファクトチェックの仕組みはこうだ。まず、フェイスブックの機械学習システムが、さまざまなサインから潜在的なデマを見つける。たとえば、投稿に対するコメントが不信を表明していたり、投稿を共有するページにデマを共有した履歴があるとする。すると、これらの投稿にはフラグが付けられ、フェイスブックが「コミュニティ・レビュアー」と呼ぶ新たな請負業者グループに送られる。コミュニティ・レビュアーは、主張を肯定または否定するニュースソースを探す。たとえば有名人が亡くなったという記事が投稿された場合、信頼できるニュースソースが報じているどうかを確認する。結論はフェイスブックのファクト・チェッカーに共有され、ファクト・チェッカーはどの記事を優先して評価する必要があるかを判断する。

ファクトチェック・プロセスの強化は理にかなっているものの、今回の施策は専門のレビュアーを雇わず、外部委託された低賃金のパートタイムのアマチュアに依存するものだ。またやや不可解なことに、米国居住者全体ではなく代表的な米国のフェイスブック・ユーザーの集団から選ばれることが決まっている。客観的な真実が、人口統計学的バランスに左右される可能性がある。

フェイスブックの既存のファクトチェック・プログラムには深刻な欠陥がある。新聞社やシンクタンク、認定を受けた専門団体といった第三者に完全に外部に委託されており、矛盾に満ちているのだ。ファクトチェック・プログラムはフェイスブックが利用されている国のうち一部でしか導入されておらず、多くの場合1つの組織に依存している。すなわち、先月オランダで起きたように、委託先の組織が撤退することでファクトチェック・プログラムが終了してしまうことがあるのだ。

フェイスブックは、第三者に事実確認を依頼することで、バイアス（偏向）批判をかわせると考えているようだ。だが、フェイスブックは引き続き、方針を決定し、それに第三者を従わせている。例えば、フェイスブックは政治広告はファクトチェックの対象外としているが、それ自体が編集的な判断だ。フェイスブックは認めていないが、プラットフォームに投稿されたコンテンツの責任はプラットフォームが負うべきとの批判を受けている。フェイスブックのデマ拡散防止策は不十分だという主張を、新しい方針が覆す可能性は低そうだ。