Facebook、Google、YouTubeほど巨大なプラットフォームをバランスの取れた状態にする作業は、気が遠くなるほど複雑だ。YouTubeに投稿されるビデオの量は、1分間で数百時間分もある。Facebookには20億人のユーザーがいて、数千万あるグループとページで論争が起きている。コンテンツの適正化は、言論の自由および偏見に対して抱く正当な懸念と背中合わせだ。こうしたプラットフォームで見られる悪質なコンテンツの多様さに圧倒されてしまう。Facebook向けに外国の援助で作られる広告とフェイクニュース、Twitterでの過激なハラスメント、YouTubeに存在する家族ビデオを装った児童労働搾取ビデオ、など多種多様だ。プラットフォームの直面している課題は、非常に手強い。技術とポリシー、それにほぼ誰も納得のいく答えを出せない哲学的な問題が絡み合った難問である。



なお、プラットフォームは、こうした偽情報への対策を、速報されるニュースや事件に対して取り入れたいのだろうが、実際のところ両者は異なる。プラットフォームは、特定の事件に関する偽情報への対策に失敗し続けている。ところが、ブロデリック氏などが偽情報を見破るのに使った検索手法は、とてもシンプルなものだった。大抵の場合、銃撃犯や被害者のフルネームを検索するだけの作業で済む。

偽情報との戦いにおいて、巨大技術プラットフォームは厳しい苦戦を強いられている。そもそも、この戦いで有利な位置に立てる企業や組織があると考えにくい。世界中にあるGoogleやFacebook的な企業の収益性は驚くほど高く、世界でもトップクラスの賢い人材と優秀なエンジニアを雇っている。こうした企業は、金ばかり食う、クレージーに聞こえるようなアイデアに投資をしている。例えばGoogleには、「月へ打ち上げるロケットの船長」という肩書きの社員がおり、夢のようなアイデアの実現を目指すプロジェクトに取り組んでいる。ちなみに、この社員は自律走行する自動車の技術開発に携わっていて、成功を収めつつある。

もっとも、言うまでもなく、GoogleやFacebook、Twitterが、何十億人ものユーザーから投稿されるコンテンツをすべて監視することなど不可能だ。そんな対応を実際に要求する人もいない。しかし、ある日のニュースに関係する投稿のうち、どれを削除してどれを注目コンテンツとして取り上げるか整理する作業は、別の話だ。これは誰もがすでに行っていることで、すぐにでも実行可能だ。



それなのに、プラットフォームから依頼されて活動しているわけではないジャーナリストや研究者、関心を抱いている一般市民がノートPCで4chanに数回アクセスしただけで見つけられる情報に、これらプラットフォームはなぜ辿り着けないのだろう。おそらく、この問題は社外の人間が理解できないほど複雑だからなのだろう。そして、これはプラットフォーム各社がよく使う言い訳だ。コメントを求めたところ、Facebookは、人間とコンピュータによる適正化処理とユーザーからの報告で対応している、という回答を繰り返し、適正化には微妙な違いがあり、文脈の判断は難しい、と答えた。Twitterも、ユーザーからの報告とルール適用のための技術に頼っていると説明し、「文脈が鍵」という基準の影響を受けて発言保護に偏り過ぎた誤判断をしている、とした。YouTubeも、ルール違反の可能性があるコンテンツを機械学習システムで選び出してから、人間が確認する対応をしている、とした。さらに、そうしたコンテンツの「発見」要員は、大きな効果が得られないとの理由で配置していない、と回答した。