今後１０年で、フェイクニュースを閉め出すことができるか――。名だたる専門家たちの意見は「できない」５１％、「できる」４９％と、ほぼ真っ二つに分かれた。

フェイクニュースの排除には、多くの人々が賛同する。では、なぜこんなことになるのか？

ピューリサーチセンターが１９日に公開した報告書「ネット上の真実と偽情報の未来」は、フェイクニュース排除の見通しについて、１０００人を超す各国の専門家たちへのアンケート結果がまとめられている。

人間の”習性”、ビジネス構造、政治的戦略、そして情報氾濫とＡＩ（人工知能）などのテクノロジーの進化――。

それぞれの論点を、表から見るか、裏から見るか。そこに５１対４９の理由があるようだ。

●１１１６人の見解

アンケート調査はピューセンターと米イーロン大学が、今夏実施。１，１１６人の専門家から回答を得た。

アンケートでは、このように質問を投げかけている。

“フェイクニュース”の台頭と偽造されたストーリーの拡散が、人とボットによってネットに広まり、メディアとプラットフォームの脅威となっています。虚偽情報の拡散防止のため、ボットなどによるウソや偽情報の拡散を排除し、最小化していくための技術的な手立てや人間系の対策が検討中です。 そこで質問です：今後１０年で、偽造ストーリーを防止し、最も正確な情報がエコシステムに行き渡るような、信頼できる手立ては登場するでしょうか？ あるいは、ネット上の情報の質と信憑性はより劣化し、信頼できない、危険で、社会不安すら引き起こすような意見が流布するのでしょうか？

念頭にあるのは、２０１６年の米大統領選でトランプ大統領誕生を後押しした、フェイクニュースの氾濫だ。その背後には、ロシア政府による介入とされる「ロシア疑惑」や、トランプ支持層であるオルトライト（オルタナ右翼）の存在、広告収入を狙ったフェイクサイトの急増などが指摘されている。

これらフェイクニュースの拡散の舞台となったフェイスブックやグーグルは、米大統領選後に批判の的となり、フェイクニュース排除や広告配信の停止などの対策を展開。さらに、ドイツではソーシャルメディアに法的義務を科し、最大５０００万ユーロ（６６億円）もの過料がある通称「フェイスブック法」も１０月から施行された。

フェイクニュース検知にはＡＩなどのテクノロジーも活用され、事態は改善に向かっているかに見える。

だが、専門家たちの見立ては、「情報環境は改善されない」が５１％、「改善される」が４９％。僅差で悲観派が楽観派を上回っているが、ほぼ真っ二つに割れている。

何がこの違いを招いたのか。

●それは人間の”習性”

悲観派が挙げる第１の問題点は、人間の”習性”だ。

認知バイアス、確証バイアスなどと呼ばれる、自分が信じたい情報に引きずられてしまう人間の”習性”。そこに、ユーザーの興味関心に沿った情報だけを届けるアルゴリズムによって、フィルターバブルが輪をかける。

国際的なインターネットコミュニティの一つ、インターネット・アーキテクチャ・ボード（ＩＡＢ）前委員長のクリスチャン・ハイテマ氏は、こう述べている。

情報の質は、今後数年で改善されることはないだろう。なぜなら、テクノロジーは人間の習性をそんなに改善することはできないからだ。

また、ファクトチェック研究に取り組むアメリカン・プレス研究所の所長、トム・ローゼンスティール氏は、こう回答している。

プラットフォーム企業がどんな変更を加えても、ファクトチェッカーやジャーナリストがどんなイノベーションを導入しても、欺そうとする人間たちはそれに適応する。偽情報は、配管トラブルを修理するのとはわけが違う。犯罪のような、社会状況だ。常に監視し、対処していかなければならない。これはラジオ時代や、それ以前からある問題だ。ウィンストン・チャーチルはこう言った。「真実が追いつく前に、ウソは世界を駆け巡る」

ＡＩなどのテクノロジーの進化も、負の側面から評価される。ユーザーの増加は、より多くの問題を伴う。

ゼロックスＰＡＲＣのＣＴＯ、グレン・エデンズ氏は、こう指摘する。

偽情報は２車線の通りだ。偽情報の作り手には、幅広いオーディエンスに届けることができる簡単な配信プラットフォームがあり、オーディエンス側もその情報ソース（プラットフォーム）に群がる。しかもオーディエンスはおおむね、自分の信念体系にあった情報を求めている。だからこそ、これは本当に難しい問題だ。

さらなる問題として挙げられるのが、フェイクニュースの氾濫によって、利益を得る、企業や政府が存在する、という点だ。これらのプレイヤーに、フェイクニュース排除のインセンティブは働かない。

フロリダ州立大学教授のスコット・シャンプ氏の回答はこうだ

非常に多くのグループが、不正確でミスリーティングな情報の拡散によって、権力を手に入れている。偽情報に価値があるなら、それが情報空間を支配する。

オランダのアインドホーベン工科大学講師のフィリップ・ニッケル氏は、既存メディアの退潮を背景に挙げる。

既存のニュースメディアの衰退とソーシャルメディアの閉鎖性は、今後１０年で変わりはしないだろう。この二つは、対話と政治的議論の土台となるべき、公共圏におけるファクトの共有を悪化させる主な原因だ。

品質が保証された有料コンテンツのウォールドガーデン（壁に囲まれた庭）と、それ以外の情報空間の分断も、懸念される問題だ。

アリゾナ州立大学准教授のアレキサンダー・ハラヴェイ氏はこう見る。

正確な情報に価値がある限り、そのような情報の供給は拡大していくだろう。しかし、消費者が正確性に直接、料金を支払わなくなれば、それは公共圏に偽情報が拡大していく、ということを意味する。つまり、信頼出来るニュースと情報に関する、持てる者と持たざる者の分断が進んでいく、ということだ。

情報の悪貨が良貨を駆逐する。その原因を情報発信の匿名性に見るのが、元ニューヨーク・タイムズのテックライター、ジョン・マーコフ氏だ

インターネットにおける匿名性の問題に対処しない限り、（フェイクニュースの）検証に改善が見られるとはとても思えない。そして近い将来、匿名性の問題が解決できるとも、思っていない。

テクノロジーの進化は新たな問題を引き起こす。そしてそれは、フェイクニュースの拡散にもあてはまる。

ＩＢＭワトソンヘルスの主席データサイエンティスト、スコット・スパングラー氏は、ＡＩによる機械学習が、フェイクニュースをより判別しにくくする、と述べる。

機械学習と高度な統計手法を使うことで、リアルな情報コンテンツを、正確にシミュレートできるようになるだろう。それによって、フェイクな情報とリアルな情報を見分けることはほとんど不可能になってしまう。

さらにソーシャルメディア、フィルターバブル、ＡＩを使い、フェイクニュースを”兵器化”する危険性についても、指摘されている。

ソフトアーマーシステムズのコンサルタント、ディーン・ウィリス氏は言う。

政府や政治的グループは、今や、ターゲットの個人情報を把握した上で、偽情報のターゲティング攻撃をしかけることの威力を知ってしまった。攻撃用メッセージは、今なら圧倒的な確度でオーダーメイドできる。我々は、フィルターバブルがターゲティング攻撃で使われる世界に生きることを、余儀なくされているのだ。

フェイクニュースの拡散をアルゴリズムや、発信者の身元確認強化によって対応しようとすると、プライバシーや表現の自由とのトレードオフになりかねない、という課題も指摘される。

ナイジェリアの情報技術開発庁の法務部長、エマニュエル・エデット氏の回答はこうだ。

情報環境は改善されるだろう。ただし、プライバシーのコストを払うことになる。

ライターのトム・バロビック氏は、フェイクニュース排除でＡＩに依存することの危険性を指摘する。

シリコンバレー企業などでは、人間の判断に代えて、ＡＩを積極的に活用しようとしている。だが、人間の判断をアルゴリズムで代替すると、アルゴリズムに潜むデータのバイアス問題に行き当たり、結局その（フェイクニュース排除の）目的を果たすことはできない。さらには、情報流通をコントロールする力が、少数の企業に集中するという問題が存続することにしかならない。

●テクノロジーは判断能力をアップグレードする

テクノロジーの進化は、人間のフェイクニュースに対する判断能力をアップグレードするだろう――。４９％の楽観派は、これまでの論点を前向きに受け止める人々だ。

フーバー研究所フェローのラリー・ダイアモンド氏は、まさにそんな見方を示す。

主導的なデジタル情報プラットフォーム企業が、クリエーティブなイニシアチブを取り、権威があって信頼できる情報ソースを優先する一方、プロパガンダや情報操作の原動力になっているような情報ソースについては、それが人間であれロボットであれ、きちんと指摘し、格下げするよう期待している。実際、企業はすでにこの方向に動き始めているのだ。

南カリフォルニア大学講師のローレル・フェルト氏は、コンテンツのレーティングをするアプリやプラグインの可能性を挙げる。

コンテンツやそのプロバイダーについて、疑わしいものについてはフラグを立てるシステムが実現するだろう。それらはアプリやプラグインとして使われ、ユーザーは、コンテンツ、配信元さらにはＩＰアドレスについても、”信頼のレーティング”を見ることができるようになる。あるいはフィルターをインストールすることで、検索にヒットする結果リストには、信頼の閾値を満たさないものは表示されない、ということになるだろう。

楽観派の中には、自主的取り組みだけではなく、法律を含む規制によるフェイクニュース排除を論じる人々もいる。

コンサルタントのウィリー・カリー氏は言う。

フェイクニュースは、明らかにフェイスブックのようなプラットフォーム上で氾濫した。これに対処するには、規制に基づく対応が必要だ。テクノロジー発想の人々は、テクノロジーの修復にのみ目をやり、事態を真剣に捉えるインセンティブが働かない。したがって、自主規制はうまくいかない。ソーシャルメディアにおける投稿は大規模で、人間による介在は不可能だという言い訳は、説明にならない。規制のオプションには、フェイスブックのようなソーシャルネットワークの、小規模な組織への分割、ということも含まれるだろう。法的なオプションとしては、ネット上のコンテンツプロバイダーのサービスは、単なるパイプであり、コンテンツへの責任はない、という見解を覆すことも含まれる。これらの規制と法的オプションは、米国内では政治的な実現可能性はないかもしれない。だが、欧州など他の地域では可能かもしれない。特に欧州の選挙でフェイクニュースが影響を与えた、ということになれば。

そしてマイクロソフトの主席デザインリサーチャーのジョナサン・グルーディン氏は、歴史を振り返り、人間は新たなテクノロジーの引き起こした混乱を乗り越えてきたと述べる。

我々は、かつてこの場所にいた。活版印刷が、従来の情報管理システムを破壊した時だ。新たなシステムが登場してきても、我々にはそれを再び成しとけるモチベーションと能力がある、と信じている。それには、偽情報の氾濫を抑制するよりも、改めて情報の整理をすることになるだろう：印刷メディアでは、常に相互に矛盾する主張が存在してきたが、それらはハンドリング可能なものであり、それがヘルシーに行われてきた。

マサチューセッツ工科大学のリサーチディレクター、マイカ・アルトマン氏は、テクノロジーの進化によるフェイクニュースの氾濫への対処に、クラウドソースへ希望を託す。

テクノロジーの進化は、２方向の勢力をつくり出す：本物のようなフェイクニュースをつくり出すことがどんどん簡単になっていくことが一つ：クラウドソースによって情報の収集と検証がどんどんと簡単になっていくことが、もう一つ。長期的な視点に立てば、後者が優位に立つだろうと楽観視している――トランザクションコストの低下は、中央集権型の組織より、クラウドに比較的優位に働くのだし。

情報リテラシーの必要性も挙げられている。

アリゾナ州立大学教授のカレン・モスバーガー氏は、こう述べる。

フェイクニュースの拡散は、単にボットの問題だけではない。人々がクリティカルシンキングと情報リテラシーのスキルを実践するかどうか、というより大きな問題の一環なのだ。このところのフェイクニュースの氾濫は、メディアにおけるネット上のスキルに取り組み、さらにそれらを教育システムにおける基本的な能力として取り組むための、注意喚起となるだろう。

●フェイクニュースの論点

この賛否の立場からの議論を通して見ると、現在のフェイクニュースをめぐる論点が、ほぼ網羅されていることがわかる。

フェイクニュースの何が問題で、どう取り組めばいいのか。それらを整理するのに、格好の報告書だ。

——–

■新刊『信じてはいけない 民主主義を壊すフェイクニュースの正体』（朝日新書）６月１３日発売。

■デジタルメディア・リテラシーをまとめたダン・ギルモア著の『あなたがメディア ソーシャル新時代の情報術』（拙訳）全文公開中

※このブログは「ハフィントン・ポスト」にも転載されています。