ウソやデマを意図的に拡げる「フェイクニュース」。マサチューセッツ工科大学がツイッターを研究したところ、「事実が伝播するのは1000人程度であるのに比べ、ウソは多い時は10万人まで拡散する。拡散力において100倍、拡散速度は20倍」という結果が出たという。ネット社会で破壊的な力をもつフェイクニュースに、どう対抗すればいいのか――。

※本稿は、一田和樹『フェイクニュース 新しい戦略的戦争兵器』（角川新書）の第2章「フェイクニュースとハイブリッド戦」を再編集したものです。

※写真はイメージです（写真＝iStock.com／RichVintage）

■フェイクニュースへの4つの対策

2018年2月、アメリカ・ニューヨークの研究機関・データ＆ソサエティ研究所は『自律航法 フェイクニュース後のコンテンツナビゲーションのあり方（Dead Reckoning Navigating Content Moderation After “Fake News”）』と題するレポートを公開した。このレポートは、多様に解釈されているフェイクニュースという言葉の定義を整理し、その定義ごとに対策や問題点を明らかにしたものである。

このレポートでは、現状はフェイクニュースに対して4つの戦略によって対策が行われていると整理している。まず、信用度とファクトチェックによる対策。日本でもジャーナリストやメディアによるファクトチェックの試みが行われており、一般的な対抗策として世界中にファクトチェック組織がある。これはさらに、「暴露とファクトチェック」、「信頼できるコンテンツ提供者の連合及び暴露とファクトチェック」、「コンテンツ管理とポリシーの拡大」の3つに分類されている。

まず「暴露とファクトチェック」はフェイクニュースのウソを暴き、ファクトチェックで検証することを指す。これを行っている機関の例としては、Fake News Watch, Gawker,ワシントンポストなどがあげられている。

「信頼できるコンテンツ提供者の連合及び暴露とファクトチェック」は、前述のファクトチェックに加えて、フェイクニュースのない信頼できるコンテンツ提供者の連合を作ることの合わせ技である。First Draft／CrossCheckが代表例で、日本にも2017年6月21日（NPO化は2018年1月11日）に発足したファクトチェック・イニシアチブがある。

■根本的な解決が難しい4つの理由

「コンテンツ管理とポリシーの拡大」は、コンテンツの管理強化により、フェイクニュースを排除する。さらにふたつに分けられ、プラットフォームを提供しているツイッター、グーグルニュース、フェイスブックのような企業が行うものと、そうではない組織Trust Project、News Leadership Councilなどが行うものがある。

これらの「信用度とファクトチェック」戦略には次の問題がある。いずれも本質的な問題であり、根本的な解決は難しい。その理由として大きく4つがあげられている。

・過激なサイトは信用やファクトチェック組織を破壊できる

・検証結果を発表すること自体がフェイクニュースを広めることになり、より身近なものになってしまう

・ファクトチェックは高コストで限られたコンテンツしか扱えない

・誤情報の拡散は速く検証が追いつかない

次の「経済的メリットの撲滅」も一見効果がありそうに見えるが、やはり問題がある。具体的にはふたつの方法がある。「ガイドラインを設定し、違反した場合はブロックする」とその延長線上にある「ブラックリストもしくはホワイトリストの共有」だ。

一田和樹『フェイクニュース 新しい戦略的戦争兵器』（角川新書）

「ガイドラインを設定し、違反した場合はブロックする」方法は、グーグルやフェイスブックなどのプラットフォーム事業者が行う対策だ。各社まだ具体的な実施方法が固まっていないという問題がある。

「ブラックリストもしくはホワイトリストの共有」は、問題となるコンテンツあるいは信頼できるコンテンツを提供しているアカウントの情報を共有する方法だ。グーグル、フェイスブックといったプラットフォーム事業者ならびにOpen Brand Safety（OBS）, News Integrity Initiative, Storyful, Sleeping Giantsなどが行っている。

このふたつの方法には、設定したガイドラインに沿うように内容を変えることは難しくないという問題がある。そして、そもそも経済的利益が狙いではない相手＝プロパガンダには効果がないといった根本的な問題がある。

3つ目の戦略は、「コンテンツの優先度の引き下げとアカウント停止処分」である。すでに多くのSNSプラットフォーム事業者が実施している。この方法には、本当にコンテンツを正しく評価して判断できるのかという根本的な問題がある。日本では、差別的な発言を行ったツイートを引用し、「このような発言は許せない」とツイートしたアカウントが停止され、元の差別発言を行ったアカウントは停止されないといった事件も起きている。要するに全くちゃんと運用できていない。

■SNS事業者による対策は事態改善に役立っていない

米国の非営利メディア団体・ナイト財団が2018年10月4日に公開した研究報告『ツイッター上の虚偽情報、フェイクニュースそして影響作戦（Disinformation, ‘Fake News’ and Influence CampAIgns on Twitter）』によると、ツイッター社のアカウント停止などの措置にもかかわらず、アメリカ大統領選挙後も多数のボットもしくは自動運用アカウントが活動を続けていた。

「ロシアに関係している」と名指しされたアカウント2700件のうち、65件がこの調査に含まれていた（多くのアカウントは影響が少ないため対象とならなかった）が、それ以外にも多数のロシアにつながるアカウントが発見された。これらのアカウントはノーマークということだ。

また、フェイスブックはアジアの一部の国においてフェイクニュースとヘイトの温床になっており、対策を講じているものの完全に後手に回っており効果はあまり現れていない。

つまり今のところ、SNS事業者による対策は事態の改善に役立っていないと考えられる。

■現状のAIによる自動判別は論理的に破綻

最近、AI（人工知能）を利用したフェイクニュースの自動判別システムが発表されている。

ミシガン大学が発表した『フェイクニュース自動判別（Automatic Detection of Fake News）』システム（2017年8月23日、Verónica Pérez-Rosas, Bennett Kleinberg, Alexandra Lefevre, Rada Mihalcea, Computer Science and Engineering, University of Michigan, Department of Psychology, University of Amsterdam）が直近で注目を浴びているものであり、最大76％の的中率を誇っている。ただし、これは一定の条件下での話である。この方法には3つの重要な特徴がある。

第一の特徴は、フェイクニュースを3つのパターンに分けて、そのうち意図的なねつ造を対象にしていることだ。前述したようにそれが意図的なねつ造であるかどうかは読み手にはわからない。

第二の特徴は、言語解析を用いた分析でThe Toronto Starとニューヨークタイムズを正しいニュースのモデルにしている点だ。しかし、ニューヨークタイムズは2003年に「ジェイソン・ブレア事件」を起こしている。

同誌の記者ジェイソン・ブレアは盗用やねつ造を繰り返しており、執筆した73本の記事の半分近くに問題が見つかった。また、シンガポールでは2018年3月に「シンガポール初代首相のリー・クアンユーが死亡した」という噂を学生が流し、それらしい写真をねつ造したところ、CNNが信用してニュースにする事件が起きた。つまり大手メディアだからといって正しいとは限らない。

■大手メディア自身も発信源になってしまう

そもそも『ロシアのトロールのメッセージを世界のメディアと有名人が拡散する（Russian Trolls Duped Global Media And Nearly 40 Celebrities）』（2017年11月4日、NBC）によれば、ロシアのフェイクニュースを世界の3000メディアが取り上げて拡散していたのだから、大手メディアだからといって信頼できない。

もちろん、大手メディアの記事で信頼できるものに限定すればいいのかもしれないが、それがフェイクニュースであったことは時間が経ってから明らかになったのである。その時点の判別基準がすぐに覆る可能性もある。

第三の特徴は、信頼できる大手メディアの文体や文章のくせ（句読点の使い方など）を参照していることだ。第二の特徴で指摘したように大手メディア自身もフェイクニュースの発信源になる以上、これもあてにはならない。

要するに、現状の方法論には無理がある。

■ファクトチェックは決め手にはならない

『自律航法 フェイクニュース後のコンテンツナビゲーションのあり方』レポートは最終的には前向きな結論を導いているものの、当面はかなり厳しい局面が続くと指摘していた。さらに悲観的になりそうな論文がその後発表された。

MITメディアラボがツイッター社の協力を得て、過去の全てのツイートを対象（アカウントが停止、削除されたツイート、削除されたツイートなどを含む全量）に調査した結果だ。『事実報道とフェイクニュースの拡散（The spread of true and false news online）』（2018年3月9日、Soroush Vosoughi, Deb Roy, Sinan Aral, Massachusetts Institute of Technology（MIT）, the Media Lab）では、ウソと真実の情報の伝播速度や範囲などが比較研究されている。

この研究では、6つのファクトチェックサイトで真偽判定を受けた事実とウソの情報をピックアップし、それぞれがどのように拡散していったかを比較している。

■「驚き」と「嫌悪」を誘発するウソが拡散

「ウソは事実よりも速く広く拡散する」という結果は、一部では衝撃的に受け止められた。これまで何度も「フェイクニュースに比べて、その検証記事は10分の1程度しか拡散されない」といった話は経験則として語られてきた。それがデータによって現実はさらにひどいことが確認された。事実が伝播するのは1000人程度であるのに比べ、ウソは多い時は10万人まで拡散する。拡散力において100倍、拡散速度は20倍である。もっともよく取り上げられるテーマは政治でずば抜けて多く、その伝播速度も速い。

拡散しやすいウソに対する感情は、「驚き」と「嫌悪」が多い。論文では「それまで知らなかった新しいことについてのウソに反応しやすい」としている。しかし単純に、ネット上でヘイトスピーチを繰り返す人々を見る限り、「それまで知らなかった新しいこと」よりは、単純に既知の憎悪の対象に対する新しい嫌悪感をもよおすウソに反応しているように思える。このへんの解釈はバリエーションがありそうだ。

この調査ではボットの与える影響については否定的で、インフルエンサーの影響も認められなかったとしている。普通の人が拡散していることになるが、トロールやサイボーグが使われている可能性は残る。サイボーグとはシステムの支援によって高速、効率的に人間が運用しているアカウントである。

論文の結果を素直に受け取ると、選挙のように日程が決まっている場合、事実が拡散する前にウソを充分拡散させ選挙結果に影響を与えることが可能だ。フェイクニュースに対して、事実検証と拡散に時間がかかり伝播範囲も限定的なファクトチェックは全く無力となる。最悪、選挙が終わってから「ウソでした」とわかる。つまり、日程の決まっているイベントに対してフェイクニュースを計画的に流布させた場合、少なくとも事実を知らせることは対抗手段にならない。必要なことだと思うが、解決にはなんの役にも立たない。そして、世の中のほとんどのことは日程が決まっている。特に政治はそうだ。

■ファクトチェック組織への信用も揺らいでいく

フランス政府機関の『情報操作 デモクラシーへの挑戦（INFORMATION MANIPULATION A Challenge for Our Democracies）』（2018年8月）によれば、ファクトチェックでは、すでにある信念に反していると逆効果になる場合があること、読まれないことも多いこと、ファクトチェックが市場になりつつあり商業目的のものが出てきていることなどの問題があげられている。

問題の中には、ロシアのプロパガンダメディアであるRTがファクトチェックプログラムを開始したことも取り上げられており、こうしたファクトチェック組織が増えるとどこを信用してよいのかわからなくなる。結論として、ファクトチェックは必要だが、それだけでは有効な対策とはならないため補完するものと組み合わせなければならないとしている。

----------

一田和樹（いちだ・かずき）

東京生まれ。経営コンサルタント会社社長、IT企業の常務取締役などを歴任後、2006年に退任。09年1月より小説の執筆を始める。10年、長編サイバーセキュリティミステリ「檻の中の少女」で島田荘司選第3回ばらのまち福山ミステリー文学新人賞を受賞し、デビュー。サイバーミステリを中心に執筆。

----------

（一田 和樹 写真＝iStock.com）