多くの女性にとって、Twitterは「何か」に耐えながら使うものだ。とりわけジャーナリストや政治家といった著名な女性にとってはそうだろう。仕事に必要なのでアカウントをもっている女性も多いが、Twitterに参加することで彼女たちが攻撃や脅迫、嫌がらせの被害に遭うことは少なくない。

女性たちは、自分をメンションするツイートに対し、ブロック、ミュート、報告、無視といった対策をとることを学んでいく。なかには、ツイッターが女性への中傷問題に本格的な対策をとっていないように感じると、最高経営責任者（CEO）のジャック・ドーシーに向けて直にツイートする女性もいる。しかし、ドーシーがそのようなツイートに対して直接回答することは、めったにない。

「人権問題」としてのツイッターでの中傷

国際人権団体のアムネスティ・インターナショナルは、女性に対するインターネット上の中傷を人権問題としてとらえている。

アムネスティはツイッターに対し、「女性やその他のグループに対する暴力および中傷行為に関して寄せられた報告の内容と、それに対する同社の対応に関する有意義な情報」を公開するよう繰り返し要求した。しかし、ツイッター側はそれに応じることを拒否したという。

そこでアムネスティは、カナダの人工知能（AI）ソフトウェア開発企業・エレメントAI（Element AI）と共同で、クラウドソーシングによる独自の調査を行った。Twitterにおける女性に対するハラスメントを調べたその調査の結果は、2018年12月18日に立ち上げられたインタラクティヴサイトで公表された。

アムネスティで戦略研究のシニアアドヴァイザーを務めるミレナ・マリンは、声明のなかで次のように述べている。

「われわれはクラウドソーシングによって、女性に対するネット上の侮辱行為についての世界最大のデータセットを構築しました。『Twitterでは人種差別や女性蔑視、同性愛嫌悪がほぼ野放しの状態で蔓延している』という女性たちの長年の訴えを裏づけるデータが手に入ったのです」

ツイートの7.1パーセントが「侮辱的」「問題あり」

「トロール（荒らし）・パトロール」と名付けられた今回の調査は、米国および英国の女性ジャーナリストと女性政治家の計778名を対象にしたものだ。

2017年に調査対象者に向けて投稿されたツイートを調べると、7.1パーセントが「侮辱的（abusive）」あるいは「問題あり（problematic）」と判断されるものだったという。ジャーナリストと政治家を比較した場合、侮辱的なツイートの数はほぼ同等の割合で、政治的に右派寄りであるか左派寄りであるかを問わず標的になっていた。

またこの調査では、非白人女性は白人女性に比べ、嫌がらせ行為の標的となる可能性が34パーセント高いこともわかった。最も多く嫌がらせ行為の標的になっていたのは黒人女性で、向けられたツイートの10件に1件が「侮辱的」あるいは「問題あり」だった。白人女性の場合この割合は15件のうち1件だったという（詳細は後述する）。

「中傷は政治的信条にかかわらず女性を標的としているものの、非白人の女性は中傷を受ける可能性がはるかに高く、なかでも黒人女性はとりわけ標的とされやすいことが判明しました。ツイッターがこの問題に断固たる措置を講じていないというのは、同社がすでに社会の隅に追いやられている人々の声をさらに抑え込む行為に加担していることを意味します」とマリンは述べている。

これに対し、ツイッターで法務・方針・信用・安全の責任者を務めるヴィジャヤ・ガッデは以下のように回答した。

「侮辱発言、悪意をもって自動化された操作、不正操作などはTwitterの健全性を損ねるものです。ツイッターは、この問題の改善に向けて社会的責任をもって尽力しております」。この回答の内容は『WIRED』US版が、アムネスティから提供されたものである。

ツイートでの「侮辱」「問題がある」の定義とは

今回の「トロール・パトロール」は、クラウドソーシングと機械学習を組み合わせて行われた。150カ国6,500名以上のヴォランティアの力を借り、アムネスティは2017年の1年間に調査対象の女性778名に向けられたツイート約1,450万件のうち、28万8,000件を分類した。

この分類に際してヴォランティアたちは、あらかじめ「侮辱ツイート」や「問題のあるツイート」を見分けるトレーニングを受けたという。「侮辱ツイート」とは、人種や性別といった特徴を基に調査対象者に対する暴力を助長したり、脅迫を行うようなツイートを指す。これはTwitterの利用規則にも違反している。

「問題のあるツイート」は、ネガティヴな固定観念など「有害または悪意あるコンテンツ」であるものの、「侮辱ツイートとは必ずしも判定されない」ツイートを指すとアムネスティが定義した。またヴォランティアたちの作業とは別に、ツイート1,000件の小規模なサンプルについて、3名の専門家が分析を行った。

その後エレメントAIは、専門家とクラウドソーシングから収集したデータをもとに、調査対象である778名の女性がTwitter全体で受けた中傷発言の数を推定した。その結果、対象者がメンションされた約1,450万件のツイートのうち、約110万件が中傷ツイートまたは問題のあるツイートであったと推定された。つまり、こうしたツイートは30秒に1回の頻度で投稿されていた計算になる。

人種や政治的立場によって大きな差も

トロール・パトロールの調査結果で最も目を引くのは、人種別の分析結果だ。

対象となったジャーナリストと政治家の女性778名のなかで、黒人女性は白人女性に比べて侮辱ツイートの標的となる可能性が84パーセント高く、問題のあるツイートの対象となる可能性は60パーセント高かった。

アジア人女性については、民族的・人種的・宗教的な侮辱を含む脅迫を受ける割合が最も高かった。ラテンアメリカ系の女性は、白人女性よりも侮辱ツイートや問題のあるツイートを受ける割合がわずかに少なかったが、中傷の内容が身体的脅迫や具体的な脅迫である可能性が81パーセント高かったという（調査方法に関する詳細な解説はこちらを参照してほしい）。

また、この調査では英米両国において、左派寄りの政治家は右派寄りの政党に所属する政治家に比べて、侮辱ツイートや問題のあるツイートを受ける可能性が23パーセント高いという結果も出た。

しかしジャーナリストについては、逆の傾向が見られた。「『デイリーメール』や『ザ・サン』『ブライトバート』といった右派寄りのメディアで働くジャーナリストは、『ニューヨーク・タイムズ』や『ガーディアン』といった左派寄りの組織で働くジャーナリストよりも侮辱ツイートや問題のあるツイートでメンションされる頻度が64パーセント高かった」と、調査報告には書かれている。

忘れてはいけない「注記」

もちろん、この調査はインターネット上で女性が直面する嫌がらせ全体の縮図とは言えない。

報告では、この結果が調査対象となったグループの女性たちにのみ当てはまるものであり、「ほかの職業や国、あるいはより広範囲にわたる集団を対象とすれば、異なる結果が出る可能性が高い」ことが注記されている。

またこの調査では、一般に公開されている情報に基づいて対象者の人種を分類しているが、報告のなかでは、これが「粗い」分類方法であり「必ずしも、対象者それぞれが自覚する人種を反映したものではない」ことを認めている。

これは支持政党にもいえることだ。調査では、政治家については所属政党を基にしており、ジャーナリストについては、働いている報道機関の「メディアバイアス格付け」［編注：各メディアの政治的偏向の格付け］に基づいている。

さらにこの調査に使われたのは、2018年3月にプラットフォームからダウンロード可能であったTwitterの公開データだ。つまり、トロール・パトロールがTwitterの「Firehose」［編注：Twitterの公開ツイートの全データをリアルタイムでストリーミングできるサーヴィス］でデータを吸い上げた日よりも前に削除されたり、中傷ツイートと判定されたりしたツイートは、どれも分析には含まれなかったということになる。

このため報告でも述べられているように、実際の中傷ツイートの割合は調査結果よりも高かっただろうと考えられる。

削除対象ではない投稿も「問題あり」とした理由

ツイッターのガッデは「問題をはらむ」ツイートのアムネスティによる定義方法について、前述の回答のなかで次のように異論を唱えている。

「表現の自由を守りつつ明確かつ綿密なポリシーを設けることの必要性を踏まえたうえで、この調査で用いられた『問題のあるツイート』の定義方法について、さらなる議論が行われることを期待します」

アムネスティも調査報告のなかで「問題をはらむツイートのなかには、正当な発言として有効であるとみなされ、必ずしもプラットフォームからの削除の対象とならないものもある」ことを認めている。

ただし「アムネスティが問題をはらむツイートを対象に含んだのは、Twitterにおいてさまざまな形態の毒性が、広範かつ根深く存在することを強調し、問題をはらむコンテンツが積み重なることによって、Twitterのプラットフォーム上で女性たちが自由に意見を発する力に影響を及ぼすことがあることを認識するのが重要だからだ」とも添えられている。

AIによるコンテンツモデレーションの力と限界

極めて明白なことは、Twitter上では女性に対する中傷が途方もなく多いということだ。

この1年間、ツイッターは自社のプラットフォームの健全性向上を約束してきた。しかし現時点ではその取り組みの進度はまばらだ。アムネスティは、Twitterなどのソーシャルメディアが、今回得られたデータを女性を守るための有効なツール開発に役立ててくれればと考えている。

この調査の目的は、女性たちの長年の訴えを裏付ける確かなデータを示すことだけではない。もうひとつの目的は、インターネット上のコンテンツモデレーション［編注：インターネット上のコンテンツを監視し、不適切なコンテンツを削除するなどして適正化すること］におけるAIの力と限界を実証することにあった。

調査結果を公表した12月18日、アムネスティとエレメントAIは機械学習ツールの発表も行っている。このツールは中傷ツイートの自動識別を試みるために開発されたものであり、プロジェクトに用いられたデータを元にトレーニングが施されている。

研究者たちによると、この自動化されたコンテンツモデレーションツールはかなり有効に機能するというが、それでも完璧とは言えない。

「この精度は、専門家による判定のおよそ50パーセントだ。つまり、専門家が14件につき1件を侮辱ツイートまたは問題のあるツイートとして識別するのに対し、このツールは14件につき2件のツイートを侮辱あるいは問題ありと判断してしまう」と報告書にはある。

このようなAIによる過度修正の傾向は、たとえ最先端の自動化されたモデレーションツールを使用したとしても、検閲につながるリスクが内在するということを示している。

「アムネスティ・インターナショナルとエレメントAIは、機械学習を用いてインターネット上での女性に対する中傷の検出を行ったが、この経験は、何をもって中傷にあたるとみなすかという判断をアルゴリズムに委ねるリスクを強調するものとなった」と結論付けられている。

自動化は有用ではあるものの、Twitterのようなプラットフォームの場合、必ず併せて人間が再検討を行うことを推奨しており、同時に透明性が重要であるとアムネスティは強調している。

ツイッターに望まれるさらなる改善

ツイッターのガッデは12月12日付の回答のなかで「Twitterのルールに基づき講じる対応策について、より多くの情報を皆様に提供できますよう、『透明性に関するレポート』の内容をさらに充実させることに引き続き努めてまいります。このレポートに含むべき内容について、アムネスティからフィードバックをいただいたことに感謝いたします」と記している。

その回答が送られたのと同日にツイッターが公表した最新の「透明性に関するレポート」には、プラットフォームに関するルールの実施状況を盛り込んだ新たな項が設けられている。しかし依然として、アムネスティが求めている情報のすべてを網羅しているわけではなく、これについてはツイッター側も認めている。

ガッデはアムネスティに対し、「Twitterはアカウント所有者からデータを収集していないため、詳細な分析を提供することはできませんが、今後さらに多くのデータを共有し、広く開かれた議論にとって、より有用な情報を提供できるように努めてまいりたいと考えております」と述べている。

この問題については、これまで多くの人々が認識しつつも、定量化することができていなかった。アムネスティがクラウドソーシングによって構築した今回のデータは、現在公表されているものとしては、この問題の実態を最も明確にとらえたものだと言える。