ここ数年、YouTubeが動画のモデレーションに奮闘していた［日本語版記事］のは明らかだ。彼らはこれまで、子ども向けコンテンツを含むさまざまなジャンルにおいて、不適切・不快な内容の動画を削除できなかったという不祥事に直面している。

話はユーチューブという企業の問題からそれることもあったが、ときには同社の社員がポルノや暴力的な内容の動画を直に削除し、さらには請負業者が人工知能（AI）に不快なコンテンツを検出させるトレーニングを行うなどして対応してきた。そんな機械学習の一部が、実はクラウドソーシングマーケットプレイス「Amazon Mechanical Turk（アマゾン・メカニカル・ターク）」に並ぶタスクを見れば、垣間見えてくる。

メカニカル・タークは、企業や学術研究者などが、アマゾンのマーケットプレイスを介して個人に作業を依頼できるシステムだ。メカニカル・タークのワーカーは、たった1ドル以下の支払いと引き換えに、「ヒューマン・インテリジェンス・タスク」と呼ばれる極めて単純な仕事を引き受ける。作業内容は写真の識別や音声録音の書き起こし、アルゴリズムのトレーニングなどだ。

ワーカーはモデレーションの直接的な決定権をもっていないが、さまざまな角度から定期的にYouTubeの機械学習ツールをトレーニングする。トレーニングされたツールは、単に不適切な動画を検出するだけでなく、動画を薦めるアルゴリズムのような別のYouTubeのシステムにも影響を及ぼすという。

「ユーチューブとグーグルは何年もの間、メカニカル・タークにモデレーションのタスクを掲載していました」と、ワーカーのひとりであるロシェル・ラプランテは語る。彼女はわたしたちに、メカニカル・タークで依頼されたという業務を見せてくれた。

「作業のなかには、コンテンツタイプのタグ付けやアダルトコンテンツの検出、陰謀説系のコンテンツに対するフラグ付けなどがあります。ほかにもタイトルが適切であるかどうかの確認や、動画とタイトルがマッチする場合のマーク付け、VEVOアカウントからの動画検出など、さまざまです」と彼女は言う。

ラプランテによると、常にタスクやガイドラインは変更されるという。そこには直接的で不快なコンテンツの検出に関連する内容であったり、子ども向けのような特定の視聴者にフォーカスしたものの判断の仕方なども記されている。「ワーカーのなかには、収益化されるべき動画なのか削除されるべき動画なのかを判断するタスクそのものだ、と言う声もあります」と、ラプランテは語る。

機械学習を訓練するのは、人間の解釈

ラプランテは、3月14日に10セント（約1円）で作業を行ったモデレーションタスクを見せてくれた。内容は極めて簡単で、メカニカル・タークのワーカーに判断の余地を残すものだ。

それは、動画に対する人間の解釈が今後どのように機械学習のアルゴリズムを形成するか、といった曖昧なプロセスの作業である。機械学習のアルゴリズムは動画をフラグ付けするだけであって、YouTubeのコミュニティガイドラインを脅かすものであるか否かの判断は、人間の仕事になる。

ワーカーは動画を視聴し、チェック欄に記載された内容と照らし合わせてマーク付けをする。また、ヴィデオのタイトルと説明文にも注意を払わなければならない。「理解するまで動画を視聴する」ことで正確な判断を行い、迅速なプロセスのために動画は1.5倍の速さで見ることを薦められている。

質問事項には、動画に「下品な言葉」や「アダルトな内容」、または「攻撃的や物議を醸す内容」などがあるかを確認する欄もある。ワーカーは、芸術的なヌードと「性欲を満たす」ためのものの違いを区別しなければならない。

なかでもとりわけ曖昧なのは、例えば「ドラッグ使用の写実的な描写（実在またはフィクション）」と「ソフトドラッグの偶発的または冗談めいた使用」の違いを区別するような場合だ。タスクに、ハードまたはソフトドラッグのリストは含まれていないが、「ハードドラッグ」のなかにヘロインが含まれていることは示されている。結局、子どもにとってその動画が適切な内容かどうかを、メカニカル・タークのワーカーが判断することになるのだ。

米国の最低賃金である時給7.25ドルを満たそうとすると、ワーカーは1時間以内にこのようなタスクを72.5回もこなす必要がある。さらに素早く判断を下せる者には、奨励金も出る。

YouTubeが求める判断には、単刀直入なもの（音にスピーチまたは歌は入っていますか？など）もあるが、ほとんどが判断が難しいものだ。そして世界的な巨大動画プラットフォームの仕分け作業をAIに任せるトレーニングが、極めて複雑であることを強調している。普通のネコの動画のタスクを依頼され、足をすくわれることはまずなくとも、中絶に関する政治的な暴言となると話は違う。

ラプランテが携わったタスクが、どのような目的を意味するのか確かではない。とりわけコンテンツモデレーション、またはほかの機能で使用されるのかもしれない。

この件に関して、ユーチューブはコメントを控えている。タスクに記載されていた動画のリンクを開こうとすると、「ご利用できません」と書かれたページに転送された。

この動画は2016年9月から18年3月の間、Internet ArchiveのWayback Machineを使って56回も閲覧されており、最初のほうのスクリーンショットでさえも、動画は「存在しない」とされている。ラプランテ自身もこの動画については覚えがないという。

「いままで見た動画で、特別に覚えているものはありません。個人がアップしたもの、テレビや映画のクリップ、広告、ヴィデオゲームなどさまざまなものがあります。特定のジャンルやタイプの動画に限られているわけではないんです」と彼女は語った。

まだまだ人間の力は必要

昨年12月、ユーチューブは2018年にモデレーターの数を1万人に増員すると約束した。メカニカル・タークのワーカーは、その数には入っていない。彼らは完全にコンテンツモデレーションを行っているわけではなく、AIが将来的にモデレーションのプロセスを援助できるためのトレーニングをしているのだ。

「もし彼らが、メカニカル・タークを使って機械学習のアルゴリズムをトレーニングしているだけだとしても、そのいくつかのトレーニングは、アルゴリズムがそこまで人間の手を借りることなくモデレーションできるようになるためのものだと思っています」と、ラプランテは語る。「メカニカル・タークでリアルタイムにモデレーションを行っているわけではありませんが、コンテンツモデレーションを自動化するシステムをトレーニングしているという意味では、彼らに貢献していると言えるでしょう」

カリフォルニア大学ロサンゼルス校（UCLA）大学院の教育・情報学部でコンテンツモデレーションを研究するサラ・T・ロバーツは、アルゴリズムのトレーニングのような「二次的・三次的な活動」を完了するためにメカニカル・タークのようなサイトを利用するのは、YouTubeのようなプラットフォームにとって普通のことになったと語る。「それはもっと問題になってきています。マイクロワークのサイトで長年の経験を積んだ人々は、そうしたのを見分けられる洗練された目をもっていますから」

YouTubeは、ラプランテやほかのメカニカル・タークのワーカーがトレーニングしてくれたAIツールを、切実に必要としている。このプラットフォームは過去何カ月かに繰り返し失態を犯しているのだ。

今年だけでも、人気YouTuberのひとりが自殺者の遺体を撮影した動画をアップした問題に直面。さらには、フロリダ州パークランドの銃乱射事件の犠牲者に関する陰謀説を許したとして批判された。また世論の圧力があるまで、殺人などと関連のある白人至上主義団体の投稿を禁止できなかったことなどが挙げられる。

YouTubeによると、アルゴリズムはすでに98パーセントの割合で、暴力的や過激な内容の動画を検出している。しかし、同社によればこれらの動画はまだ人間のモデレーターによって確認されている。

将来的にはAIが、コンテンツモデレーションの多くを受け継ぐことになるだろう。だが、残すべきコンテンツとそうでないものを判断できるほど、まだAlは賢くはないのだ。

現場レヴェルで見ると、その理由は明白である。YouTubeのAIテクノロジーは、メカニカル・タークのワーカーが微々たる金額で素早く下す決断と同等であると言える。人間による判断の再現は簡単なことではない。

細心の注意をもってつくられたアルゴリズムでも、結局は人間によるものである。それが常に中立で公平であるとは限らない。しかも、薄給をもらって動画を1.5倍速で視聴した結果が反映されているのだから。

[ ユーチューブ／YouTubeに関する記事一覧 ]