アルゴリズムで全自動かと思いきや。

Googleの検索アルゴリズムは、現代において強大な力を持っています。アルゴリズムがほんのちょっと変わるだけでも、ユーザーが目にする情報は変化し、購買行動が影響を受け、企業の業績がぐらつきます。Google公式ブログにあるように、彼らは今まで｢ページ上の検索結果を収集したり、並べ替えたりするために人の手によるキュレーションをしていない｣というスタンスを貫いてきました。でもWall Street Journal（以下WSJ）の調査で、Googleは彼らが認めている以上に検索結果に介入していることが発覚しました。

WSJのレポートは詳細で、ものすごいボリュームです。100人以上に対するインタビューと、BingやDuckDuckGoといった他社サービスとの検索結果の比較に裏付けられていて、その手法についてはこちらに開示されています。結論を短くいうと、最近のGoogleは｢アルゴリズムが一番わかってるんだから｣という手放しのカルチャーから、より積極的に情報の見え方を決める方向へシフトしたようです。この記事によると、Googleが検索アルゴリズムに加えた修正は2018年には3,200件あり、2017年のそれは2,400件、2010年には500件と、この数年でかなりの変化があったことがわかります。

検索の複数のステップに、人間の意図

WSJの記事の中で、がっくりだけどまあそうなんでしょうねと思ったのは、Googleが小規模なビジネスよりもAmazonとかFacebookといったビッグビジネスを優遇すべくアルゴリズムを調整しているらしいことです。WSJいわく、2014年にGoogleからeBayに流れるトラフィックが3分の2に激減したときには、GoogleがeBayからのリクエストに応える形でトラフィック回復のためのアドバイスをしていたそうです。他にも、Googleは検索アルゴリズム変更時に一部の大手広告主や広告代理店に対してのみ直々に解説しているとか、特定の大手Webサイトに配慮してランキングを調整しているという証言が並んでいます。

WSJはまた、Googleが検索でのブラックリスト利用を否定してきたにもかかわらず、実際は使っていることも指摘しています。ここで言うブラックリストとは、児童虐待とか著作権侵害に関連して法律で決められているのとは別もので、特定のWebサイトを検索結果から排除したり、表示されにくくしたりするためのものです。またGoogleは、移民や妊娠中絶といったトピックについて｢賛否のある｣結果を見せないようなアルゴリズムやブラックリストをエンジニアに作らせているそうです。

さらにGoogleのエンジニアは、オートコンプリート機能や｢ナレッジパネル｣（有名な人とか物とかについて検索したときに検索結果の右側に出てくる、情報まとめ的なパネル）、｢フィーチャードスニペット｣（検索ワードの疑問に端的に答えるような文章の抜粋）、ニュース検索結果などに出てくる内容もつねにいじっているそうです。これらの機能はオーガニック検索とは別と考えられていることから、人手の介入について検索と別基準で運用されており、要はGoogleが手を出しやすい状態になっているんです。たとえば検索ボックスに｢ドナルド・トランプ｣と入力したとき、次に入力するキーワードとして｢大統領｣とサジェストされるか｢差別主義者｣とサジェストされるか、人為的に調整されているということです。

またこれはちょっと推測が入りますが、Googleは検索結果にフィードバックするデータ作りにもバイアスをかけていた可能性があります。WSJによれば、Googleは無数の下請け業者を使って検索結果に表示されるページを｢質｣｢評判｣｢利便性｣といったさまざまな指標で評価させ、アルゴリズム変更に役立てています。本来そのデータは作業者がGoogleの詳細なガイドに基づきつつ細かく判断して作っていくはずですが、WSJに証言した人物によれば、あるとき｢自殺関係の検索では、自殺防止ホットラインへのリンクを最上位にするように｣というお達しがありました。Googleが自殺防止ホットラインを上位表示させたければアルゴリズム側で強制的にその処理を入れることも可能だったはずですが、データ側を操作することでランキングを調整した、らしいのです。

その人物いわく、Googleは｢（ホットラインを最上位表示させるという）Googleの判断があったわけではないと言える状況を作るために、作業者に検索上のコンテンツを変えさせたように見えた｣そうです。自殺防止関連だけでなく、2016年の米国大統領選挙の時期にもデータ作りに通常以上に関わってきたようです。

原則との矛盾

ここまで、ビッグビジネス優遇疑惑、ブラックリストでの検索結果操作、オートコンプリートやナレッジパネルといった検索周辺機能への人手介入、データを使った検索結果の誘導…といろんな話が出てきました。で、何が問題かって、これらはGoogleがつねに主張してきた｢人間はアルゴリズムに介入しない｣という原則と食い違ってしまうんです。

そしてややこしいのは、現状の検索結果にまったく手を加えないのもたしかに良くなくて、どうにかしろよという圧力も高まっていることです。たとえば2017年には、｢rehab｣（リハビリ施設、多くは薬物依存患者更生施設を指す）の検索結果の上位にあやしげな会社がいくつも表示されてしまうことが問題になりました。そこで業界関係者がGoogleに働きかけた結果、今では同じ検索ワードに対し米国薬物乱用・精神衛生管理庁のホットラインといった王道的なリンクが表示されるようになっています。他にも、｢lesbienne｣（レズビアン）で検索するとやたらポルノチックだったり、ホロコーストの存在そのものを否認するページにリンクしていたりといった問題がありましたが、それぞれ修正されています。

Googleが検索結果に介入することはすごく危険になりうるものの（ビジネス的・政治的圧力で検索結果が変わったらたまりません）、こういう社会的な意義があるなら、別にこそこそやらなくたっていいじゃんという気がします。ただ問題は、Googleが検索結果への介入をどういう頻度でどういう条件でやっているのか、口を閉ざしていることです。彼らの理屈は、プロセスについて情報開示すればするほど、｢システムをもてあそぶ｣悪意のプレイヤーに手の内を見せることになる、というものです。

Googleは外圧で検索結果を修正する場合でも、圧力をかけた側にそのことを報告したりしません。Googleが｢あめ色玉ねぎ作りにかかる時間｣を間違って表示していることを指摘する記事が出たとき、その情報は記事公開後間もなくひっそりと修正されていました。

Googleの反論

Google側にも言い分はあります。まずブラックリストに関しては、米GizmodoがGoogleの広報に確認したところ、｢使ってないと言ったのは、政治的な理由のブラックリストがあるかどうかという限定的な質問に対して否定しただけ｣だったそうです。また大企業優遇に関しては、検索アルゴリズムは単にキーワードと関連が高いページだけでなく｢権威ある｣ページを上位にランクさせるようにできている、とのこと。またアルゴリズムに反映させるデータの作成作業者には詳細なガイドラインを与え、データの一貫性保持に努めていると言います。現在170ページ近くに及ぶガイドラインは、一般にも公開されています。

｢この記事で書かれたトピックに関して、我々は非常に公に、透明であり続けました。たとえば検索の評価者ガイドラインも、オートコンプリートのような機能や法にのっとった削除に関するポリシーも、Project Owlでの虚偽情報対策も、検索を修正する場合にその目的はユーザーのメリットを高めることにあって、ビジネス的な関係ではないという事実もです｣Googleの広報担当者はメールで言っています。｢この記事には古く不完全な逸話が複数入っていて、その多くは我々が今行っているプロセスより前の話であるだけでなく、我々の検索の構築・改善に対するアプローチに関してきわめて不正確な印象を与えています。我々は変更に関し、責任ある一定の原則に基づいたアプローチをとっており、何らかの変更を公開する前には徹底した評価プロセスを経ています。これは10年以上前に実施しはじめたことです。社会からのフィードバックを聞き入れることは検索の改善にとって非常に重要であり、私たちはフィードバックを歓迎し続けます。｣