ソーシャルメディアやネット検索サービスのアルゴリズム（プログラム）によって、ユーザーは自分の好みの情報にばかり接するようになり、視野がどんどん狭まっていく――。

情報のフィルターのバブル（泡）の中に閉じ込められてしまう「フィルターバブル」の問題について、科学誌「サイエンス」に興味深い論文が発表された。

By Chris Bastian (CC BY-ＮＤ 2.0)

論文によれば、「フィルターバブル」は、ソーシャルメディアのアルゴリズムよりも、むしろそのユーザーの人間関係と本人の志向に大きく起因するのだという。

注目を集めたのは、その論文の３人の執筆者たち。いずれもフェイスブックの研究者だったのだ。

「フィルターバブル」の提唱者で、バイラルメディア「アップワージー」共同創業者のイーライ・パリサーさんも、「そもそもこの研究には再現性がない」と疑問の声を上げている。

●サイエンスの論文

フェイスブックの論文と言うと、まず思い浮かぶのは、ほぼ１年前、同社のデータサイエンティストが「米科学アカデミー紀要（ＰＮＡＳ）」に発表して騒動となった論文「ソーシャルネットワークを通じた大規模情動（感情）伝染の実験的証明」だ。

「フェイスブックがユーザー６８９，００３人の感情をコントロールする」でも紹介したが、この実験では、フェイスブックによるアルゴリズム操作が、「感情コントロール」だとして大きな批判を浴びた。

今回の論文は、５月７日付で「サイエンス」のオンライン版に公開されている。

フェイスブックのイータン・バクシーさん、ソロモン・メッシングさん、ラダ・アダミックさんの３人が執筆者となっている論文のタイトルは「フェイスブックにおけるイデオロギー的多様性のあるニュースとオピニオンへの接触」。

調査の対象となったのは、米国のフェイスブックユーザーのうち、イデオロギー的立場を表明している１０１０万人。

２０１４年７月から２０１５年１月までの半年間にユーザー間でシェアされたリンクから、２２万６０００件のハード（硬派）ニュースを選び、実際のリンクの流通（シェア数３８億、表示回数９億、クリック数５９００万）を分析した。

論文では、リベラルと保守、それぞれのユーザーが、自身の立場とは違う（リベラルには保守的立場の、保守にはリベラル的立場の）ニュースに接する割合を、（１）全体的な保守／リベラルのコンテンツ分布、（２）「友達」によるリンクの共有、（３）フェイスブックのアルゴリズムによって選ばれたリンクの、ユーザーのニュースフィードへの表示、（４）表示されたリンクに対する、ユーザーによるクリック、の４段階で計測した。

それによると、自身の立場と違うコンテンツの割合は、（１）の全体的な分布では、リベラルユーザーの場合は４５％、保守ユーザーは４０％。これが（２）の「友達」による共有の段階でぐっと絞り込まれ、リベラル２４％、保守３５％に。（３）のフェイスブックのアルゴリズムを経ると、リベラル２２％、保守３３％、とさらに絞り込まれる。そして（４）のユーザーによるクリックを見ると、リベラルでは２０％、保守は２９％となっている。

これらのデータから、立場の違うコンテンツへの接触は、（２）の「友達」選びと（４）のクリックするかどうかの自己判断が、大きく影響しているとして、論文はこう結論づけている。

我々は結論として、フェイスブックの平均的な文脈においては、アルゴリズムよりも個人の選択が、挑戦的な内容のコンテンツへの接触を制限していることを立証した。（中略）この研究によって、個人がデジタルのリアリティを反映した環境にあれば、ソーシャルメディアにおいてより多くの立場の違う言説に接するようになる、ということが分かった。

●「フィルターバブル」の提唱者

これに疑問の声を上げたのが、ベストセラー『閉じこもるインターネット――グーグル・パーソナライズ・民主主義（原題：フィルターバブル）』で「フィルターバブル」を提唱したイーライ・パリサーさんだ。

パリサーさんは論文が公開された７日、「フェイスブックの大規模な新研究は私のフィルターバブル理論を覆したのか？」と題して「メディアム」にブログ投稿した。

この中でパリサーさんは、今回の論文の結論について、こう指摘している。

これは大げさだと思う。確かにソーシャルメディアで極めて重要なのは、誰が友達か、ということだ。しかし、アルゴリズムによる絞り込み効果は、ユーザー自身が立場の違う意見を避ける傾向と、ほぼ同じぐらい強力だ、ということも事実だ。つまり、アルゴリズムも実際にはかなり大きな影響がある、ということが分かる。

さらに、こうも述べている。

結局のところ、どの研究を公表するかというのを決めるのはフェイスブックだ。個別の研究者が、この結果を再現しようとしても、フェイスブックの許可がなければ、それは不可能だ。

●研究者から疑問の声

ソーシャルメディアに詳しいノースカロライナ大学チャペルヒル校助教のゼイネップ・トゥフェッキさんも、７日付の「メディアム」への投稿「フェイスブックのアルゴリズムがコンテンツの多様性をいかに抑制し（控えめに言って）、ニュースフィードはあなたのクリックをいかに支配するのか」で、アルゴリズムと個人の選択の影響を別々にとらえて対比している点がそもそもおかしい、と指摘する。

リンゴとオレンジを比較するような、こんなひどい事例は近頃お目にかかったことがない。特に、このアルゴリズムによる抑制と個人の選択という二つの力学は、互いに相乗効果を持つのだから。

また、ソーシャルメディア研究者のネイサン・ユルゲンセンさんも、こう述べている。

重要なのは、（対立意見を避けたがるという）個人のバイアスを認めることに加えて、フェイスブックのニュースフィードのアルゴリズムが、そのフィルターバブルをさらに増幅し、後押ししているのを理解することだ。

ミシガン大学准教授のクリスチャン・サンドヴィグさんは７日付の自身のブログへの投稿「フェイスブックの〝それは私たちのせいじゃない〟研究」で、自分の政治的信条をフェイスブックのプロフィールで公言すること自体、かなりまれなことだとして、調査対象の選定方法に疑問を投げかけ、さらにこう述べている。

この研究がこんな建て付けになっていることの唯一の理由として考えられるのは、これがある種のアリバイ作りだということだ。フェイスブックはこう言っているんだ：これは私たちのせいじゃない！あなたたちもやってるんだ！

調査対象の選定の問題点は、ノースウェスタン大学教授のエズスター・ハーギッタイさんもやはり指摘。

論文の補足資料を見ると、政治的傾向を表明しているユーザーは全体の９％。研究に使える明確な態度表明になると、その割合は４％に落ち込み、さらに、週４日以上ログインしているアクティブユーザー、という条件を加えているので、さらにこのうち３割が脱落......と平均的なユーザーと比べ、かなり偏った調査対象が選ばれている、と述べる。

●個人とアルゴリズムの位置関係

かなりの突っ込みどころがある論文のようだ。

ただ、個人とアルゴリズムの位置関係を整理する、という意味ではいい頭の体操にはなる。

アルゴリズムの中身が詳しく説明されていたら、もっと関係者に喜ばれただろう。

(2015年5月9日「新聞紙学的」より転載)