この２〜３年、ネットの、特にメディアやプラットフォーム、広告に関わる世界は混乱状態がずっと続いていると言わざるをえない。例えば2014年はインフルエンサーマーケティングやブロガーマーケティングの界隈での「ステマ」騒動がもっとも騒がれた時期だし、続く2015年は「ノンクレジットタイアップ広告」なる広告表記（ディスクロージャー）のない”記事広告”が大きな話題となった。それ以前にも口コミマーケティングおける金銭・物品授受の問題などはWOMJなどで取り上げられていたし、いわゆるデジタルマーケティングやネット広告と呼ばれる世界において、どこどこのアドテク系ベンチャーが上場していくらの値がついただの、いくらいくらで買収されただの、あそこの会社はキラキラ系の美人社員が多いだの、華やかに見えるストーリーの裏側は、黒ないしはそこまでもいかないまでもグレーなビジネスが多数ある。もちろんまともなビジネスをしている人々のほうが多い。しかし、華やかな部分がとりあげられる一方で、業界の中には、

「違法ではないので」

という言葉で、倫理やフェアネスなきビジネスが横行している。（ネットにおける）そうしたビジネスの最たるものが「パクリ」に関するものだ。この「パクリ」に関して言えば、例えばそれはどこどこのロゴを「パクった」とか、コンテンツをそのまま「パクった」という単純で目に見えるものだけではなく、コードだとかビジネスモデルの「パクリ」もあれば、以前に書いたように他社が築いてきたマーケティングアセットについての「タダ乗り」という「パクリ」もある。このような倫理やフェアネスに欠けた行為が後を絶たない（そんな業界において、コンテンツ制作者や業界を作ってきた先人へのリスペクトなんてものを求めるのは、まぁ無理だろうと残念に思う）。

そして2016年末、キュレーションメディア事件が起きた。もっとも大きなものとしてはDeNAでそこが注目されがちだが、実際には多数の「メディア」*1がコンテンツの削除や閉鎖に追い込まれている。

かつてGoogleのエリック・シュミットは、「このままではネット上がゴミばかりになるだろう」と言ったことがある。爆発的に増えるネット上の情報について、ヘイトや憎悪、不確実な情報などが増えると危惧を表明していた。いわば今回のキュレーションメディア事件というのは、そうした「ゴミ」を企業の経済力によって量産していたということであり、エリックの危惧を悪しき形で実現してしまったということである。

ユーザーが自らの表現欲求の結果作ったコンテンツ、ないしは他のユーザーに共有したいと思ったTips、単なる日記的なものといった User-Generated Content（Consumer-Generated-Mediaは和製英語）においては、そもそもが素人の作った水準のコンテンツもあり、中には信頼性の低い情報も多数ある。しかし結果としてネットの情報は多様化した。そしてそれは情報流通の民主主義的革命を起こしたという点ですばらしい。ただ素人レベルの信頼性の低い情報を使ってのビジネスを、企業（特に今回は上場企業だった）が行っていいのか。信頼性の低い（ないしは信頼できない）コンテンツを量産し、それによって得られたトラフィックを広告収入に転換して経済的利益を得ようとしたところに今回の問題が存在する（ただしきっとここでまた、「法には触れてない」という話が入ってくるのだが）。

繰り返すが、今回の問題は「パクリ疑惑」からはじまったので「著作権」の問題ととらえられがちだが、実際にはビジネスについての「倫理とフェアネス」の問題だ。それが極端な「資本主義」*2によって、ケアされてなかったということにある。

そして本事件は、そうした企業の利益を求める「資本主義」が検索エンジンを負かしたということでもある。日本で「キュレーションメディア」と呼ばれるサイトが多数のコンテンツを量産し、そしてGoogleなどの検索結果の上位を占めることができるようになった理由は、クラウドソーシングを使って素人ライターを集めて、”剽窃・盗用”記事を多数準備できたからである。安い労働力を集めて生み出せた財を企業が享受していたわけだ。

ちなみに”剽窃”や盗用”と”著作権侵害”とは違いがあり、今回の件は前者だと考えている。この違いについては以下のリンクを参考にされたし。

Wikipedia:剽窃 - Wikipedia

関西大学経済学会による剽窃というものについての説明(pdf)

剽窃を避ける | 江口某の不如意研究室

特に上記のうち、京都女子大学の江口聡教授の説明は、インディアナ大学の Plagiarism: What It is and How to Reecognize and Avoid It を引用して剽窃について丁寧に説明をされている。

さて今回の事件では、上場企業が運営するキュレーションメディアが、クラウドソーシングや素人ライターによって大量生産された剽窃記事で溢れかえっていたことが衝撃的な事実として語れているがそれは本質ではない。ことの本質は（前述したように）それら大量生産された記事が、Googleの検索結果上位を占めてしまっていたことにある。

事の発端がとある有名SEOコンサルタントだったことから、一部のしかも「まともな」SEO業界の人々の中では気づいていた人もいるはずだが、今回の件ではいわゆるGoogleの検索アルゴリズムに対して従来の「ブラックハット」的な手法で”cheat”し、検索結果の上位を獲得したわけではない。むしろ、Google公式の「ウェブマスターガイドライン」を忠実かつ極端に実施してたことによって上位を占めることに成功していたということにある。

ferret-plus.com

※以下Googleの”公式”なガイドライン

ウェブマスター向けガイドライン（品質に関するガイドライン） - Search Console ヘルプ

すでに以下のようなNaverまとめも出てきているが*3、今回キュレーションメディア側が行ったSEO施策は「グレー」であって、「ブラック」ではない。

matome.naver.jp

また、いわゆるテクニカルな面においてはGoogleのガイドラインを正確になぞっていると考えられ、そして「質の低いコンテンツのランクを下げる」ということが目的だった「パンダアップデート」にも”しっかり”対応している。

www.seohacks.net

ただし、このGoogle側が言うような「質の低いコンテンツ」というのは（以下上記、SEO HACKSのページから引用）、

独自性や専門性が低い

広告の占める割合が多く独自コンテンツの割合が低い

内容が乏しく、薄っぺらい

サイト内の他のページと共通する部分が大半

外部サイトからのリンクを得られていない

ソーシャルメディアで共有されていない

他サイトと内容が重複している

ということであり、これを裏返して解釈を付け加えると、

例え それが真実や正しさを伴わなかったとしても 、独自性や専門性があると上位をとれる

、独自性や専門性があると上位をとれる 圧倒的な記事量があれば、広告の占める割合は相対的に少なく見せることができる。

内容が乏しく、薄っぺらくならないために、みんなが検索する（している）であろうキーワードをリスト化し、そのキーワードを散りばめた一定量以上の文字数をもったコンテンツを作ればいい。

サイト内の他のページと共通する記事ができないように、外部ライターやクラウドソーシングから上がってきた記事については、文章の類似チェッカーツールを使ってそれらを排除するか、「リライト」させればいい*4

インバウンドリンクを増やせるよう＊＊＊＊＊＊＊をすればいい（ここは微妙なことになるので書けません）

ソーシャルメディアでの拡散を重視したコンテンツ制作戦術をとる（いわゆるバイラルメディア）

外部ライターや素人レベルのクラウドソーシングでのライターに対して、「ライティングマニュアル」を提供し、”自分の言葉で”とか”自分の感想で”記事を作ってもらうことで、他サイトと内容が重複しないようなコンテンツができる。

ということになる。

一言でいえば機能不全、つまり今回のキュレーションメディア事件では「質の低いコンテンツのランキングを下げる」という意図で実施された「パンダアップデート」がその意図どおり機能しなかったと言える。いや違う、むしろ「質の低い」の定義が違うのだろう。キュレーションメディアによって大量生産される”剽窃”によるような記事における「質の低さ」までカバーしてGoogle側が対応できていなかった可能性が高い。つまり今回のような”あなた自身の言葉で書いて下さい”というような「パラフレーズ」による”剽窃”はGoogleの検索アルゴリズムですらまだまだ対応しきれていないということだ（しかしこれは逆を返せば、先にも書いたように「キュレーションメディア」はGoogleのガイドラインを忠実に守っているということであり、これが今回衝撃として大きい）。

ただし、気になるには「パラフレーズ」（言い換え）による低品質コンテンツについては、Googleは本当のところは相当チカラを入れているはずであって、なのになぜキュレーションメディアの低品質コンテンツに負けたのか？ということにある。

一つにはコンテンツの質についての考え方の違いにある。例えば「自分のついて悪意のあることが書いてある記事が検索上位にきてしまうので、削除してくれ」といってもGoogleはそうした削除要請には基本的に対応しない。「そのコンテンツの制作者に連絡を取って自身で対応してください」と言われるだろう。Googleとしては「我々はネットにあるコンテンツを順位付けしてるだけです」という立場なのだ。この件と今回のキュレーションメディアの話はつながっており、Google（の検索アルゴリズム）自体はコンテンツの「正しさ」については把握できないのだ。つまり、コンテンツの質の高さ／低さというのは「正しさ」とは全く関係がない。

次に、一般的傾向として、Googleの検索結果をインデキシングするためのクローラーは、コンテンツの更新性（フレッシュネスや頻度）やその量によってやってくる頻度が変わる。これらの変数を大きくすればするほど、検索エンジンに「相手にしてもらいやすい」。つまり、圧倒的なコンテンツ”生産量”があれば、「パンダアップデート」以降もGoogleの検索結果の上位ランキングを取りに行くことができる、ということを今回露呈したのである。例えその情報が正しくなくても、だ。

つまり、

Googleといえども、記事が「真実」かどうかの把握をしているわけではない 圧倒的な資本力でクラウドソーシングなどを使ったコンテンツ”生産”に投資をすれば、検索結果の上位を占めることができる。 2.の結果、ソーシャルメディアでの共有などでの流入も得られ、検索結果上位は維持できるようになるので、やはり（質はどうあれ）コンテンツの大量生産は重要

ということなのである。

結局、パンダアップデートなどを通じたあとにも実質的に変わらないPageRankの仕組みを本質的なレベルで理解をし、そして資本力のある企業が大量の”安価な”記事をクラウドソーシングプラットフォームに発注することができることで起きているのが、キュレーションメディア事件だということだ。

つまり、昔の黒いSEOハックは「カネでリンクを買う」というものだったのが、今は「カネでコンテンツを買う」という”資本力によるSEOハック”が成立してしまっており、それを行ってるのがキュレーションメディアだということなのだ。

実際、本事件以降も日本のクラウドソーシングのプラットフォームサイトを覗いて見ると、まともそうなのもありつつ、「リライト」という文字で書かれた作業依頼がまだ目につく。

プロ向けの仕事・求人・依頼【クラウドワークス】

編集・校正の依頼 | ランサーズ

ライティングの依頼・仕事 | ランサーズ

もちろん、クラウドソーシングプラットフォーム自体が悪いわけではない。しかしながら、キュレーションメディアやバイラルメディア、そして企業向けオウンドメディア（コンテンツ・マーケティング）においても、”剽窃”記事が生み出される「温床」になっているのは間違いないだろう。他に、コンテンツを大量生産できる「装置」はないのだから。この点において、クラウドソーシングプラットフォームには、「リライト」や「いろんなサイトを見てあなたの言葉で」と「パラフレーズ」な剽窃依頼をしているような業務依頼をBANする仕組みを作って欲しいとは思うのだが、いかんせん、どうもこの領域での売上が大きいようで、なかなかそうもできないのだろう。しかし、クラウドソーシングプラットフォーム側も（関わってるかどうかの有無に関わらず）今回の事件を期に、ネットにゴミ記事が増えることに手を貸しているのだという自覚を持たねばならくなるはずだ。ちなみにこのクラウドソーシングが孕む問題については、去年も記事を書いていた。この件と根っこは同じだと思う。

www.mediologic.com

さて、結局のところ今回のキュレーションメディアの「事件」とは何なのか？ それは昨日の記者会見で多くの記者たちが追求していたような「著作権侵害」に関わるものよりより上位な問題、すなわち、イケイケドンドンでとにかくユーザー集めろ、とにかく金儲けといった、ある種、日本のベンチャー企業（やVCの圧力）が孕む極端な資本主義にあると思う。資本力のあるところが安い労働力を蟹工船よろしく確保（＝クラウドソーシング）し、プロダクトを大量生産（＝コンテンツを大量生産）する、というのは資本主義のアーキタイプそのものである。そしてその資本主義のモデルの上に載っかったベンチャーのおこなう「メディア事業」が、Googleの検索結果を歪めることに成功した。

それが今回の事件の本質であり、「人々の興味関心のデータベース」とジョン・バテルが名付け、そして「支持されてるコンテンツは良いコンテンツである」と民主主義的な"PageRank"から始まったGoogleの検索エンジンが、資本主義に負けた、ということなのだと、そう思うのだ。

一方で、検索エンジンの進化の可能性をもこの事件は示した。確かにGoogleは「オーサーランク」というコンセプトでコンテンツの質を高めることに一時期トライしたが、そもそも「オーサー」の質を評価することもできないことから実質頓挫している。しかしながら検索エンジンの検索結果の質を高める方向は以下の2つが考えられる。

AIやディープラーニングによる「意味」や「文脈」解析による検索結果の改善。 ユニバーサルな検索から、バーチカルな検索へ。

1.に関しては、実は昨今のGoogle翻訳の精度向上などは、裏側で検索エンジンの改善のための実験なのではないか？という匂いを漂わせる。こと、ネット上の情報は信用ならず、それぞれの情報を拾っていって見比べていったとしても、「正しさ」には結びつかない。それゆえ、書籍やないしはGoogle Scholarなどあらゆる”情報源”から、「意味」、「文脈」を把握し、サイト（ページ）に書かれた情報の「正しさ」を解析できるようになるのではないだろうか。

そして、2.について。「バーチカル検索」とは特定領域だけを検索する仕組みと考えてもらえばいいが、領域を特定するとクロールやインデキシングをする対象が限られるため、むやみやたらに変なコンテンツに侵されることは相当低くなる。たとえばすでにあるもので考えると、Google Scholarのように学術論文だけを検索する仕組みであれば、学術論文が集まっている特定のサイトを見に行くので、そもそもノイズになるような情報が入ってくる余地がない。

以上のように考えると、日本の歪んだベンチャー資本主義にGoogleの検索エンジンが負けた一方、検索エンジンはまだまだ進化する余地がある、ということに気付かされるのである。