11月10日（現地時間）にグーグルが自らの人工知能エンジンをオープンソース化してそのコードを世界中に無料で共有したとき、しかしルーカス・ビーワルドは「フリーソフトウェア・ムーヴメントの勝利」だとは考えなかった。彼はそれを「データの勝利」とみたのだ。

彼の見方は、とりわけ驚くことでもない。ビーワルド氏はサンフランシスコのスタートアップ、CrowdFlower社のCEOで、同社はツイッターなどのネット企業の大容量データの通信支援をしている。彼にはスタンフォード大学のAIラボで学んでいたというバックグラウンドがあり、人工知能（AI）には造詣が深い。彼の言い分には根拠があるのだ。

グーグルはAIエンジン「TensorFlow」のコードをオープンソース化することで、真の価値はソフトウェアやアルゴリズムより、AIを“より賢く”するために必要な「データ」にこそ宿ることを示したのだと、ビーワルド氏は言う。グーグルは「それ以外」を公開するが、データは公開しない。

「企業はデータ重視型になると、ソフトウェアをオープンソース化する傾向があります。自分たちが、他のどの企業もアクセスすることができない独自データを所有しているということを知っているのです」と、ビーワルド氏は言う。彼はヤフーで検索エンジニアとして働いていたこともあり、マイクロソフトが買収したスタートアップ、Powerset社立ち上げを支援したこともある。「グーグルは自分たちのデータを公開しませんよ。この先も絶対に公開しないでしょうね」

ビッグデータとAIブーム

ビーワルド氏は、これをIBMが最近行ったWeather Channelの買収になぞらえる。IBMはAI業界におけるシェア拡大のために、見込みのあるデータを獲得するのに数百万ドルを投じたといわれている。

「興味深いのは、企業が大量のデータを買い込むのと同時にアルゴリズムをオープンソース化しているということです」と彼は言う。「機械学習のために何が必要かという見方をすれば、これらの企業がいったい何に“はっている”のか、いかにも明白です」

TensorFlowは、いわゆるディープラーニングを使用している。それにより、あたかも人の脳内のニューロンのような広大なニューラルネットワークにデータを入力することで、画像解析や音声認識、さらには自然言語処理のようなタスクを行わせることができるわけだ。ニューラルネットワークに猫の画像を与えることで、猫を認識できるようになるわけで、会話データを入力すれば会話を継続するよう学習させることもできる。

ニューラルネットワークを動作させるアルゴリズムそのものは、さほど新しいものではなく、1980年代から存在している。では何が新しいかというと、インターネットによって処理能力が飛躍的に発展し、膨大なデータの保有が可能になったということだ。猫を認識させるためのシステムをAIエンジンに学習させるには、大量のマシンと猫画像が必要なのだ。

クラウドコンピューティングの登場以降、アマゾンやマイクロソフトといった企業は、ネット上に拡散する情報をより高度に処理するアクセス権を得ることになった。そして、一般ユーザーも情報処理エンジンへのアクセスが可能になった。

他方で、大量のデータを蓄積しているのは、依然としてグーグルやフェイスブックといった巨大企業である。数十億人が彼らのサーヴィスを利用し、テキスト、画像、動画、音声といった膨大な情報のやりとりを行なっている。2社に共通するのは、非常に熱心にAIソフトウェアの開発を進めているということだ。だが、彼らの真の競争力はその膨大で高品質なデータ保有という面で発揮される。それを使用して、ソフトウェアをより「人間らしく思考する」デヴァイスへと発展させるということだ。

AI科学者を惹きつけるシリコンヴァレー

ビーワルド氏の言説には、自身の主張を肯定するための誇張があるようにも思える。グーグルはAIエンジンの非常に重要な部分をオープンソース化しているが、他の分野においてはオープンにすらしていないことも多い。

また、この競争には大変高度なスキルが求められるという点も無視できない。アルゴリズム自体は一時代前に登場したものではあるが、昨今は急激なペースで進化しており、より多くの分野へと進出している。そしてプロジェクトの中核にいるのは、聡明な頭脳の持ち主たちである。

グーグルがTensorFlowをオープンソース化した理由は、まさにそこにある。社員以外がこのソフトウェアを使用すれば、グーグル社内、そしてソフトウェア自体にも新たなスキルやアイデアを取り込むことが容易になる。また一度退社した技術者とプロジェクトを続行することも可能だ。

「われわれは、夏期期間中にたくさんのインターンを受け入れています。グーグルにいる間、彼らは大変興味深いリサーチを数多く手がけました」と話すのは、グーグルのAIチームの中心的エンジニア、ジェフ・ディーンだ。「課題を解決するためにプロジェクトをもち帰り、オープンソース版のTensorFlowを使用してもらって引き続き開発を進めてもらっても構わないわけです」

しかし、グーグルがディープラーニングの最先端研究者を惹きつけるもうひとつの理由は、その膨大なデータにある。同じことは、フェイスブックやその他の超大手インターネット企業に対してもいえるだろう。ここ数年、トロント大学教授ジェフリー・ヒントン（2013年よりグーグルでAI研究を行っている）、ニューヨーク大学教授ヤン・ルカン（現在はフェイスブックの人工知能研究所所長）、スタンフォード大学教授アンドリュー・ング（グーグルの人工知能研究プロジェクト、通称「グーグル・ブレイン」を立ち上げ、現在は中国の検索大手バイドゥで人工知能研究を行う）といったトップレヴェルの研究者たちが、すでにこれらの大手ネット企業に参加している。

大学研究機関ではこのような膨大なデータにアクセスできるとは限らない、とビーワルド氏は指摘する。「学者やスタートアップが、本当に有意義な機械学習について研究するのは困難になりつつあります。彼らはグーグルやアップルが保有する、超大容量データベースにはアクセスできないわけですから」

アップルも、Siriのようなサーヴィスを通じて大量のデータを生成している。しかし一部では、グーグルやフェイスブックよりもプライヴァシーに関してより厳重な体制を取っているため、アップルは不利な立場にあるのではないか、という声もある。アップルが自社のエンジニアのデータ使用に対し、シヴィアな制約を与えてしまっているからである。デジタル情報はサーチ機能にとって極めて重要なものだ。ノースウェスタン大学コンピューターサイエンス科でAI研究を専門とするケン・フォーバス教授によれば、アップルはプライヴァシーポリシーのために、ディープラーニング以後のテクノロジーに頼らざるをえないのではないかという。

プライヴァシーポリシーを変更するといった方法も含め、アップルがこの問題を回避する方法はいくらでもあるだろう。実際グーグルやその他のIT企業と同じように、アップルもディープラーニング・スタートアップを買収しており、人工知能の専門知識を有する技術者たちを社内に取り込んでいる。

どの企業がAI競争を勝ち抜くかはわからないが、ひとつだけ確かなことがある──人工知能の未来は、データなしにはありえないということだ。