AI専用のチップを積んだグーグル独自のサーヴァーがデータセンターに並ぶ。PHOTOGRAPH COURTESY OF GOOGLE

グーグルは、間違いなく地上最大のコンピューターネットワークを運営している。4大陸15カ所に、倉庫サイズの特注のデータセンターをもっているのだ。しかし約6年前、グーグルがアンドロイド携帯に新しい音声認識機能を搭載した際、同社のエンジニアたちは現状のネットワークの規模では全然足りないと悩んだ。世界中のアンドロイド携帯で1日たった3分でも新しい音声検索機能が使われると、現状の2倍のデータセンターが必要になると彼らは気づいたのだ。

当時グーグルは、膨大な量のデータ解析によって特定のタスクを学習できる複雑な数学的システム、ディープニューラルネットワークで音声認識サーヴィスを開始したばかりだった。近年、こうした機械学習が音声認識だけでなく、画像認識、機械翻訳、インターネット検索など多くのことを急速に変えている。グーグルは、このメソッドに移行すれば（彼らのサーヴィスの）エラー率を25パーセント下げられると考えた。だが、それを実現するにはかなりの“馬力”が必要になる。

グーグルはデータセンターの面積を倍に増やす代わりに、「Tensor Processing Unit」（TPU）と呼ばれる、ディープニューラルネットワークを運用するためのコンピューターチップを自社で開発することにした。「このチップによって、よりエネルギー効率の高いソリューションが提供できるようになるはずです」と語るのは、チップ開発に携わった70人を超えるエンジニアのうちのひとり、ノーム・ジュピだ。半導体の効率を計測する指標「TOPS/Watt」（電力効率指標）で考えると、このTPUの性能は標準のプロセッサーの30～80倍である。

PHOTOGRAPH COURTESY OF GOOGLE

オンライン帝国を支えるハードウェア

2016年5月にグーグルがこのカスタムプロセッサーを初めて発表した際、詳細はほとんど明らかにされなかった。だがいま、ジュピとチームのメンバーたちはプロジェクトの詳細を公開し、どのようにチップが動作し、どのような問題が解消されるかを説明している。

グーグルはこのチップを、ニューラルネットワークを実行するためだけに使用する。たとえば、誰かがアンドロイド携帯に向かってコマンドを命令した瞬間にチップは動き始めるというわけだ。あらかじめニューラルネットワークを訓練するためにTPUは使えないが、ジュピが言うように、それでもこのチップはかなりの節約につながった。グーグルは、余分なデータセンターを15個も建てずに済んだのだから。

このチップの出現によって、コンピュータープロセッサー界にも大きな変化が現れることになる。グーグル、フェイスブック、マイクロソフトといった巨大インターネット企業がディープニュートラルネットワークを使用したサーヴィスをどんどん開発していくにつれ、AIモデルの訓練・実行のためのチップが必要になっていた。

ほとんどの企業はGPUを使ってAIを訓練している。GPUとは本来ゲームのグラフィックスやヴィジュアルアプリケーションのレンダリングのためにつくられたチップだが、ニューラルネットワークの肝となる計算を行うのにも向いている。またグーグルがTPUを使うように、マイクロソフトや中国のバイドゥなど、AIモデルを実行する際にGPU以外のチップを使う企業もある。

グーグルとほかの企業の違いは、グーグルがゼロから独自のチップを開発したということである。コスト削減、そして巨大なオンライン帝国の効率を改善する方法として、グーグルはデータセンターのサーヴァーやネットワーク機器を含め、ハードウェアの多くを自社開発している。そしていま、その作業が個々のプロセッサーにまで及んだということだ。

この過程で、チップの市場も大きく変わってしまった。グーグルはニューラルネットワークの負荷に対応するためのプロセッサーを独自で設計するようになったため、他社から買わなくなったのだ。グーグルが専門的なタスクまで自社で行うようになると、その影響は多方面に及ぶ。フェイスブックやアマゾン、マイクロソフトと同じく、グーグルも世界最大のチップバイヤーのひとつだったからだ。その一方で、インテルに代表される大手チップメーカーたちは、もう一度市場に振り向いてもらうために新種のプロセッサー開発を始めている［日本語版記事］。

専用設計で一般的なチップより最大30倍速い

ジュピは、TPUに取り組むために2013年後半にグーグルに入社した。その前はHPやDEC（Digital Equipment Corporation）といった、“グーグルのトップ・ハードウェアデザイナー養成所”のようなところでハードウェア・リサーチャーとして働いていた。グーグルは、マイクロソフトが使用しているプログラマブルなチップ「FPGA」（Field Programmable Gate Array）でニューラルネットワークを構築することも考えていたとジュピは言う。

もしそれができていれば、時間もかからなかっただろうし、必要に応じてほかのタスクにも使うことができただろう。だが、FPGAでは必要な処理速度が出ないことがテストで判明した。「FPGAがGPUよりも速くなることはない、ということが分析からわかったのです」とジュピは言う。

結局チームは、特定のタスクを実行するために基礎からつくられたチップ「ASIC」（特定用途向け集積回路）を使用することに決めた。ジュピによれば、グーグルはチップをニューラルネットワーク専用に設計したため、似たような生産技術でつくられた汎用チップよりも15～30倍速くプログラムを実行できるという。さらにこのチップは、画像認識に使用される畳み込みニューラルネットワークから、音声コマンドを認識するための長期・短期記憶ネットワークまで、少なくともいま世に出ているどんなニューラルネットワークにも使用できる。「ひとつのモデルに縛られることはありません」とジュピは言う。

グーグルはTPUを使い始めてからの2年間で、このチップを画像認識から機械翻訳、プロの囲碁棋士を破った囲碁AI「AlphaGo」［日本語版記事］にまで応用してきた。悪くない成果だ。とくに、そのプロセスにおいて必要になったであろうデータセンターを、一切建てずに済んだことを考えれば。