スタートアップ企業のCerebrasは19日(米国時間)、1.2兆トランジスタを集積した深層学習用の超巨大チップ「Wafer-Scale Engine(WSE)」を発表した。

WSEは40万個のAI処理に特化したコアを備え、1.2兆トランジスタを集積し、46,225平方mmというダイサイズを達成したという、まさに名前のとおりウェハスケールのものとなっている。

18GBものSRAMをオンチップに備え、バンド幅は100Pbps(9PB/s、ペタバイト/秒)に達する。これは競合と比較して3,000倍の容量と1万倍のバンド幅だとしている。

ちなみに過去最大のGPUは「GV100」で、ダイサイズは815平方mm、トランジスタ数は210億。ダイサイズで比べた場合、WSEのほうが56倍も大きい計算になる。

開発にはAMDが買収したSeaMicroの投資家であるAndrew Feldman氏が携わり、歩留まり、電力供給、クロスレチクルの接続製、パッケージングなど、さまざまな問題を乗り越えて実現した。

Cerebrasによれば、ビッグチップは情報をより速く処理し、より短時間で回答が得られるため、WSEは膨大なデータを処理する研究者に有用としている。ソフトウェアスタックとしてはTensorFlow、PyTorchなどをサポートするとしている。