NVIDIAのリサーチサイトで、「MCM-GPU : Multi-Chip-Module GPUs for Continued Performance Scalability」と題された論文が6月24日に公開された。この論文は第44回コンピュータアーキテクチャのシンポジウムで発表されている。内容的に非常に興味深いものなので紹介したい。

NVIDIAのGPUは肥大化の一途を辿っており、最新のVolta世代のフラグシップ「GV100」のダイサイズは815平方mmとなっている。これはフォトマスクのサイズの限界に近い数字である。ダイサイズの肥大化は歩留まりの低下、つまりコスト向上の原因であり、好ましくはない。

半導体技術が微細化すればトランジスタの集積度は高まり、より大規模/高性能なGPUが製造できるが、プロセスルール微細化に伴う性能向上=ムーアの法則も近年鈍化してきており、性能へのニーズに追いついていない。

これを打破しようというのが、NVIDIAのMCM-GPU(Multi-Chip-Module GPU)技術だ。大きいダイサイズのGPUを作る代わりに、小さいGPUを作り、1つのサブストレート上に複数個集積する。パッケージのサイズは大きくなってしまうが、コストを抑えられ、シンプルに性能向上が図れる。簡単に言ってしまうと1チップ上でSLIをするわけだ。

論文のなかで、GPU間のインターコネクトに最適とされるバンド幅や、L1とL2キャッシュの間に新たに「L1.5キャッシュ」を入れ込むアーキテクチャの最適化などについて考察がなされている。

NVIDIAの試算では、合計256 SM(Streaming Multiprocessor)を備えたMCM-GPU(64×4基、1GHz駆動、インターコネクトは768GB/s、合計メモリバンド幅は3TB/s)は、128 SMを備えた過去最大のモノリシックGPUと比較して45.5%高速であり、SLIのようなマルチGPUソリューションと比較しても26.8%高い性能を実現できるとしている。