IntelのKaby Lake-Gの不思議 IntelはスタックドDRAM「HBM2」をCPUパッケージに統合した「Kaby Lake-G」を年内に投入する。従来のeDRAM版CPUと同様に、CPUパッケージ内にHBM2のDRAMが封止されている。ただし、いくつか大きな違いがある。すでにウワサで報じられているように、GPUコアはIntelの内蔵コアではなく(内蔵コアも持ってはいる)、サードパーティのディスクリートのGPUダイだ。 IntelがAMD GPUをCPUパッケージに取り込む話は、ここしばらく前からウワサになっていた。ボードベンダーだけではなくソフトウェア開発者にも、“サードパーティのディスクリートGPUとHBM2”を搭載する「G」型番のKaby Lakeを出すと説明されていたという。じつは、Intelは、昨年(2016年)の前半にメモリについて業界関係者に説明を行なっており、その時は、HBM2の採用は2017年中は行なわない予定となっていた。その後、HBM2採用計画の変更とともに、AMD GPUの採用とKaby Lake-Gが浮上した。 Kaby Lake-Gのパッケージには、クアッドコア版のKaby Lakeダイと、AMDディスクリートGPUダイ、そして、HBM2が1スタック搭載されているという。HBM2のスタックのダイ層数はわからないが、HBM2はフル帯域を実現するには最低2ダイの積層が必要なので、2ダイか4ダイのどちらと推測される。メモリ容量としては、2GBか4GBのどちらかとなる。 Kaby LakeダイとAMD GPUダイの間はオンパッケージのPCI Expressで結ばれていると見られる。一方、AMD GPUダイとHBM2スタックの間は、Intelの新しい2.5D(2.5次元)ソリューション「Embedded Multi-die Interconnect Bridge(EMIB)」で結ばれていると見られる。EMIBは、小さなシリコン片を使った超高密度配線によって、従来より低コストにHBM2の実装を可能とする。 Intelは昨年前半の段階では、2017年中のHBM2の導入は、まだ考えていなかった。2018年まではeDRAMだけが、IntelのメインストリームPCでのメモリ統合ソリューションとなる予定だった。Intelシリコンのスケジュールでは、HBM2対応のCPUダイの投入は2018年であるためだ。それを、AMDのダイを導入してまで早めるとすると、かなり異例の事態だ。 もちろん、CPU製品競争力の強化のためとも考えられる。しかし、そもそもKaby Lake-Gの対抗する相手は、GPU統合型CPUなら、AMDのAPU(Accelerated Processing Unit)「Raven Ridge」世代になるわけで、そこにAMD GPUを対抗させる理由がよくわからない。だが、この製品化が、HBM2とEMIBの導入を早めるためだと考えれば、納得も行く。 EMIBは、すでにIntelファウンダリのサービスとして提供されており、Altera FPGAのオプションとしても提供されている。しかし、コンシューマ製品での量産という意味では、まだスタートしていない。ラーニングカーブを上げるには、まず、量産をスタートさせること。それなら、EMIBとHBM2のプラットフォームをできるだけ早く立ち上げたほうがいいことになる。Kaby Lake-Gが、Intelのパッケージ技術の露払い的な製品であると考えると、諸々の疑問が解ける。

Intelの2.5Dパッケージ戦略の露払いとなるKaby Lake-G Kaby Lake-Gには、3つの大きな意味がある。 1つは、Intelが「2.5D」パッケージングソリューションに本格的に舵を切ること。2.5D、つまり、1つのチップパッケージの中に複数のチップのダイを載せるタイプの積層技術だ。これまでも、パッケージに複数ダイを載せる「MCM(Multi-Chip Module)」はIntelにも多数の製品があったと思うかもしれない。しかし、今回の2.5Dはそれとは話が違う。 今回のKaby Lake-Gは、HBM2を採用して、複数ダイを幅広の広帯域インターフェイスで結ぶ。HBM2は1,024-bit幅のインターフェイスで、2Gtps時に1スタック当たり256GB/secの帯域を実現できる。高密度配線で結ぶことで、ダイ同士を広帯域接続する2.5D化が、今回の流れだ。 手始めはメモリのHBM2だが、Intelは、コミュニケーション機能のダイなどメモリ以外のダイ同士もCPUダイと広帯域接続することを目指している。Kaby Lake-Gは、その先行ケースとなるチップだ。実際、Intelはこうしたヘテロジニアスなダイの統合計画を発表している。近い将来には、Intelのチップは、複数のダイが高密度配線の2.5Dで封止されたSIP(System in Package)が一般的になるかも知れない。 2つ目は、IntelのPCプロセッサが、メモリ帯域バインドから解放されることだ。IntelやAMDは、CPUコアとGPUコアの統合を進めているが、現状のDDR4などのメモリモジュール型のソリューションではメモリ帯域がGPUコアに対して足りていない。しかし、CPUは、メモリ容量とコストと増設性の面で利点があるDRAMモジュールを捨てることが難しい。ディスクリートGPUのような力業でのメモリ帯域拡張ができないことが、メインストリームCPUの弱点となっていた。 しかし、Intelのパッケージ技術EMIBは、低コストなスタックドDRAMの実装を可能とする。超高密度な配線によって、数百GB/sの広帯域メモリを実現できる。そのため、メインストリームディスクリートGPU並のメモリ帯域を、メモリモジュールも使うCPU型の製品で実現することが可能となる。メモリ帯域のために性能を制約されることなく、内蔵GPUコアを大型化できるようになる。これは、将来に予想される、ニューラルネットワークアクセラレータコア(インファレンス用)のCPUへの統合の際にも重要な要素となる。 3つ目は、メモリ/ストレージ階層の変革がスタートすることだ。Kaby Lake-Gは、まだ外部ディスクリートGPUダイを使う。しかしIntelの本命は、自社のCPUにHBM2インターフェイスを統合する世代だ。その世代になると、EMIBで接続されたHBM2は、CPUのメモリ/ストレージ階層の一部へと完全に統合される。 新メモリ/ストレージ階層では、メモリ帯域はオンパッケージのスタックドDRAMで、メモリ容量はDIMMソケットのDRAMモジュールで稼ぎ、さらに、DIMMソケットに不揮発性メモリモジュールが乗り、より大容量のアドレッサブルメモリ搭載が可能となる。そのための技術の地ならしが、Kaby Lake-Gから始まると推測される。

AMDの動きに対抗して動きはじめたIntelの広帯域メモリ計画 広帯域メモリのCPUへの統合という側面で見ると、Kaby Lake-Gまでの間には長い道のりと複雑な事情があった。広帯域DRAMのCPUパッケージへの搭載については、そもそもAMDが先に動き始めていた。AMDはCPUとGPUの統合を進めるにあたってメモリ帯域が問題になると考え、DRAMベンダーと「HBM」となるスタックドDRAM開発を進めていた。当初のAMDの構想では、ハイエンドGPUだけでなくメインストリームGPUやAPUにもHBMを早期に採用するはずだった。 一方のIntelは、密接な関係にあるMicron TechnologyのスタックドDRAM「HMC」の構想に乗っていた。しかし、HMCは性格上、サーバーやハイエンドグラフィックス向けソリューションとなる見通しだった。それに対して、当初の構想のHBMは、より低コストとなる予定で、HMCとは異なるレイヤになる見込みだった。そのため、IntelはHMCとは別に、メインストリームPCに適用できる広帯域メモリのソリューションを必要とした。 そこでIntelは、自社技術として開発していたeDRAMを使い、広帯域のeDRAMチップを自社で製造してCPUパッケージに搭載する方向へと進んだ。カスタムeDRAMで、広帯域かつ高効率のデータ転送を行ない、メモリ食いのGPUコアの内蔵を進める方向だ。しかし、IntelのeDRAMはDRAMセルサイズが大きく、多バンク構成としたこともあって、大容量化が難しい。このeDRAMは、本来的にはロジックチップに混載することを目指していた技術で、Intelはキャッシュへの採用も検討したと言われている。eDRAMダイは経済的なサイズではメモリ容量が限られるため、用途が限定されてしまう。eDRAMダイは大容量のスタックドDRAMが普及するまでの、中間的なソリューションにしかならない。 そのため、IntelはeDRAM版のHaswellを導入する一方で、JEDEC(半導体の標準化団体)でのスタックドDRAM「HBM2」の規格化に参加、HBM2スペックをCPUに採用しやすいものへと変えた。逼迫するメモリ帯域問題の解決のために、eDRAMに替えてHBM2を採用することは、Intelにとって織り込み済みの戦略だった。実際、IntelはDRAM業界に対してはHBM2の採用予定を当初から説明している。