16/14nm FinFET 3Dトランジスタへの移行でジャンプ GPUは、長いトンネルを抜け出そうとしている。今年(2016年)、GPUは16/14nm FinFET 3Dトランジスタプロセスへと移行する。4年もの間28nmプロセスで足踏みをしていたGPUは、16/14nmで一気に進歩する。新プロセスによって、トランジスタ数の増加によるアーキテクチャ拡張と、トランジスタのリーク電流(Leakage)の低減による低消費電力化の両方を実現できる。久々の大変革の年となる。 しかし、新プロセスノードへの移行は、GPUにとってチャレンジでもある。それは、トランジスタあたりのコストの上昇を招く危険があるからだ。20nm以下のプロセスでは、露光プロセスのコストが上がるため、従来のGPUの物理設計ではチップのコストが跳ね上がってしまう。 そのため、16/14nmプロセスでは、さまざまなレベルでの工夫が必要となる。GPUメーカーは、16/14nm FinFET世代の設計について明らかにし始めており、その中にはGPU向けプロセスの肝となる配線層の最適化も含まれている。従来のGPUに採用していた配線プロセスオプションを使うと、16/14nm世代のGPUは製造コストが膨れ上がってしまうからだ。

GPUアーキテクチャのサイクルに影響を及ぼすプロセスサイクル これまでのGPUの進化の道筋をプロセス技術で見て行くと、非常に興味深い。特に、AMDでは顕著だ。かつて1年で半世代プロセスが微細化していた時代には、GPUの進化は極めて順調だった。1年毎にプロセスが微細化されると、トランジスタ数を増やしてアーキテクチャを拡張した。アーキテクチャをあまり拡張しない時は、ダイを小さくして製造コストを下げた。Radeon HD 5870(Cypress)までは、このペースで1年サイクルで順調に進んでいた。 ペースが狂い始めたのは40nmプロセスだった。ファウンダリが32nmプロセスをスキップしたことで、GPUは40nmプロセスで2年間製造されることになり、AMDは同じ40nmでアーキテクチャを拡張するため、GPUのダイサイズを大型化した。40nmから28nmプロセスに移行した時は、トランジスタを大幅に増やしながらダイを若干縮小して、再びアーキテクチャを拡張した。GCN(Graphics Core Next)アーキテクチャに移行したのは、まさにこの28nmのタイミングだった。 だが、それから4年、AMD GPUもNVIDIA GPUと同様に28nmプロセスで足踏みをせざるを得なくなった。そこで、AMDは、GPUのダイを352平方mmから438平方mm、そして586平方mmへとどんどん大型化した。最新のRadeon R9 Fury(Fiji)では586平方mmの巨大ダイとなり、トランジスタ数は28nm世代の最初の頃と比べて倍増した。ライバルのNVIDIAも、ハイエンドのGeForce GTX Titan X(GM200)のダイは601平方mmで同列に並んでいる。誰がどう見ても限界に近い状態だ。

GPUにとって16/14nmプロセス移行の最大の壁はコスト 16/14nmプロセスは、GPUにとって4年ぶりの技術の大躍進となる。微細化するだけでなく、トランジスタが従来のプレーナからFinFETになることで、GPUには大きな利点がある。演算回路の密度の高いGPUにとって、FinFETによる低電力化は利点が大きい。利点も多いが、チャレンジも多い。最大の壁はコストだ。 半導体のプロセス技術が微細になるにつれて、トランジスタあたりのコスト(CPT:Cost Per Transistor)が相対的に上がって行く。この問題については、ここ数年議論があった。NVIDIAは2011年に、この問題の口火を切った。同社は、28nm以降はプロセス済みウェハのコストが急上昇するため、トランジスタコストが前世代プロセスよりも下がらなくなる可能性があると指摘した。その後、多くのチップベンダが同様にトランジスタあたりのコスト上昇を訴えた。 プロセス技術は、微細化することで、同じダイ面積により多くのトランジスタなどを搭載できるようになる。理想的には、1世代で2倍のトランジスタを載せられるようになり、加工済みウェハのコストは前世代と同程度で、トランジスタあたりのコストは半減する。 しかし、現実には、世代毎にプロセスコストが上がり、プロセスの開発コストも上昇するため、トランジスタあたりのコストは世代毎に約70%程度にしか下がらない。そして、20nm以下のプロセスでは、コストの上昇が急峻であるため、前世代よりトランジスタあたりのコストが下がらなくなってしまうことが懸念されていた。