Die möglicherweise sogar entscheidendere Information der Meldung über eine "GeForce GTX 1160" seitens Laptopmedia liegt in der dort ausgewiesenen Speicherbestückung von "nur" 6 GB Speicher bei dieser kommenden Mobile-Lösung. Dies deutet zuerst einmal auf die Weiterverwendung eines 192 Bit Speicherinterfaces beim (vermutlich) zugrundeliegenden GT106-Chip hin – und gleichzeitig darauf, das nVidia die Speicherbestückungen bei der Turing-Generation nun doch nicht steigern wird. Schließlich ist schon das Entwicklerboard für den GT102-Chip ziemlich wahrscheinlich für 12 GB GDDR6-Speicher gedacht, da bleibt dann als Speicherbestückung für den dazwischenliegenden GT104-Chip der kommenden GeForce GTX 1180 nur noch 8 GB GDDR6-Speicher als Auflösung übrig. Gänzlich sicher ist dies zwar noch nicht, aber die Anzeichen mehren sich durchaus, das nVidia bei der Turing-Generation letztlich nur dieselben Speichermengen aufbietet wie bei der vorherigen Pascal-Generation.

GT106 GT104 GT102 Chip 12nm, vmtl. ~250-300mm² 12nm, vmtl. ~440-460mm² 12nm, ~676mm² Shader-Cluster vmtl. 24-32

(= 1536-2048 Shader-Einheiten) vmtl. 56-64

(= 3584-4096 Shader-Einheiten) gesch. 84-96

(= 5376-6144 Shader-Einheiten) Speicherinterface 192 Bit GDDR6 256 Bit GDDR6 384 Bit GDDR6 Speicherausbau 6 GB 8 GB 12 GB Performance gesch. +50-70% vs. GP106 gesch. +50-60% vs. GP104 gesch. +40-60% vs. GP102 TDP gesch. (bis zu) 165 Watt gesch. (bis zu) 230 Watt gesch. (bis zu) 300 Watt Die Angaben dieser Tabelle sind mehrheitlich hoch spekulativ.

Dies wird in Forendiskussionen teilweise als enttäuschend angesehen, dürfte aber letztlich an dem Umstand hängen, das für eine GeForce GTX 1180 als WQHD-Grafikkarte (für UltraHD wird die GeForce GTX 1180 Ti gedacht sein) jene 8 GB Speicher noch ausreichend sind und das die nächste mögliche Speicherbestückung dann eben gleich 16 GB wären – zu teuer, gerade wenn es mit GDDR6 eine brandneue Speichersorte ist und nVidias Hauslieferer Micron derzeit noch kartellrechtliche Probleme an der Backe hat. Die auch denkbare Auflösung in Form von "krumen" Speicherchips (Speicherchips mit 0,75 oder 1,5 GByte pro Chip anstatt 1 oder 2 Gigabyte) bleibt derzeit rein theoretisch, da keiner der Speicherchip-Hersteller solcherart Speicherchips bei GDDR5X oder GDDR6 führt – und außerhalb von einzelnen Grafikkarten dürfte es dafür auch keinerlei Bedarf geben.

Die einzige andere Auflösung hätte in anderen Interface-Breiten gelegen – sagen wir 384 Bit beim GT104 zugunsten von 12 GB Speicher und 512 Bit beim GT102 zugunsten von 16 GB Speicher. Dies passt allerdings dann weniger zu den entworfenen Turing-Chips, der damit erreichte Bandbreiten-Vorteil hätte bei grob +100% gegenüber der Pascal-Generation gelegen, bei einem Vorteil an Rechenleistung von grob +60%. Da diese faktisch unnütz großen Speicherinterfaces ja auch die jeweiligen Turing-Chips vergrößert sowie deren Leistungsaufnahme erhöht hätten, verbietet sich dieser Weg für nVidia somit von selbst. Schließlich gehen mit der 12nm-Fertigung die Chipflächen sowieso erheblich nach oben (um Mehrperformance zu kreiieren) und muß dies dann alles auch noch irgendwie in ein vernünftiges Power-Budget eingepasst werden, die 12nm-Fertigung bietet diesbezüglich nur wenige Vorteile.

Es deutet sich somit immer mehr an, das Turing mit seinen Grafikchips durchgehend zwischen 40-70% auf die Pascal-Generation oben drauf legen wird. Der GT102-Chip bzw. das Entwicklerboard für diesen gibt hierzu eine gute Maßgabe ab – und denkt man dies weiter auf die kleineren Chips des Portfolios, dann lassen sich auch schon vermutliche (hochgerechnete) Angaben zum GT104 (HighEnd-Segment) und zum GT106 (Midrange-Segment) treffen. Bei allen drei Chips scheint nVidia die Anzahl der Shader-Cluster um bis zu 60% steigern zu wollen, während gleichzeitig in ähnlichem Maßstab mehr Speicherbandbreite zur Verfügung gestellt wird, um diesen Rohleistungs-Zuwachs auch auf die Straße bringen zu können. Die Chipflächen dürften demzufolge aber natürlich durchgehend erheblich zunehmen und Rekordwerte (bei nVidia) für das jeweilige Marktsegment erreichen.

Gleichfalls wird das ganze nicht ohne höhere Stromverbrauchswerte vonstatten gehen können – die 12nm-Fertigung bietet nicht die Reserven an, um gleich (bis zu) 60% mehr Shader-Einheiten bzw. entsprechend größere Chipflächen zum gleichen Stromverbrauch wie bei den Vorgänger-Chips aus der Pascal-Generation versorgen zu können. Vielmehr darf man durchaus erwarten, das nVidia vergleichsweise hohe Leistungsaufnahmen für die jeweiligen Marktsegmente ansetzen muß – einfach weil besseres unter der 12nm-Fertigung auf diesen Chipflächen nicht realisierbar ist. Eventuell kann nVidia mit den angedeuteten Verbesserungen am Boost-Verfahren noch etwas mehr sparen als an dieser Stelle bereits eingerechnet wurde – nur ganz ohne Steigerung der Leistungsaufnahme wird es kaum gehen können, nicht auf diesen Chipflächen. Den Einklang von satter Mehrperformance auf trotzdem nicht größeren Chipflächen und dies alles zum gleichen Stromverbrauch wird man erst wieder auf einem echten Vollnode sehen können, sprich der nachfolgenden 7nm-Fertigung.