Wie es mit der Turing-Generation unterhalb der GeForce RTX 2070 weitergeht, ist bislang noch nicht offiziell thematisiert worden und lag daher eher im Feld von Gerüchten und Vermutungen. Hier und da wurden zwar schon einmal kleinere Turing-Chips genannt, aber dies waren zumeist nur wohlfeile Annahmen, welche nicht auf harten Fakten basierten. Zuletzt gab es allerdings schon einen Hinweis auf einen weiteren Turing-Chip neben TU102 (GeForce RTX 2080 Ti) und TU104 (GeForce RTX 2070 & 2080) in Form des TU106-Chips. War dies aber noch nicht 100%ig sicher, so kommt nun seitens der Macher des Hardwareinformations-Tools HWinfo ein klarer Hinweis auf die Existenz eines solchen TU106-Grafikchips – jener wird nämlich in den Release Notes zur aktuellen Tool-Version 5.88 als Änderung der nächsten Tool-Version genannt. Da die Macher dieserart Tools hierfür üblicherweise Daten nutzen, welche die Hardware-Hersteller selber zur Verfügung stellen, kann man dies dann wohl als eine gewisse Bestätigung der Existenz des TU106-Chips ansehen:

Was nVidia mit dem TU106-Chip anfangen kann, ist natürlich noch unklar bzw. gibt es hierzu mehrere Auflösungen. Zum einen könnte es sich schlicht um den Unterbau der GeForce RTX 2070 handeln, welche seitens nVidia bislang noch nicht sicher als TU104-basiert bestätigt wurde. Dies entspricht auch dem früheren Turing-Gerücht von AdoredTV, welches sich als teilweise sehr akkurat herausgestellt hat. Inzwischen ist aber auch klar, das Teile dieses Gerüchts nicht auf harten Fakten, sondern eigenen Dazudichtungen basieren – insofern ist dies dann doch keine belastbare Grundlage in zweierlei auslegbaren Fällen. Wir für unseren Teil denken immer noch, das die GeForce RTX 2070 klar auf dem TU104-Chip basiert, dann jene immerhin 75% der Shader-Einheiten sowie das identische Speicherinterface zum TU104-Vollausbau hat. Für diesen geringen Hardware-Unterschied legt man üblicherweise keinesfalls einen extra Grafikchip auf. Ergo sollte ein TU106-Chip die Grundlage für eine noch kleine Turing-Grafiklösung sein – anzunehmenderweise die GeForce RTX 2060.

Das jener TU106-Chip schon demnächst in das HWinfo-Tool eingepflegt werden soll, sagt dann auch indirekt einiges über den Chip selber aus: So dürfte dessen Release nicht all zu weit weg sein – womöglich also noch in diesem Jahr gelegen. Und damit fällt eine potentiell kleinere Fertigungsgröße á 7nm für den TU106-Chip ziemlich flach, denn dafür hat Chipfertiger TSMC zum jetzigen Zeitpunkt wirklich keine Kapazitäten, jene werden aktuell vollkommen mittels des Großauftrags für Apples A12-SoC ausgeschöpft (angeblich steht Apple für 75% der 7nm-Kapazitäten von TSMC in diesem Jahr). Einzurechnen wäre hierbei immer auch der Punkt, das alle kleinere Turing-Lösung mengenmäßig immer mehr Käufer anziehen und somit irgendwann der Massenmarkt erreicht ist – und dafür braucht es dann echte 7nm-Kapazitäten bei TSMC, welche aber erst innerhalb des kommenden Jahres 2019 in voller Schönheit aufgebaut werden. Zudem gilt desweiteren, das nVidia sicherlich auf die verbesserte 7FF+ Fertigung von TSMC zum Jahresende 2019 warten wird, welche neben geringen technologischen Vorteilen vor allem eine lauffähige EUV-Beleuchtung beinhaltet, was dann die hohen Kosten der 7nm-Fertigung effektiv herunterdrücken wird.

Ein somit anzunehmender TU106-Chip in der 12nm-Fertigung für eine GeForce GTX 2060 stellt dann eine vergleichsweise gut abschätzbare Angelegenheit dar, gemessen an den bekannten Daten zu den Turing-Chips TU102 & TU104. Bei diesen hat nVidia jeweils 20% mehr (konventionelle) Shader-Einheiten hinzugegeben, das Speicherinterface wurde auf GDDR6 umgerüstet und RT Core sowie Tensor Cores kamen hinzu. Die Chipflächen stiegen gegenüber den jeweiligen Vorgängern um 60% bzw. ~69%, der Leistungsgewinn unter konventionellen Spielen liegt bei grob betrachtet 35-40%. Angenommen, nVidia würde exakt selbiges beim TU106-Chip veranschlagen, würden wir somit einen Turing-Midrangechip sehen, welcher auf ca. 320-340mm² Chipfläche seine 1536 Shader-Einheiten an einem 192 Bit GDDR6-Speicherinterface aufbietet – und damit eine Performance von knapp der GeForce GTX 1070 (4K Perf.Index 107%) erreichen kann. Die RayTracing-Performance wäre entsprechend niedriger auf grob der Hälfte der GeForce RTX 2080 angesiedelt, sprich bei ~4 GigaRays/sec.

GeForce RTX 2060 GeForce RTX 2070 GeForce RTX 2080 GeForce RTX 2080 Ti (Datenbasis) reine Annahme! (offizielle Daten) (offizielle Daten) (offizielle Daten) Chip TU106 (geschätzt ~320-340mm²) TU104 (~530mm²) TU104 (~530mm²) TU102 (754mm²) Hardware (angenommen) 1536 Shader-Einheiten, 96 TMUs, 48 ROPs, 192 Tensor Cores, 192 Bit Interface, 6 GB GDDR6 2304 Shader-Einheiten, 144 TMUs, 64 ROPs, 288 Tensor Cores, 256 Bit Interface, 8 GB GDDR6 2944 Shader-Einheiten, 184 TMUs, 64 ROPs, 368 Tensor Cores, 256 Bit Interface, 8 GB GDDR6 4352 Shader-Einheiten, 272 TMUs, 88 ROPs, 544 Tensor Cores, 352 Bit Interface, 11 GB GDDR6 FP32-Power geschätzt ~5,4 TFlops 7,5 TFlops 10,1 TFlops 13,4 TFlops RT-Power geschätzt ~4 GRays/sec ~6 GRays/sec ~8 GRays/sec >10 GRays/sec Bandbreite geschätzt ~300 GB/sec 448 GB/sec 448 GB/sec 616 GB/sec 4K Performance geschätzt ~105-110% geschätzt ~150-155% geschätzt ~178-185% geschätzt ~235-250% Listenpreis angenommen 299-349$ 499$ 699$ 999$ Referenztaktung. Performance-Werte als Schätzung gemäß des 4K Performance-Index , bezogen immer auf die

Dies stellt derzeit aber nur eine allererste Annahme dar, andere Ansätze sind genauso denkbar: Beispielsweise könnte nVidia auf das vergleichsweise große 192bittige Speicherinterface verzichten und bei diesem Midrange-Chip wieder zu einem 128-Bit-Interface zurückkehren. Dies würde zwar den Sprung bei der Speicherbandbreite deutlich verkleinern (auf +17%), dafür aber die Chipfläche reduzieren und vor allem auch eine Speicherbestückung von gleich 8 GB ermöglichen – was als nutzvoll im Wettbewerb mit AMD erscheint. Genauso könnte man überlegen, ob nVidia nicht die Anzahl der Shader-Einheiten oder die Größe der RayTracing-Einheiten deutlicher mehr erhöht hat als bei den anderen Turing-Chips (beides gleichzeitig dürfte kaum drin sein). Mehr konventionelle Shader-Einheiten würden den großen Abstand zum TU104-Chip reduzieren helfen – während eine stärkere Anhebung der RayTracing-Power nutzvoll wäre, damit RayTracing bei diesen schwächeren Midrange-Karten überhaupt nutzbar wird (wenn schon die Enthusiasten-Modelle diesbezüglich ihre Probleme haben, dürfte dies bei den kleineren Turing-Karten um so mehr zutreffen). Hierzu kann man sicherlich noch in einige Richtungen denken, ehe dann solide Hardware-Angaben zum TU106-Chip vorliegen.

Das eigentliche Problem jenes Turing-Midrangechip ist aber eher wo ganz anders zu verorten: Der TU106-Chip selber dürfte nicht gerade klein sein, in der konventionelle Ausführung würde eine Chipfläche von ca. 320-340mm² und damit leicht oberhalb des Pascal-HighEnd-Chips GP104 (314mm²) erreicht. Zudem fängt die niedrigste TU104-basierte Lösung in Form der GeForce RTX 2070 bei einem Preispunkt von 499 Dollar an – darunter muß der TU106-Chip bzw. die GeForce RTX 2060 dann eingeordnet werden. Doch selbst bei einem sehr gehörigen Preisabstand kommt da kaum etwas unterhalb von 299 Dollar Listenpreis heraus – was für nVidias Founders Edition schnell einen Preispunkt von 349 Dollar bzw. 369 Euro bedeuten kann. Doch dies ist für das Midrange-Segment reichlich grenzwertig, was neue unglückselige Diskussionen über die Turing-Preispunkte bedeutet. Und dies ist mehr oder weniger die tiefstmögliche Schätzung, eine GeForce RTX 2060 könnte auch schnell einen Listenpreis von 349 Dollar erreichen, was die Founders Edition auf grob 400 Dollar/Euro hochdrücken würde. Gemäß Chipgröße und Performance wäre dieser Preis rechtzufertigen – aber ob sich viele Käufer für eine GeForce RTX 2060 (als typische Midrange-Lösung) auf einem Preispunkt nahe 400 Dollar/Euro finden lassen, wäre doch zu bezweifeln.