GTX 1080 und RX Vega 64 im HDR-Benchmark-Duell

Die Benchmarks zeigen schnell, dass HDR nicht ohne Performance-Verlust genutzt werden kann. Auf AMDs Radeon RX Vega 64 fällt dieser aber nur gering aus. Im Durchschnitt verringert sich bei angeschaltetem HDR die Framerate um zwei Prozent, für die Frametimes gibt es denselben Wert.

Die GeForce GTX 1080 verliert hingegen deutlich mehr Geschwindigkeit. Im Schnitt reduzieren sich die Bilder pro Sekunde um zehn Prozent, die Frametimes um kaum geringere neun Prozent. Und in manchen Spielen kann es noch deutlich mehr sein. ComputerBase steht mit Nvidia diesbezüglich in Kontakt. Bis jetzt hat es aber noch keine Antworten gegeben.

Mit HDR ändert sich das Kräfteverhältnis

Das unterschiedliche Verhalten hat somit auch Auswirkungen auf das direkte Duell. Mit klassischem SDR ist die Radeon RX Vega 64 im Durchschnitt ein Prozent schneller und damit praktisch quasi gleich schnell. Mit HDR ist die AMD-Grafikkarte dagegen ein gutes Stück voraus. Der Vorsprung beträgt dann zehn Prozent.

« Voriges Performancerating – FPS Performancerating – Frametimes Nächstes » Bearbeiten Performancerating – FPS Einheit: Prozent Einfließende Diagramme Alle Keine Assassin's Creed Origins – 3.840 × 2.160: FPS, Durchschnitt Battlefield 1 – 3.840 × 2.160: FPS, Durchschnitt Call of Duty: WWII – 3.840 × 2.160: FPS, Durchschnitt Destiny 2 – 3.840 × 2.160: FPS, Durchschnitt F1 2017 – 3.840 × 2.160: FPS, Durchschnitt Far Cry 5 – 3.840 × 2.160: FPS, Durchschnitt Final Fantasy XV – 3.840 × 2.160: FPS, Durchschnitt Mass Effect: Andromeda – 3.840 × 2.160: FPS, Durchschnitt Mittelerde: Schatten des Krieges – 3.840 × 2.160: FPS, Durchschnitt Resident Evil 7 – Biohazard: FPS, Durchschnitt Shadow Warrior 2: FPS, Durchschnitt Star Wars: Battlefront 2 – 3.840 × 2.160: FPS, Durchschnitt AMD Radeon RX Vega 64 @ SDR 96,2 Nvidia GeForce GTX 1080 @ SDR 95,1 AMD Radeon RX Vega 64 @ HDR 94,2 Nvidia GeForce GTX 1080 @ HDR 85,4

Bearbeiten Performancerating – Frametimes Einheit: Prozent Einfließende Diagramme Alle Keine Assassin's Creed Origins – 3.840 × 2.160: 99th Percentile (Frametimes in FPS) Battlefield 1 – 3.840 × 2.160: 99th Percentile (Frametimes in FPS) Call of Duty: WWII – 3.840 × 2.160: 99th Percentile (Frametimes in FPS) Destiny 2 – 3.840 × 2.160: 99th Percentile (Frametimes in FPS) F1 2017 – 3.840 × 2.160: 99th Percentile (Frametimes in FPS) Far Cry 5 – 3.840 × 2.160: 99th Percentile (Frametimes in FPS) Final Fantasy XV – 3.840 × 2.160: 99th Percentile (Frametimes in FPS) Mass Effect: Andromeda – 3.840 × 2.160: 99th Percentile (Frametimes in FPS) Mittelerde: Schatten des Krieges – 3.840 × 2.160: 99th Percentile (Frametimes in FPS) Resident Evil 7 – Biohazard: 99th Percentile (Frametimes in FPS) Shadow Warrior 2: 99th Percentile (Frametimes in FPS) Star Wars: Battlefront 2 – 3.840 × 2.160: 99th Percentile (Frametimes in FPS) AMD Radeon RX Vega 64 @ SDR 95,9 AMD Radeon RX Vega 64 @ HDR 94,2 Nvidia GeForce GTX 1080 @ SDR 93,3 Nvidia GeForce GTX 1080 @ HDR 85,2



Die einzelnen Spiele zeigen Extreme

Die einzelnen Benchmarks zeigen, dass es sie wirklich gibt: Spiele, die mit HDR keine Performance verlieren. Interessanterweise sind es nicht dieselben Titel, GeForce reagiert anders als Radeon. So zeigt sich die GeForce GTX 1080 in Mass Effect: Andromeda unbeeindruckt davon, ob SDR oder HDR genutzt wird. Auch in Far Cry 5 ist die Differenz sehr klein. Auf der Radeon RX Vega 64 gibt es in Assassin's Creed Origins, Battlefield 1, F1 2017, Final Fantasy XV, Mass Effect: Andromeda, Shadow Warrior 2 und Star Wars: Battlefront 2 keinen Unterschied, welcher Modus aktiv ist.

In anderen Spielen sind die Abstände teils deutlich größer. Auf der Radeon-Grafikkarte halten sich die Unterschiede in Grenzen. Der größte Performance-Verlust zeigt sich in Destiny 2, das neun Prozent an FPS verliert. Far Cry 5 läuft fünf Prozent langsamer, in allen anderen Spielen beträgt die Differenz weniger als fünf Prozent.

Ganz anders die GeForce GTX 1080. Auch dort ist Destiny 2 am problematischsten. Hier beträgt der Geschwindigkeitsverlust auf der Nvidia-Grafikkarte hohe 20 Prozent. Ebenso verliert Assassin's Creed Origins mit 12 Prozent, Mittelerde: Schatten des Krieges mit 13 Prozent und Shadow Warrior 2 mit 15 Prozent viel Leistung.

Überraschende Ergebnisse ändern nichts am Fazit

Bei der Planung des Artikels ging die Redaktion eigentlich davon aus, dass die Ergebnisse langweilig – da gleich – ausfallen und die Erwartungen nur bestätigt werden würden. Es wurde dann aber doch viel spannender als gedacht. Denn bezüglich der Performance ist es nur selten egal, ob HDR genutzt wird oder nicht. Manche Spiele verlieren je nach Grafikkarten durchaus ordentlich Performance.

Je nach Spiel gibt es einen unterschiedlich großen Leistungsverlust

Mit HDR muss zumindest derzeit zwischen einer AMD- und einer Nvidia-Grafikkarte unterschieden werden. Denn die im Test genutzte Radeon RX Vega 64 verliert in den meisten Titeln tatsächlich keinerlei Performance beim Wechsel von SDR auf HDR. Der Worst Case ist Destiny 2 mit nicht ganz zehn Prozent weniger FPS und Far Cry 5 mit einem fünfprozentigen Verlust. Im Durchschnitt ist der Einsatz von HDR auf der Radeon mit zwei Prozent Verlust nicht spürbar.

Auf einer Nvidia-Grafikkarte fällt der Leistungsverlust derzeit hingegen deutlich höher aus. Die GeForce GTX 1080 verliert durch „High Dynamic Range“ im Schnitt 10 Prozent an Bildern pro Sekunde, in Destiny 2 sind es gar 20 Prozent. Damit ist der Geschwindigkeitsverlust auf einer Nvidia-Grafikkarte anders als auf einem AMD-Beschleuniger durchaus zu spüren. Und es verschiebt sich auch das Leistungsgefüge: Denn mit SDR gibt es einen Gleichstand zwischen den zwei Grafikkarten, mit HDR liegt aber AMD vorne.

Der Grund für das Verhalten ist unklar

Warum Nvidia-GPUs mit größeren Einbußen als die AMD-Grafikkarten zu kämpfen haben, ist derzeit unklar – auch Nvidia konnte der Redaktion noch keinen Grund dafür nennen. Dennoch lautet die Empfehlung, bei einem entsprechenden Monitor HDR zu nutzen. Es gibt zwar noch nicht viele Spiele, die HDR unterstützen. Die meisten, die dies tun, sehen damit aber teils deutlich besser aus. Der Unterschied ist viel größer als bei einer oder auch zwei höheren Detailstufen, sodass eben jene reduziert werden können und das Spiel dennoch schöner aussieht. Unter Umständen müssen dann jedoch auf einer GeForce mehr Details reduziert werden als auf einer Radeon.

Dieser Artikel war interessant, hilfreich oder beides? Die Redaktion freut sich über jede Unterstützung in Form deaktivierter Werbeblocker oder eines Abonnements von ComputerBase Pro. Mehr zum Thema Anzeigen auf ComputerBase.