Eigentlich schien die Wahl meiner zukünftigen Grafikkarte schon gesetzt, nachdem AMD endlich mal wieder annähernd vollständig konkurrenzfähige GPUs abliefert. Ich wollte dem grünen Drachen kein Geld mehr ins Maul werfen, da mir einige seiner Praktiken nicht zusagten und ich auch das Ende des Quasi-Monopols von Nvidia, zumindest ideell unterstützt sehen wollte.
RayTracing (RT) war für mich auch bisher nur eine technische Spielerei und kaum in der Praxis einzusetzen. Daher war mir die Leistung der Karten in der Hinsicht nicht so wichtig.
Mit Cyberpunk änderte sich mein Blick darauf. Die Effekte von RT sind im einzelnen eher subtil und fallen beim direkten Screenshot-Vergleiche eher wenig auf, aber in Cyberpunk merkte ich wie stark der Effekt der physikalisch korrekten Beleuchtung auf die Gesamtheit einer bewegten Spielszene wirkt. Das an- und abschalten verändert die Atmosphäre der Gesamtkulisse dann doch deutlich spürbar. Ich möchte auf RT also nicht mehr verzichten.
Damit das Spiel mit RT aber überhaupt flüssig lief, kam eine Technik zum Einsatz, die hier das eigentliche Thema ist: »Deep Learning Super Sampling« (DLSS). Von dieser Technik nahm ich zugegeben noch weniger Notiz als von RT am Anfang, doch Cyberpunk belehrte mich auch hier. DLSS ist an sich nichts anderes als ein Mechanismus, um Bilder hochzuskalieren. Was manch einer schon in Bildbearbeitungsprogrammen ausprobiert hat, um alte schlecht aufgelöste Bilder aufzuhübschen, führt Nvidia nun für Spiele ein. Das eigentliche Spiel wird also nicht mehr in der eigentlichen Auflösung gerechnet, sondern in einer Stufe darunter. Wer FullHD, also 1920 mal 1080 Bildpunkte anpeilt, braucht mit DLSS z.B. nur 1280 mal 720 rechnen zu lassen. Die restlichen fehlenden Pixel schätzt der Algorithmus einfach. Damit die Schätzung aber nicht in buntem Bildgeflimmer mit allerlei Artefakten ausartet, wurden die Parameter des Algorithmus anhand vieler Bildpaare von niedrig- und hochaufgelösten Material trainiert und die Ergebnisse für das nächste Training bewertet. Das lief natürlich automatisiert, sodass da viele Millionen Trainingszyklen über Millionen Bildpaare zustande kamen.
Das Ergebnis, dieses selbstlernenden Algorithmus (mit künstlicher Intelligenz hat das aber nichts zu tun, das ist nur Marketing Gewäsch), kann sich sehen lassen. Die Schätzungen sind teilweise so gut, dass es die Qualität der nativen Auflösung teilweise übersteigt. Der Algorithmus in der DLSS Version 2.0 wurde nicht nur mit Material vom eigentlichen Spiel trainiert, sondern mit vielem anderen auch. Dadurch kann er manche Texturen im Spiel detaillierter oder schärfer schätzen, als sie in Wirklichkeit selbst von den Entwicklern ursprünglich erstellt wurden.
Vorstellen kann man sich das am Beispiel eines Maschendrahtzauns. Die Entwickler packen dafür eine Textur ins Spiel, die sie erstellt haben. Der Trainingsdatensatz von DLSS beinhaltet aber auch die Schätzwerte von vielen anderen Maschendrahtzaun-Texturen und vielleicht gar von echten Bildern. So kann er im Spiel den Maschendrahtzaun Details hinzufügen, die über das Ausgangsmaterial hinausgehen.
Zudem beinhaltet das Hochskalieren auch einen glättenden Effekt, sodass Anti-Aliasing automatisch passiert und alle Kanten geglättet werden, egal ob die Kante eines Polygons oder der Übergang einer halbtransparente Textur.
Doch warum spart das nun Rechenleistung? Es klingt an sich ähnlich aufwändig, wie das Bild herkömmlich zu rastern. Doch Nvidia lässt diese Aufgabe spezielle Hardware Kerne, die Tensor-Kerne, erledigen, die den Algorithmus in wahnsinniger Geschwindigkeit durchführen können. Sodass das Schätzen eines Pixels viel schneller ist, als ihn tatsächlich zu berechnen. Insbesondere natürlich, wenn die Berechnung des Pixels die sehr rechenintensive Nachverfolgung von Lichtstrahlen, also RayTracing, beinhaltet.
In der Praxis ist das Ergebnis beeindruckend. Im besagten Cyberpunk würde meine RTX 2070 (ohne Super) mit RT und nativer QHD Auflösung (also 2560 mal 1440 Pixel) nur eine Diashow zustande bringen. Mehr als 10-15 Bilder die Sekunde sind da nicht drin. Schaltet man DLSS hinzu, lande ich aber direkt im spielbaren Bereich von 40-60 Bildern die Sekunde. Die Bildqualität leidet dabei jedoch kaum und sieht in manchen Szenen sogar besser aus. Die Bildschärfe sinkt zwar etwas, aber ob man das in bewegten Szenen wahrnimmt, ist wohl rein subjektiv. Meine Matschaugen sehen den Verlust an Schärfe nur im Direktvergleich von Screenshots und bei einem sehr ungesunden, weil nahem Betrachtungsabstand zum Bildschirm.
Die DLSS beeindruckt mich also sehr und ließ mich überdenken, ob AMD wirklich eine konkurrenzfähige Grafikkarten-Generation abgeliefert hat. Denn weder hat AMD eine aktuell einen Algorithmus wie DLSS im Angebot, noch dedizierte Hardware-Kerne, die diesen dann Beschleunigen könnten. Zwar will AMD mit Fidelity FX Super Resolution (FFSR) mit DLSS gleichziehen und einen ähnlich performanten hoch skalierenden Algorithmus ins Angebot aufnehmen, aber die mangelnde Hardware-Beschleunigung lässt sich natürlich nicht per Treiber update beseitigen.
Nvidia hat sich hier also in einem Bereich einen Vorsprung erarbeitet, dessen Bedeutung ich doch unterschätzt habe. AMDs aktuelle Big Navi Karten erscheinen dadurch, zumindest in meinen Augen, doch wieder in deutlich schlechterem Licht, als sich auf den ersten Blick vermuten lässt.
Ich glaube daher, dass es für AMD essenziell werden wird, FFSR in Stellung zu bringen und eine ähnliche Performanz abzuliefern, wie Nvidia mit DLSS. Auf dem Papier klingt FFSR direkt sympathischer als DLSS. So soll es quelloffen, Plattform und vor allem auch Spiel unabhängig sein. Nvidia hält seinen DLSS Code hingegen streng unter Verschluss und jedes Spiel wird DLSS explizit implementieren müssen. Was natürlich alte Spiele großräumig ausschließt.
Doch noch weiß man eben nicht, ob FFSR auch in Sachen Bildqualität mit DLSS mithalten kann und auch in Sachen Performanz. Vielleicht wird die Hardware-Beschleunigung von DLSS durch die Tensor-Kerne überschätzt und es lässt sich auch ohne solche dedizierten Rechenwerke gut Performanz gewinnen. Ich befürchte aber das Gegenteil. Hinzu kommt auch noch, dass die dedizierten RT-Kerne die AMD nun endlich auch bietet, wohl eher auf dem Niveau von Nvidias RTX 2000er Reihe werkeln, wohingegen die RT-Kerne der 3000er Reihe von Nvidia schon deutlich mehr Lichtstrahlen verfolgen können.
Selbst wenn AMD FFSR nun zügig an den Start bekommt und die Bildqualität mit DLSS mithalten oder unwahrscheinlicher weise gar übertrifft, dann wird man vermutlich damit aber nicht so viele Bilder pro Sekunde rausschlagen können, wie Nvidia mit DLSS. AMD wäre in diesem Bereich also wieder im Hintertreffen und man müsste auf die nächste Generation AMD-Karten warten, doch Nvidia schläft bekanntlich ja auch nicht.
Wie seht ihr das? Ist DLSS vs. FFSR und die RT-Performance insgesamt das entscheidendere Duell zwischen AMD und Nvidia, im Vergleich zur reinen Rohleistung? Wie schätzt ihr AMDs Chancen ein, hier Boden gut machen zu können? Oder überschätze ich den Effekt von DLSS hier nun etwas?
Angesichts der aktuellen Chip-Knappheit, die Mondpreise verursacht und somit jedes vernünftige Aufrüstvorhaben am Geld scheitern lässt und auch der Tatsache, dass meine RTX 2070 mit DLSS gar nicht so schlecht in aktuellen Titeln mit RT-Untersützung performt, versetzen mich in die Position die Schlacht in Ruhe vom Spielfeldrand beobachten zu können. Ich werde wohl einfach erst in der nächsten Generation aufrüsten (oder wenn die jetzige bezahlbar günstig wird). Bis dahin sollte wohl auch AMD sein FFSR am Start haben und man wird sehen, welche Grafikkarte dann das bessere Gesamtpaket liefert.
Was meint ihr? Plant ihr aufzurüsten und wenn ja, habt ihr schon eine Entscheidung getroffen?
RayTracing (RT) war für mich auch bisher nur eine technische Spielerei und kaum in der Praxis einzusetzen. Daher war mir die Leistung der Karten in der Hinsicht nicht so wichtig.
Mit Cyberpunk änderte sich mein Blick darauf. Die Effekte von RT sind im einzelnen eher subtil und fallen beim direkten Screenshot-Vergleiche eher wenig auf, aber in Cyberpunk merkte ich wie stark der Effekt der physikalisch korrekten Beleuchtung auf die Gesamtheit einer bewegten Spielszene wirkt. Das an- und abschalten verändert die Atmosphäre der Gesamtkulisse dann doch deutlich spürbar. Ich möchte auf RT also nicht mehr verzichten.
Damit das Spiel mit RT aber überhaupt flüssig lief, kam eine Technik zum Einsatz, die hier das eigentliche Thema ist: »Deep Learning Super Sampling« (DLSS). Von dieser Technik nahm ich zugegeben noch weniger Notiz als von RT am Anfang, doch Cyberpunk belehrte mich auch hier. DLSS ist an sich nichts anderes als ein Mechanismus, um Bilder hochzuskalieren. Was manch einer schon in Bildbearbeitungsprogrammen ausprobiert hat, um alte schlecht aufgelöste Bilder aufzuhübschen, führt Nvidia nun für Spiele ein. Das eigentliche Spiel wird also nicht mehr in der eigentlichen Auflösung gerechnet, sondern in einer Stufe darunter. Wer FullHD, also 1920 mal 1080 Bildpunkte anpeilt, braucht mit DLSS z.B. nur 1280 mal 720 rechnen zu lassen. Die restlichen fehlenden Pixel schätzt der Algorithmus einfach. Damit die Schätzung aber nicht in buntem Bildgeflimmer mit allerlei Artefakten ausartet, wurden die Parameter des Algorithmus anhand vieler Bildpaare von niedrig- und hochaufgelösten Material trainiert und die Ergebnisse für das nächste Training bewertet. Das lief natürlich automatisiert, sodass da viele Millionen Trainingszyklen über Millionen Bildpaare zustande kamen.
Das Ergebnis, dieses selbstlernenden Algorithmus (mit künstlicher Intelligenz hat das aber nichts zu tun, das ist nur Marketing Gewäsch), kann sich sehen lassen. Die Schätzungen sind teilweise so gut, dass es die Qualität der nativen Auflösung teilweise übersteigt. Der Algorithmus in der DLSS Version 2.0 wurde nicht nur mit Material vom eigentlichen Spiel trainiert, sondern mit vielem anderen auch. Dadurch kann er manche Texturen im Spiel detaillierter oder schärfer schätzen, als sie in Wirklichkeit selbst von den Entwicklern ursprünglich erstellt wurden.
Vorstellen kann man sich das am Beispiel eines Maschendrahtzauns. Die Entwickler packen dafür eine Textur ins Spiel, die sie erstellt haben. Der Trainingsdatensatz von DLSS beinhaltet aber auch die Schätzwerte von vielen anderen Maschendrahtzaun-Texturen und vielleicht gar von echten Bildern. So kann er im Spiel den Maschendrahtzaun Details hinzufügen, die über das Ausgangsmaterial hinausgehen.
Zudem beinhaltet das Hochskalieren auch einen glättenden Effekt, sodass Anti-Aliasing automatisch passiert und alle Kanten geglättet werden, egal ob die Kante eines Polygons oder der Übergang einer halbtransparente Textur.
Doch warum spart das nun Rechenleistung? Es klingt an sich ähnlich aufwändig, wie das Bild herkömmlich zu rastern. Doch Nvidia lässt diese Aufgabe spezielle Hardware Kerne, die Tensor-Kerne, erledigen, die den Algorithmus in wahnsinniger Geschwindigkeit durchführen können. Sodass das Schätzen eines Pixels viel schneller ist, als ihn tatsächlich zu berechnen. Insbesondere natürlich, wenn die Berechnung des Pixels die sehr rechenintensive Nachverfolgung von Lichtstrahlen, also RayTracing, beinhaltet.
In der Praxis ist das Ergebnis beeindruckend. Im besagten Cyberpunk würde meine RTX 2070 (ohne Super) mit RT und nativer QHD Auflösung (also 2560 mal 1440 Pixel) nur eine Diashow zustande bringen. Mehr als 10-15 Bilder die Sekunde sind da nicht drin. Schaltet man DLSS hinzu, lande ich aber direkt im spielbaren Bereich von 40-60 Bildern die Sekunde. Die Bildqualität leidet dabei jedoch kaum und sieht in manchen Szenen sogar besser aus. Die Bildschärfe sinkt zwar etwas, aber ob man das in bewegten Szenen wahrnimmt, ist wohl rein subjektiv. Meine Matschaugen sehen den Verlust an Schärfe nur im Direktvergleich von Screenshots und bei einem sehr ungesunden, weil nahem Betrachtungsabstand zum Bildschirm.
Die DLSS beeindruckt mich also sehr und ließ mich überdenken, ob AMD wirklich eine konkurrenzfähige Grafikkarten-Generation abgeliefert hat. Denn weder hat AMD eine aktuell einen Algorithmus wie DLSS im Angebot, noch dedizierte Hardware-Kerne, die diesen dann Beschleunigen könnten. Zwar will AMD mit Fidelity FX Super Resolution (FFSR) mit DLSS gleichziehen und einen ähnlich performanten hoch skalierenden Algorithmus ins Angebot aufnehmen, aber die mangelnde Hardware-Beschleunigung lässt sich natürlich nicht per Treiber update beseitigen.
Nvidia hat sich hier also in einem Bereich einen Vorsprung erarbeitet, dessen Bedeutung ich doch unterschätzt habe. AMDs aktuelle Big Navi Karten erscheinen dadurch, zumindest in meinen Augen, doch wieder in deutlich schlechterem Licht, als sich auf den ersten Blick vermuten lässt.
Ich glaube daher, dass es für AMD essenziell werden wird, FFSR in Stellung zu bringen und eine ähnliche Performanz abzuliefern, wie Nvidia mit DLSS. Auf dem Papier klingt FFSR direkt sympathischer als DLSS. So soll es quelloffen, Plattform und vor allem auch Spiel unabhängig sein. Nvidia hält seinen DLSS Code hingegen streng unter Verschluss und jedes Spiel wird DLSS explizit implementieren müssen. Was natürlich alte Spiele großräumig ausschließt.
Doch noch weiß man eben nicht, ob FFSR auch in Sachen Bildqualität mit DLSS mithalten kann und auch in Sachen Performanz. Vielleicht wird die Hardware-Beschleunigung von DLSS durch die Tensor-Kerne überschätzt und es lässt sich auch ohne solche dedizierten Rechenwerke gut Performanz gewinnen. Ich befürchte aber das Gegenteil. Hinzu kommt auch noch, dass die dedizierten RT-Kerne die AMD nun endlich auch bietet, wohl eher auf dem Niveau von Nvidias RTX 2000er Reihe werkeln, wohingegen die RT-Kerne der 3000er Reihe von Nvidia schon deutlich mehr Lichtstrahlen verfolgen können.
Selbst wenn AMD FFSR nun zügig an den Start bekommt und die Bildqualität mit DLSS mithalten oder unwahrscheinlicher weise gar übertrifft, dann wird man vermutlich damit aber nicht so viele Bilder pro Sekunde rausschlagen können, wie Nvidia mit DLSS. AMD wäre in diesem Bereich also wieder im Hintertreffen und man müsste auf die nächste Generation AMD-Karten warten, doch Nvidia schläft bekanntlich ja auch nicht.
Wie seht ihr das? Ist DLSS vs. FFSR und die RT-Performance insgesamt das entscheidendere Duell zwischen AMD und Nvidia, im Vergleich zur reinen Rohleistung? Wie schätzt ihr AMDs Chancen ein, hier Boden gut machen zu können? Oder überschätze ich den Effekt von DLSS hier nun etwas?
Angesichts der aktuellen Chip-Knappheit, die Mondpreise verursacht und somit jedes vernünftige Aufrüstvorhaben am Geld scheitern lässt und auch der Tatsache, dass meine RTX 2070 mit DLSS gar nicht so schlecht in aktuellen Titeln mit RT-Untersützung performt, versetzen mich in die Position die Schlacht in Ruhe vom Spielfeldrand beobachten zu können. Ich werde wohl einfach erst in der nächsten Generation aufrüsten (oder wenn die jetzige bezahlbar günstig wird). Bis dahin sollte wohl auch AMD sein FFSR am Start haben und man wird sehen, welche Grafikkarte dann das bessere Gesamtpaket liefert.