AMDs Fidelity FX Super Resolution (FFSR) vs. Nvidias Deep Learning Super Sampling (DLSS)

    Diese Seite verwendet Cookies. Durch die Nutzung unserer Seite erklären Sie sich damit einverstanden, dass wir Cookies setzen. Weitere Informationen

    • AMDs Fidelity FX Super Resolution (FFSR) vs. Nvidias Deep Learning Super Sampling (DLSS)

      Eigentlich schien die Wahl meiner zukünftigen Grafikkarte schon gesetzt, nachdem AMD endlich mal wieder annähernd vollständig konkurrenzfähige GPUs abliefert. Ich wollte dem grünen Drachen kein Geld mehr ins Maul werfen, da mir einige seiner Praktiken nicht zusagten und ich auch das Ende des Quasi-Monopols von Nvidia, zumindest ideell unterstützt sehen wollte.

      RayTracing (RT) war für mich auch bisher nur eine technische Spielerei und kaum in der Praxis einzusetzen. Daher war mir die Leistung der Karten in der Hinsicht nicht so wichtig.
      Mit Cyberpunk änderte sich mein Blick darauf. Die Effekte von RT sind im einzelnen eher subtil und fallen beim direkten Screenshot-Vergleiche eher wenig auf, aber in Cyberpunk merkte ich wie stark der Effekt der physikalisch korrekten Beleuchtung auf die Gesamtheit einer bewegten Spielszene wirkt. Das an- und abschalten verändert die Atmosphäre der Gesamtkulisse dann doch deutlich spürbar. Ich möchte auf RT also nicht mehr verzichten.
      Damit das Spiel mit RT aber überhaupt flüssig lief, kam eine Technik zum Einsatz, die hier das eigentliche Thema ist: »Deep Learning Super Sampling« (DLSS). Von dieser Technik nahm ich zugegeben noch weniger Notiz als von RT am Anfang, doch Cyberpunk belehrte mich auch hier. DLSS ist an sich nichts anderes als ein Mechanismus, um Bilder hochzuskalieren. Was manch einer schon in Bildbearbeitungsprogrammen ausprobiert hat, um alte schlecht aufgelöste Bilder aufzuhübschen, führt Nvidia nun für Spiele ein. Das eigentliche Spiel wird also nicht mehr in der eigentlichen Auflösung gerechnet, sondern in einer Stufe darunter. Wer FullHD, also 1920 mal 1080 Bildpunkte anpeilt, braucht mit DLSS z.B. nur 1280 mal 720 rechnen zu lassen. Die restlichen fehlenden Pixel schätzt der Algorithmus einfach. Damit die Schätzung aber nicht in buntem Bildgeflimmer mit allerlei Artefakten ausartet, wurden die Parameter des Algorithmus anhand vieler Bildpaare von niedrig- und hochaufgelösten Material trainiert und die Ergebnisse für das nächste Training bewertet. Das lief natürlich automatisiert, sodass da viele Millionen Trainingszyklen über Millionen Bildpaare zustande kamen.

      Das Ergebnis, dieses selbstlernenden Algorithmus (mit künstlicher Intelligenz hat das aber nichts zu tun, das ist nur Marketing Gewäsch), kann sich sehen lassen. Die Schätzungen sind teilweise so gut, dass es die Qualität der nativen Auflösung teilweise übersteigt. Der Algorithmus in der DLSS Version 2.0 wurde nicht nur mit Material vom eigentlichen Spiel trainiert, sondern mit vielem anderen auch. Dadurch kann er manche Texturen im Spiel detaillierter oder schärfer schätzen, als sie in Wirklichkeit selbst von den Entwicklern ursprünglich erstellt wurden.
      Vorstellen kann man sich das am Beispiel eines Maschendrahtzauns. Die Entwickler packen dafür eine Textur ins Spiel, die sie erstellt haben. Der Trainingsdatensatz von DLSS beinhaltet aber auch die Schätzwerte von vielen anderen Maschendrahtzaun-Texturen und vielleicht gar von echten Bildern. So kann er im Spiel den Maschendrahtzaun Details hinzufügen, die über das Ausgangsmaterial hinausgehen.
      Zudem beinhaltet das Hochskalieren auch einen glättenden Effekt, sodass Anti-Aliasing automatisch passiert und alle Kanten geglättet werden, egal ob die Kante eines Polygons oder der Übergang einer halbtransparente Textur.

      Doch warum spart das nun Rechenleistung? Es klingt an sich ähnlich aufwändig, wie das Bild herkömmlich zu rastern. Doch Nvidia lässt diese Aufgabe spezielle Hardware Kerne, die Tensor-Kerne, erledigen, die den Algorithmus in wahnsinniger Geschwindigkeit durchführen können. Sodass das Schätzen eines Pixels viel schneller ist, als ihn tatsächlich zu berechnen. Insbesondere natürlich, wenn die Berechnung des Pixels die sehr rechenintensive Nachverfolgung von Lichtstrahlen, also RayTracing, beinhaltet.

      In der Praxis ist das Ergebnis beeindruckend. Im besagten Cyberpunk würde meine RTX 2070 (ohne Super) mit RT und nativer QHD Auflösung (also 2560 mal 1440 Pixel) nur eine Diashow zustande bringen. Mehr als 10-15 Bilder die Sekunde sind da nicht drin. Schaltet man DLSS hinzu, lande ich aber direkt im spielbaren Bereich von 40-60 Bildern die Sekunde. Die Bildqualität leidet dabei jedoch kaum und sieht in manchen Szenen sogar besser aus. Die Bildschärfe sinkt zwar etwas, aber ob man das in bewegten Szenen wahrnimmt, ist wohl rein subjektiv. Meine Matschaugen sehen den Verlust an Schärfe nur im Direktvergleich von Screenshots und bei einem sehr ungesunden, weil nahem Betrachtungsabstand zum Bildschirm. :ugly:

      Die DLSS beeindruckt mich also sehr und ließ mich überdenken, ob AMD wirklich eine konkurrenzfähige Grafikkarten-Generation abgeliefert hat. Denn weder hat AMD eine aktuell einen Algorithmus wie DLSS im Angebot, noch dedizierte Hardware-Kerne, die diesen dann Beschleunigen könnten. Zwar will AMD mit Fidelity FX Super Resolution (FFSR) mit DLSS gleichziehen und einen ähnlich performanten hoch skalierenden Algorithmus ins Angebot aufnehmen, aber die mangelnde Hardware-Beschleunigung lässt sich natürlich nicht per Treiber update beseitigen.

      Nvidia hat sich hier also in einem Bereich einen Vorsprung erarbeitet, dessen Bedeutung ich doch unterschätzt habe. AMDs aktuelle Big Navi Karten erscheinen dadurch, zumindest in meinen Augen, doch wieder in deutlich schlechterem Licht, als sich auf den ersten Blick vermuten lässt.

      Ich glaube daher, dass es für AMD essenziell werden wird, FFSR in Stellung zu bringen und eine ähnliche Performanz abzuliefern, wie Nvidia mit DLSS. Auf dem Papier klingt FFSR direkt sympathischer als DLSS. So soll es quelloffen, Plattform und vor allem auch Spiel unabhängig sein. Nvidia hält seinen DLSS Code hingegen streng unter Verschluss und jedes Spiel wird DLSS explizit implementieren müssen. Was natürlich alte Spiele großräumig ausschließt.
      Doch noch weiß man eben nicht, ob FFSR auch in Sachen Bildqualität mit DLSS mithalten kann und auch in Sachen Performanz. Vielleicht wird die Hardware-Beschleunigung von DLSS durch die Tensor-Kerne überschätzt und es lässt sich auch ohne solche dedizierten Rechenwerke gut Performanz gewinnen. Ich befürchte aber das Gegenteil. Hinzu kommt auch noch, dass die dedizierten RT-Kerne die AMD nun endlich auch bietet, wohl eher auf dem Niveau von Nvidias RTX 2000er Reihe werkeln, wohingegen die RT-Kerne der 3000er Reihe von Nvidia schon deutlich mehr Lichtstrahlen verfolgen können.

      Selbst wenn AMD FFSR nun zügig an den Start bekommt und die Bildqualität mit DLSS mithalten oder unwahrscheinlicher weise gar übertrifft, dann wird man vermutlich damit aber nicht so viele Bilder pro Sekunde rausschlagen können, wie Nvidia mit DLSS. AMD wäre in diesem Bereich also wieder im Hintertreffen und man müsste auf die nächste Generation AMD-Karten warten, doch Nvidia schläft bekanntlich ja auch nicht.

      Wie seht ihr das? Ist DLSS vs. FFSR und die RT-Performance insgesamt das entscheidendere Duell zwischen AMD und Nvidia, im Vergleich zur reinen Rohleistung? Wie schätzt ihr AMDs Chancen ein, hier Boden gut machen zu können? Oder überschätze ich den Effekt von DLSS hier nun etwas? :thinking:

      Angesichts der aktuellen Chip-Knappheit, die Mondpreise verursacht und somit jedes vernünftige Aufrüstvorhaben am Geld scheitern lässt und auch der Tatsache, dass meine RTX 2070 mit DLSS gar nicht so schlecht in aktuellen Titeln mit RT-Untersützung performt, versetzen mich in die Position die Schlacht in Ruhe vom Spielfeldrand beobachten zu können. Ich werde wohl einfach erst in der nächsten Generation aufrüsten (oder wenn die jetzige bezahlbar günstig wird). Bis dahin sollte wohl auch AMD sein FFSR am Start haben und man wird sehen, welche Grafikkarte dann das bessere Gesamtpaket liefert. :slight_smile: Was meint ihr? Plant ihr aufzurüsten und wenn ja, habt ihr schon eine Entscheidung getroffen?
    • Lässt Nvidia sein "KI-Upscaling" nicht auch direkt mit 8k und 16k Bilder trainieren? Ich hab ja so ein Vorgänger davon schon auf meiner Nvidia Shield und auch dort ist es schon erstaunlich was da an Bild hergezaubert wird.
      Ich seher in dieser Technologie auch viel Zukunft.

      Nexan schrieb:

      Auf dem Papier klingt FFSR direkt sympathischer als DLSS. So soll es quelloffen, Plattform und vor allem auch Spiel unabhängig sein. Nvidia hält seinen DLSS Code hingegen streng unter Verschluss und jedes Spiel wird DLSS explizit implementieren müssen. Was natürlich alte Spiele großräumig ausschließt.
      Anders gesagt AMD schiebt es wieder an andere ab :ugly:

      Nexan schrieb:

      Plant ihr aufzurüsten und wenn ja, habt ihr schon eine Entscheidung getroffen?
      Nicht wirklich. Neben den Grafikkarten fehlt mir auch momentan irgendwie ein Spiel dafür. Da wird meine GTX 1080 noch eine Weile ausreichen.
    • Gokux schrieb:

      Nicht wirklich. Neben den Grafikkarten fehlt mir auch momentan irgendwie ein Spiel dafür. Da wird meine GTX 1080 noch eine Weile ausreichen.
      Ja, Cyberpunk war mein einziger Next-Gen-Titel, der mich zittern ließ. Aber der läuft der ja nun recht gut. :grimacing: Die 1080 bzw. generell die 1000er Generation von Nvidia muss sich glaube auch heute noch nicht verstecken. Wenn ich davor nicht mit einer Speicherkastrierten 970 dagestanden hätte, hätte ich die 2000er Generation wohl auch vorbeiziehen lassen. Wobei ich nun wegen DLSS und RayTracing ganz froh bin eine solche Karte im Rechner zu haben.

      Gokux schrieb:

      Lässt Nvidia sein "KI-Upscaling" nicht auch direkt mit 8k und 16k Bilder trainieren?
      Ich glaube ja, wobei bei DLSS 2.0 generell viel unterschiedliches Material zum Einsatz kommen soll.

      Gokux schrieb:

      Ich seher in dieser Technologie auch viel Zukunft.
      Ich denke auch. Anders wird man 4K Gaming für die Breite Masse auch nicht bezahlbar bekommen. Zumindest nicht in absehbarer Zeit. Das einzige, was ich an DLSS noch sehr nachteilig finde, ist, dass es explizit in ein Spiel implementiert werden muss. Da würde ich mir eine generische Lösung wünschen, die man im Treiber einfach für jedes Spiel erzwingen kann. Das würde dann zwar auch bedeuten das HUD Elemente und Menüs durch DLSS laufen, aber das wäre für eine insgesamt detaillierte Optik zu verschmerzen (sobald das überhaupt funktioniert), glaube ich.
      Ein paar ältere aber dennoch anspruchsvolle Titel so in 4K zu sehen, hätte was. Oder in niedrigerer Auflösung aber mit wesentlich mehr Bildern pro Sekunde, was wohl auch viele gerne mitnehmen würden.
      Zudem könnte man dann beruhigt auf einen 4K Bildschirm wechseln. Ich habe mir eigentlich nur deswegen WQHD Monitore zugelegt, weil ich die notwendige Rechenleistung für Spiele fürchtete.
      Aber vermutlich wird es irgendwann DLSS 3.0 geben und vielleicht bietet es dann genau das. Spätestens dann wäre es ein absolutes Killer-Feature und ein wesentlicher Kaufgrund für NVidia-Karten (Sofern AMD kein vergleichbares Pendant auf die Beine bekommt).

      Gokux schrieb:

      Anders gesagt AMD schiebt es wieder an andere ab
      Was Software rund um ihr Ökosystem allgemein angeht, muss AMD noch aufholen denke ich. Die Treiber und vor allem die Dauer der Unterstützung der Grafikkarten mit aktuellen Treibern muss sich erst noch auf Nvidias Niveau bewegen. Aber dank Ryzen und Co. reichlich gefüllter Kriegskassen könnte sich da endlich mal was tun.
      Ich bin trotzdem gespannt, ob sie mit ihrem FFSR an das Niveau von DLSS werden heranreichen können. Zumindest für Konsolen wird es ebenso interessant sein und wenn es wirklich generisch über die DirectX API bzw. auch als Vulkan API umgesetzt wird, könnte es zumindest auf alle diese Spiele generisch anwendbar sein.
      Nur, dass die Konsolen auch Chips ohne explizite Beschleuniger Kerne haben, könnte das etwas trüben und die Nutzung und Entwicklung insgesamt verlangsamen. :thinking: