AMD Radeon 300er Serie – endlich mal wieder schneller als Nvidia?

    Diese Seite verwendet Cookies. Durch die Nutzung unserer Seite erklären Sie sich damit einverstanden, dass wir Cookies setzen. Weitere Informationen

    • AMD Radeon 300er Serie – endlich mal wieder schneller als Nvidia?

      Was die Marktanteile angeht hat AMD im Grafikkartensegement schon seit langem keine gute Stellung gegenüber Nvidia. Zu langsam, zu ineffizient, zu heiß und zu laut werden oft als Argumente genannt, um zu begründen warum man Nvidia einfach nicht beikommen kann. Doch zumindest in Sachen Geschwindigkeit könnte AMD mit der im Sommer erwarteten 300er Serie deutlich zu Nvidia aufschließen oder gar überholen, wenn man ersten Gerüchten zu den Spezifikationen glauben darf. Zwar basiert die Architektur auf der 200er Serie, weshalb man beim Stromverbrauch und der Wärmeentwicklung weniger Fortschritt erwarten darf, aber die meisten Spieler interessiert zumeist eh nur die Rohleistung. Schafft also AMD einen guten Angriff auf den grünen Riesen?

      Ich persönlich würde mir wünschen, dass AMD sich wieder deutlich stärker gegenüber Nvidia positionieren kann, allein schon um ein heraufziehendes Monopol zu verhindern. Zusätzlich wäre ein Preiskampf der beiden Hersteller etwaigen Aufrüstvorhaben ebenfalls zuträglich. Letztlich kann ich mir auch vorstellen mal wieder einen Ausflug ins AMD-Lager zu wagen, da dank Mantle, FreeSync usw. das Angebot durchaus auch gute Argumente vorhält. Wobei ich trotz Speicherskandal immer noch am ehesten eine Geforce GTX 970 im Auge habe, die dann im Sommer hoffentlich ordentlich unter Preisdruck gerät. :grin:

      Wie steht es mit euch? Seit ihr dem AMD Lager treu ergeben oder könnt euch einen Wechsel mit der 300er Serie vorstellen oder bleibt ihr dem grünen Riesen treu? :thinking:
    • Also bei der Überschrift .... -.-
      Was heißt hier "endlich mal wieder"?

      Meine R9 290 war das ganze letzte Jahr über schneller als die GTX770 (gleich teuer) und annähernd gleich auf mit der 780GTX, die aber 200€ teurer ist/war.

      Das Geschwindigkeitsargument hinkt also! Und zwar deutlich!
      (außer du vergleichst die aktuelle Serie von Nvidia (970 und 980GTX) und AMDs alte Serie (R9 290 und 290x) - aber das ist absolut nicht fair!)

      Und das Hitzeproblem hatte AMD nur mit dem hauseigenen Kühler - ein (! - leider wirklich nicht viele) paar Hersteller haben ein ordentliches Kühlkonzept für die 290 und 290x zusammengebracht.

      Das zur Überschrift/Vergangenheit.

      _____________________________________

      Trauriger Weise ist noch immer Nvidia unangefochtener Platzhirsch - doch warum eigentlich?
      Sie lügen (GTX970), Shadowplay kann nun auch AMD mit GVR - bleibt nur mehr Physix? Und das hab ich nie eingeschaltet, weil ichs einfach nicht brauche ...

      Doch Vorsicht: Auch AMD muss ich in letzter Zeit etwas skeptisch liebäugeln: Mantle war/ist nicht mal annähernd das, als was es angepriesen wurde. Bei BF4 ist es von der Performancee her gleich wie DirectX - nur dass das Game 10x mehr abstürzt ^^ Langsam glaube ich nur, dass das ein großer Marketing-Gag war ...

      Egal - Klar wird AMD mit der 300der Serie wieder zu den 970/980ger von Nividia aufschließen können - und das wohl wieder billiger.
      Denn die dummen Nvidia-Leute produzieren ihre Chips noch immer viel größer und somit teurer als AMD - klar sind die größeren Chips kühler, aber einige AMD-Custom Kühllösungen haben bewiesen, dass man auch AMD Chips kühl und leise laufen lassen kann (zb Shapphire macht das gut!)

      Und dann noch das Speicherinterface: 4GB oder 8GB Grafikspeicher schön und gut, aber AMD hat schon seit der 290ger Serie 512bit Speicherinterface und Nivdia? Tja die lügen damit bei der 970 und bei der 980 sinds glaub ich auch "nur" 350 oder so was (keine Ahnung, müsst ich googlen, aber das könnt ihr auch selber).

      _________________

      Persönlich:
      - Meine bisherigen AMD Karten (HD5770 und R9 290) haben immer gehalten was sie versprachen.
      - Meine 8800GT von Nvidia hat 1,5 Jahre nur gehalten. Meine 6600GT davor war dafür ok.
      - AMDs Mantle ist für nix
      - Nvidia hat gelogen
      _______
      Unterm Strich hab ich keinen Favoriten, aber es wäre schön, wenn die beiden sich im Preiskampf und in der Performance weiterhin das Wasser reichen können und so den Markt beleben.

      Was ich nach meiner R9 290 kaufen werde? Da bin ich völlig unbefangen und werde dann entscheiden, wenn es soweit ist.
      it's not easy when it's icy

      Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von Stone ()

    • Also Leistungsmässig kann man AMD jetzt eigentlich in den letzten Jahren nichts wirklich vorwerfen. Nur die Effizienz bei der 200er Reihe fand ich schon etwas verzweifelt und dreist (unabhängig der der Nvidia 900er).
      Das Nvidia erfolgreicher ist liegt m.M. an der PR. Gsync, GameWorks usw. kann man alles kritisieren aber es gibt Aufmerksamkeit. Bei AMD gabs bisher eigentlich nur Mantle für gute PR (sehr gute sogar). Ein weiterer Punkt ist das AMD sich auch etwas billig verkauft. Günstige Karten und dann noch ein halbes Dutzend kostenloser Spiele dazu? Da fragen sich sicher einige.. Viele wo ich kenne sehen AMD irgendwie als Billiglabel und wenn ich nachfrage wissen sie nicht mal warum :ugly:. Als ATI noch selbständig war, standen sie auf jedenfall besser da.
    • Stone schrieb:

      Also bei der Überschrift .... -.-
      Was heißt hier "endlich mal wieder"?
      Okay, betrachtet man längere Zeiträume mag dies stimmen, aber PC Hardware ist nun einmal ein schnelllebiges Geschäft und seit einiger Zeit sind sie halt hinter Nvidia hinterher. Wobei ich zugebe, dass ich etwas Provokation mit einfließen lassen wollte. :grin:

      Stone schrieb:

      (außer du vergleichst die aktuelle Serie von Nvidia (970 und 980GTX) und AMDs alte Serie (R9 290 und 290x) - aber das ist absolut nicht fair!)
      Fair mag das nicht sein, aber den Käufern ist Fairness sicherlich egal. Da wird geguckt was aktuell schnell ist und wenn AMD stets einige Monate länger braucht um ihre aktuelle Generation zu platzieren sind das nun einmal wertvolle Monate in denen die Leute unter Umständen zu Nvidia wandern.

      Ich persönlich finde Gsync einfach nur unattraktiv und als deutlich schlechtere Lösung als FreeSync allein schon weil die Monitorhersteller einen proprietären Chip in ihre Glotzkisten bauen müssten. Bei FreeSync ist das nicht nötig solang nur der aktuelle DisplayPort Standard unterstützt wird.

      Stone schrieb:

      Mantle war/ist nicht mal annähernd das, als was es angepriesen wurde. Bei BF4 ist es von der Performancee her gleich wie DirectX - nur dass das Game 10x mehr abstürzt ^^ Langsam glaube ich nur, dass das ein großer Marketing-Gag war ...
      Ich glaube es ist immer noch ein verbreitetes Missverständnis, dass Mantle die Grafik beschleunigen soll. Denn Mantle entlastet einzig und allein die CPU! Sprich, wer eine schnelle CPU hat wird von Mantle kaum bis gar nicht profitieren. Auf meinem Notebook konnte ich Battlefield 4 dank Mantle beispielsweise überhaupt nur annähernd flüssig spielen, weil eben die CPU des Klapprechners sehr … nun begrenzt in ihren Möglichkeiten ist. Ohne Mantle habe ich da nur eine reine Ruckelorgie. Auf meinem Desktop würde es Dank des Intel Vierkerners sicherlich anders aussehen und kaum ein Unterschied festzustellen sein.
      Letztlich kommt es dann auch noch auf die Mantle Umsetzung der Entwickler an. BF 4 läuft wirklich wenig stabil mit der Mantle Schnittstelle, was wenig wundert wenn man sich den übrigen Zustand von BF 4 hinsichtlich Netzcode usw. anguckt. Civilization Beyond Earth hingegen rennt wie eine eins mit Mantle ohne einen einzigen Absturz (bisher).

      Bei mir hat es sich AMD eher damit verscherzt, dass mein Notebook nun keine regulären Treiber mehr bekommt, sondern nur noch einen Legacy-Treiber der keine Mantle-Unterstützung mehr beinhaltet. Daher muss ich nun bis in alle Zeit mit nem sonderbaren und leicht instabilen Beta-Treiber herumlaufen oder Mantle wieder von Bord werfen. X-(
    • Nexan schrieb:

      Ich persönlich finde Gsync einfach nur unattraktiv und als deutlich schlechtere Lösung als FreeSync allein schon weil die Monitorhersteller einen proprietären Chip in ihre Glotzkisten bauen müssten. Bei FreeSync ist das nicht nötig solang nur der aktuelle DisplayPort Standard unterstützt wird.
      Das ist gar nicht der Punkt. Gsync war zuerst da und Nvidia konnte dafür viele Lorbeeren ernten. Interessant finde ich aber das sich Adaptive-Sync irgendwie bisher aber auch nicht gerade gross verbreitet hat. Gibt es dort evtl. auch noch Hürden?

      Nexan schrieb:

      Bei mir hat es sich AMD eher damit verscherzt, dass mein Notebook nun keine regulären Treiber mehr bekommt, sondern nur noch einen Legacy-Treiber der keine Mantle-Unterstützung mehr beinhaltet. Daher muss ich nun bis in alle Zeit mit nem sonderbaren und leicht instabilen Beta-Treiber herumlaufen oder Mantle wieder von Bord werfen. X-(
      Ja das kann man so sagen. AMD Karten bei Laptops sind ein Desaster. Im Grunde habe ich eigentlich 300€ für eine dedizierte Grafikkarte verschenkt. Der offizielle Treibersupport hat gerade mal ein Jahr gehalten und das dann auch nur für Windows 7.
    • Die R9 390X soll laut Gerüchten mit einem hybriden Wasserkühler im Referenzdesign daherkommen: pcgameshardware.de/Grafikkarte…-Referenz-Design-1150847/ das nährt irgendwie die Befürchtungen, dass die AMD Karten wieder echte Stromsäufer und entsprechend laute Hitzköpfe werden. Ich weiß bei den meisten Spielern zählt nur die Rohleistung, aber ich persönlich würde es zu schätzen wissen, wenn meine verbaute Grafikkarte nicht zu laut wird und auch nicht den Stromzähler durchdrehen lässt. :thinking: Hat AMD da komplett den Anschluss verloren?

      Gokux schrieb:

      Interessant finde ich aber das sich Adaptive-Sync irgendwie bisher aber auch nicht gerade gross verbreitet hat. Gibt es dort evtl. auch noch Hürden?
      Wie meinst du das? Adaptive-Sync ist doch bloß eine Treiberoption bei Nvidia und entsprechend überall dort verbreitet wo ein halbwegs aktueller Treiber eingesetzt wird. :thinking:
    • Gokux schrieb:

      Nexan schrieb:

      Wie meinst du das? Adaptive-Sync ist doch bloß eine Treiberoption bei Nvidia und entsprechend überall dort verbreitet wo ein halbwegs aktueller Treiber eingesetzt wird. :thinking:
      Adaptive-Sync ist der DP Standard an dem sich letztendlich FreeSync bedient. Du meinst dagegen Adaptive Vsync.
      Ah okay, soweit war ich dann wohl doch nicht in der Materie. Habe aber dazu einen interessanten Artikel gefunden: heise.de/ct/artikel/G-Sync-Fre…Wirklichkeit-2195186.html

      Kurz gesagt scheint sowohl bei der Signalweitergabe (LVDS kann keine flexiblen Aktualisierungsraten) zu den Kristallen noch der nötige Standard zu fehlen, als auch die Flüssigkristalle selbst, die in Ermangelung geeigneter Transistoren wohl anfangen würden zu flimmern, wenn die Schaltzeiten zu niedrig skaliert würden. Offenkundig ist also die flexible Anpassung der Aktualisierungsraten bei Monitoren doch deutlich komplizierter und problematischer als uns Nvidia, die VESA und AMD weismachen wollen. :thinking: