Seite 11 von 11 ErsteErste ... 1011
Ergebnis 201 bis 209 von 209

Thema: Hardware NEWS

  1. #201
    Capt. Clark Capt. Clark ist offline
    Avatar von Capt. Clark

    Hardware NEWS

    Das einzig Gute an der 5090 ist der für Nvidia unübliche, üppige VRAM. Aber da ich eh nicht die Zielgruppe bin, ist es mir an sich Wurst. Nur schade, dass Nvidia im Mid- sowie High-End Bereich den VRAM weiter beschränkt, eine 5070 ist ja eigentlich schon dead on arrival, da kann man ja NUR durch DLSS punkten, in Raster hast du bei dem mageren VRAM keine Chance für zukünftige Titel. Wer kauft sich für 600€ eine GraKa, um dann in 1-2 Jahren doch auf eine High-End Karte umsteigen zu müssen, weil der VRAM ausgeht? Klar, bei dieser Logik ist die 5090 dann die attraktivere Option. Aber nee, das bisschen Zusatzleistung in Raytracing und etwas besseres Upscaling hält mich wohl nicht länger bei Nvidia, da wird die nächste GraKa wohl aus dem roten oder blauen Lager kommen. Habe aber auch noch etwas Zeit, meine 3080 ist noch nicht ganz am Ende, aber man merkt schon dass es mit 10GB VRAM bald knapp wird bei UWQHD.

  2. Anzeige

    Hardware NEWS

    Schau dir mal diesen Bereich an. Dort ist für jeden was dabei!
  3. #202
    Jonny Knox Jonny Knox ist offline
    Avatar von Jonny Knox

    Hardware NEWS

    Naja, die Mehrperformance ist dann halt doch ausschließlich auf MFG zurückzuführen. Der Rest wird über die Stromaufnahme geregelt, was dann sowohl höhere Lautstärke, als auch höhere Temperaturen zur Folge hat. Wie das dann bei einigen Temperaturen im Sommer in einem unklimatisierten Raum heißt, wenn der Speicher halt schon knapp an den 100°C kratzt, wird man dann wohl sehen.
    Auch dass die GPU nur noch Edge-Temperaturen anzeigt, ist ein wenig seltsam. Vllt soll da ja die höhere Temperatur im Inneren der GPU verschleiert werden.

    Zudem ist der Stromverbrauch im Idle bzw auf dem Desktop mit niedriger Last ein ziemlicher Rückschritt. Schlechter als AMD muss man da halt auch erstmal schaffen...

    Empfohlen wird wegen kurzzeitiger Lastspitzen bis knapp 650 Watt übrigens ein Netzteil mit mind. 1.000 Watt, besser 1.200 Watt für z.B. Intel-Systeme.

    Zudem führt die Verlustleistung der RTX5090 zu erhöhten Anforderungen an die Gehäusebelüftung und beeinflusst die Temperaturen aller anderen Komponenten im PC.

    Mit einer voll ausgelasteten GeForce RTX 4090 Founders Edition, die beim Spielen auf bis zu 439 Watt kommt, erhitzt sich der Ryzen 7 9800X3D im Testsystem nach einer halben Stunde auf gerade einmal 73 Grad Celsius, womit dieser noch weit von der kritischen 95-Grad-Marke entfernt bleibt. Selbst an warmen Sommertagen gibt es in dem Fall noch massiv Spielraum für höhere CPU-Temperaturen.

    Mit der GeForce RTX 5090 gelingt das im selben Setup nicht mehr. Innerhalb der halbstündigen Lastphase erreicht der Ryzen 7 9800X3D die 95 Grad innerhalb von rund 20 Minuten, für die 90 Grad werden gar nur 10 Minuten benötigt. Das ist ein klares Zeichen, dass das Gehäuse die erhitzte Abluft der GeForce RTX 5090 FE nicht schnell genug aus dem Gehäuse transportieren kann. Stattdessen erwärmt die Grafikkarte (und nicht die CPU) den CPU-Kühler kontinuierlich immer weiter und weiter.
    Auch wenn das mit einer vermutlich ziemlich auf "Silent" getrimmten Gehäusebelüftung passiert ist und durch höhere Lüfterdrehzahlen wieder in Zaum gebracht werden konnte, zeigt sich, dass wenn es jetzt schon wenig Spielraum in der Kühlung des Gesamtsystems gibt, die RTX5090 definitiv die falsche Karte sein dürfte.

    Test von Computerbase: https://www.computerbase.de/artikel/...90-test.91081/

  4. #203
    medeman medeman ist offline
    Avatar von medeman

    Hardware NEWS

    Zitat Capt. Clark Beitrag anzeigen
    Das einzig Gute an der 5090 ist der für Nvidia unübliche, üppige VRAM. Aber da ich eh nicht die Zielgruppe bin, ist es mir an sich Wurst. Nur schade, dass Nvidia im Mid- sowie High-End Bereich den VRAM weiter beschränkt, eine 5070 ist ja eigentlich schon dead on arrival, da kann man ja NUR durch DLSS punkten, in Raster hast du bei dem mageren VRAM keine Chance für zukünftige Titel.
    Und mit RT dann erst . Ja, ist schon schwach für die Preise. Da werden die Speicher-Interfaces so beschnitten, dass man nur eine "kleine" Menge an VRAM anbinden kann oder sonst verdoppeln müsste. 3 GB Speicherchips gibt es für GDDR7 wahrscheinlich noch nicht (?), das wäre ja sonst auch eine Option gewesen (also dann 18 GB für die 5070 und 24 GB für die 5080). Aber sind wir mal ehrlich: selbst wenn es die Chips geben würde, hätte Nvidia den Karten trotzdem nicht mehr Speicher gegeben. Vor einiger Zeit war es den Herstellern noch erlaubt, die Speicherkonfiguration für die Karten zu verdoppeln. Ich hatte beispielsweise eine GTX 770 mit 4 GB (statt den normalen 2 GB), die ist auch deutlich besser gealtert als die 2 GB Variante - und war kaum teurer.

    Zitat Capt. Clark Beitrag anzeigen
    Wer kauft sich für 600€ eine GraKa, um dann in 1-2 Jahren doch auf eine High-End Karte umsteigen zu müssen, weil der VRAM ausgeht? Klar, bei dieser Logik ist die 5090 dann die attraktivere Option. Aber nee, das bisschen Zusatzleistung in Raytracing und etwas besseres Upscaling hält mich wohl nicht länger bei Nvidia, da wird die nächste GraKa wohl aus dem roten oder blauen Lager kommen. Habe aber auch noch etwas Zeit, meine 3080 ist noch nicht ganz am Ende, aber man merkt schon dass es mit 10GB VRAM bald knapp wird bei UWQHD.
    Wird bei mir wahrscheinlich auf eine 9070 XT hinauslaufen. Auch wenn ich die Kommunikation von AMD zu RDNA 4 nicht gerade glücklich macht.

    Bei der 5080 hatte ich überlegt, ob ich "das Schicksal" entscheiden lasse, ob ich eine Founders Edition bekomme. Ich habe mir aber gestern nochmal Benchmarks unter Linux angeschaut, und mit dem Nvidia-Treiber gibt es unter Linux bei DirectX 12 Titeln (die dann via VKD3D nach Vulkan übersetzt werden, weil Linux logischerweise kein DirectX kann) Leistungseinbußen von gut 20% (gegenüber Windows). Jetzt könnte man meinen, dass das eben an Linux liegt, aber mit AMD und Intel ist die Performance quasi identisch bzw. teilweise sogar besser unter Linux. Jetzt kann man natürlich darauf spekulieren, dass dieses Leistungsdefizit demnächst geschlossen wird, weil der Nvidia-Treiber für Linux in den letzten 6-12 Monaten schon deutlich besser geworden ist. Aber ganz ehrlich, für 1.169,-€ möchte ich nicht spekulieren. Da bin ich deutlich zuversichtlicher, dass RDNA 4 von Tag 1 an halbwegs gescheit läuft. Bereits im Juli hat AMD in den Linux-Kernel Patches eingereicht, die RDNA 4 unterstützen, d.h. theoretisch könnte man mit Kernel 6.11 bereits RDNA 4 nutzen.

    Ich weiß, der ganze Linux-Kram ist ein ziemlicher Edge Case und betrifft laut der Steam Hardware Survey aus Dezember 2024 gerade einmal 2,29%, aber ich finde es doch etwas ironisch, dass der unter Windows hochgelobte Nvidia-Treiber unter Linux als der mit Abstand schlechteste Grafiktreiber gilt. Selbst Intels Arc-Treiber taugt da mehr, und der Treiber ist unter Windows ja teilweise noch echt hakelig.

  5. #204
    Dragonfire Dragonfire ist offline
    Avatar von Dragonfire

    Hardware NEWS



    Senkt man die Leistungsaufnahme der 5090 auf serienmäßiges 4090-Niveau (~410 Watt), ist die 5090 im Benchmark knapp 25% effizientier als die 4090.

    Anzumerken ist aber, dass die 4090 durch Tweaking natürlich auch Einspar-Potential hat, was hier im Video aber nicht gemacht wurde.


    Der8auer scheint auch nur das Power-Target angepasst zu haben. Wer ernsthaft undervoltet spielt ja auch mit den Taktzahlen. Ich denke, da ist also sogar noch mehr Potential da.


    Ich fände es ja allgemein besser, wenn Hersteller wieder damit anfangen würden, ihre Hardware näher am "Sweet Spot" laufen zu lassen. Ich war früher mal der Ansicht, dass es doch gut ist, wenn man auch für Kunden, die nicht mit Overclocking experimentieren wollen, bereits nah am Limit läuft... aber inzwischen denke ich mir? Ist das es das wirklich wert? Ist es für den Normalverbraucher gut, wenn 100 Watt mehr geschluckt werden, die dann auch als Wärme ins Gehäuse gepustet werden.... wegen einem Performance-Gewinn, den man in Spielen wahrscheinlich gar nicht merkt? Vor allem nicht, wenn man Dinge wie VRR, etc. nutzt?

  6. #205
    medeman medeman ist offline
    Avatar von medeman

    Hardware NEWS

    Zitat Dragonfire Beitrag anzeigen


    Senkt man die Leistungsaufnahme der 5090 auf serienmäßiges 4090-Niveau (~410 Watt), ist die 5090 im Benchmark knapp 25% effizientier als die 4090.
    Der Vergleich sagt eben wenig über die Effizienz der Architektur aus. Klar, dass eine GPU mit mehr Shader-Einheiten bei genormtem Verbrauch mehr leistet. Die entsprechend weniger Shader-Einheiten bei der kleineren GPU müssen auch deutlich höher takten, um leistungstechnisch mithalten zu können und die Effizienzkurve flacht meistens doch recht schnell ab.

    Klar, der A18 Pro aus meinem iPhone 16 Pro ist wahrscheinlich auch mindestens 10x so effizient wie mein 7950X3D aus meinem Desktop-PC. Das sagt aber sehr wenig über die Effizienz der beiden Architekturen aus, denn die Power Targets und Chipgrößen haben quasi nichts gemeinsam. Wenn der A18 Pro 10x so viel Strom verbrauchen dürfte, wäre er nicht 10x schneller und der 7950X3D wäre mit einem Zehntel Strom auch nicht 10x langsamer (da wird es mit dem I/O Die allerdings eng, aber anderes Thema).

    Man müsste Blackwell und Ada Lovelace anhand einer GPU mit gleich vielen Shader-Einheiten vergleichen. Der nächstbeste Vergleich wäre es, den Stromverbrauch pro Shader-Einheit gleichzusetzen. Da ist Nvidia mit der Standardkonfiguration ja sogar relativ nah dran bei der 4090 vs. 5090 . Aber das könnte man noch genauer machen, dann bleiben nur noch Variablen wie Speicherbandbreite (wo die 5090 aber eher einen disproportionalen Vorteil hat).

    Es deutet aktuell einfach viel darauf hin, dass Blackwell nur Detailverbesserungen gegenüber Ada Lovelace hat. Eine Ada Lovelace GPU in Größe der 5090 GPU mit identischer Speicherkonfiguration würde bei genormtem Verbrauch wahrscheinlich fast gleich wie eine 5090 performen.

    Blackwell wäre quasi das "Kaby Lake", wenn Ada Lovelace das "Skylake" wäre. Das ist nach über 2 Jahren nicht wirklich beeindruckend.

    Ich meine du hattest vor ein paar Jahren mal geschrieben, dass Nvidias GPU-Monopol im High-End Gaming-Bereich besser sei als das Intel CPU-Monopol im "High-End" Gaming-Bereich, weil jede Generation deutlich besser als die vorherige ist. Blackwell ist Stagnation. Macht das die 5090 zu einer schlechten Grafikkarte? Nein. Aber eine größere (breitere) GPU, die mehr Strom ziehen darf und mehr kostet, ist wirklich kein beeindruckender Fortschritt (größer, teurer und mehr Stromverbrauch gab es bei Intel mit den "Extreme" CPUs damals auch, oder eben mit Xeon).

    Allerdings ist der Zeitpunkt für eine "Refresh"-Generation von Nvidia natürlich gut "gewählt" . Intel weiß noch nicht so recht, wie sie die Leistung (zumindest in Spielen) aus ihren vergleichsweise großen GPUs herausbekommen und AMD hat mal wieder ausgewürfelt, dass sie in dieser Generation nicht im High-End Bereich mitspielen möchten. D.h. wenn Nvidia nächste Generation wieder Nvidia-Sachen macht statt Intel-Sachen (CPU), dürfte es weiterhin recht ungefährlich für sie bleiben.

  7. #206
    Dragonfire Dragonfire ist offline
    Avatar von Dragonfire

    Hardware NEWS

    Zitat medeman Beitrag anzeigen
    Blackwell ist Stagnation.
    Stimmt... aber im großen und ganzen sehe ich hier trotzdem keinen lieblos dahingerotzten Refresh oder Stillstand bei Nvidia.

    Ich denke zwar, dass DLSS und co. nichts in nüchternen Benchmarks verloren haben... aber da ich inzwischen 9 von 10 Spielen mit irgendwelchen KI-Verbesserern spiele, ist die Entwicklung in dieser Richtung in meinen Augen trotzdem wichtig. Und jetzt lächeln wir noch über "Fake-Frames"... aber wie schon beim DLSS-Upscaling wird eine Zeit kommen, da wird die Qualität von Frame-Gen dort sein, wo man das Thema einfach ernst nehmen muss! Aber ich denke, dass es bei Blackwell wohl noch nicht der Fall ist.

    Und man kann auch das Kühlerdesign nicht genug hervorheben. 600 Watt sind immer problematisch... und es ist logisch, wenn sich die Kühlung der Grafikkarte so drastisch ändert, dass man auch an der allgemeinen Gehäuse-Kühlung etwas optimieren muss.... aber es ist doch eine spannende Richtung, die nicht einfach in "Mehr Material! Mehr Lüfter!" geht. Wenn ich mir da so absurde Grafikkarten wie die neue ASUS Astral anschaue, wo ich mir selbst im Big-Tower noch Gedanken machen muss, ob es Kollisionen geben könnte.

    Aber darum hab ich oben schon geschrieben: Die einzig interessante Karte, ist die Founders Edition... aber die hat nunmal Nvidia entwickelt.


    Wenn AMD mal was zeigen würde, werde ich meine Meinung gern ändern... aber im Vergleich mit AMD und Intel seh ich - in den Bereichen, die ich im Blick hab - Nvidia nach wie vor mehr liefern.

    Aber ich bin halt auch nicht auf Linux unterwegs, bin von "Bling Bling" wie Raytracing oder DLSS überzeugt und hab vermutlich auch sonst ganz andere andere Prioritäten. Du und ich haben also wohl auch einen völlig anderen Blickwinkel.

    Ich will auch gar nicht verleugnen, dass ich ein "Idealkunde" für Nvidia bin. Dennoch würde ich mich nicht als Fanboy bezeichnen. Ich hätte kein Problem damit zu "Team Rot" zu wechseln... Bin ich bei der CPU ja auch schon nachdem ich seit Pentium II immer Intel hatte. Aber die X3D-Prozessoren sind halt für meine Zwecke und Interessen unschlagbar.

  8. #207
    medeman medeman ist offline
    Avatar von medeman

    Hardware NEWS

    Zitat Dragonfire Beitrag anzeigen
    Stimmt... aber im großen und ganzen sehe ich hier trotzdem keinen lieblos dahingerotzten Refresh oder Stillstand bei Nvidia.

    Ich denke zwar, dass DLSS und co. nichts in nüchternen Benchmarks verloren haben... aber da ich inzwischen 9 von 10 Spielen mit irgendwelchen KI-Verbesserern spiele, ist die Entwicklung in dieser Richtung in meinen Augen trotzdem wichtig. Und jetzt lächeln wir noch über "Fake-Frames"... aber wie schon beim DLSS-Upscaling wird eine Zeit kommen, da wird die Qualität von Frame-Gen dort sein, wo man das Thema einfach ernst nehmen muss! Aber ich denke, dass es bei Blackwell wohl noch nicht der Fall ist.

    Und man kann auch das Kühlerdesign nicht genug hervorheben. 600 Watt sind immer problematisch... und es ist logisch, wenn sich die Kühlung der Grafikkarte so drastisch ändert, dass man auch an der allgemeinen Gehäuse-Kühlung etwas optimieren muss.... aber es ist doch eine spannende Richtung, die nicht einfach in "Mehr Material! Mehr Lüfter!" geht. Wenn ich mir da so absurde Grafikkarten wie die neue ASUS Astral anschaue, wo ich mir selbst im Big-Tower noch Gedanken machen muss, ob es Kollisionen geben könnte.

    Aber darum hab ich oben schon geschrieben: Die einzig interessante Karte, ist die Founders Edition... aber die hat nunmal Nvidia entwickelt.
    Und nichts davon hat was mit Blackwell zu tun. Das Kühlerdesign der Founders Edition habe ich selbst ja auch schon positiv hervorgehoben. DLSS 4 hat auch ein verbessertes Upscaling-Modell und wenn man jetzt was von Fake Frames hält, kann DLSS 4 jetzt auch mehrere Fake Frames (meinetwegen auch "Motion Smoothing") zwischenrechnen. Klar wurde letzteres künstlich auf Blackwell beschränkt, aber grundsätzlich hätte es hierfür kein Blackwell gebraucht.

    Ob Fake Frames irgendwann so ausgereift sind, dass sie wirklich Sinn machen, kann jetzt sicher noch keiner sagen. Aber Spekulation ist nun mal nur Spekulation und nichts, was ich im hier und jetzt benutzen kann. Ist das dann mit DLSS 5 gut, aber exklusiv für RTX 6000 Karten? Dann altert Blackwell ungefähr so gut wie Turing - klar gab es da das Versprechen, dass Ray Tracing irgendwann mal ganz toll ist, aber als es dann halbwegs toll wurde waren die Turing-Karten darin so langsam, dass es damit (vor allem im Vergleich mit Ampere und neuer) fast nicht brauchbar ist.

    Nach über 2 Jahren gibt es von Nvidia also ein paar neue ML-Modelle und einen schönen Kühler, der nur sehr begrenzt verfügbar sein wird. Stark .

    Ich bleibe dabei: Blackwell ist Stillstand. DLSS 4 meinetwegen nicht, aber eine ganz andere "Abteilung". Man merkt, dass der Fokus ganz wo anders liegt .

    EDIT:

    Zitat Dragonfire Beitrag anzeigen
    Wenn AMD mal was zeigen würde, werde ich meine Meinung gern ändern... aber im Vergleich mit AMD und Intel seh ich - in den Bereichen, die ich im Blick hab - Nvidia nach wie vor mehr liefern.
    Nvidia kann unabhängig davon, was AMD oder Intel abliefert, "auch" Sch* abliefern. Das ist unabhängig davon, was die anderen machen. Nur weil das neue iPhone langweilig ist, ist das neue Samsung nicht zwingend spannend.

    Zitat Dragonfire Beitrag anzeigen
    Aber ich bin halt auch nicht auf Linux unterwegs, bin von "Bling Bling" wie Raytracing oder DLSS überzeugt und hab vermutlich auch sonst ganz andere andere Prioritäten. Du und ich haben also wohl auch einen völlig anderen Blickwinkel.
    Klar, das schon. Aber mein Post ging gar nicht von etwas wie Linux-Unterstützung aus. Selbst wenn ich die Zielgruppe einer 5090 wäre und sie mir kaufen würde, weil ich eine 30% schnellere 4090 haben wollen würde, würde ich es genauso sehen.

    Zitat Dragonfire Beitrag anzeigen
    Ich hätte kein Problem damit zu "Team Rot" zu wechseln...
    Sollst du ja nicht, mein Post zu Blackwell hatte mit AMDs eigentlichen Produkten wenig zu tun (bis auf die Erwähnung, dass Nvidia sich für diese Generation auf dem Refresh ausruhen kann, weil AMD mal wieder nicht im High-End mitspielen möchte/(kann?)) und ist nicht als Propaganda für AMD (oder gar Intel) zu verstehen.

  9. #208
    Dragonfire Dragonfire ist offline
    Avatar von Dragonfire

    Hardware NEWS

    Zitat medeman Beitrag anzeigen
    Und nichts davon hat was mit Blackwell zu tun.
    Hab ich das behauptet? Wenn es so rübergekommen ist, dann war das jedenfalls nicht meine Absicht.

    Mir ging's eher darum, dass es "im Zuge" von Blackwell jetzt eben viele spannende Verbesserungen/Ankündigungen gab, die AMD und Intel erstmal kontern müssen. Teufel... die spannendste Verbesserung ist der Kühler und das findet sich nichtmal auf anderen RTX-Karten von Nvidia-Partnern.
    Von DLSS4 werden ja viele Verbesserungen auch auf alten Grafikkarten möglich sein. Meines Wissens ist nur die Multi-Frame-Generation tatsächlich Blackwell-Exclusiv... Und das Feature interessiert mich tatsächlich am wenigsten, weil das sicher noch mindestens ein, zwei "Generationen" braucht, bis es tatsächlich interessant ist.

    Grafikkarten sind halt inzwischen sehr viel mehr, als die nackte Leistung des Chips. Das geht so weit, dass Nvidia einfach bessere Partnerschaften mit Spiele-Entwicklern hat. Also ja... Verbesserungen aus anderen "Abteilungen", aber die sind halt auch wichtig!


    Aber um meine Meinung nochmal deutlicher zu machen:

    Ist der nackte Blackwell-Chip enttäuschend? Ja!
    Ist das Gesamtpaket einer RTX 5090 Founders Edition enttäuschend? Nicht wirklich... aber bei dem Preis auch nur "semi-überzeugend".

  10. #209
    medeman medeman ist offline
    Avatar von medeman

    Hardware NEWS

    Zitat Dragonfire Beitrag anzeigen
    Hab ich das behauptet? Wenn es so rübergekommen ist, dann war das jedenfalls nicht meine Absicht.
    Ich glaube unsere Ansichten spalten sich am ehesten bei "was ist Stillstand und was nicht". Ich meine natürlich nicht wortwörtlich Stillstand, denn klar ist DLSS 4 ein Fortschritt gegenüber DLSS 3 und klar wird auch die Blackwell-Architektur irgendwelche Detailverbesserungen beinhalten. Zen 4 auf Zen 5 zog sogar große Veränderungen an der Architektur mit sich (habe irgendwann mal ein Video gesehen, wo wer einen Die Shot analysiert hat), aber im Endeffekt hat das zumindest für Zen 5 selbst im Desktop-Bereich ohne X3D nicht wirklich viel gebracht.

    Für ein Unternehmen in der Größenordnung von Nvidia mit dermaßen vielen (finanziellen und personellen) Ressourcen empfinde ich das in Relation als ziemlichen Stillstand. Und ganz ehrlich: Architekturverbesserungen sind nach wie vor das Wichtigste. Da können sie meinetwegen auch 30 Fake Frames pro echtem Frame ausrechnen und von 16x9 Pixeln auf 3840x2160 hochrechnen: irgendein kleiner Teil muss "echt" gerendert werden (vor neuronalem Rendering, was wenn überhaupt noch Zukunftsmusik ist) und auch die ML-Modelle fressen Leistung und je mehr die machen sollen, desto mehr Leistung werden die auch beanspruchen. Klar wird es auch da Innovationen in Sachen Effizienz geben (war es das Upscaling oder FG, was mit DLSS 4 weniger VRAM verglichen zum Vorgänger braucht?).

    Zitat Dragonfire Beitrag anzeigen
    Mir ging's eher darum, dass es "im Zuge" von Blackwell jetzt eben viele spannende Verbesserungen/Ankündigungen gab, die AMD und Intel erstmal kontern müssen.
    Vor allem FSR 4 muss sich natürlich erst noch beweisen, da wir bisher nur die eine abgefilmte Demo von Ratchet & Clank unter "Laborbedingungen" kennen. Wo die Reise mit XeSS hingeht, ist auch nicht klar, wobei XeSS 1.3 auf Arc Grafikkarten doch oft vergleichbar mit DLSS 3.x ist (Upscaling, FG gibt es bisher zumindest nicht). Die sind teilweise so nah beieinander, dass es subjektiv ist, welcher jetzt die Nase knapp vorn hat.

    Zitat Dragonfire Beitrag anzeigen
    Teufel... die spannendste Verbesserung ist der Kühler und das findet sich nichtmal auf anderen RTX-Karten von Nvidia-Partnern. :
    Was den Kühler und das PCB-Design so schlecht verfügbar macht, dass er quasi nicht relevant ist, außer man bekommt das Modell zufällig zum Normalpreis.

    Zitat Dragonfire Beitrag anzeigen
    Grafikkarten sind halt inzwischen sehr viel mehr, als die nackte Leistung des Chips. Das geht so weit, dass Nvidia einfach bessere Partnerschaften mit Entwicklern hat.
    Und dennoch ist der Chip das Wichtigste. Und genau der ist stagniert.

Seite 11 von 11 ErsteErste ... 1011