Seite 11 von 11 ErsteErste ... 1011
Ergebnis 201 bis 203 von 203

Thema: Hardware NEWS

  1. #201
    Capt. Clark Capt. Clark ist offline
    Avatar von Capt. Clark

    Hardware NEWS

    Das einzig Gute an der 5090 ist der für Nvidia unübliche, üppige VRAM. Aber da ich eh nicht die Zielgruppe bin, ist es mir an sich Wurst. Nur schade, dass Nvidia im Mid- sowie High-End Bereich den VRAM weiter beschränkt, eine 5070 ist ja eigentlich schon dead on arrival, da kann man ja NUR durch DLSS punkten, in Raster hast du bei dem mageren VRAM keine Chance für zukünftige Titel. Wer kauft sich für 600€ eine GraKa, um dann in 1-2 Jahren doch auf eine High-End Karte umsteigen zu müssen, weil der VRAM ausgeht? Klar, bei dieser Logik ist die 5090 dann die attraktivere Option. Aber nee, das bisschen Zusatzleistung in Raytracing und etwas besseres Upscaling hält mich wohl nicht länger bei Nvidia, da wird die nächste GraKa wohl aus dem roten oder blauen Lager kommen. Habe aber auch noch etwas Zeit, meine 3080 ist noch nicht ganz am Ende, aber man merkt schon dass es mit 10GB VRAM bald knapp wird bei UWQHD.

  2. Anzeige

    Hardware NEWS

    Schau dir mal diesen Bereich an. Dort ist für jeden was dabei!
  3. #202
    Jonny Knox Jonny Knox ist offline
    Avatar von Jonny Knox

    Hardware NEWS

    Naja, die Mehrperformance ist dann halt doch ausschließlich auf MFG zurückzuführen. Der Rest wird über die Stromaufnahme geregelt, was dann sowohl höhere Lautstärke, als auch höhere Temperaturen zur Folge hat. Wie das dann bei einigen Temperaturen im Sommer in einem unklimatisierten Raum heißt, wenn der Speicher halt schon knapp an den 100°C kratzt, wird man dann wohl sehen.
    Auch dass die GPU nur noch Edge-Temperaturen anzeigt, ist ein wenig seltsam. Vllt soll da ja die höhere Temperatur im Inneren der GPU verschleiert werden.

    Zudem ist der Stromverbrauch im Idle bzw auf dem Desktop mit niedriger Last ein ziemlicher Rückschritt. Schlechter als AMD muss man da halt auch erstmal schaffen...

    Empfohlen wird wegen kurzzeitiger Lastspitzen bis knapp 650 Watt übrigens ein Netzteil mit mind. 1.000 Watt, besser 1.200 Watt für z.B. Intel-Systeme.

    Zudem führt die Verlustleistung der RTX5090 zu erhöhten Anforderungen an die Gehäusebelüftung und beeinflusst die Temperaturen aller anderen Komponenten im PC.

    Mit einer voll ausgelasteten GeForce RTX 4090 Founders Edition, die beim Spielen auf bis zu 439 Watt kommt, erhitzt sich der Ryzen 7 9800X3D im Testsystem nach einer halben Stunde auf gerade einmal 73 Grad Celsius, womit dieser noch weit von der kritischen 95-Grad-Marke entfernt bleibt. Selbst an warmen Sommertagen gibt es in dem Fall noch massiv Spielraum für höhere CPU-Temperaturen.

    Mit der GeForce RTX 5090 gelingt das im selben Setup nicht mehr. Innerhalb der halbstündigen Lastphase erreicht der Ryzen 7 9800X3D die 95 Grad innerhalb von rund 20 Minuten, für die 90 Grad werden gar nur 10 Minuten benötigt. Das ist ein klares Zeichen, dass das Gehäuse die erhitzte Abluft der GeForce RTX 5090 FE nicht schnell genug aus dem Gehäuse transportieren kann. Stattdessen erwärmt die Grafikkarte (und nicht die CPU) den CPU-Kühler kontinuierlich immer weiter und weiter.
    Auch wenn das mit einer vermutlich ziemlich auf "Silent" getrimmten Gehäusebelüftung passiert ist und durch höhere Lüfterdrehzahlen wieder in Zaum gebracht werden konnte, zeigt sich, dass wenn es jetzt schon wenig Spielraum in der Kühlung des Gesamtsystems gibt, die RTX5090 definitiv die falsche Karte sein dürfte.

    Test von Computerbase: https://www.computerbase.de/artikel/...90-test.91081/

  4. #203
    medeman medeman ist gerade online
    Avatar von medeman

    Hardware NEWS

    Zitat Capt. Clark Beitrag anzeigen
    Das einzig Gute an der 5090 ist der für Nvidia unübliche, üppige VRAM. Aber da ich eh nicht die Zielgruppe bin, ist es mir an sich Wurst. Nur schade, dass Nvidia im Mid- sowie High-End Bereich den VRAM weiter beschränkt, eine 5070 ist ja eigentlich schon dead on arrival, da kann man ja NUR durch DLSS punkten, in Raster hast du bei dem mageren VRAM keine Chance für zukünftige Titel.
    Und mit RT dann erst . Ja, ist schon schwach für die Preise. Da werden die Speicher-Interfaces so beschnitten, dass man nur eine "kleine" Menge an VRAM anbinden kann oder sonst verdoppeln müsste. 3 GB Speicherchips gibt es für GDDR7 wahrscheinlich noch nicht (?), das wäre ja sonst auch eine Option gewesen (also dann 18 GB für die 5070 und 24 GB für die 5080). Aber sind wir mal ehrlich: selbst wenn es die Chips geben würde, hätte Nvidia den Karten trotzdem nicht mehr Speicher gegeben. Vor einiger Zeit war es den Herstellern noch erlaubt, die Speicherkonfiguration für die Karten zu verdoppeln. Ich hatte beispielsweise eine GTX 770 mit 4 GB (statt den normalen 2 GB), die ist auch deutlich besser gealtert als die 2 GB Variante - und war kaum teurer.

    Zitat Capt. Clark Beitrag anzeigen
    Wer kauft sich für 600€ eine GraKa, um dann in 1-2 Jahren doch auf eine High-End Karte umsteigen zu müssen, weil der VRAM ausgeht? Klar, bei dieser Logik ist die 5090 dann die attraktivere Option. Aber nee, das bisschen Zusatzleistung in Raytracing und etwas besseres Upscaling hält mich wohl nicht länger bei Nvidia, da wird die nächste GraKa wohl aus dem roten oder blauen Lager kommen. Habe aber auch noch etwas Zeit, meine 3080 ist noch nicht ganz am Ende, aber man merkt schon dass es mit 10GB VRAM bald knapp wird bei UWQHD.
    Wird bei mir wahrscheinlich auf eine 9070 XT hinauslaufen. Auch wenn ich die Kommunikation von AMD zu RDNA 4 nicht gerade glücklich macht.

    Bei der 5080 hatte ich überlegt, ob ich "das Schicksal" entscheiden lasse, ob ich eine Founders Edition bekomme. Ich habe mir aber gestern nochmal Benchmarks unter Linux angeschaut, und mit dem Nvidia-Treiber gibt es unter Linux bei DirectX 12 Titeln (die dann via VKD3D nach Vulkan übersetzt werden, weil Linux logischerweise kein DirectX kann) Leistungseinbußen von gut 20% (gegenüber Windows). Jetzt könnte man meinen, dass das eben an Linux liegt, aber mit AMD und Intel ist die Performance quasi identisch bzw. teilweise sogar besser unter Linux. Jetzt kann man natürlich darauf spekulieren, dass dieses Leistungsdefizit demnächst geschlossen wird, weil der Nvidia-Treiber für Linux in den letzten 6-12 Monaten schon deutlich besser geworden ist. Aber ganz ehrlich, für 1.169,-€ möchte ich nicht spekulieren. Da bin ich deutlich zuversichtlicher, dass RDNA 4 von Tag 1 an halbwegs gescheit läuft. Bereits im Juli hat AMD in den Linux-Kernel Patches eingereicht, die RDNA 4 unterstützen, d.h. theoretisch könnte man mit Kernel 6.11 bereits RDNA 4 nutzen.

    Ich weiß, der ganze Linux-Kram ist ein ziemlicher Edge Case und betrifft laut der Steam Hardware Survey aus Dezember 2024 gerade einmal 2,29%, aber ich finde es doch etwas ironisch, dass der unter Windows hochgelobte Nvidia-Treiber unter Linux als der mit Abstand schlechteste Grafiktreiber gilt. Selbst Intels Arc-Treiber taugt da mehr, und der Treiber ist unter Windows ja teilweise noch echt hakelig.

Seite 11 von 11 ErsteErste ... 1011