Seite 3 von 3 ErsteErste ... 23
Ergebnis 41 bis 51 von 51
  1. #41
    Dragonmind Dragonmind ist offline
    Avatar von Dragonmind

    AW: NVidia GeForce GTX 280 veröffentlicht

    Nun ja ich spiele zur Zeit Age of Conan aber die Grafik ist nicht schlecht. Und die Probleme in diesemSpiel kommen sicher nichtvom zu geringen Speicher.
    Aber es sollte wohl jedem einleuchten das mehr Speicher weniger unnötige Kommunikation mit der CPU verursacht da mehr Daten gespeichert sind.
    Wieviel nun wirklich nötig ist kommt aber eher auf die Spieleengine an

    Ich selber halt von dem Test nicht wirklich viel, egal ob es nun die Ergebnisse für Gforce oder ATI ist. Wäre mal nett wenn man Tests mit aktuelleren Mainboards macht, damit man auch Auswirkungen von zB PCIe 2.0 sieht.

  2. Anzeige

    AW: NVidia GeForce GTX 280 veröffentlicht

    Schau dir mal diesen Bereich an. Dort ist für jeden was dabei!
  3. #42
    Léon Léon ist offline
    Avatar von Léon

    AW: NVidia GeForce GTX 280 veröffentlicht

    Es kommt ja auch nicht nur auf die Mänge des Speichers, sondern auch auf die Speicherbandbreit an. Einer 8800GT mit 57600 MB/s nützen 1GB Speicher nich viel mehr als 512MB.

    Das nur mal so nebenbei.

  4. #43
    magnusmagnorum magnusmagnorum ist offline

    AW: NVidia GeForce GTX 280 veröffentlicht

    Zitat Léon Beitrag anzeigen
    Es kommt ja auch nicht nur auf die Mänge des Speichers, sondern auch auf die Speicherbandbreit an. Einer 8800GT mit 57600 MB/s nützen 1GB Speicher nich viel mehr als 512MB.

    Das nur mal so nebenbei.
    Soweit ich weiß, ist eine 8800GT mit 1 GB bei einigen Spielen ein absoluter Renner. Das hängt ja auch damit zusammen, dass bei bestimmten höheren Auflösungen mit höheren AA- und AF-Einstellungen (jetzt beginne ich auch schon mit Abkürzungen um mich zu schmeißen) der Grafikkarte einfach der Speicher ausgeht.

    Zu Age of Conan: Die Bilder und Videos, die ich zu dem Spiel gesehen habe, zeigen zwar, dass es grafisch als Online-Spiel gut sein mag, aber verglichen mit anderen Spielen, wie Bioshock, Crysis, Call of Duty 4 wohl recht mager erscheint.

  5. #44
    Decodaz Decodaz ist offline

    AW: NVidia GeForce GTX 280 veröffentlicht

    Viel Speicher braucht eine Karte nur, wenn sie viel Bildmaterial zu bearbeiten hat. Dies kann als Ursache z.B. eine hohe Auflösung sowie AA/AF haben. Dies ist aber sicherlich nur für wenige User relevant, da dies meist erst ab 24" (1920x1080) vorkommt. Klar verbrauchen Spiele mit besserer Grafik auch mehr Ressourcen. Für aktuelle Games sollten 512mb aber locker reichen. Es kommt wie gesagt auf Kapazität, Art des Speichers (DDR2/GDDR3/GDDR4/GDDR5) an -> wie der daraus resultierender Takt -> und die anbindung des speichers (oft ist das hier das problem).

    LG Deco

  6. #45
    magnusmagnorum magnusmagnorum ist offline

    AW: NVidia GeForce GTX 280 veröffentlicht

    Zitat Decodaz Beitrag anzeigen
    Viel Speicher braucht eine Karte nur, wenn sie viel Bildmaterial zu bearbeiten hat. Dies kann als Ursache z.B. eine hohe Auflösung sowie AA/AF haben. Dies ist aber sicherlich nur für wenige User relevant, da dies meist erst ab 24" (1920x1080) vorkommt. Klar verbrauchen Spiele mit besserer Grafik auch mehr Ressourcen. Für aktuelle Games sollten 512mb aber locker reichen. Es kommt wie gesagt auf Kapazität, Art des Speichers (DDR2/GDDR3/GDDR4/GDDR5) an -> wie der daraus resultierender Takt -> und die anbindung des speichers (oft ist das hier das problem).

    LG Deco
    Ich habe ja auch geschrieben "in höheren Auflösungen". Da ich einen 21" Röhrenmonitor habe, nutze ich regelmäßig Auflösungen jenseits von 1600x1200. Bei einigen Spielen musste ich auch die maximale Auflösung von 2048x1536 aktivieren, weil sie kein Anti-Aliasing boten und ich einfach nicht mit einem derartig bescheidenen "Treppeneffekt" leben wollte.

    Ich glaube Computerbase hat einmal einen Test bezüglich des Verbrauchs von Grafikspeicher bei Spielen gemacht und es kam dabei heraus, dass wirklich zumeist 512 MB (bei Nvidia und AMD) ausreichten. Bei Nvidia-Karten war der Verbrauch aber zumeist höher, daher wohl auch die 1-GB-Speichergröße der GTX 2x0. Nvidia wollte einfach nicht noch einmal wie ein Trottel dastehen. Denn selbst die "ollen" 3870er Karten waren in Auflösungen jenseits von 1680x1200 potenter als die Rennpferde 9800 GTX oder 8800 GTS/512.

  7. #46
    CryptiC CryptiC ist offline
    Avatar von CryptiC

    AW: NVidia GeForce GTX 280 veröffentlicht

    Für mich eine Kaufpflicht wenn Farcry 2 rauskommt, und der Nehalem...

  8. #47
    magnusmagnorum magnusmagnorum ist offline

    AW: NVidia GeForce GTX 280 veröffentlicht

    Zitat CryptiC Beitrag anzeigen
    Für mich eine Kaufpflicht wenn Farcry 2 rauskommt, und der Nehalem...
    Na dann kannst du ja noch bis mindestens August warten (dann soll ja angeblich Far Cry 2 herauskommen). Der Intel Nehalem braucht dann noch einmal fast ein halbes Jahr um zu erscheinen (Ende 2008).

    Ich muss schon sagen, du hättest dann eine imponierende Hardwarebasis...

  9. #48
    Kelshan Kelshan ist offline
    Avatar von Kelshan

    HD4870 vs GTX 260 getestet

    Zitat magnusmagnorum Beitrag anzeigen
    Ich muss schon sagen, du hättest dann eine imponierende Hardwarebasis...
    Du vergisst, dass zu der Zeit dann jedoch schon wieder die nächste, viel imponierendere Hardware angekündigt ist.


    Aber zurück zum Thema: Computerbase hat jetzt mal den ausführlichen Test der HD4870 nachgeholt, und den Test der GTX 260 gleich mit eingeflochten. Wie sich heraus stellt, liegen beide Karten etwa auf einem Niveau, wobei die GTX 260 ganz leicht die Nase vorn hat (ca. 2% im Schnitt). Damit lässt sich sagen, dass der Aufpreis der GTX 260 gegenüber der HD4870 sich nicht wirklich lohnt. Zumal die HD4870 den Spieß bei besonders hoher Qualität sogar noch umdreht und die GTX 260 (in Ausnahmefällen sogar die 280) hinter sich lässt.

    Anders sieht es jedoch bei der Multi-GPU-Leistung (SLI/CF) aus. Hier zieht das NVidia-Gespann mehr als deutlich davon gegenüber dem CF-Gespann aus zwei HD4870, der Abstand beträgt etwa satte 30%. Erst bei hohen Qualitätseinstellungen relativiert sich dies wieder ein wenig auf etwa 15% (4xAA, 16xAF) bzw. 4% (8xAA, 16xAF).

    Wie es aussieht, hat AMD also zumindest bei der Optimierung des AA nicht geschlafen, eine deutliche Schwachstelle der 3xxx-Reihe wurde somit ausgemerzt. Dennoch hängen sie bei CF deutlich hinterher. Ich bin in diesem Sinne gespannt, wie sich die X2 schlagen wird, die ja letztlich auch nur ein CF-Verbund ist.

    Ansonsten fällt die Leistungsaufnahme der AMD-Karte wohl recht negativ auf. Im Ruhebetrieb verbraucht das System mit einer HD4870 satte 197W, das ist fast so viel wie zwei GTX 260 im SLI (211W), und somit auch deutlich mehr als eine einzelne GTX 260 (154W). Die Karte scheint sich also im 2D-Betrieb nicht richtig herunterzufahren. Unter Last wird der Abstand geringer, dennoch verbraucht die HD4870 noch etwa 13W mehr als der Konkurrent von NVidia, bzw. 43W mehr der CF-Verbund gegenüber dem SLI-Äquivalent.

  10. #49
    magnusmagnorum magnusmagnorum ist offline

    AW: HD4870 vs GTX 260 getestet

    Zitat Kelshan Beitrag anzeigen
    Aber zurück zum Thema: Computerbase hat jetzt mal den ausführlichen Test der HD4870 nachgeholt, und den Test der GTX 260 gleich mit eingeflochten. Wie sich heraus stellt, liegen beide Karten etwa auf einem Niveau, wobei die GTX 260 ganz leicht die Nase vorn hat (ca. 2% im Schnitt). Damit lässt sich sagen, dass der Aufpreis der GTX 260 gegenüber der HD4870 sich nicht wirklich lohnt. Zumal die HD4870 den Spieß bei besonders hoher Qualität sogar noch umdreht und die GTX 260 (in Ausnahmefällen sogar die 280) hinter sich lässt.

    Anders sieht es jedoch bei der Multi-GPU-Leistung (SLI/CF) aus. Hier zieht das NVidia-Gespann mehr als deutlich davon gegenüber dem CF-Gespann aus zwei HD4870, der Abstand beträgt etwa satte 30%. Erst bei hohen Qualitätseinstellungen relativiert sich dies wieder ein wenig auf etwa 15% (4xAA, 16xAF) bzw. 4% (8xAA, 16xAF).

    Wie es aussieht, hat AMD also zumindest bei der Optimierung des AA nicht geschlafen, eine deutliche Schwachstelle der 3xxx-Reihe wurde somit ausgemerzt. Dennoch hängen sie bei CF deutlich hinterher. Ich bin in diesem Sinne gespannt, wie sich die X2 schlagen wird, die ja letztlich auch nur ein CF-Verbund ist.

    Ansonsten fällt die Leistungsaufnahme der AMD-Karte wohl recht negativ auf. Im Ruhebetrieb verbraucht das System mit einer HD4870 satte 197W, das ist fast so viel wie zwei GTX 260 im SLI (211W), und somit auch deutlich mehr als eine einzelne GTX 260 (154W). Die Karte scheint sich also im 2D-Betrieb nicht richtig herunterzufahren. Unter Last wird der Abstand geringer, dennoch verbraucht die HD4870 noch etwa 13W mehr als der Konkurrent von NVidia, bzw. 43W mehr der CF-Verbund gegenüber dem SLI-Äquivalent.
    Eine sehr schöne Zusammenfassung!!! Wenn sich die Leistung der kommenden HD4870 X2 an der Leistung der "alten" HD3870 X2 orientiert, könnte es so sein, dass sie wieder genau so schnell wird wie 2 HD4870 im Cross-Fire-Verbund. Andererseits ist es natürlich auch möglich (da ja versucht wird einen einheitlichen Speicher für beide GPUs zu schaffen, um Mikroruckler zu verhindern), dass noch etwas mehr Leistung herauskommt (allein schon aufgrund der (bis jetzt) doppelten Speichermenge). Eine Sache würde mich noch interessieren: Ist man sich eigentlich sicher, dass die neue X2 mit DDR5-Speicher kommt? Oder wird man wie mit der HD3870 X2 auf z.B. DDR3 setzen?

    Zitat Kelshan Beitrag anzeigen
    Du vergisst, dass zu der Zeit dann jedoch schon wieder die nächste, viel imponierendere Hardware angekündigt ist.

    Meinst du mit der noch besseren Hardwarebasis die HD4870 X2, neue AMDs (im 45-nm-Prozess hergestellt - Star oder wie sie heißen sollen)?

  11. #50
    Tobi Tobi ist offline
    Avatar von Tobi

    AW: NVidia GeForce GTX 280 veröffentlicht

    Glaubt ihr, dass das Teil Diablo III noch packt? Werd mir die Karte vielleicht wenn sie erschwinglich ist leisten, dann soll sie wenn möglich, auch ziemlich lang aktuell bleiben .

  12. #51
    magnusmagnorum magnusmagnorum ist offline

    AW: NVidia GeForce GTX 280 veröffentlicht

    Zitat Tobi Beitrag anzeigen
    Glaubt ihr, dass das Teil Diablo III noch packt?
    Ich hoffe, dass es sich bei der Frage um einen Witz handelt!!! Du hast aber die Grafik von Diablo 3 gesehen, oder? Da reicht sogar eine Geforce 6600er oder x700er Karte aus, um DAS flüssig darzustellen.
    Was glaubt ihr eigentlich, wie hoch die Anforderungen für Diablo 3 sind? Neuer Rechner, neue Grafikkarte - für ein solches Spiel, das eine solch kindische Grafik auftischt... Na gut, der richtige Fan stört sich nicht an der Grafik.

    Um es einfach einmal freundlich auszudrücken: Mit einer GTX 280 könntest du Diablo 3 in einer Auflösung von 10000x10000 mit 64X Supersampling betreiben und es würde noch nicht einmal ruckeln.

Seite 3 von 3 ErsteErste ... 23

Ähnliche Themen


  1. Fermi ist da! Nvidia GeForce GTX 470 und GTX 480: Nvidia hat nun offiziell die neuen DirectX 11 - Grafikkarten GTX 470 und GTX 480 vorgestellt. Die bisher als "Fermi" bekannten Grafikkarten sollen...

  2. NVIDIA GeForce 8700M GT: hiho leute. habe ma wieder ein prob mit meinem laptop ^^ also ich wollte mir den treiber für meine grafikkarte installieren, der funktioniert aber...

  3. Nvidia GeForce 9600 GT: hi ich habe vor mir einen neuen rechner zuzulegen mit einer 9600 GT. und dazu die frage! taugt die was? wenn nicht welche graka würdet ihr mir...

  4. Problem, nach Vista Update bzw. (nVidia - Display - NVIDIA GeForce 9600 GT ): Hi, hab hier n Rechner auf dem die Home premium Vista Version läuft, bin ein Counterstrike Source-Spieler, heute kam kein neues Update dass eben...

  5. nVidia Geforce 9600GT: ich von einem Kollegen gehört die 9000er Serie sollte sich wirklich rentieren, was ich bei der 9600 allerdings bezweifle, denn um den Preis als neue...