Cerberus
Chefredakteur
Dabei seit: 23.07.2002
Beiträge: 12.049
Herkunft: Lübeck
|
|
XFX Geforce GTX 280 Grafikkarte |
|
XFX Geforce GTX 280 Grafikkarte
Einleitung:
XFX sagt euch nichts? das ist schade, denn dieser Ableger von PINE Technology produziert seit immerhin 1989 sehr hochwertige Komponenten für das IT Segment und gehört zu den leistungsstärksten Nvidia Partnern weltweit. Im Bereich Videospielgrafik und Videokarten darf man sie zu den Marktführern schlechthin zählen, zumal keiner ein breiter gestaffeltes Portfolio aufweist.
Aber zurück zum eigentlichen Thema, mitte Juni 2008 war es endlich soweit, der wirkliche Nachfolger der beliebten G80 Grafikkarten von Nvidia wurde präsentiert und soll nach einigen fragwürdigen Chip Refreshes der G92 Grafikchips die eigentliche Wachablösung im Highend Segment einläuten.
Angesichts der Leistungsdaten durfte man einiges erwarten, wobei der prognostizierte Strombedarf die ursprüngliche Begeisterung gleich wieder relativierte. Der Preis reudzierte sich von anfänglichen 520 € mittlerweile deutlich unter 400 €, somit erreicht die Grafikarte so langsam auch zu verschmerzende Regionen. Kurz und gut, wir haben uns sehr genau angeschaut, was diese GTX 280 zu Leisten im Stande ist und welche Stolpersteine auf dem Weg zum puren Grafikgenuß dabei zu überwinden sind, viel Vergnügen beim Lesen...
Die technischen Daten XFX Geforce GTX 280:
GPU |
GT200 |
Fertigungsprozess |
65 nm |
Fertigung |
TSMC |
Transistoren |
ca. 1,4 Mrd. |
GPU Geschwindigkeit |
602 MHZ |
Arbeitsspeicher |
1024MB onboard GDDR3-SDRAM |
RAMDAC |
400MHZ |
Speicher Geschwindigkeit |
1107 MHZ |
Shader Speed |
1296 MHZ |
Shader Einheiten |
240 |
Speicher-Bandbreite |
141,696 GB/sec |
FLOPs |
933 GFLOPs |
ROPs |
32 |
Speicherinterface |
512 Bit |
Speicher-Chips |
Hynix 1,0ns |
Mainboard Schnittstelle |
PCI Express 2.0 |
Pixel Füllrate |
19264 MPix/s |
Texelfüllrate |
48160 MTex/s |
Shader Model |
4.0 |
DirectX Unterstützung |
DirectX 10 |
HDPC Unterstützung |
ja |
SLI Unterstützung |
ja |
OpenGL version |
OpenGL 2.0 |
Output Anschlüsse |
2xDuallink DVI, HDTV |
Maximale Auflösung |
3840 x 2400 über DVI |
Stromanschluß |
1x 6-pin Molex, 1x 8-pin Molex |
max. Stromaufnahme |
bis 236 Watt |
Stromsparfunktion |
Clock Gating |
Platinenlänge |
28cm |
Lüfter |
70mm Radiallüfter |
Gewicht |
ca. 980 Gramm mit Kühleinheit |
Garantie
|
2 Jahre |
Die technischen Daten im Vergleich:
|
Sapphire HD4850 |
ATI Radeon HD4870 |
ATI Radeon HD3870 |
Nvidia 9800 GTX |
XFX GTX 280 |
Nvidia 8800GTX |
Nvidia 8800 ultra |
GPU-Revision |
RV770 |
RV770 |
R670 |
G92 A2 |
G200 |
G80 |
G80 |
GPU-Takt |
625 MHz |
750 MHz |
775 MHz |
675 MHz |
602 MHz |
575 MHz |
612 MHz |
Fertigung |
TSMC |
TSMC |
TSMC |
TSMC |
TSMC |
TSMC |
TSMC |
Fertigungsprozess |
55 nm |
55 nm |
55 nm |
65 nm |
65 nm |
90 nm |
90 nm |
Transistoren |
965 Millionen |
965 Millionen |
666 Millionen |
754 Millionen |
1,4 Milliarden |
681 Millionen |
681 Millionen |
Speichertakt |
993 MHz |
900 MHz |
1125 MHz |
1100 MHz |
1107 MHz |
900 MHz |
1080 MHz |
Shadertakt |
625 MHz |
750 MHz |
775 MHz |
1688 MHz |
1296 MHz |
1350 MHz |
1512 MHz |
Speicherinterface |
256 Bit |
256 Bit |
256 Bit |
256 Bit |
512 Bit |
384 Bit |
384 Bit |
Speicherart |
GDDR3 |
GDDR5 |
GDDR4 |
GDDR3 |
GDDR3 |
GDDR3 |
GDDR3 |
Speicher-Kapazität |
512 MB |
512 MB |
512 MB |
512 MB |
1024 MB |
768 MB |
768 MB |
RAMDAC |
400 MHz |
400 MHz |
400 MHz |
400 MHz |
400 MHz |
400 MHz |
400 MHz |
Speicherbandbreite |
63,5 GB /s |
115,20 GB /s |
72 GB/s |
70,4 GB/s |
141,7 GB/s |
86,4 GB/s |
103,6 GB/s |
Interface |
PCI Express 2.0 |
PCI Express 2.0 |
PCI Express 2.0 |
PCI Express 2.0 |
PCI Express 2.0 |
PCI Express |
PCI Express |
DirectX Version |
10.1 |
10.1 |
10.1 |
10 |
10 |
10 |
10 |
Shader-Model |
4.1 |
4.1 |
4.1 |
4.0 |
4.0 |
4.0 |
4.0 |
Unified Shaders |
800 |
800 |
320 |
128 |
240 |
128 |
128 |
Texture Units |
40 |
40 |
16 |
64 |
80 |
64 |
64 |
ROPs |
16 |
16 |
16 |
16 |
32 |
24 |
24 |
FLOPs |
1000 GFLOPs |
1200 GFLOPs |
496 GFLOPs |
643 GFLOPs |
933 GFLOPs |
518 GFLOPs |
581 GFLOPs |
Pixel-Füllrate |
10000 MPix/s |
12000 MPix/s |
12400 MPix/s |
10800 MPix/s |
19264 MPix/s |
13800 MPix/s |
14688 MPix/s |
Texel-Füllrate |
25000 MTex/s |
30000 MTex/s |
12400 MTex/s |
43200 MTex/s |
48160 MTex/s |
36800 MTex/s |
39168 MTex/s |
Preis (aktuell) |
ca. 150 € |
ca. 200 € |
ca. 110 € |
ca. 230 € |
ca. 390 € |
ca. 250 € |
ca. 450 € |
Lieferumfang und Layout:
• XFX Geforce GTX 280 Retail
• XFX Treiber-CD
• Assassins Creed
• Audiokabel
• 4-pin molex to PCI-E Stromkabel
• HDTV Adapter
• SPDIF Kabel
• Handbuch
Zum Vergrößern bitte die Bilder anklicken !
XFX läßt sich wirklich nicht lumpen, der geneigte Käufer erhält neben der üblichen Treiber und Utilities-CD auch die Vollversion von Assassins Creed, einem bildgewaltigen RPG Epos erster Güte. Darüber hinaus fehlen natürlich keine wichtigen Adapter und Kabel. Die ganze Aufmachung verfehlt seinen optischen Reiz nicht, das agressive Grün hinterläßt durchaus seine Wirkung.
Zum Vergrößern bitte die Bilder anklicken !
Von der reinen Platinenlänge unterscheidet sich die GTX 280 nicht von einer 9800GTX oder 8800 ultra, sie bemißt exakt 28cm. Das sind immerhin 5cm mehr als für ältere G92 Grafikkarten, oder die HD 4850 respektive HD4870 von ATI. Dies erklärt sich durch eine andere Anordnung der Kondensatoren und verbesserter Spannungswandler. XFX hat sich beim Design der Kühlerabdeckung sehr viel Mühe gegeben, das Ganze wirkt sehr stimmig und attraktiv, auch wenn es sich nur durch die Aufkleber vom Referenzdesign unterscheidet.
Der Kühler erweist sich als direkter Verwandter zu vielen G92 Varianten, auch hier wird ein 70mm Radiallüfter verwendet. Die Kühleinheit umfaßt allerdings die komplette Grafikkarte.
Der 70mm Radiallüfter saugt Luft aus dem Gehäuseinneren an und schickt diese dann durch ein ausgeklügeltes Tunnelsystem über die Platine der Grafikkarte wieder aus dem PC-Tower hinaus. Diese Kühltechnik ist bestens bewährt und sehr effektiv, zumal sie so den schnellen Abtransport der erzeugten Abwärme gewährleistet. Die warme Abluft wird über den Kühlkörper hinweg direkt aus der Karte heraustransportiert, was einen ganz entscheidenden Vorteil hat, so werden benachbarte Komponenten nicht übermäßig mit der Abwärme der Grafikkarte konfrontiert.
Die Kühlerstruktur wurde aus Aluminium gefertigt und durch Kupfer Heatpipes unterstützt. Die schräge Ausrichtung des Lüfters ist kein Fabrikationsfehler, auf diese weise soll der Luftdruck des Lüfters etwas erhöht werden..
Zum Vergrößern bitte die Bilder anklicken !
Verarbeitstechnisch gibt es keinen Anlass zur kritik, die Karte ist in jeder Hinsicht ein Hingucker und das Design trägt somit sehr viel zur Haptik der Karte bei. Wobei das knallige Grün sicherlich polarisieren dürfte, aber neben den Aufklebern sollte man dann doch die Leistungsindikatoren im Auge behalten, denn um die geht es ja primäre, auch wenn das Auge zweifellos mitkauft.
Das die aktuellen Karten nach RoHS Norm gefertigt werden, sei an dieser Stelle auch noch erwähnt, dies ist allerdings nicht nur Feature, sondern Vorschrift.
Es fällt natürlich auf, das hier nicht ein oder zwei 6-polige Stromanschlüsse verbaut sind, sondern ein 6-poliger sowie ein 8-poliger. Wer ein aktuelles Netzteil mit entsprechenden Steckverbindungen besitzt, sollte sie natürlich auch entsprechend verstöpseln, ansonsten hagelt es Piep-Kanonaden vom Mainboard.
Ohne diese Anschlüsse geht es prinzipiell nicht, da die PCI-Express Slots maximal 75 Watt zur Verfügung stellen, daran ändern auch neue Mainboards mit PCI 2.0 Schnittstelle nichts. Da die Karte aber deutlich über 200 Watt benötigt, wäre die Versorgung über den PCI-Express Slot keine ernsthafte Option.
Auf der Anschlußleiste finden wir neben zwei HDCP-geschützte Dual-Link-DVI-Ausgänge den mittlerweile standardisierten HDTV-Ausgang verbaut. Der Ton kann auch übertragen werden, allerdings muß dazu im Gegensatz zu ATI ein SPDIF-Kabel mit dem Soundchip und der Grafikkarte verbunden sein.
Leider unterstützen die G200 Grafikkarten HDMI nur nativ, d.h. in ihrer psysikalischen Auflösung.
Zum Vergrößern bitte die Bilder anklicken !
Die SLI Ports sind zu erkennen, wobei die Betonung auf dem Plural liegt, denn analog zur 9800GTX, können auch die G200 Grafikkarten für 3-Way-SLI genutzt werden, was die zwei Anschlussoptionen erklärt. Die Plastikabdeckungen sind eine sehr sinnvolle Neuerungen, so werden die empfindlichen Ports wirksam vor Staub und fettigen Fingern geschützt.
Die XFX verfügt nicht nur äußerlich über das Standard-Layout, auch die verbauten Komponenten belegen dies. Als Speichermodule wurden GDDR3-Module wird von Hynix mit einer Zugriffszeit von einer Nanosekunde verbaut, deren ringförmige Anordnung kurze und identische Signalwege ermöglicht. Solid State Elkos (Polymer-Aluminium-Kondensatoren) sind in diesem Qualitätslevel längst State-of-the-Art, da sie sehr viele Vorteile bieten:
Polymer-Aluminium-Kondensatoren Hintergrundinformationen:
"All solid Capacitors" und Elektrolyt-Kondensatoren speichern natürlich beide Elektrizität und geben diese bei Bedarf ab. Der entscheidende Unterschied ist aber, das "all solid capacitors" festes organisches Polymer beinhalten, während Elektrolyt-Kondensatoren ein gewöhnliches flüssiges Polymer verwenden und somit auslaufen können, was ja nicht nur im Netzteilbereich ein Problem darstellt, sondern auch die Mainboard-und Grafikkartenhersteller tangiert.
Die Vorteile in der Übersicht:
• Geringer ESR in Hochfrequenzbereichen
• Minimierung der Brummspannung
• besserer Ausgleich von Spannungsspitzen
• wesentlich längere Betriebsdauer, man spricht von über 20 Jahren
• Besserer Ausgleich von Temperaturschwankungen, weniger Wärmeentwicklung
• sehr schnelle Entladung
• ideale Impedanzkurve
• Umweltschutz, es werden keine giftigen Elektrolyte mehr freigesetzt
Die Technik:
Wir wollen euch zwar nicht endlos mit technischen Details und unverständlichen Fachbegriffen langweilen, aber ein paar Eckdaten zur G200-Technik sollten es schon sein, zumal Nvidias Renovierungen durchaus erwähnenswert sind:
Zum Vergrößern bitte die Bilder anklicken !
Eines der Hauptaugenmerke der neuen G200 Chips liegt zweifelsohne auf den optimierten Unified-Shader Einheiten, oder auch Stream Prozessoren. Jeder einzelne dieser Prozessoren kann typische Gleitkomma-Berechnungen, etwa Multiplikationen mit anschließender Addition (MADD-Rechnung) ausführen. Mit aufwändigen Logik- und Kontrollmechanismen können erstmals parallel zu- und unabhängig voneinander Pixel-, Vertex-, Geometrie- und Physikberechnungen auf die Shadereinheiten verteilt werden. Im deutlichen Gegensatz zu klassischen spezialisierten Shadern anderer Grafikkartenchips übernehmen die Prozessoren hier vollkommen flexibel die anfallende Rechenlast, die GPU wird so wesentlich besser ausgelastet.
Viele Verbesserungen werden auch erst im Detail sichtbar, so hat Nvidia die Zahl der Arbeitsregister pro Thread verdoppelt, was komplexen Shader-Programmen zugute kommt. Der interne Streamout-Buffer arbeitet nun sechs mal schneller und behindert die ALUs dadurch nicht mehr in der Konfiguration als Geometrieshader.
Nvidia betont ausdrücklich, dass auch die ALUs flexibler einsetzbar sind und spricht bei den ALU-Achtergruppen nicht mehr von SIMD, sondern von SIMT-Einheiten (Single Instruction Multiple Threads – Streaming Multiprozessor). Man erreiche die volle Geschwindigkeit jetzt auch, wenn verschiedene Threads mit Vektordaten unterschiedlicher Breite arbeiten. Die SIMD-Einheiten der Vorgänger haben unter dieser Bedingung noch spürbar an Leistung eingebüßt. Die Instruktionseinheit innerhalb jeder Achtergruppe, die Nvidia als Streaming Multiprocessor bezeichnet, ist in der Lage 1024 Threads zu verwalten. Insgesamt kann ein GeForce GTX 280 daher 30720 Threads gleichzeitig verwalten. Beim Vorgänger waren es immerhin schon 12228 Threads.
Die neuen GT200 schöpfen ihre Rechenleistung also zunächst einmal aus einer hohen Zahl von Shader-ALUs, die im Vergleich zum Vorgänger G92 fast verdoppelt wurde. Das GTX 280 Topmodell vereint 240 Rechenkerne, die in zehn Clustern zu je dreimal acht ALUs angeordnet sind. Sie erreichen bei 1296 MHz und drei Operation pro Takt (MAD, MUL) zusammen eine theoretische Spitzenleistung von enormen 933 GFLOPS. Im Vergleich dazu schafft eine 9800GTX gerade mal 648 GFLOPS. Das hat natürlich seinen Preis, denn dafür Nvidia unglaubliche 1,4 Milliarden Transistoren auf dem Chip unterbringen, was schon ansatzweise den hohen Strombedarf erklärt.
Der Aufwand soll selbstverständlich auch früchte tragen, aktuelle und kommende Games sollen auch in einer Auflösung von 1920 × 1200 Bildpunkten und mehr problemlos spielbar sein. Wobei die immer noch fehlende DirectX 10.1 Implementierung schon etwas ärgerlich ist.
Was die Texturleistung angeht, so wurde von Nvidia nicht all zu viel optimiert, von 64 Texel/Takt wurde auf 80 Texel/Takt erhöht. Dafür wurden die Blend-Operationen gesteigert, von 12 auf 32 Pixel/Takt.
Bedingt durch den 65nm Fertigungsprozess und die irrsinnig hohe Zahl der Transistoren, plaziert auf ebenso enormen 576mm² Chipfläche, waren auch keine Wunder beim Chiptakt zu erwarten, da müssen ab Werk 602 MHZ vorerst genügen. Der Speicher taktet mit 1107 MHZ und dirigiert den 1GB großen GDDR3 Speicher über einen 512MB breiten Datenbus. ATI schlägt hier einen anderen Weg ein, man präferiert einen 256Mb breiten Datenbus und garniert diesen dann allerdings mit modernerem GDDR5 Speicher. Der ATI Weg ist der preisgünstigere bei etwa gleicher Speicherleistung, was gerne unterschlagen wird, wenn über die Breite des Datenbusses diskutiert wird.
Kommen wir zum nächsten wichtigen Feature: der Physikberechnung, denn die neuen G200 Chips sind in der Lage, ihre Rechenleistung auch für aufwendige Pysikberechnungen zu nutzen, so daß separate Pysik Karten überflüssig werden. Dafür wurde außerdem eine eigene Physik Software entwickelt, die sich optimal mit den G200 Grafikchips verständigen kann. Spiele wie Unreal Tournament 3 und auch die Benchmark-Software 3DMark Vantage profitieren als erste davon.
Schon sind wir beim nächten wichtigen Feature angelangt: CUDA. Compute Unified Device Architecture (CUDA) ist eine von NVIDIA entwickelte Technik zur Beschleunigung wissenschaftlicher und technischer Berechnungen.
Nvidia realisiert dies, in dem C-ähnliche Compiler bestimmte Rechenaufgaben parallelisieren und auf die Shader-ALUs der GPU übertragen. Klingt simpel, ist aber ein relativ komplexer Vorgang.
Aber genug der grauen Theorie, kommen wir endlich zum Praxistest...
Das Testsystem:
CPU |
Intel Core 2 Duo E8600@4GHZ |
Mainboard |
Asus P5E64 WS Evolution |
Arbeitsspeicher |
Corsair XMS3 DHX PC3-12800 DDR3 4GB Dualkit |
Soundkarte |
Sound Blaster X-Fi XtremeGamer Fatality |
CPU-Kühler |
Thermalright True Black 120 |
CPU-Lüfter |
Scythe Slipstream 1200 |
Festplatten System |
2x Western Digital VelociRaptor a´ 300GB SATA II RAID-0 |
Festplatte Daten |
1x Samsung F1 320GB SATA II |
Festplatte Backup |
1x Samsung F1 320GB SATA II |
DVD-Brenner |
Plextor PX-760 SATA |
DVD-ROM |
Plextor PX-810 SATA |
Diskettenlaufwerk |
Scythe Combo |
Gehäuse |
Lian Li PC-A77@Noiseblocker Multiframe S2 |
Netzteil |
Enermax Modu82+ 625 Watt |
Monitor |
Eizo S2100 |
Betriebssystem |
Windows XP Prof. SP3, Vista Ultimate SP1 64 Bit, 2008 Enterprise Server SP1 64 Bit |
Montage, Treiberinstallation und Tipps:
Zur Treiber Installation/Aktualisierung/Deinstallation bevorzugen wir unseren entsprechenden Artikel:
Nividia Grafikkartentreiber korrekt deinstallieren
- Die neue Karte eingebaut und über entsprechende Stromanschlüsse (1x8-polig und 1x6-polig) mit dem Netzteil verbinden, schon ist die GTX 280 startklar.
- Neu starten, eventuelle Nvidia-Reste aus dem System noch entfernen und die gewünschten Treiber installieren, in unserem Fall den kürzlich veröffentlichten Geforce 177.83.
Abschließend aktualisierten wir die vorhandene DirectX9.0c Version auf die überarbeitete Version aus August 2008: DirectX-Endbenutzer-Runtimes August 2008
Wer lieber das ältere und eigentlich übersichtlichere Nvidia Konfigurationsmenü bevorzugt, kann dies übrigens auch nachträglich ändern:
Anleitung dazu
Wer sein Betriebssystem ohnehin neu aufsetzen wollte, der sollte nach Möglichkeit unsere Installationsreihenfolge verwenden:
1. Windows installieren (am besten von CD mit integriertem Service Pack 3)
2. Servicepack installieren (sofern nicht schon auf CD eingebunden, s.o.)
3. Wurmports schließen ->zum Artikel
4. aktuelle Chipsatztreiber installieren, schaut dazu bei Intel, Nvidia oder SIS nach aktuellen Mainboardtreibern, die Treiber auf den Installations-CDs sind veraltet
5. DirectX aktualisieren DirectX End-User Runtimes (August 2008)
6. aktuelle Grafikkartentreiber und Monitortreiber installieren. Schaut dazu bitte beim Grafikchiphersteller auf den Webseiten (ATI oder Nvidia), die Treiber auf den beigelegten CDs sind veraltet
7. aktuelle Soundkartentreiber installieren
8. weitere aktuelle Treiber für Peripheriegeräte installieren
9. die restlichen Windows-Patches installieren
10. die Dienste sicherheitsrelevant konfigurieren ->zum Artikel
11. jetzt erst den Internetzugang konfigurieren (nachdem alle verfügbaren Sicherheitsupdates installiert sind)
Damit war die Montage der GrafikKarte und auch die Treiberinstallation zunächst erfolgreich abgeschlossen und wir installierten die noch fehlenden Treiber für den Eizo S2100 Monitor. Abschließend stellten wir die Auflösung für den Desktop auf 1600x1200 bei 32-Bit und die Bildschirmaktualisierungsrate auf die von Eizo vorgeschriebenen 60 Hertz.
Als ersten Eindruck erhielten wir sehr kontrastreiche 2D-Farben und ein gestochen scharfes Bild. Scheinbar kann der Eizo S2100 die gelieferten Signale optimal umsetzen.
Noch eine kleine nicht unwesentliche Anmerkung am Rande:
wer sich eine teure Grafikkarte kauft, sollte darauf achten, das sein Monitor ebenfalls diesen gehobenen Ansprüchen gerecht wird. Denn Frust ist vorprogrammiert, wenn die teure High-End Grafikkarte mit einem Billig-Monitor kommunizieren muß, der gar nicht in der Lage ist, das erhofft schöne Bild zu reproduzieren...!
Die Tests:
Vor den eigentlichen Tests optimierten wir Windows XP/SP3 nach unserem Performance-Workshop
, schließlich sollte eine ideale Basis optimale Voraussetzungen bieten.
Abschließend wurde das gesamte eine Stunde mit Prime95 "vorgeheizt".
Die Lautheit der Grafikkarten-Lüfter haben wir nicht separat gemessen, sondern als Systemgesamtlautstärke in die Tests eingebunden. Dabei wurden die Lautstärke ca. 15cm vom Rechner entfernt mit einem ACR-264-plus Messgerät verifiziert und dabei die Umgebungsgeräusche so weit wie möglich reduziert, um das Ergebnis nicht zu verfälschen. Laut DIN-Norm sollte der Abstand von Messgerät zum Testobjekt 100cm betragen, aber da wir nicht über einen schalltoten respektive schallarmen Raum verfügen, waren Kompromisse unumgänglich.
Mit dem Digitalen Temperaturmessgerät TL-305 haben wir während sämtlicher Testdurchläufe die Temperaturen der Grafikkarte per Sensor gemessen und aufgezeichnet. Somit erhält der mögliche Käufer auch eine gute Übersicht bezüglich der zu erwartenden Kühlleistung der Grafikkarte.
Um den Stromverbrauch möglichst genau wiederzugeben (gesamtes System), haben wir den grafischen Leistungsmesser Peak Tech 2535 verwendet.
Testprogramme:
• Windows XP SP3 mit DirectX 9 aus August 2008.
• Windows Vista Ultimate 64Bit SP1
• 3DMark 2006 aktuell gepatcht
• 3DMark Vantage aktuell gepatcht
• aktuelle DirectX9 Spiele
• aktuelle DirectX10 Spiele
Treibereinstellungen Nvidia ForceWare 177.83:
- 3D Systemleistung: Standard
• Vertikale Synchronisierung: Aus
• sonst alles auf Standard
Kommentare zu den synthetischen 3DMark Benchmarkprogrammen ersparen wir uns, dafür gibt es einfach zu viele Irritationen bei Vergleichswerten und ebenso viele Möglichkeiten diese, in welcher Form auch immer, zu beeinflussen. Die Relevanz ist somit zumindest fragwürdig, aber der vollständigkeithalber haben wir sie ebenfalls durchlaufen lassen, wobei wir auf 3DMark 2003 und 2005 wegen fehlender Aktualität gänzlich verzichteten.
Für aussagekräftige Benchmarks sollte als Testeinstieg in jedem Fall die Auflösung 1280x1024 (Standard-TFT-Auflösung für 17 und 19" Geräte)) und die Option Quality 4AAx16AF (4-fach Antialiasing + 16-fach anisotropischer Filter) aktiviert sein, ansonsten gerät die Beurteilung aktueller High-Endgrafikkarten zur Farce. Dies gilt insbesondere für Crossfire/SLI Systeme, wo alles unter 1600x1200 Pixel den Sinn eines solchen Systems mehr als nur in Frage stellt. Ohne entsprechende Qualitätseinstellung, kann man keine Aussage darüber treffen, welche Leistung wirklich erbracht wird, zumal auch eine Mittelklasse Grafikkarte ohne 4xAA und 16xAF recht schnell sein kann.
Grundsätzlich sollte man trotz des neuen 3DMark Vantage synthetischen Benchmarks nicht allzu große Bedeutung beimessen, denn 1. sind einige schon etwas betagt und haben somit kaum einen ernsthaften Bezug zur aktuellen Technik und 2. entstehen immer wieder mal kuriose Situationen, in denen der eine oder andere programmierbedingte Lapsus dieser oder jener Grafikkarte Vorteile verschafft, die eigentlich gar nicht vorhanden sind.
Da sind Spielebenchmarks schon etwas aussagekräftiger, auch wenn viele der Spiele entweder auf ATI oder Nvidia optimiert wurden. Da gilt es dann zu unterscheiden: Open GL Spiele von id-Software wie Quake 4 oder Doom 3 z.B. laufen generell etwas schneller auf Nvidia-Karten und Direct3D Spiele wie Halflife 2 oder Call of Duty 2 favorisieren ATI, um nur ein paar Beispiele zu nennen.
Selbstverständlich kamen auch aktuelle und brandneue DirectX10-Spiele in unserem Testparcour zum Einsatz, die dann unter Vista Ultimate 64 Bit berücksichtigt wurden. Bei Crysis beließen wir es allerdings auf Benchmarks ohne 4xAA/16xAF, da sonst alles deutlich unter 20 Frames pro Sekunde abläuft.
Wer einen Widescreen TFT besitzt, dem sei erklärt, das es bezüglich der Füllrate keinen großen Unterschied macht, ob nun in 1600x1200 (1,9 Millionen Pixel) oder 1680x1050 (1,75 Millionen Pixel) aufgelöst wird.
1a. Spiele-Benchmarks DirectX9:
Zum Vergrößern bitte die Bilder anklicken !
Zum Vergrößern bitte die Bilder anklicken !
Call of Duty 4 1280x1024 1xAA und 1xAF |
Grafikkarte:
| FPS (Frames per Second) |
XFX Geforce 8800 ultra SLI |
144 fps |
Powercolor HD4870 |
117,9 fps |
Sapphire HD3870 X2 |
115,8 fps |
XFX GTX 280 |
113,3 fps |
Powercolor HD3870 CF |
114 fps |
Nvidia Geforce 8800 ultra |
106 fps |
Nvidia Geforce 8800GTX |
93,7 fps |
Sapphire HD4850 |
93,1 fps |
Asus Geforce 9800GTX |
91,9 fps |
Nvidia Geforce 8800GTS G92 |
89,5 fps |
BFG 8800GT OC |
81,5 fps |
Powercolor HD3870 |
78,5 fps |
ATI Radeon HD 2900XT |
76,1 fps |
Nvidia Geforce
7950 GX2 |
71,1 fps |
Nvidia Geforce
8800GTS (G80) |
65 fps |
Nvidia Geforce
8800GTS-320MB |
62,8 fps |
Call of Duty 4 1600x1200 1xAA und 1xAF |
Grafikkarte:
| FPS (Frames per
Second) |
XFX Geforce 8800 ultra SLI |
118 fps |
Powercolor HD4870 CF |
101,6 fps |
Sapphire HD3870 X2 |
99,1 fps |
XFX GTX 280 |
98,8 fps |
Powercolor HD3870 CF |
97 fps |
Nvidia Geforce 8800 ultra |
81 fps |
Nvidia Geforce 8800GTX |
73,2 fps |
Sapphire HD4850 |
72,7 fps |
Asus Geforce 9800GTX |
67,8 fps |
Nvidia Geforce 8800GTS G92 |
66,5 fps |
BFG 8800GT OC |
62,4 fps |
Powercolor HD3870 |
61,6 fps |
ATI Radeon
HD 2900XT |
59,9 fps |
Nvidia Geforce
7950 GX2 |
56 fps |
Nvidia Geforce
8800GTS (G80) |
51,7 fps |
Nvidia Geforce 8800GTS 320MB |
50,5 fps |
|
F.E.A.R. 1280x1024 4xAA und 16xAF |
Grafikkarte:
| FPS (Frames per Second) |
XFX Geforce 8800 ultra SLI |
209 fps |
XFX GTX 280 |
196 fps |
Powercolor HD4870 |
159 fps |
Sapphire HD3870 X2 |
153 fps |
Powercolor HD3870 CF |
148 fps |
Nvidia Geforce 8800 ultra |
131 fps |
Sapphire HD4850 |
128 fps |
Nvidia Geforce 8800GTX |
116 fps |
Asus Geforce 9800GTX |
114 fps |
Nvidia Geforce 8800GTS G92 |
113 fps |
BFG 8800GT OC |
103 fps |
Powercolor HD3870 |
91 fps |
ATI Radeon HD 2900XT |
89 fps |
Nvidia Geforce
8800GTS (G80) |
85 fps |
Nvidia Geforce
8800GTS 320MB |
80 fps |
Nvidia Geforce
7950 GX2 |
61 fps |
F.E.A.R. 1600x1200 4xAA und 16xAF |
Grafikkarte:
| FPS (Frames per
Second) |
XFX Geforce 8800 ultra SLI |
163 fps |
XFX GTX 280 |
151 fps |
Powercolor HD4870 |
122 fps |
Sapphire HD3870 X2 |
119 fps |
Powercolor HD3870 CF |
116 fps |
Nvidia Geforce 8800 ultra |
95 fps |
Sapphire HD4850 |
91 fps |
Nvidia Geforce 8800GTX |
86 fps |
Asus Geforce 9800GTX |
84 fps |
Nvidia Geforce 8800GTS G92 |
83 fps |
BFG 8800GT OC |
77 fps |
Powercolor HD3870 |
71 fps |
ATI Radeon
HD 2900XT |
67 fps |
Nvidia Geforce
8800GTS (G80) |
64 fps |
Nvidia Geforce
8800GTS 320MB |
61 fps |
Nvidia Geforce 7950 GX2 |
47 fps |
|
Company of Heroes 1280x1024 4xAA und 16xAF |
Grafikkarte:
| FPS (Frames per Second) |
XFX Geforce 8800 ultra SLI |
177 fps |
XFX GTX 280 |
172 fps |
Powercolor HD4870 |
169 fps |
Sapphire HD3870 X2 |
160 fps |
Powercolor HD3870 CF |
159 fps |
Sapphire HD4850 |
138 fps |
Asus Geforce 9800GTX |
136 fps |
Nvidia Geforce 8800GTS G92 |
133 fps |
Nvidia Geforce 8800 ultra |
131 fps |
BFG
8800GT OC |
119,4 fps |
Nvidia Geforce 8800GTX |
118,9 fps |
Powercolor HD3870 |
109 fps |
ATI Radeon HD 2900XT |
102,2 fps |
Nvidia Geforce
7950 GX2 |
88,9 fps |
Nvidia Geforce 8800GTS (G80) |
87,4 fps |
Nvidia Geforce
8800GTS 320MB |
79,8 fps |
Company of Heroes 1600x1200 4xAA und 16xAF |
Grafikkarte:
| FPS (Frames per Second) |
XFX GTX 280 |
151 fps |
XFX Geforce 8800 ultra SLI |
146 fps |
Powercolor HD4870 |
133 fps |
Sapphire HD3870 X2 |
129 fps |
Powercolor HD3870 CF |
129 fps |
Sapphire HD4850 |
107 fps |
Asus Geforce 9800GTX |
104 fps |
Nvidia Geforce 8800 ultra |
99,3 fps |
Nvidia Geforce 8800GTS G92 |
99,1 fps |
Nvidia Geforce
8800GTX |
89,5 fps |
BFG 8800GT OC |
80,9 fps |
Powercolor HD3870 |
79,7 fps |
ATI Radeon
HD 2900XT |
77,8 fps |
Nvidia Geforce
7950 GX2 |
62,6 fps |
Nvidia Geforce
8800GTS (G80) |
57,4 fps |
Nvidia Geforce
8800GTS 320MB |
54,7 fps |
|
Half-Life 2: Episode Two 1280x1024 4xAA und 16xAF |
Grafikkarte:
| FPS (Frames per Second) |
XFX GTX 280 |
266 fps |
XFX Geforce 8800 ultra SLI |
249 fps |
Powercolor HD4870 |
228 fps |
Sapphire HD3870 X2 |
225 fps |
Powercolor HD3870 CF |
225 fps |
Nvidia Geforce 8800 ultra |
198 fps |
Nvidia Geforce
8800GTX |
182 fps |
Asus Geforce 9800GTX |
181 fps |
Sapphire HD4850 |
180 fps |
Nvidia Geforce 8800GTS G92 |
179 fps |
BFG 8800GT OC |
176 fps |
Powercolor HD3870 |
146 fps |
Nvidia Geforce 8800GTS (G80) |
134 fps |
Nvidia Geforce 8800GTS 320MB |
131 fps |
ATI Radeon HD 2900XT |
126 fps |
Nvidia Geforce
7950 GX2 |
107 fps |
Half-Life 2: Episode Two 1600x1200 4xAA und 16xAF |
Grafikkarte:
| FPS (Frames per Second) |
XFX GTX 280 |
219 fps |
XFX Geforce 8800 ultra SLI |
211 fps |
Powercolor HD4870 |
193 fps |
Powercolor HD3870 CF |
189 fps |
Sapphire HD3870 X2 |
188 fps |
Nvidia Geforce 8800 ultra |
155 fps |
Nvidia Geforce 8800 GTX |
141 fps |
Sapphire HD4850 |
140 fps |
Asus Geforce 9800GTX |
140 fps |
Nvidia Geforce 8800GTS G92 |
140 fps |
BFG 8800GT OC |
139 fps |
Powercolor HD3870 |
122 fps |
ATI Radeon
HD 2900XT |
97 fps |
Nvidia Geforce
8800GTS (G80) |
94 fps |
Nvidia Geforce
8800GTS 320MB |
91 fps |
Nvidia Geforce
7950 GX2 |
79 fps |
|
1b. Spiele-Benchmarks DirectX10:
Zum Vergrößern bitte die Bilder anklicken !
Zum Vergrößern bitte die Bilder anklicken !
Zum Vergrößern bitte die Bilder anklicken !
Crysis Time Demo 1280x1024 |
Grafikkarte:
| FPS (Frames per Second) |
XFX GTX 280 |
71,8 fps |
XFX Geforce 8800 ultra SLI |
58,5 fps |
Powercolor HD4870 |
57,8 fps |
Powercolor HD3870 CF |
47,8 fps |
Sapphire HD3870 X2 |
46,1 fps |
Sapphire HD4850 |
45,1 fps |
Nvidia Geforce 8800 ultra |
44,3 fps |
Asus Geforce 9800GTX |
42,4 fps |
Nvidia Geforce 8800GTS G92 |
40,5 fps |
Nvidia Geforce 8800GTX |
39,5 fps |
BFG 8800GT OC |
35,9 fps |
Powercolor HD3870 |
29,5 fps |
Nvidia Geforce 8800GTS (G80) |
28,3 fps |
ATI Radeon HD 2900 XT |
24,3 fps |
Nvidia Geforce
8800GTS 320MB |
19,8 fps |
Crysis Time Demo 1600x1200 |
Grafikkarte:
| FPS (Frames per Second) |
XFX GTX 280 |
59,2 fps |
XFX Geforce 8800 ultra SLI |
47,4 fps |
Powercolor HD4870 |
40,6 fps |
Powercolor HD3870 CF |
37,8 fps |
Sapphire HD3870 X2 |
37,4 fps |
Sapphire HD4850 |
36,6 fps |
Nvidia Geforce 8800 ultra |
34,8 fps |
Nvidia Geforce 8800GTX |
31,6 fps |
Asus Geforce 9800GTX |
29,2 fps |
Nvidia Geforce 8800GTS G92 |
28,5 fps |
BFG 8800GT OC |
27,9 fps |
Powercolor HD3870 |
23,9 fps |
Nvidia Geforce 8800GTS (G80) |
22,1 fps |
ATI Radeon HD 2900 XT |
19,5 fps |
Nvidia Geforce
8800GTS 320MB |
14,2 fps |
|
Bioshock 1280x1024 1xAA und
16xAF |
Grafikkarte:
| FPS (Frames per Second) |
XFX GTX 280 |
115,1 fps |
XFX Geforce 8800 ultra SLI |
102,5 fps |
Sapphire HD3870 X2 |
79,2 fps |
Powercolor HD3870 CF |
78,8 fps |
Powercolor HD4870 |
78,4 fps |
Nvidia Geforce 8800 ultra |
77,9 fps |
Asus Geforce 9800GTX |
75,3 fps |
Nvidia Geforce 8800GTS G92 |
72,1 fps |
Sapphire HD4850 |
69,9 fps |
Nvidia Geforce 8800GTX |
68,6 fps |
BFG 8800GT OC |
64,1 fps |
ATI Radeon
HD 2900 XT |
52,7 fps |
Powercolor HD3870 |
51,8 fps |
Nvidia Geforce
8800GTS (G80) |
51,4 fps |
Nvidia Geforce
8800GTS 320MB |
50,2 fps |
Bioshock 1600x1200 1xAA und
16xAF |
Grafikkarte:
| FPS (Frames per Second) |
XFX GTX 280 |
91,5 fps |
XFX Geforce 8800 ultra SLI |
86,5 fps |
Sapphire HD3870 X2 |
62,8 fps |
Powercolor HD3870 CF |
62,1 fps |
Powercolor HD4870 |
60,9 fps |
Nvidia Geforce 8800 ultra |
58,7 fps |
Asus Geforce 9800GTX |
51,9 fps |
Nvidia Geforce 8800GTS G92 |
50,8 fps |
Sapphire HD4850 |
50,4 fps |
Nvidia Geforce 8800GTX |
50,3 fps |
BFG 8800GT OC |
46,1 fps |
Powercolor HD3870 |
40,5 fps |
ATI Radeon
HD 2900 XT |
37,9 fps |
Nvidia Geforce
8800GTS (G80) |
38,8 fps |
Nvidia Geforce
8800GTS 320MB |
36,6 fps |
|
Assassins Creed 4xAA und 16xAF 1280x1024 |
Grafikkarte:
| FPS (Frames per Second) |
XFX Geforce 8800 ultra SLI |
88,5 fps |
Powercolor HD3870 CF |
85,2 fps |
Sapphire HD3870 X2 |
84,9 fps |
Powercolor HD4870 |
83,8 fps |
XFX GTX 280 |
78,1 fps |
Sapphire HD4850 |
76,1 fps |
Asus Geforce 9800GTX |
62,9 fps |
Powercolor HD3870 |
60,8 fps |
Nvidia Geforce 8800 ultra |
58,3 fps |
Nvidia Geforce 8800GTS G92 |
53,5 fps |
Nvidia Geforce 8800GTX |
50,3 fps |
BFG 8800GT OC |
48,9 fps |
Nvidia Geforce 8800GTS (G80) |
38,3 fps |
ATI Radeon HD 2900 XT |
22,3 fps |
Nvidia Geforce
8800GTS 320MB |
16,8 fps |
Assassins Creed 4xAA und 16xAF 1600x1200 |
Grafikkarte:
| FPS (Frames per Second) |
XFX Geforce 8800 ultra SLI |
87,2 fps |
Powercolor HD3870 CF |
83,1 fps |
Sapphire HD3870 X2 |
79,9 fps |
Powercolor HD4870 |
62,9 fps |
XFX GTX 280 |
62,1 fps |
Sapphire HD4850 |
60,9 fps |
Asus Geforce 9800GTX |
58,6 fps |
Nvidia Geforce 8800 ultra |
51,3 fps |
Nvidia Geforce 8800GTS G92 |
51,1 fps |
Nvidia Geforce 8800GTX |
46,5 fps |
Powercolor HD3870 |
42,8 fps |
BFG 8800GT OC |
40,9 fps |
Nvidia Geforce 8800GTS (G80) |
25,4 fps |
ATI Radeon HD 2900 XT |
21,3 fps |
Nvidia Geforce
8800GTS 320MB |
15,8 fps |
|
World in Conflict 1280x1024 4xAA und
16xAF |
Grafikkarte:
| FPS (Frames per Second) |
XFX Geforce 8800 ultra SLI |
124,5 fps |
XFX GTX 280 |
106,7 fps |
Powercolor HD4870 |
88,8 fps |
Sapphire HD4850 |
76,9 fps |
Sapphire HD3870 X2 |
71,2 fps |
Powercolor HD3870 CF |
70,8 fps |
Asus Geforce 9800GTX |
56,1 fps |
Nvidia Geforce 8800GTS G92 |
52,1 fps |
Nvidia Geforce 8800 ultra |
51,7 fps |
Nvidia Geforce 8800GTX |
49,0 fps |
BFG 8800GT OC |
48,8 fps |
Powercolor HD3870 |
43,1 fps |
ATI Radeon
HD 2900 XT |
35,7 fps |
Nvidia Geforce
8800GTS (G80) |
31,4 fps |
Nvidia Geforce
8800GTS 320MB |
27,2 fps |
World in Conflict 1600x1200 4xAA und
16xAF |
Grafikkarte:
| FPS (Frames per Second) |
XFX Geforce 8800 ultra SLI |
108,3 fps |
XFX GTX 280 |
81,6 fps |
Powercolor HD4870 |
70,1 fps |
Sapphire HD4850 |
59,8 fps |
Sapphire HD3870 X2 |
55,3 fps |
Powercolor HD3870 CF |
54,9 fps |
Asus Geforce 9800GTX |
42,5 fps |
Nvidia Geforce 8800GTS G92 |
38,7 fps |
Nvidia Geforce 8800 ultra |
36,4 fps |
Nvidia Geforce 8800GTX |
33,9 fps |
BFG 8800GT OC |
32,8 fps |
Powercolor HD3870 |
27,9 fps |
ATI Radeon
HD 2900 XT |
19,7 fps |
Nvidia Geforce
8800GTS (G80) |
16,9 fps |
Nvidia Geforce
8800GTS 320MB |
12,2 fps |
|
Die GTX 280 kann sich respektabel in Szene setzen, wobei der propagierte Quantensprung ausblieb, das muß man einfach so deutlich attestieren, denn der Abstand zum Konkurrent ATI gestaltet sich nicht immer so deutlich wie erhofft.
In unseren Spiele Benchmarks zeigt sich aber auch, das Crossfire Verbund und SLI-Systeme den neuen Single-GPU-Grafikkarten immer noch Paroli bieten. Die gerade veröffentlichte HD4870 X2 wird diesen Zustand weiter forcieren.
2. Synthetische-Benchmarks:
3DMark2006 1280x1024 4xAA und 16xAF |
Grafikkarte:
| Punkte |
XFX Geforce 8800 ultra SLI |
17610 |
XFX GTX 280 |
15611 |
Powercolor HD3870 CF |
13388 |
Sapphire HD3870 X2 |
13011 |
Powercolor HD4870 |
12993 |
Nvidia Geforce 8800 ultra |
11998 |
Asus Geforce 9800GTX |
11557 |
Sapphire HD4850 |
11548 |
Nvidia Geforce 8800GTS G92 |
11314 |
Nvidia Geforce 8800GTX |
11116 |
BFG 8800GT OC |
10846 |
Powercolor HD3870 |
8155 |
ATI Radeon
HD 2900 XT |
7913 |
Nvidia Geforce
8800GTS (G80) |
7431 |
Nvidia Geforce
8800GTS 320MB |
7205 |
3DMark2006 1600x1200 4xAA und 16xAF |
Grafikkarte:
| Punkte |
XFX Geforce 8800 ultra SLI |
14936 |
XFX GTX 280 |
13089 |
Powercolor HD4870 |
11916 |
Sapphire HD3870 X2 |
11666 |
Powercolor HD3870 CF |
11416 |
Nvidia Geforce 8800 ultra |
9153 |
Sapphire HD4850 |
9071 |
Asus Geforce 9800GTX |
8722 |
Nvidia Geforce 8800GTS G92 |
8611 |
Nvidia geforce 8800GTX |
8405 |
BFG 8800GT OC |
7575 |
Powercolor HD3870 |
7193 |
ATI Radeon HD 2900 XT |
6472 |
Nvidia Geforce 8800GTS (G80) |
5933 |
Nvidia Geforce 8800GTS 320MB |
5111 |
|
3DMark Vantage 1280x1024 1xAA und 1xAF |
Grafikkarte:
| Punkte |
XFX GTX 280 |
12015 |
XFX Geforce 8800 ultra SLI |
10661 |
Powercolor HD4870 |
9541 |
Sapphire HD3870 X2 |
8666 |
Powercolor HD3870 CF |
8611 |
Sapphire HD4850 |
7225 |
Nvidia Geforce 8800 ultra |
6779 |
Nvidia Geforce 8800GTX |
6155 |
Asus Geforce 9800GTX |
6008 |
Nvidia Geforce 8800GTS G92 |
5971 |
BFG 8800GT OC |
5288 |
Powercolor HD3870 |
4639 |
ATI Radeon
HD 2900 XT |
3933 |
Nvidia Geforce
8800GTS (G80) |
3771 |
Nvidia Geforce
8800GTS 320MB |
3255 |
3DMark Vantage 1600x1200 2xAA und 8xAF |
Grafikkarte:
| Punkte |
XFX Geforce 8800 ultra SLI |
8066 |
XFX GTX 280 |
7882 |
Powercolor HD4870 |
6097 |
Sapphire HD3870 X2 |
4761 |
Powercolor HD3870 CF |
4727 |
Sapphire HD4850 |
4538 |
Nvidia Geforce 8800 ultra |
4377 |
Nvidia Geforce 8800GTX |
3788 |
Asus Geforce 9800GTX |
3616 |
Nvidia Geforce 8800GTS G92 |
3511 |
BFG 8800GT OC |
3199 |
Powercolor HD3870 |
2496 |
ATI Radeon
HD 2900 XT |
2011 |
Nvidia Geforce
8800GTS (G80) |
1696 |
Nvidia Geforce
8800GTS 320MB |
1345 |
|
Es gibt keine erwähnenswerten Veränderungen zu vermelden, was für die Spielebenchmarks gilt, findet auch in den synthetischen Benchmarks ihre Relevanz, es bietet sich ein nahezu unverändertes Bild.
3. Stromverbrauch (gesamtes System):
Stromverbrauch-Idle |
Grafikkarte:
| Angaben in Watt |
Nvidia Geforce 7900GT |
153 |
Powercolor HD3870 |
174 |
Nvidia Geforce 7900GTO |
176 |
Nvidia Geforce 7900GTX |
179 |
ATI Radeon X1900XTX |
181 |
Sapphire X1950XTX |
186 |
Sapphire HD4850 |
189 |
Powercolor HD3870 CF |
193 |
XFX GTX 280 |
194 |
BFG 8800GT OC |
194 |
Nvidia Geforce 8800GTS G92 |
192 |
Asus 9800GTX |
199 |
Powercolor HD4870 |
199 |
Sapphire HD3870 X2 |
211 |
Nvidia Geforce 8800GTX |
225 |
ATI Radeon 2900 XT |
235 |
Nvidia Geforce 8800 ultra |
275 |
XFX Geforce 8800 ultra SLI |
310 |
Stromverbrauch-Last |
Grafikkarte:
| Angaben in Watt |
Nvidia Geforce 7900GT |
153 |
Nvidia Geforce 7900GTO |
176 |
Nvidia Geforce 7900GTX |
179 |
ATI Radeon X1900XTX |
181 |
Sapphire X1950XTX |
186 |
Powercolor HD3870 |
259 |
BFG 8800GT OC |
268 |
Nvidia Geforce 8800GTS G92 |
289 |
Sapphire HD4850 |
298 |
Asus 9800GTX |
305 |
Powercolor HD4870 |
328 |
Nvidia Geforce 8800GTX |
332 |
Powercolor HD3870 CF |
349 |
XFX GTX 280 |
356 |
Nvidia Geforce 8800 ultra |
358 |
ATI Radeon 2900 XT |
373 |
Sapphire HD3870 X2 |
383 |
XFX Geforce 8800 ultra SLI |
545 |
Der Stromverbrauch ist immer noch eines der blamabelsten Kapitel, hier sind Innovationen scheinbar lange Zeit vom Reißbrett verbannt worden, denn was aktuelle Highend Grafikkarten bisher einem Netzteil abverlangten, das hatte den Pegel der Vernunft längst überschritten. Intel und AMD haben dies erkannt und die exorbitante Verlustleistungen mit sparsamen und trotzdem leistungsstarken Prozessoren wie z.B. dem Phenom und dem Penryn reduziert. Bei den Grafikkarten ist diese Entwicklung noch deutlich optimierungsbedürftig, auch wenn die 8800GT im Highend-Segment einen ersten Schritt in die richtige Richtung bedeutete und die HD3870 ebenfalls über deutlich optimierte Verbrauchswerte verfügt.
Die HD 4850/4870 bewegen sich zwar auf einem noch vertretbaren Level, aber entsprichen auch nicht ganz dem, was wir erwartet oder besser gesagt erhofft hatten. Dabei ist allerdings zu berücksichtigen, das trotz des gerade veröffentichten Catalyst 8.8, der Stromsparmechanismus der 4870 und 4850 Grafikkarten immer noch nicht korrekt funktioniert.
Die GTX 280 agiert unter Last knapp unter einer 8800 ultra, von Fortschritten kann also keine Rede sein. Natürlich benötigen schnelle Grafikkarten auch eine entsprechende Stromversorgung, aber warum die Hersteller grundsätzlich nur auf die Leistung schielen und den Stromverbrauch vernachlässigen, erschließt sich dem geneigten Betrachter auch beim zweiten Blick nicht, es ist und bleibt ein Trauerspiel...
4. Temperaturen:
Temperaturen-Idle |
Grafikkarte:
| Angaben in °C |
Nvidia Geforce 7900GTX |
39° |
Powercolor HD3870 |
44° |
XFX GTX 280 |
44° |
Powercolor HD3870 CF |
46° |
Nvidia Geforce 8800GTS G92 |
46° |
BFG 8800GT OC |
46° |
Nvidia Geforce 8800GTS 320MB |
50° |
Nvidia Geforce 8800GTS |
51° |
Asus 9800GTX |
52,5° |
Sapphire HD3870 X2 |
53° |
Nvidia Geforce 8800GTX |
54° |
Nvidia Geforce 8800 ultra |
62° |
ATI Radeon HD 2900 XT |
70° |
XFX Geforce 8800 ultra SLI |
71° |
Sapphire HD4850 |
73° |
Nvidia Geforce 7950 GX2 |
73° |
Powercolor HD4870 |
74° |
Temperaturen-Last |
Grafikkarte:
| Angaben in °C |
Nvidia Geforce 7900GTX |
61° |
Nvidia Geforce 8800GTS 320MB |
69° |
Nvidia Geforce 8800GTS |
70° |
Asus 9800GTX |
71° |
Nvidia Geforce 8800GTX |
76° |
Nvidia Geforce 8800 ultra |
77° |
BFG 8800GT OC |
78° |
Nvidia Geforce 8800GTS G92 |
79° |
ATI Radeon HD 2900XT |
80° |
XFX GTX 280 |
82° |
Powercolor HD3870 |
83° |
Powercolor HD4870 |
85° |
Sapphire HD3870 X2 |
85° |
Powercolor HD3870 CF |
86° |
XFX Geforce 8800 ultra SLI |
88° |
Sapphire HD4850 |
89° |
Nvidia Geforce 7950 GX2 |
90° |
Die Kühler der 7900GTX Karten sind nach wie vor die Messlatte für alle anderen Grafikkarten, wobei die Kühler der G80 Baureihe außer der ultra ebenfalls sehr gute Werte abliefern, insbesondere wenn man deren wesentlich höhere Stromaufnahme dabei berücksichtigt.
Die Sapphire HD 4850/4870 und auch ihre baugleichen Kollegen anderer Hersteller können bezüglich der Temperaturen nicht gerade glänzen. Über 70°C im 2D-Modus sind deutlich zu viel, auch wenn dies kein Grund zur Besorgnis darstellt. Die Singleslot-Kühllösungen scheinen für diese Karten unterdimensioniert, insbesondere auch deshalb, weil sie die Abwärme nicht aus dem Gehäuse abtransportiert. Diesen Umstand müssen entsprechende Gehäuslüfter übernehmen, deren Existenz unverzichtbar ist. Über eine Passivkühllösung sollte man nicht mal ansatzweise nachdenken.
Die Kühlung unserer XFX GTX 280 liefert im 2D Modus recht anehmbare Werte, unter Last werden aber auch hier die 80°C überschritten. Das ist zwar alles im grünen Bereich, ein mulmiges Gefühl bleibt aber, auch wenn sich die ersten Kühler Alternativen am Horizont zeigen: Thermalright HR-03 GTX
.
5. Lautstärke (gesamtes System):
Lautstärke-Idle |
Grafikkarte:
| Angaben in dBA |
Nvidia Geforce 8800GTS G92 |
42 dBA |
Sapphire HD4850 |
42,5 dBA |
Asus 9800GTX |
42,5 dBA |
Nvidia Geforce 8800GTX |
43 dBA |
Powercolor HD4870 |
43 dBA |
BFG Geforce 8800GT OC |
43,5 dBA |
Powercolor HD3870 |
44 dBA |
Sapphire HD3870 X2 |
44 dBA |
Powercolor HD3870 CF |
44,5 dBA |
Nvidia Geforce 7900GTX |
45,5 dBA |
XFX GTX 280 |
46,5 dBA |
ATI Radeon HD 2900XT |
47 dBA |
Nvidia 8800GTS |
47,5 dBA |
Nvidia Geforce 8800GTS 320MB |
47,5 dBA |
Nvidia 8800 ultra |
48 dBA |
Nvidia Geforce 7950 GX2 |
49 dBA |
XFX Geforce 8800 ultra SLI |
53 dBA |
Lautstärke-Last |
Grafikkarte:
| Angaben in dBA |
Powercolor HD3870 |
45,5 dBA |
BFG 8800GT OC |
47 dBA |
Nvidia Geforce 7900GTX |
47,5 dBA |
Nvidia Geforce 8800GTS G92 |
48 dBA |
Nvidia Geforce 8800GTX |
48,5 dBA |
Nvidia Geforce 8800GTS |
49 dBA |
Powercolor HD3870 CF |
49,5 dBA |
Nvidia Geforce 8800GTS 320MB |
49,5 dBA |
Powercolor HD4870 |
49,5 dBA |
Asus 9800GTX |
50,5 dBA |
Sapphire HD4850 |
51 dBA |
Nvidia 8800 ultra |
51 dBA |
ATI Radeon HD 2900 XT |
54,5 dBA |
Nvidia Geforce 7950 GX2 |
56,5 dBA |
XFX Geforce 8800 ultra SLI |
56,5 dBA |
XFX GTX 280 |
58,5 dBA |
Sapphire HD3870 X2 |
59 dBA |
Im Idle Modus kann man die GTX 280 schwerlich aus unserem System heraus identifizieren, dieser Pluspunkt kehrt sich unter Last deutlich um, wo sie zu den lautesten Grafikkarten gehört, die wir bisher getestet hatten. Dieser Fakt ist einfach nur inakzeptabel, zumal für das Geld erwarten werden dürfte, das sich Nvidia auch Gedanken um die Geräuschreduzierung machen könnte...
6. Video/DVD-Qualität:
Zum Vergrößern bitte die Bilder anklicken !
Leider kommt die Bildqualität auf unseren Screens wie immer nicht wirklich zur Geltung und 8 Bilder mit jeweils mehr als 1MB Größe wollten wir euch nicht zumuten, schließlich gibt es auch immer noch Leser mit Modems... Aber man dürfte wohl zumindest erahnen, was diese Karten auch im Bereich DVD zu leisten imstande sind.
Wer diese Karten gerne in Bezug auf HDTV und einer 1080p Auflösung testen möchte, der kann sich bei Microsoft ein entsprechendes Video herunterladen (110MB):
Step into Liquid
Der Mediplayer 11 sollte dafür aber schon installiert sein, die 10er Variante kann nur nach einem speziellem Update genutzt werden: Update für MP10
Noch einige Anmerkungen zur Wiedergabe von Blue-ray und HD-DVD Material,
hier hat ATI immer noch klar die Nase vorne und decodiert entsprechendes Material deutlich schneller und mit weniger Prozessorlast und das nicht ohne Grund:
Als Avivo bezeichnet AMD eine bereits mit der Radeon X1300 eingeführte Video-Plattform, um die Multimedia-Fähigkeiten von ATIs Grafikkarten deutlich zu verbessern (Qualität und Flexibilität). Die Weiterentwicklung dieser Technologie nennt sich ATI-Avivo-HD-Technologie und kommt seit der HD2000er Grafikkartenserie zum Einsatz.
Der Unified Video Decoder (UVD) (früher auch „Universal Video Decoder“) ist ein Videoprozessor der Firma AMD und basiert auf der Technik der Multimedia-Prozessoren Xilleon. Die ersten Produkte, in die er integriert wurde, waren die ATI Radeon HD 2400 und 2600 der ATI-Radeon-HD-2000-Serie. UVD wird für Avivo HD benötigt und wurde dementsprechend auch bei der HD 4850 in der neuesten Version implementiert. Bei der Wiedergabe von bestimmten Videoformaten kann der UVD die Decodierarbeit übernehmen und somit den Hauptprozessor deutlich entlasten.
Nvidia zufolge existiert keine Verbesserung bei der GeForce-GTX-200-Serie bezüglich der HD-Videowiedergabe im Vergleich zur GeForce-9000-Serie, da derselbe Videoprozessor (VP2) wie bei den Vorgängerkarten verbaut wird. Das können wir klar bestätigen, denn qualitative Bildunterschide sind nicht existent. Immerhin hat sich die Prozessorlast minimal reduziert, was aber nicht ausreicht, um mit dem Unified Video Decoder von ATI ernsthaft zu konkurrieren.
7. Overclocking:
Das Übertakten der XFX GTX 280 sollte eigentlich über das Tool nTune erfolgen, was bei uns außer Abstürzen allerdings nichts bewirkte, so daß wir, so kurios es klingen mag, kurzerhand auf das ATI-Tool zurückgriffen, eine aktuelle Version des Riva Tuners funktioniert aber auch und Powerstrip ohnehin.
Mit dem ATI Tool waren auf unserem System ohne Spannungserhöhungen und stabil 710 MHZ für den Core, 1520 MHZ für den Shader und 1250MHZ für den Speicher möglich, das ist durchaus beachtenswert.
Das Übertakten der Karte bewirkt in Spielen und Benchmarks eine Leistungssteigerung von bis zu 20%, das kann sich sehen lassen, ist aber wie immer nicht auf jedes System und GTX 280 übertragbar, dazu muß man die Kühlung im System ebenso berücksichtigen, wie die Serienstreuung in der Fertigung.
8. Die Treibersituation:
GTX 280 Besitzer sollten unbedingt den aktuellen 177.83 Geforce Treiber einsetzen, bei dem wieder viele Bugs bereinigt wurden und der nach einigen Versuchen unsererseits auch tatsächlich am besten läuft, egal ob nun unter Windows XP oder Vista.
9. SLI Anmerkungen:
Ein SLI-System ist mit diesen Grafikkarten kein Problem, wohl aber mit unserem Mainboard, das keine offizielle Freigabe dafür seitens Nvidia aufweist, kein Wunder, schließlich wollen die ihre eigenen Chipsätze verkaufen. Es existieren zwar gemoddete Treiber, die das mit einigen Tricks trotzdem ermöglichen, aber ein reibungsloser Betrieb kann nicht garantiert werden und so haben wir auf das Gefriggel von vorneherein verzichtet.
Die Performance wird sich aber genauso herauskristallisieren, wie es in unseren Benchmarks der Einzelkarten abgebildet ist, ein GTX 280 SLI-Gespann wird sich in allen Bereichen auf Platz 1 katapultieren, dazu bedarf es keines Hellsehers. Das gilt dann natürlich auch für die Bereiche Lautstärke, Temperaturentwicklung und Stromverbrauch, wenn auch reziprok...
10. Netzteil-Empfehlungen:
Auch die GTX 280 bedarf wie so oft keines 1000 Watt Netzteils, ein gutes 450 Watt Netzteil aus unserer Liste erfüllt die meisten Zwecke völlig. Wer ein SLI-System betreiben möchte, kann das Ganze mit einem 600 bis 650 Watt Watt Netzteil aus der gleichen Güteklasse ebenso locker abdecken.
Wir haben darum unsere aktuelle Netzteil Top-Ten Liste gleich mitgebracht, damit ihr euch diesbezüglich ein ausführliches Bild vom Stand der Technik machen könnt:
Die Top-Ten der bisher getesteten Netzteile (aktualisiert) :
Voraussetzungen für die Aufnahme in die Liste:
1. das Netzteil muß aktuell verfügbar sein
2. es muß sich um eine aktuelle Revision handeln
3. wenn eine Netzteilserie mehrere Modellvarianten umfaßt, erscheint in dieser Liste das unserer Meinung nach beste Netzteil aus der Serie
Eine direkte Vergleichbarkeit hat in dieser Liste allerdings keine primäre Relevanz, das ist schon auf Grund der oftmals unterschiedlichen Leistungsklassen und Konzepte ohnehin nur bedingt möglich...
| |