Cerberus
Chefredakteur
Dabei seit: 23.07.2002
Beiträge: 12.050
Herkunft: Lübeck
|
|
ASUS EN9800GTX/HDTP Grafikkarte |
|
ASUS EN9800GTX/HDTP Grafikkarte
Einleitung:
Die Karten waren eigentlich gelegt,
nach dem Nvidia mit den 8800GT und 8800 GTS G92 Grafikkarten den bisherigen Toplevel Grafikkarten 8800GTX und 8800 ultra mehr als nur das Wasser reichen konnte, warteten alle auf das neue Highend Modell, das wieder für eine klare Hierachie sorgen sollte. Was daraus erwuchs war die aktuelle 9800GTX, die mit einem leicht modifizierten G92 Chip die Messlatte eine klare Schippe höher legen sollte. Aber ist dies angesichts der technischen Eckdaten überhaupt möglich? eine gesunde Portion Skepsis war also angesagt, insofern gingen wir mit sehr gemischten Gefühlen in unser Review.
Was sich unterm Strich dabei an Fakten herauskristallierte, klären wir in unserem ausführlichen Praxistest der aktuellen Asus EN9800GTX/HDTP Grafikkarte, viel Vergnügen beim Lesen...
Die technischen Daten ASUS EN9800GTX/HDTP:
GPU |
G92 Revision 420 A2 |
Fertigungsprozess |
65 nm |
Fertigung |
TSMC |
Transistoren |
ca. 754 Mio. |
GPU Geschwindigkeit |
675 MHZ |
Arbeitsspeicher |
512MB onboard GDDR3-SDRAM |
RAMDAC |
400MHZ |
Speicher Geschwindigkeit |
1100 MHZ |
Shader Speed |
1688 MHZ |
Stream Prozessoren |
128 |
Speicher-Bandbreite |
70,4 GB/sec |
FLOPs |
643 GFLOPs |
ROPs |
16 |
Speicherinterface |
256 Bit |
Speicher-Chips |
Samsung 0,83ns |
Mainboard Schnittstelle |
PCI Express 2.0 |
Pixel Füllrate |
10800 MPix/s |
Texelfüllrate |
43200 MTex/s |
Shader Model |
4.0 |
Anti-Aliasing |
16xQ |
MSAA + HDR-Rendering |
ja |
Multisampling |
8x |
Transparenz FSAA |
ja |
DirectX Unterstützung |
DirectX 10 |
HDPC Unterstützung |
ja |
SLI Unterstützung |
ja |
OpenGL version |
OpenGL 2.0 |
Output Anschlüsse |
2xDuallink DVI |
Maximale Auflösung |
3840 x 2400 über DVI |
Stromanschluß |
2x 6-pin Molex |
Stromaufnahme |
ca. 160 Watt |
Platinenlänge |
28cm |
Lüfter |
70mm Radiallüfter |
Gewicht |
ca. 820 Gramm mit Kühleinheit |
Garantie
|
2 Jahre |
Die technischen Daten im Vergleich:
|
Asus 9800GTX |
Powercolor HD3870 |
Radeon HD2900 XT |
Nvidia 9800 GX2 |
Nvidia 8800GTS 512 |
Nvidia 8800GTX |
Nvidia 8800 ultra |
GPU-Revision |
G92 |
RV670 |
R600 |
2x G92 |
G92 |
G80 |
G80 |
GPU-Takt |
675 MHz |
775 MHz |
742 MHz |
600 MHz |
650 MHz |
575 MHz |
612 MHz |
Fertigung |
TSMC |
TSMC |
TSMC |
TSMC |
TSMC |
TSMC |
TSMC |
Fertigungsprozess |
65 nm |
55 nm |
80 nm |
65 nm |
65 nm |
90 nm |
90 nm |
Transistoren |
754 Millionen |
666 Millionen |
700 Millionen |
2x754 Millionen |
754 Millionen |
681 Millionen |
681 Millionen |
Speichertakt |
1100 MHz |
1125 MHz |
828 MHz |
1000 MHz |
970 MHz |
900 MHz |
1080 MHz |
Shadertakt |
1688 MHz |
775 MHz |
742 MHz |
1500 MHz |
1625 MHz |
1350 MHz |
1512 MHz |
Speicherinterface |
256 Bit |
256 Bit |
512 Bit |
2x256 Bit |
256 Bit |
384 Bit |
384 Bit |
Speicherart |
GDDR3 |
GDDR4 |
GDDR3 |
GDDR3 |
GDDR3 |
GDDR3 |
GDDR3 |
Speicher-Kapazität |
512 MB |
512 MB |
512 MB |
2x512 MB |
512 MB |
768 MB |
768 MB |
RAMDAC |
400 MHz |
400 MHz |
400 MHz |
400 MHz |
400 MHz |
400 MHz |
400 MHz |
Speicherbandbreite |
70,4 GB /s |
72 GB /s |
106 GB/s |
2x64 GB/s |
62 GB/s |
86,4 GB/s |
103,6 GB/s |
Interface |
PCI Express 2.0 |
PCI Express 2.0 |
PCI Express |
PCI Express 2.0 |
PCI Express 2.0 |
PCI Express |
PCI Express |
DirectX Version |
10 |
10.1 |
10 |
10 |
10 |
10 |
10 |
Shader-Model |
4.0 |
4.1 |
4.0 |
4.0 |
4.0 |
4.0 |
4.0 |
Stream CPUs |
128 |
320 |
320 |
2x256 |
128 |
128 |
128 |
Texture Units |
64 |
16 |
16 |
2x64 |
64 |
64 |
64 |
ROPs |
16 |
16 |
16 |
2x16 |
16 |
24 |
24 |
FLOPs |
643 GFLOPs |
496 GFLOPs |
475 GFLOPs |
2x581 GFLOPs |
624 GFLOPs |
518 GFLOPs |
581 GFLOPs |
Pixel-Füllrate |
10800 MPix/s |
12400 MPix/s |
11872 MPix/s |
2x9600 MPix/s |
10400 MPix/s |
13800 MPix/s |
14688 MPix/s |
Texel-Füllrate |
43200 MTex/s |
12400 MTex/s |
11872 MTex/s |
2x38400 MTex/s |
41600 MTex/s |
36800 MTex/s |
39168 MTex/s |
Preis (aktuell) |
ca. 250 € |
ca. 150 € |
ca. 340 € |
ca. 430 € |
ca. 210 € |
ca. 250 € |
ca. 450 € |
Lieferumfang und Layout:
• ASUS EN9800GTX/HDTP Retail
• Treiber-CD
• Asus Utilities,
• VIVO-Kabel und -Adapter
• DVI/VGA-Adapter
• CD/DVD Booklet
• Handbuch
Zum Vergrößern bitte die Bilder anklicken !
Zum Vergrößern bitte die Bilder anklicken !
Ausstattungstechnisch hat die Asus 9800GTX leider nicht all zu viel zu bieten, weder Spiele noch besonders erwähnenswerte Software liegen der Retail Verpackung bei.
Die Platinenlänge ist da schon bemerkenswerter, entspricht sie doch mit 28cm exakt der Länge unserer 8800 ultra. Im Vergleich zu einer 8800GTS G92 sind das immerhin5cm mehr, was durch eine andere Anordnung der Kondensatoren und verbesserter Spannungswandler zu erklären ist. Asus hat sich beim Design der Kühlerabdeckung sehr viel Mühe gegeben, das Ganze wirkt sehr stimmig und attraktiv.
Aber zurück zur Platinenlänge, die 9800GTX wird genau wie die 8800GTX/8800 ultra ebenfalls so ihre Probleme mit den Platzangeboten einiger Gehäuse aufweisen, das ist schon jetzt sicher. Wer sie sich kaufen möchte, sollte das berücksichtigen.
Der Kühler erweist sich als direkter Verwandter zur 8800GTS G92, auch hier wird ein 70mm Radiallüfter verwendet und die Abdeckung umfaßt die komplette Grafikkarte, wobei auf der Rückseite keinerlei Kühlmechanismen eingesetzt werden. Der 70mm Radiallüfter saugt Luft aus dem Gehäuseinneren an und schickt diese dann durch ein ausgeklügeltes Tunnelsystem über die Platine der Grafikkarte wieder aus dem PC-Tower hinaus. Diese Kühltechnik ist bestens bewährt und sehr effektiv, zumal sie so den schnellen Abtransport der erzeugten Abwärme gewährleistet. Die warme Abluft wird über den Kühlkörper hinweg direkt aus der Karte heraustransportiert, was einen ganz entscheidenden Vorteil hat, so werden benachbarte Komponenten nicht übermäßig mit der Abwärme der Grafikkarte konfrontiert.
Die Kühlerstruktur wurde aus Aluminium gefertigt und durch Kupfer Heatpipes unterstützt. Die schräge Ausrichtung des Lüfters ist kein Fabrikationsfehler, sondern soll so den Luftdruck des Lüfters etwas erhöhen.
Zum Vergrößern bitte die Bilder anklicken !
Wie bei Karten dieser Kategorie schon obligatorisch, sind sie mit 2 Dual-Link fähigen DVI-Ausgängen ausgerüstet worden. Die SLI Ports sind zu erkennen, wobei die Betonung auf dem Plural liegt, denn im Gegensatz zur 8800GTS G92 kann die 9800GTX auch für 3-Way-SLI genutzt werden, was die zwei Anschlussoptionen erklärt.
Zum Vergrößern bitte die Bilder anklicken !
Verarbeitstechnisch wurden alle Optionen ausgeschöpft, die Karte ist in jeder Hinsicht ein Hingucker, das Design trägt somit sehr viel zur Haptik der Karte bei.
Das die aktuellen Karten nach RoHS Norm gefertigt werden, sei an dieser Stelle auch noch erwähnt, dies ist allerdings nicht nur Feature, sondern Vorschrift.
Es fällt natürlich auf, das hier nicht ein sondern zwei 6-polige Stromanschlüsse verbaut sind. Wer ein aktuelles Netzteil mit entsprechenden Steckverbindungen besitzt, sollte sie natürlich auch entsprechend verstöpseln.
Ohne diese Anschlüsse geht es prinzipiell nicht, da die PCI-Express Slots maximal 75 Watt zur Verfügung stellen, daran ändern auch neue Mainboards mit PCI 2.0 Schnittstelle nichts. Da die Karte aber bis zu 160 Watt benötigt, wäre die Versorgung über den PCI-Express Slot keine ernsthafte Option.
Das Nvidia keine rückwärtigen Verstrebungen für die Stabilisierung der Platine implementiert hat, überrascht schon ein wenig, denn Platinen mit dieser Länge neigen gern zum Verbiegen. Auf der anderen Seite ist das Kühlergehäuse aber relativ steif und sollte dem entgegenwirken.
NVIDIA nennt den Grafikkern dieser Karten G92-420-A2, der in 65-nm-Fertigungsgröße produziert wird. Mit 754 Millionen Transistoren stellen diese Pixelbeschleuniger auch gleich einen neuen Rekord auf, der selbst eine 8800ultra mit ihren 681 Millionen klar in den Schatten stellt. Nur ist in dem Fall Masse mit Klasse gleichzusetzen? Ein markanter Unterschied zur 8800GTS G92 exitiert in dieser Hinsicht jedenfalls nicht.
Der Grafikkern ist werksseitig mit 675 MHz getaktet (8800GTS G92: 650MHZ), die Shader laufen mit 1688 MHZ (8800GTS G92: 1625 MHZ) und der Grafikspeicher läuft mit 1100 MHz (8800GTS G92: 970 MHZ). Das sind Werte, die auch mit 8800GTS G92 ohne größere Verrenkungen mühelos ereicht werden können, wobei sich schon das erste mal der Sinn für diese 9800GTX stellt...
Dank hochwertiger Samsung Speicherchips (insgesamt 512MB), die eine Ansprechzeit von 0,833ns aufweisen, sollte auch noch Spielraum für weitere Leistungssteigerungen vorhanden sein, aber dazu mehr in unserem Testsegment...
Die Technik:
Wir wollen euch zwar nicht endlos mit technischen Details und unverständlichen Fachbegriffen langweilen, aber ein paar Eckdaten zur G92-Technik sollten es schon sein...
Eines der Hauptaugenmerke der neuen G92 Chips liegt, analog zum G80 Chipsatz, zweifelsohne auf den neuen Unified-Shader Einheiten, oder auch Stream Prozessoren. Jeder einzelne dieser Prozessoren kann typische Gleitkomma-Berechnungen, etwa Multiplikationen mit anschließender Addition (MADD-Rechnung) ausführen. Mit aufwändigen Logik- und Kontrollmechanismen können erstmals parallel zu- und unabhängig voneinander Pixel-, Vertex-, Geometrie- und Physikberechnungen auf die Shadereinheiten verteilt werden. Im deutlichen Gegensatz zu klassischen spezialisierten Shadern anderer Grafikkartenchips übernehmen die Prozessoren hier vollkommen flexibel die anfallende Rechenlast, die GPU wird so wesentlich besser ausgelastet.
Kommen wir zum nächsten wichtigen Feature: den Raster Operation Units kurz ROPs. Sie stellen die finale Renderstufe eines Grafikchips dar und sind ebenfalls mit dem Speicherinterface verbunden.
Im Vergleich zur G80 Architektur, erfuhr der G92 aber einschneidende Änderungen. Beim G80 sind 6 ROP-Cluster vorhanden, angebunden an ein je 64 Bit breites Speicherinterface. Daraus resultiert auch die krumme Speicherbusbreite von 384 Bit. Für die Vorgängergeneration waren 256 Bit bei den High-End-Karten üblichlicherweise implementiert. Jedes ROP-Cluster kann grundsätzlich vier Pixel parallel schreiben, das bedeutet, das 24 Pixel gleichzeitig geschrieben werden. Bei einer GeForce 7900GTX und der Radeon X1900 Grafikkarten sind es früher zum Vergleich lediglich 16 Pixel gewesen. Aus der Zahl der Pixel, die gleichzeitig geschrieben werden können und dem Chiptakt ergibt sich schlußendlich die Pixelfüllrate, der aber nur noch eine untergeordnete Rolle spielt, wenn es um die Leistungsbestimmung einer aktuellen Grafikkarte geht.
Während auf dem G80 also noch sechs ROP-Partitionen mit jeweils vier ROPs verbaut sind (also insgesamt 24 ROPs), sind auf dem G92 nur noch vier Rop-Partitionen (also insgesamt 16 ROPs) vorhanden. Jede einzelne dieser Partitionen kann insgesamt vier Pixel mit Farb- sowie Z-Werten (Tiefeninformationen) pro Takt realisieren und jede ROP-Partition ist direkt mit einem Framebuffer verbunden. Während beim G80 sechs 64 Bit breite Speicherkanäle existieren, sind es beim G92, analog der Anzahl der ROPS, nur noch deren vier. Somit bietet der G92 nur ein 256 Bit breites Speicherinterface an, das in vier 64-Bit-Speicherkanäle aufgeteilt ist. Jeder Speicherkanal ist an zwei Speicherbausteine angeschlossen, die je nach Version des 3D-Beschleunigers (256-MB- oder 512-MB-Variante) 32 MB oder 64 MB groß sind. Das ganze stellt sich uns nicht wirklich nachvollziehbar dar, denn so wurde doch einiges Potential insbesondere für hohe Auflösungen verschenkt und das ohne Not.
Ebenfalls an Bord befindet sich eine Physik-Engine namens Quantum Effects Physics Processor. Hier übernehmen die Streaming-Prozessoren des Grafikchips auch physikalische Berechnungen. Neue 3D-Spiele können beispielsweise eine realistischere Darstellung von Feuer, Rauch oder aufwendigen Explosionen erreichen. Die Rechner-CPU soll dabei abermals entlastet werden. Nvidia hat kürzlich in einigen Demos vorgeführt, was diesbezüglich möglich ist, zu sehen bekommen wir dies in der Praxis in den aktuellen und kommenden Direct10 Spielen.
DirectX-10 beherrschen die G92-Karten übrigens nativ, Open GL 2.0 und das Shader-Model 4.0 werden ebenfalls unterstützt. Der Grafikchip bietet HDCP (High-bandwidth Digital Content Protection) und kann daher auch hoch aufgelöste Filme wiedergeben, die auf Blu-ray- und HD-DVD-Medien basieren. Nvidia Videobeschleunigung PureVideo ist natürlich auch an Board, diese Kombination aus dediziertem Videoprozessorkern und Software bietet ruckelfreies HD-Video in Formaten wie H.264, WMV und MPEG-2 bei minimaler Prozessorbelastung und geringstem Stromverbrauch, das verspricht zumindest Nvidia...
Außerdem ermöglichen die G92 Karten dank Lumen Engine auch das High Dynamic Range Rendering (HDR) mit 128-Bit-Genauigkeit, ohne das sie dabei auf Kantenglättung (Antialiasing) bis hinauf zum 16x-Full-Screen-Modus verzichten müßten, ein Manko früherer Geforce Grafikkarten und bisher immer eine Domäne von ATI.
Unterschlagen wir aber nicht die Texture-Mapping-Units, die wir ja schon aus alten 3dfx Zeiten kennen. Diese ermöglichen die Texturierung und sind auch für die Texturfilterung wie z.B. anisotrope Filterung zuständig. Vereinfacht formuliert dienen sie dazu, die Oberflächen dreidimensionaler Oberflächenmodelle mit zweidimensionalen Bildern, sogenannten Texturen und Oberflächeneigenschaften auszustatten. Texturen lassen computergenerierte Bilder detailreicher und realistischer erscheinen, ohne daß das zugrundeliegende Modell selbst verfeinert werden müßte.
Neu ist beim G92-Chipsatz ebenfalls die Kompatibilität zum PCIe-2.0-Standard. Vorherige Grafikkarten waren PCIe-1.1-kompatibel und konnten mit je acht Gigabyte pro Sekunde mit dem PCIe-Bus kommunizieren. PCIe 2.0 verdoppelt zumindest theoretisch die Bandbreite auf 16 GB pro Kanal, da fühlt man sich doch sehr deutlich an AGP 4x versus AGP 8x erinnert. Nvidia gibt diesbezüglich nicht ganz unerwartet an, das Spiele und sogar 3-Way-SLI in naher Zukunft nur bedingt von der höheren Bandbreite profitieren werden. Nvidia sieht PCIe 2.0 aber als einen großen Schritt bei GPGPU-Anwendungen (Cuda), die je nach Programmierung einen starken Geschwindigkeitsschub von PCIe 2.0 erfahren sollen.
DirectX 10.1 wird auch bei diesen Chips nicht unterstützt, neuesten Gerüchten zur Folge wird sich daran beim brandneuen G200 Grafikchip seitens Nvdia nichts ändern.
Aber genug der grauen Theorie, kommen wir endlich zum Praxistest...
Das Testsystem:
CPU |
Intel Core 2 Duo E8500 |
Mainboard |
Asus P5E WS Professional/Asus Striker II Formula |
Arbeitsspeicher |
Mushkin XP2-6400 DDR2-800 4GB-Kit |
Soundkarte |
Sound Blaster X-Fi XtremeGamer Fatality |
CPU-Kühler |
Thermalright Ultra-120 extreme |
CPU-Lüfter |
Scythe Slipstream |
Festplatten System |
2x Western Digital Raptor a´150GB (10000 U/min, S-ATA) RAID-0 |
Festplatte Daten |
1x Samsung F1 750GB 32MB SATA II |
Festplatte Backup |
1x Samsung F1 1TB 32MB SATA II |
DVD-Brenner |
Plextor PX-760 SATA |
DVD-ROM |
Plextor PX-810 SATA |
Diskettenlaufwerk |
Scythe Combo |
Gehäuse |
Lian Li PC-P60 ArmorSuit |
Netzteil |
Enermax Modu82+ 625 Watt |
Monitor |
Eizo S2100 |
Betriebssystem |
Windows XP Prof. SP3/Vista Ultimate 64-bit SP1 |
Montage, Treiberinstallation und Tipps:
Zur Treiber Installation/Aktualisierung/Deinstallation bevorzugen wir unseren entsprechenden Artikel:
Nividia Grafikkartentreiber korrekt deinstallieren
- Die neue Karte eingebaut und über einen entsprechenden Stromanschluss mit dem Netzteil verbinden, schon ist die 9800GTX startklar.
- Neu starten, eventuelle Nvidia-Reste aus dem System noch entfernen und die gewünschten Treiber installieren, in unserem Fall den kürzlich veröffentlichten 175.16.
Abschließend aktualisierten wir die vorhandene DirectX9.0c Version auf die überarbeitete Version aus März 2008: DirectX-Endbenutzer-Runtimes März 2008
Wer lieber das ältere und eigentlich übersichtlichere Nvidia Konfigurationsmenü bevorzugt, kann dies übrigens auch nachträglich ändern:
Anleitung dazu
Wer sein Betriebssystem ohnehin neu aufsetzen wollte, der sollte nach Möglichkeit unsere Installationsreihenfolge verwenden:
1. Windows installieren
2. Servicepack 3 installieren. (sofern nicht schon auf CD eingebunden)
3. Wurmports schließen ->zum Artikel
4. Chipsatztreiber installieren
5. DirectX 9.0c installieren. (im Servicepack bereits enthalten!)
6. Grafikkartentreiber und Monitortreiber installieren
7. Soundkartentreiber installieren
8. weitere Treiber für Peripheriegeräte installieren
9. die restlichen Windows-Patches installieren
10. die Dienste sicherheitsrelevant konfigurieren ->zum Artikel
11. jetzt erst den Internetzugang konfigurieren (nachdem alle Sicherheitsupdates installiert sind)
Damit war die Montage der GrafikKarte und auch die Treiberinstallation zunächst erfolgreich abgeschlossen und wir installierten die noch fehlenden Treiber für den Eizo S2100 Monitor. Abschließend stellten wir die Auflösung für den Desktop auf 1600x1200 bei 32-Bit und die Bildschirmaktualisierungsrate auf die von Eizo vorgeschriebenen 60 Hertz.
Als ersten Eindruck erhielten wir sehr neutrale und schöne 2D-Farben und ein gestochen scharfes Bild. Scheinbar kann der Eizo S2100 die gelieferten Signale optimal umsetzen.
Noch eine kleine nicht unwesentliche Anmerkung am Rande:
wer sich eine teure Grafikkarte kauft, sollte darauf achten, das sein Monitor ebenfalls diesen gehobenen Ansprüchen gerecht wird. Denn Frust ist vorprogrammiert, wenn die teure High-End Grafikkarte mit einem Billig-Monitor kommunizieren muß, der gar nicht in der Lage ist, das erhofft schöne Bild zu reproduzieren...!
Die Tests:
Vor den eigentlichen Tests optimierten wir Windows XP/SP3 nach unserem Performance-Workshop
, schließlich sollte eine ideale Basis optimale Voraussetzungen bieten.
Abschließend wurde das gesamte eine Stunde mit Prime95 "vorgeheizt".
Die Lautheit der Grafikkarten-Lüfter haben wir nicht separat gemessen, sondern als Systemgesamtlautstärke in die Tests eingebunden. Dabei wurden die Lautstärke ca. 15cm vom Rechner entfernt mit einem ACR-264-plus Messgerät verifiziert und dabei die Umgebungsgeräusche so weit wie möglich reduziert, um das Ergebnis nicht zu verfälschen. Laut DIN-Norm sollte der Abstand von Messgerät zum Testobjekt 100cm betragen, aber da wir nicht über einen schalltoten respektive schallarmen Raum verfügen, waren Kompromisse unumgänglich.
Mit dem Digitalen Temperaturmessgerät TL-305 haben wir während sämtlicher Testdurchläufe die Temperaturen der Grafikkarte per Sensor gemessen und aufgezeichnet. Somit erhält der mögliche Käufer auch eine gute Übersicht bezüglich der zu erwartenden Kühlleistung der Grafikkarte.
Um den Stromverbrauch möglichst genau wiederzugeben (gesamtes System), haben wir den grafischen Leistungsmesser Peak Tech 2535 verwendet.
Testprogramme:
• Windows XP SP3 mit DirectX 9 aus März 2008.
• Windows Vista Ultimate 64Bit SP1
• 3DMark 2006 aktuell gepatcht
• aktuelle DirectX9 Spiele
• aktuelle DirectX10 Spiele
Treibereinstellungen:
- Systemleistung: Hohe Qualität
• Vertikale Synchronisierung: Aus
• sonst alles auf Standard
Kommentare zu den synthetischen 3DMark Benchmarkprogrammen ersparen wir uns, dafür gibt es einfach zu viele Irritationen bei Vergleichswerten und ebenso viele Möglichkeiten diese, in welcher Form auch immer, zu beeinflussen. Die Relevanz ist somit zumindest fragwürdig, aber der vollständigkeithalber haben wir sie ebenfalls durchlaufen lassen, wobei wir auf 3DMark 2003 und 2005 wegen fehlender Aktualität gänzlich verzichteten.
Für aussagekräftige Benchmarks sollte als Testeinstieg in jedem Fall die Auflösung 1280x1024 (Standard-TFT-Auflösung für 17 und 19" Geräte)) und die Option Quality 4AAx16AF (4-fach Antialiasing + 16-fach anisotropischer Filter) aktiviert sein, ansonsten gerät die Beurteilung aktueller High-Endgrafikkarten zur Farce. Dies gilt insbesondere für Crossfire/SLI Systeme, wo alles unter 1600x1200 Pixel den Sinn eines solchen Systems mehr als nur in Frage stellt. Ohne entsprechende Qualitätseinstellung, kann man keine Aussage darüber treffen, welche Leistung wirklich erbracht wird, zumal auch eine Mittelklasse Grafikkarte ohne 4xAA und 16xAF recht schnell sein kann.
Grundsätzlich sollte man synthetischen Benchmarks nicht allzu große Bedeutung beimessen, denn 1. sind einige schon etwas betagt und haben somit kaum einen ernsthaften Bezug zur aktuellen Technik und 2. entstehen immer wieder mal kuriose Situationen, in denen der eine oder andere programmierbedingte Lapsus dieser oder jener Grafikkarte Vorteile verschafft, die eigentlich gar nicht vorhanden sind.
Da sind Spielebenchmarks schon etwas aussagekräftiger, auch wenn viele der Spiele entweder auf ATI oder Nvidia optimiert wurden. Da gilt es dann zu unterscheiden: Open GL Spiele von id-Software wie Quake 4 oder Doom 3 z.B. laufen generell etwas schneller auf Nvidia-Karten und Direct3D Spiele wie Halflife 2 oder Call of Duty 2 favorisieren ATI, um nur ein paar Beispiele zu nennen.
Selbstverständlich kamen auch aktuelle und brandneue DirectX10-Spiele in unserem Testparcour zum Einsatz, die dann unter Vista Ultimate 64 Bit berücksichtigt wurden. Bei Crysis beließen wir es allerdings auf Benchmarks ohne 4xAA/16xAF, da sonst alles deutlich unter 20 Frames pro Sekunde abläuft.
Wer einen Widescreen TFT besitzt, dem sei erklärt, das es bezüglich der Füllrate keinen großen Unterschied macht, ob nun in 1600x1200 (1,9 Millionen Pixel) oder 1680x1050 (1,75 Millionen Pixel) aufgelöst wird.
1a. Spiele-Benchmarks DirectX9:
Zum Vergrößern bitte die Bilder anklicken !
Prey 1280x1024 4xAA und 16xAF |
Grafikkarte:
| FPS (Frames per Second) |
XFX Geforce 8800 ultra SLI |
144 fps |
Sapphire HD3870 X2 |
115,8 fps |
Powercolor HD3870 CF |
114 fps |
Nvidia Geforce 8800 ultra |
106 fps |
Nvidia Geforce 8800GTX |
93,7 fps |
Asus Geforce 9800GTX |
91,9 fps |
Nvidia Geforce 8800GTS G92 |
89,5 fps |
BFG 8800GT OC |
81,5 fps |
Powercolor HD3870 |
78,5 fps |
ATI Radeon HD 2900XT |
76,1 fps |
Nvidia Geforce
7950 GX2 |
71,1 fps |
Nvidia Geforce
8800GTS (G80) |
65 fps |
Nvidia Geforce
8800GTS-320MB |
62,8 fps |
Prey 1600x1200 4xAA und 16xAF |
Grafikkarte:
| FPS (Frames per
Second) |
XFX Geforce 8800 ultra SLI |
118 fps |
Sapphire HD3870 X2 |
99,1 fps |
Powercolor HD3870 CF |
97 fps |
Nvidia Geforce 8800 ultra |
81 fps |
Nvidia Geforce 8800GTX |
73,2 fps |
Asus Geforce 9800GTX |
67,8 fps |
Nvidia Geforce 8800GTS G92 |
66,5 fps |
BFG 8800GT OC |
62,4 fps |
Powercolor HD3870 |
61,6 fps |
ATI Radeon
HD 2900XT |
59,9 fps |
Nvidia Geforce
7950 GX2 |
56 fps |
Nvidia Geforce
8800GTS (G80) |
51,7 fps |
Nvidia Geforce 8800GTS 320MB |
50,5 fps |
|
F.E.A.R. 1280x1024 4xAA und 16xAF |
Grafikkarte:
| FPS (Frames per Second) |
XFX Geforce 8800 ultra SLI |
209 fps |
Sapphire HD3870 X2 |
153 fps |
Powercolor HD3870 CF |
148 fps |
Nvidia Geforce 8800 ultra |
131 fps |
Nvidia Geforce 8800GTX |
116 fps |
Asus Geforce 9800GTX |
114 fps |
Nvidia Geforce 8800GTS G92 |
113 fps |
BFG 8800GT OC |
103 fps |
Powercolor HD3870 |
91 fps |
ATI Radeon HD 2900XT |
89 fps |
Nvidia Geforce
8800GTS (G80) |
85 fps |
Nvidia Geforce
8800GTS 320MB |
80 fps |
Nvidia Geforce
7950 GX2 |
61 fps |
F.E.A.R. 1600x1200 4xAA und 16xAF |
Grafikkarte:
| FPS (Frames per
Second) |
XFX Geforce 8800 ultra SLI |
163 fps |
Sapphire HD3870 X2 |
119 fps |
Powercolor HD3870 CF |
116 fps |
Nvidia Geforce 8800 ultra |
95 fps |
Nvidia Geforce 8800GTX |
86 fps |
Asus Geforce 9800GTX |
84 fps |
Nvidia Geforce 8800GTS G92 |
83 fps |
BFG 8800GT OC |
77 fps |
Powercolor HD3870 |
71 fps |
ATI Radeon
HD 2900XT |
67 fps |
Nvidia Geforce
8800GTS (G80) |
64 fps |
Nvidia Geforce
8800GTS 320MB |
61 fps |
Nvidia Geforce 7950 GX2 |
47 fps |
|
Company of Heroes 1280x1024 4xAA und 16xAF |
Grafikkarte:
| FPS (Frames per Second) |
XFX Geforce 8800 ultra SLI |
177 fps |
Sapphire HD3870 X2 |
160 fps |
Powercolor HD3870 CF |
159 fps |
Asus Geforce 9800GTX |
136 fps |
Nvidia Geforce 8800GTS G92 |
133 fps |
Nvidia Geforce 8800 ultra |
131 fps |
BFG
8800GT OC |
119,4 fps |
Nvidia Geforce 8800GTX |
118,9 fps |
Powercolor HD3870 |
109 fps |
ATI Radeon HD 2900XT |
102,2 fps |
Nvidia Geforce
7950 GX2 |
88,9 fps |
Nvidia Geforce 8800GTS (G80) |
87,4 fps |
Nvidia Geforce
8800GTS 320MB |
79,8 fps |
Company of Heroes 1600x1200 4xAA und 16xAF |
Grafikkarte:
| FPS (Frames per Second) |
XFX Geforce 8800 ultra SLI |
146 fps |
Sapphire HD3870 X2 |
129 fps |
Powercolor HD3870 CF |
129 fps |
Asus Geforce 9800GTX |
104 fps |
Nvidia Geforce 8800 ultra |
99,3 fps |
Nvidia Geforce 8800GTS G92 |
99,1 fps |
Nvidia Geforce
8800GTX |
89,5 fps |
BFG 8800GT OC |
80,9 fps |
Powercolor HD3870 |
79,7 fps |
ATI Radeon
HD 2900XT |
77,8 fps |
Nvidia Geforce
7950 GX2 |
62,6 fps |
Nvidia Geforce
8800GTS (G80) |
57,4 fps |
Nvidia Geforce
8800GTS 320MB |
54,7 fps |
|
Half-Life 2: Episode One 1280x1024 4xAA und 16xAF |
Grafikkarte:
| FPS (Frames per Second) |
XFX Geforce 8800 ultra SLI |
249 fps |
Sapphire HD3870 X2 |
225 fps |
Powercolor HD3870 CF |
225 fps |
Nvidia Geforce 8800 ultra |
198 fps |
Nvidia Geforce
8800GTX |
182 fps |
Asus Geforce 9800GTX |
181 fps |
Nvidia Geforce 8800GTS G92 |
179 fps |
BFG 8800GT OC |
176 fps |
Powercolor HD3870 |
146 fps |
Nvidia Geforce 8800GTS (G80) |
134 fps |
Nvidia Geforce 8800GTS 320MB |
131 fps |
ATI Radeon HD 2900XT |
126 fps |
Nvidia Geforce
7950 GX2 |
107 fps |
Half-Life 2: Episode One 1600x1200 4xAA und 16xAF |
Grafikkarte:
| FPS (Frames per Second) |
XFX Geforce 8800 ultra SLI |
211 fps |
Powercolor HD3870 CF |
189 fps |
Sapphire HD3870 X2 |
188 fps |
Nvidia Geforce 8800 ultra |
155 fps |
Nvidia Geforce 8800 GTX |
141 fps |
Asus Geforce 9800GTX |
140 fps |
Nvidia Geforce 8800GTS G92 |
140 fps |
BFG 8800GT OC |
139 fps |
Powercolor HD3870 |
122 fps |
ATI Radeon
HD 2900XT |
97 fps |
Nvidia Geforce
8800GTS (G80) |
94 fps |
Nvidia Geforce
8800GTS 320MB |
91 fps |
Nvidia Geforce
7950 GX2 |
79 fps |
|
1b. Spiele-Benchmarks DirectX10:
Zum Vergrößern bitte die Bilder anklicken !
Crysis Time Demo 1280x1024 |
Grafikkarte:
| FPS (Frames per Second) |
XFX Geforce 8800 ultra SLI |
58,5 fps |
Powercolor HD3870 CF |
47,8 fps |
Sapphire HD3870 X2 |
46,1 fps |
Nvidia Geforce 8800 ultra |
44,3 fps |
Asus Geforce 9800GTX |
42,4 fps |
Nvidia Geforce 8800GTS G92 |
40,5 fps |
Nvidia Geforce 8800GTX |
39,5 fps |
BFG 8800GT OC |
35,9 fps |
Powercolor HD3870 |
29,5 fps |
Nvidia Geforce 8800GTS (G80) |
28,3 fps |
ATI Radeon HD 2900 XT |
24,3 fps |
Nvidia Geforce
8800GTS 320MB |
19,8 fps |
Crysis Time Demo 1600x1200 |
Grafikkarte:
| FPS (Frames per Second) |
XFX Geforce 8800 ultra SLI |
47,4 fps |
Powercolor HD3870 CF |
37,8 fps |
Sapphire HD3870 X2 |
37,4 fps |
Nvidia Geforce 8800 ultra |
34,8 fps |
Nvidia Geforce 8800GTX |
31,6 fps |
Asus Geforce 9800GTX |
29,2 fps |
Nvidia Geforce 8800GTS G92 |
28,5 fps |
BFG 8800GT OC |
27,9 fps |
Powercolor HD3870 |
23,9 fps |
Nvidia Geforce 8800GTS (G80) |
22,1 fps |
ATI Radeon HD 2900 XT |
19,5 fps |
Nvidia Geforce
8800GTS 320MB |
14,2 fps |
|
Bioshock 1280x1024 1xAA und
16xAF |
Grafikkarte:
| FPS (Frames per Second) |
XFX Geforce 8800 ultra SLI |
102,5 fps |
Sapphire HD3870 X2 |
79,2 fps |
Powercolor HD3870 CF |
78,8 fps |
Nvidia Geforce 8800 ultra |
77,9 fps |
Asus Geforce 9800GTX |
75,3 fps |
Nvidia Geforce 8800GTS G92 |
72,1 fps |
Nvidia Geforce 8800GTX |
68,6 fps |
BFG 8800GT OC |
64,1 fps |
ATI Radeon
HD 2900 XT |
52,7 fps |
Powercolor HD3870 |
51,8 fps |
Nvidia Geforce
8800GTS (G80) |
51,4 fps |
Nvidia Geforce
8800GTS 320MB |
50,2 fps |
Bioshock 1600x1200 1xAA und
16xAF |
Grafikkarte:
| FPS (Frames per Second) |
XFX Geforce 8800 ultra SLI |
86,5 fps |
Sapphire HD3870 X2 |
62,8 fps |
Powercolor HD3870 CF |
62,1 fps |
Nvidia Geforce 8800 ultra |
58,7 fps |
Asus Geforce 9800GTX |
51,9 fps |
Nvidia Geforce 8800GTS G92 |
50,8 fps |
Nvidia Geforce 8800GTX |
50,3 fps |
BFG 8800GT OC |
46,1 fps |
Powercolor HD3870 |
40,5 fps |
ATI Radeon
HD 2900 XT |
37,9 fps |
Nvidia Geforce
8800GTS (G80) |
38,8 fps |
Nvidia Geforce
8800GTS 320MB |
36,6 fps |
|
Die 9800GTX erreicht stellenweise die Resultate der 8800 GTX und ultra, kann sich aber nur in Company of Heroes wirklich nennenswert in Szene setzen. Insbesondere in hohen Auflösungen macht sich nicht unerwartet die fehlende Bandbreite bemerkbar. Die FPS Differenzen zur 8800GTS liegt schon fast im Bereich von Messungenauigkeiten, so eklatant gering ist der Unterschied.
In unseren Spiele Benchmarks zeigt sich aber auch, das Crossfire Verbund und Dual-GPU Grafikkarten erwartungsgemäß alle Singel-GPU Grafikkarten hinter sich lassen und das relativ deutlich.
2. Synthetische-Benchmarks:
3DMark2006 1280x1024 4xAA und 16xAF |
Grafikkarte:
| Punkte |
XFX Geforce 8800 ultra SLI |
17610 |
Sapphire HD3870 X2 |
13011 |
Powercolor HD3870 CF |
12993 |
Nvidia Geforce 8800 ultra |
11998 |
Asus Geforce 9800GTX |
11557 |
Nvidia Geforce 8800GTS G92 |
11314 |
Nvidia Geforce 8800GTX |
11116 |
BFG 8800GT OC |
10846 |
Powercolor HD3870 |
8155 |
ATI Radeon
HD 2900 XT |
7913 |
Nvidia Geforce
8800GTS (G80) |
7431 |
Nvidia Geforce
8800GTS 320MB |
7205 |
3DMark2006 1600x1200 4xAA und 16xAF |
Grafikkarte:
| Punkte |
XFX Geforce 8800 ultra SLI |
14936 |
Sapphire HD3870 X2 |
11666 |
Powercolor HD3870 CF |
11416 |
Nvidia Geforce 8800 ultra |
9153 |
Asus Geforce 9800GTX |
8722 |
Nvidia Geforce 8800GTS G92 |
8611 |
Nvidia geforce 8800GTX |
8405 |
BFG 8800GT OC |
7575 |
Powercolor HD3870 |
7193 |
ATI Radeon HD 2900 XT |
6472 |
Nvidia Geforce 8800GTS (G80) |
5933 |
Nvidia Geforce 8800GTS 320MB |
5111 |
|
The same Procedure,
was für die Spielebenchmarks gilt, findet auch in den synthetischen Benchmarks ihre Relevanz, es bietet sich ein nahezu unverändertes Bild.
3. Stromverbrauch (gesamtes System):
Stromverbrauch-Idle |
Grafikkarte:
| Angaben in Watt |
Nvidia Geforce 7900GT |
153 |
Powercolor HD3870 |
174 |
Nvidia Geforce 7900GTO |
176 |
Nvidia Geforce 7900GTX |
179 |
ATI Radeon X1900XTX |
181 |
Sapphire X1950XTX |
186 |
Powercolor HD3870 CF |
193 |
BFG 8800GT OC |
194 |
Nvidia Geforce 8800GTS G92 |
192 |
Asus 9800GTX |
199 |
Sapphire HD3870 X2 |
211 |
Nvidia Geforce 8800GTX |
225 |
ATI Radeon 2900 XT |
235 |
Nvidia Geforce 8800 ultra |
275 |
XFX Geforce 8800 ultra SLI |
310 |
Stromverbrauch-Last |
Grafikkarte:
| Angaben in Watt |
Nvidia Geforce 7900GT |
153 |
Nvidia Geforce 7900GTO |
176 |
Nvidia Geforce 7900GTX |
179 |
ATI Radeon X1900XTX |
181 |
Sapphire X1950XTX |
186 |
Powercolor HD3870 |
259 |
BFG 8800GT OC |
268 |
Nvidia Geforce 8800GTS G92 |
289 |
Asus 9800GTX |
305 |
Nvidia Geforce 8800GTX |
332 |
Powercolor HD3870 CF |
349 |
Nvidia Geforce 8800 ultra |
358 |
ATI Radeon 2900 XT |
373 |
Sapphire HD3870 X2 |
383 |
XFX Geforce 8800 ultra SLI |
545 |
Der Stromverbrauch ist immer noch ein trauriges Kapitel, hier sind Innovationen scheinbar lange Zeit vom Reißbrett verbannt worden, denn was aktuelle Highend Grafikkarten bisher einem Netzteil abverlangten, das hatte den Pegel der Vernunft längst überschritten. Intel und AMD haben dies erkannt und die exorbitante Verlustleistungen mit sparsamen und trotzdem leistungsstarken Prozessoren wie z.B. dem Phenom und dem Penryn reduziert. Bei den Grafikkarten ist diese Entwicklung noch deutlich optimierungsbedürftig, auch wenn die 8800GT im Highend-Segment einen ersten Schritt in die richtige Richtung bedeutete und die HD3870 ebenfalls über deutlich optimierte Verbrauchswerte verfügt.
Unsere Asus 9800GTX tendiert knapp unter einer 8800GTX, womit sie ganz sicher nicht als Sparfuchs der Woche in die Geschichte eingehen wird.
4. Temperaturen:
Temperaturen-Idle |
Grafikkarte:
| Angaben in °C |
Nvidia Geforce 7900GTX |
39° |
Powercolor HD3870 |
44° |
Powercolor HD3870 CF |
46° |
Nvidia Geforce 8800GTS G92 |
46° |
BFG 8800GT OC |
46° |
Nvidia Geforce 8800GTS 320MB |
50° |
Nvidia Geforce 8800GTS |
51° |
Asus 9800GTX |
52,5° |
Sapphire HD3870 X2 |
53° |
Nvidia Geforce 8800GTX |
54° |
Nvidia Geforce 8800 ultra |
62° |
ATI Radeon HD 2900 XT |
70° |
XFX Geforce 8800 ultra SLI |
71° |
Nvidia Geforce 7950 GX2 |
73° |
Temperaturen-Last |
Grafikkarte:
| Angaben in °C |
Nvidia Geforce 7900GTX |
61° |
Nvidia Geforce 8800GTS 320MB |
69° |
Nvidia Geforce 8800GTS |
70° |
Asus 9800GTX |
71° |
Nvidia Geforce 8800GTX |
76° |
Nvidia Geforce 8800 ultra |
77° |
BFG 8800GT OC |
78° |
Nvidia Geforce 8800GTS G92 |
79° |
ATI Radeon HD 2900XT |
80° |
Powercolor HD3870 |
83° |
Sapphire HD3870 X2 |
85° |
Powercolor HD3870 CF |
86° |
XFX Geforce 8800 ultra SLI |
88° |
Nvidia Geforce 7950 GX2 |
90° |
Die Kühler der 7900GTX Karten sind nach wie vor die Messlatte für alle anderen Grafikkarten, wobei die Kühler der G80 Baureihe außer der ultra ebenfalls sehr gute Werte abliefern, insbesondere wenn man deren wesentlich höhere Stromaufnahme dabei berücksichtigt.
Die Asus 9800GTX liefert ähnlich gute Werte und liegt im Grund auf einem Level mit der 8800GTS G92. Auch wenn die Grafikkarte ihre Abwärme zu einem großen Teil selbst abtransportiert, sollte darauf geachtet werden, das eurer PC Gehäuse über eine aktive Be-und Entlüftung verfügt, ansonsten sind Probleme vorprogrammiert.
5. Lautstärke (gesamtes System):
Lautstärke-Idle |
Grafikkarte:
| Angaben in dBA |
Nvidia Geforce 8800GTS G92 |
42 dBA |
Asus 9800GTX |
42,5 dBA |
Nvidia Geforce 8800GTX |
43 dBA |
BFG Geforce 8800GT OC |
43,5 dBA |
Powercolor HD3870 |
44 dBA |
Sapphire HD3870 X2 |
44 dBA |
Powercolor HD3870 CF |
44,5 dBA |
Nvidia Geforce 7900GTX |
45,5 dBA |
ATI Radeon HD 2900XT |
47 dBA |
Nvidia 8800GTS |
47,5 dBA |
Nvidia Geforce 8800GTS 320MB |
47,5 dBA |
Nvidia 8800 ultra |
48 dBA |
Nvidia Geforce 7950 GX2 |
49 dBA |
XFX Geforce 8800 ultra SLI |
53 dBA |
Lautstärke-Last |
Grafikkarte:
| Angaben in dBA |
Powercolor HD3870 |
45,5 dBA |
BFG 8800GT OC |
47 dBA |
Nvidia Geforce 7900GTX |
47,5 dBA |
Nvidia Geforce 8800GTS G92 |
48 dBA |
Nvidia Geforce 8800GTX |
48,5 dBA |
Nvidia Geforce 8800GTS |
49 dBA |
Powercolor HD3870 CF |
49,5 dBA |
Nvidia Geforce 8800GTS 320MB |
49,5 dBA |
Asus 9800GTX |
50,5 dBA |
Nvidia 8800 ultra |
51 dBA |
ATI Radeon HD 2900 XT |
54,5 dBA |
Nvidia Geforce 7950 GX2 |
56,5 dBA |
XFX Geforce 8800 ultra SLI |
56,5 dBA |
Sapphire HD3870 X2 |
59 dBA |
Im Idle Modus kann man die 9800GTX nicht aus unserem System heraus identifizieren, dieser Pluspunkt kehrt sich unter Last deutlich um, wo sie ähnlich wie eine 8800 ultra schon deutlich zu hören ist. Das tendiert zwar unserer Meinung nach nicht in den Bereich nervig, kann aber empfindliche Gemüter stören.
6. Video/DVD-Qualität:
Zum Vergrößern bitte die Bilder anklicken !
Leider kommt die Bildqualität auf unseren Screens wie immer nicht wirklich zur Geltung und 8 Bilder mit jeweils mehr als 1MB Größe wollten wir euch nicht zumuten, schließlich gibt es auch immer noch Leser mit Modems... Aber man dürfte wohl zumindest erahnen, was diese Karten auch im Bereich DVD zu leisten imstande sind.
Wer diese Karten gerne in Bezug auf HDTV und einer 1080p Auflösung testen möchte, der kann sich bei Microsoft ein entsprechendes Video herunterladen (110MB):
Step into Liquid
Der Mediplayer 11 sollte dafür aber schon installiert sein, die 10er Variante kann nur nach einem speziellem Update genutzt werden: Update für MP10
Noch einige Anmerkungen zur Wiedergabe von Blue-ray und HD-DVD Material,
hier hat ATI immer noch klar die Nase vorne und decodiert entsprechendes Material deutlich schneller und mit weniger Prozessorlast und das nicht ohne Grund:
Als Avivo bezeichnet AMD eine bereits mit der Radeon X1300 eingeführte Video-Plattform, um die Multimedia-Fähigkeiten von ATIs Grafikkarten deutlich zu verbessern (Qualität und Flexibilität). Die Weiterentwicklung dieser Technologie nennt sich ATI-Avivo-HD-Technologie und kommt seit der HD2000er Grafikkartenserie zum Einsatz.
Der Unified Video Decoder (UVD) (früher auch „Universal Video Decoder“) ist ein Videoprozessor der Firma AMD und basiert auf der Technik der Multimedia-Prozessoren Xilleon. Die ersten Produkte, in die er integriert wurde, waren die ATI Radeon HD 2400 und 2600 der ATI-Radeon-HD-2000-Serie. UVD wird für Avivo HD benötigt und wurde dementsprechend auch bei der HD3870 X2 implementiert. Bei der Wiedergabe von bestimmten Videoformaten kann der UVD die Decodierarbeit übernehmen und somit den Hauptprozessor deutlich entlasten.
Dank Duallink ist die 9800GTX in der Lage, auch 30" TFTs mit 2560x1600 Pixel anzusteuern, was bislang nur wenige Grafikkarten bewerkstelligen.
7. Overclocking:
Das Übertakten der Asus 9800GTX soll über das Tool nTune erfolgen, was bei uns außer Abstürzen allerdings nichts bewirkte, so daß wir, so kurios es klingen mag, kurzerhand auf das ATI-Tool zurückgriffen, eine aktuelle Version des Riva Tuners funktioniert aber auch und Powerstrip ohnehin.
Mit dem ATI Tool waren auf unserem System ohne Spannungserhöhungen und stabil 800MHZ für den Core, 1950 MHZ für den Shader und 1150MHZ für den Speicher möglich. Auch dieses Resultat zeigt, welches Potential diese Karte besitzt.
Das Übertakten der Karte bewirkt in Spielen und Benchmarks eine Leistungssteigerung von bis zu 20%, das kann sich sehen lassen, ist aber wie immer nicht auf jedes System und 9800GTX übertragbar, dazu muß man die Kühlung im System ebenso berücksichtigen, wie die Serienstreuung in der Fertigung.
8. Die Treibersituation:
Wer eine 9800GTX erworben hat, sollte unbedingt den aktuellen 175.16 Treiber einsetzen, der u.a. abermals auch für Crysis optimiert wurde und nach einigen Versuchen unsererseits auch tatsächlich am besten läuft, egal ob nun unter Windows XP oder Vista.
9. Netzteil-Empfehlungen:
Die Asus 9800GTX ist bezüglich der Stromaufnahme optimiert worden, insofern bedarf wie so oft auch hier keines 1000 Watt Netzteils, ein gutes 380 Watt Netzteil von Enermax oder Seasonic erfüllt die meisten Zwecke völlig. Wer ein SLI-System betreiben möchte, kann das Ganze mit einem 450 bis 500 Watt Watt Netzteil aus der gleichen Güteklasse ebenso locker abdecken.
Wir haben darum unsere aktuelle Netzteil Top-Ten Liste gleich mitgebracht, damit ihr euch diesbezüglich ein ausführliches Bild vom Stand der Technik machen könnt:
Die Top-Ten der bisher getesteten Netzteile:
Voraussetzungen für die Aufnahme in die Liste:
1. das Netzteil muß aktuell verfügbar sein
2. es muß sich um eine aktuelle Revision handeln
3. wenn eine Netzteilserie mehrere Modellvarianten umfaßt, erscheint in dieser Liste das unserer Meinung nach beste Netzteil aus der Serie
| |