Geschrieben von Cerberus am 24.02.2008 um 10:28:
Powercolor Radeon HD3870 Part II "Crossfire"
Powercolor Radeon HD3870 Part II "Crossfire"
Einleitung:
Auf den Crossfire Part unseres Powercolor HD3870 Reviews haben sicherlich viele ungeduldig gewartet, aber die etwas längere Zeitspanne hatte einen trifftigen Grund: wir wollten unbedingt auf die finale Veröffentlichung des Catalyst 8.2 warten, weil die Versionen 7.12 und auch 8.1 im Crossfire Verbund immer wieder für größere und kleinere Probleme sorgten.
Inzwischen ist zwar die HD3870 X2 erschienen, die zwei GPUs auf einer Platine vereint, das soll uns aber nicht davon abhalten, einen reinrassigen Crossfire Verbund zu testen, zumal die Leistungen im Vergleich nahezu identisch sind. Unsere Benchmarks beinhalten die Daten unserer bisher verbauten Einzelkarten, aber auch ein XFX 8800 ultra SLI System kam zum aktuell zum Einsatz, so daß in dieser Hinsicht entsprechende Daten gleichermaßen vorhanden sind.
Zur Erinnerung: Als Crossfire bezeichnet das Unternehmen AMD/ATI eine spezielle Multi-GPU-Technik, um zwei (mehr als 2 Grafikkarten: Crossfire X)Grafikkarten in einem PCI-Express-System parallel zu betreiben. Dies kann bisher ausschließlich auf Intel und von AMD bzw. ATI Technologies entwickelten Chipsätzen stattfinden, was keine Schikane darstellt, sondern einen lizenz-und patentrechtlichen Hintergrund hat, wobei Marketing sicherlich auch eine Rolle spielt. Beim Konkurrenten Nvidia verhält es sich es sehr ähnlich, SLI findet aktuell nur auf Nvidia Chipsätzen einen adäquaten Ansprechpartner, auch wenn es auf Intel Chipsätzen mit gemoddeten Treibern gelegentlich mehr schlecht als recht funktioniert.
Schauen wir uns also gemeinsam an, wie gut unser Powercolor HD3870 Duett die Pixel beschleunigen kann und worauf im Speziellen zu achten ist, viel Vergnügen beim Lesen...
Die technischen Daten Powercolor HD3870:
GPU |
RV670 |
Fertigungsprozess |
55 nm |
Fertigung |
TSMC |
Transistoren |
ca. 666 Mio. |
GPU Speed |
775 MHZ |
Memory |
512MB onboard GDDR4-SDRAM |
RAMDAC |
2x 400MHZ |
Memory Speed |
1125 MHZ |
Shader Speed |
775 MHZ |
Stream Prozessoren |
320 |
Speicher-Bandbreite |
72 GB/sec |
FLOPs |
496 GFLOPs |
ROPs |
16 |
Speicherinterface |
256 Bit |
Speicher-Chips |
Samsung 0,8ns |
Schnittstelle |
PCI Express 2.0 |
Pixel Füllrate |
12400 MPix/s |
Texelfüllrate |
12400 MTex/s |
Shader Model |
4.1 |
winkelabhängiges AF |
ja |
Anti-Aliasing |
16x Fullscreen |
Multisampling |
16x |
Transparenz FSAA |
ja |
DirectX Unterstützung |
DirectX 10.1 |
HDPC Unterstützung |
ja |
Crossfire Unterstützung |
ja |
OpenGL version |
OpenGL 2.0 |
Output Anschlüsse |
2xDuallink DVI |
Maximale Auflösung |
2560x1600 über DVI |
Stromanschluß |
1x 6-pin Molex |
Platinenlänge |
23cm |
Lüfter |
75mm Radiallüfter |
Gewicht |
ca. 770 Gramm mit Kühleinheit |
Garantie
|
2 Jahre |
Die technischen Daten im Vergleich:
|
Nvidia 8800GT |
Powercolor HD3870 |
Radeon HD2900 XT |
Nvidia 8800GTS |
Nvidia 8800GTX |
Nvidia 8800 ultra |
GPU-Revision |
G92 |
RV670 |
R600 |
G80 |
G80 |
G80 |
GPU-Takt |
600 MHz |
775 MHz |
742 MHz |
500 MHz |
575 MHz |
612 MHz |
Fertigung |
TSMC |
TSMC |
TSMC |
TSMC |
TSMC |
TSMC |
Fertigungsprozess |
65 nm |
55 nm |
80 nm |
90 nm |
90 nm |
90 nm |
Transistoren |
754 Millionen |
666 Millionen |
700 Millionen |
681 Millionen |
681 Millionen |
681 Millionen |
Leistungsaufnahme |
ca. 110 Watt |
ca. 105 Watt |
ca. 180 Watt |
bis 150 Watt |
ab 150 Watt |
ab 170 Watt |
Speichertakt |
900 MHz |
1125 MHz |
828 MHz |
800 MHz |
900 MHz |
1080 MHz |
Shadertakt |
1512 MHz |
775 MHz |
742 MHz |
1200 MHz |
1350 MHz |
1512 MHz |
Speicherinterface |
256 Bit |
256 Bit |
512 Bit |
320 Bit |
384 Bit |
384 Bit |
Speicherart |
GDDR3 |
GDDR4 |
GDDR3 |
GDDR3 |
GDDR3 |
GDDR3 |
Speicher-Kapazität |
512 MB |
512 MB |
512 MB |
640 MB |
768 MB |
768 MB |
RAMDAC |
400 MHz |
400 MHz |
400 MHz |
400 MHz |
400 MHz |
400 MHz |
Speicherbandbreite |
57,6 GB /s |
72 GB /s |
106 GB/s |
64 GB/s |
86,4 GB/s |
103,6 GB/s |
Interface |
PCI Express 2.0 |
PCI Express 2.0 |
PCI Express |
PCI Express |
PCI Express |
PCI Express |
DirectX Version |
10 |
10.1 |
10 |
10 |
10 |
10 |
Shader-Model |
4.0 |
4.1 |
4.0 |
4.0 |
4.0 |
4.0 |
Stream CPUs |
112 |
320 |
320 |
96 |
128 |
128 |
Texture Units |
56 |
16 |
16 |
48 |
64 |
64 |
ROPs |
16 |
16 |
16 |
20 |
24 |
24 |
FLOPs |
508 GFLOPs |
496 GFLOPs |
475 GFLOPs |
346 GFLOPs |
518 GFLOPs |
581 GFLOPs |
Pixel-Füllrate |
9600 MPix/s |
12400 MPix/s |
11872 MPix/s |
10000 MPix/s |
13800 MPix/s |
14688 MPix/s |
Texel-Füllrate |
33600 MTex/s |
12400 MTex/s |
11872 MTex/s |
24000 MTex/s |
36800 MTex/s |
39168 MTex/s |
Preis (aktuell) |
ca. 240 € |
ca. 200 € |
ca. 340 € |
ca. 330 € |
ca. 450 € |
ca. 550 € |
Lieferumfang und Layout:
- Powercolor HD3870 Retail.
- Treiber-CD.
- VIVO-Kabel und -Adapter.
- DVI/VGA-Adapter.
- Crossfire Brücke.
- Kurzanleitung.
Zum Vergrößern bitte die Bilder anklicken !
Alle HD3870 Grafikkarten werden von den jeweiligen Herstellern im ATI Referenzdesign gefertigt, egal ob nun von Sapphire oder Powercolor oder wem auch immer, insofern existieren nur marginale Unterschiede, wenn man mal von den entsprechenden Zubehörpaketen absieht. Ab Werk übertaktete Versionen existieren mittlerweile auch einige Exemplare, z.B. von Powercolor, GeCube oder von MSI, teilweise sogar mit geänderten Kühlern.
Alle Hersteller liefern ein S-Video und ein Composite-Kabel mit aus, dazu gesellen sich ein TV-Out und ein TV-IN Adapter. DVI-VGA Adapter dürfen natürlich auch nicht fehlen. Neben der Treiber-CD endet dann aber auch schon das Ausstattungspaket von Powercolor, Spiele oder andere Zuaten sucht man leider vergebens...
Wie bei Karten dieser Kategorie schon obligatorisch, sind sie mit 2 Dual-Link fähigen DVI-Ausgängen ausgerüstet worden. 23cm mißt die Platine der Powercolor Grafikkarte, das ist zwar gewaltig, paßt aber ohne Kompatibilitätsprobleme eigentlich in jeden PC-Tower, da existieren Platinen in deutlich größeren Dimensionen.
Zum Vergrößern bitte die Bilder anklicken !
Der Kühler ist ein alter Bekannter, werkelte er doch schon in leicht abgeänderter Form auf der X1950XTX und ermöglichte dort eine geräuscharme und adäquate Kühlung.
Der neue/alte Kühler mit dem 75mm Radiallüfter besteht komplett aus Kupfer und der Kunststoffschutz-Leithülle, die auch hilft, die Abluft in die richtige Richtung zu dirigieren. Eine Heatpipe analog zum Kühler aus der X1950XTX-Serie ist allerdings nicht vorhanden. Der Kühler bedeckt die Karte fast vollständig, wobei auf der Rückseite keine Kühlkörper verbaut wurden, dafür erhielten die Spannungswandler und die 0,8 ns Samsung Speicherchips entsprechende Kühlkörper.
Die warme Abluft wird über den Kühlkörper hinweg direkt aus der Karte heraustransportiert, was einen ganz entscheidenden Vorteil hat, so werden benachbarte Komponenten nicht übermäßig mit der Abwärme der Grafikkarte belästigt.
Obligatorisch benötigt der Kühler einen freien Slot (Dualslot-Kühlung) unterhalb der Grafikkarte, aber das sollte in der Regel und einem vernünftigen Mainboardlayout nun wirklich kein Problem sein.
Die Verarbeitung der Powercolor HD3870 kann sich hervorragend in Szene setzen, die Platine wurde akribisch mit den einzelnen Bauteilen verlötet, da wurde nichts dem Zufall überlassen.
Das die aktuellen Karten nach RoHS Norm gefertigt werden, sei an dieser Stelle auch noch erwähnt, dies ist allerdings nicht nur Feature, sondern Vorschrift.
Der einzelne 6-pin Stromanschluss resultiert ebenfalls aus der Leistungsaufnahme der Karte, da mit knapp 105 Watt keine weitere Stromversorgungsleitung nötig ist. Ohne diesen Anschluss geht es prinzipiell nicht, da die PCI-Express Slots maximal 75 Watt zur Verfügung stellen, daran ändern auch neue Mainboards mit PCI 2.0 Schnittstelle nichts.
Bei ATI besteht die Möglichkeit, den Ton über einen speziellen DVI->HDMI Adapter wiederzugeben, eine Option die bei vielen Nvidia Grafikkarten fehlt.
Die Technik:
Wir wollen euch zwar nicht endlos mit technischen Details und unverständlichen Fachbegriffen langweilen, aber ein paar Eckdaten der neuen RV670-Technik sollten es schon sein...
Die Radeon-HD-3000-Serie basiert grundsätzlich auf der Architektur der HD-2000-Serie, es wurden jedoch einige entscheidende Detailverbesserungen vorgenommen. Um den z.B. bei der HD2900XT häufig reklamierten Kritikpunkt der hohen Leistungsaufnahme zu beseitigen, wurde ATI Powerplay in die Chips integriert, welches im Idle-Modus nicht nur Spannung und Taktraten senken, sondern auch nicht benötigte Teile des Chips abschaltet, wodurch die Karten deutlich weniger Strom verbrauchen. Um dies zu ermöglichen wurde aber nicht nur die integrierten Bauteile renoviert, auch der Fertigungsprozess wurde in der Fertigung bei TSMC auf 55nm umgestellt. Einerseits werden so die DIE-Flächen relativ klein gehalten (192mm²), andererseits reduziert dies den Platz für die Transistoren deutlich (666 Millionen, HD2900XT: 700 Millionen).
Selbstverständlich ist die Massnahme durchaus nicht, denn man bleibt schon ganz gern bei den alteingesessenen Verfahren, zumal dafür die Masse der Erfahrung und darüber hinaus auch eine größere Yield-Ausbeute spricht.
Die Taktfrequenzen des Radeon HD 3870 mit 775 MHz für den Chip und 1125 MHz für die 512 MByte GDDR4-Speicher liegen über denen der HD 2900 XT (740/828 MHz). An den Recheneinheiten als solches ändert sich nichts, die neuen Grafikchips enthalten wie der HD 2900 XT 320 Shader-, 16 Textur- sowie 16 Raster-Operation-Einheiten. Der GDDR4/GDDR3 V-Ram wird bei allen neuen Modellen mit 256Bit angesprochen und genau das sorgte im Vorfeld für Sorgenfalten bei den Außenstehenden. Da die ATi-Karten der HD2000er Baureihe ja für einen doch recht starken Leistungseinbruch bei der Benutzung von Anisotropen Filtern und Anti Aliasing bekannt sind, war diese Sorge nicht unberechtigt, zumal die Verringerung der Speicherbandbreite diesen Effekt ja noch verstärkt.
Einen nicht unerheblichen Teil der geringeren Bandbreite konnte man durch den Einbau des schnellen GDDR4 Rams ausgleichen, welcher mit bis zu 1200MHz realem Takt betrieben wird. Dadurch ergibt sich eine Speicherbandbreite von genau 75 GB/s, die 8800GT erreicht zum Vergleich 57,6 GB/s. Mitentscheidend für eine weitere Kompensation der reduzierten Speicherbandbreite dürfte aber die Optimierung der Zugriffszeiten und des Speichercontrollers sein, zumindest ist dies die Aussage von ATI.
Das Featureset wurde erweitert und umfasst nun auch DirectX 10.1, außerdem unterstützt diese Serie nun PCI-Express 2.0. Die aktuelle Generation DirectX 10-kompatibler Grafikkarten wird mit der Einführung des Updates auf DirectX 10.1 keineswegs überflüssig, sondern abwärtskompatibel unterstützt. Es wird also keine Fälle geben, in denen derzeit erhältliche Grafikkarten nicht mit der aktualisierten Plattform kompatibel seien. Das Update ist ganz klar daraufhin ausgelegt, dass es die Funktionalität erweitere. Darum ist diese Aktualisierung auch mit den Updates zu vergleichen, die DirectX 9 in der Vergangenheit ebenfalls erfahren habe. Man werde zwar nicht alle neue Features nutzen können, es soll aber auch keine Spiele geben, die ausschließlich mit DirectX 10.1 laufen.
Wer noch etwas tiefer in die DirectX 10.1 Materie eintauchen möchte, dem sei das entsprechende Whitpaper von ATI empfohlen:
DirectX 10.1 Whtite Paper
Neu ist bei den aktuellen Grafikkarten ebenfalls die Kompatibilität zum PCIe-2.0-Standard. Vorherige Grafikkarten waren PCIe-1.1-kompatibel und konnten mit je acht Gigabyte pro Sekunde mit dem PCIe-Bus kommunizieren. PCIe 2.0 verdoppelt zumindest theoretisch die Bandbreite auf 16 GB pro Kanal, da fühlt man sich doch sehr deutlich an AGP 4x versus AGP 8x erinnert. Nvidia gibt diesbezüglich übrigens nicht ganz unerwartet an, das Spiele und sogar 3-Way-SLI in naher Zukunft nur bedingt von der höheren Bandbreite profitieren werden. Nvidia sieht PCIe 2.0 aber als einen großen Schritt bei GPGPU-Anwendungen (Cuda), die je nach Programmierung einen starken Geschwindigkeitsschub von PCIe 2.0 erfahren sollen. Zum Thema Stromversorgung gab es zwar einige Gerüchte, die Fakten sehen aber wie so oft anders aus, beim neuen Standard wurde der maximale Stromverbrauch pro PCIe-Slot nicht verändert, er liegt also für den PCIe-x16-Slot nach wie vor bei den bereits erwähnten 75 Watt.
Aber genug der grauen Theorie, kommen wir endlich zum Praxistest...
Crossfire Besonderheiten:
Zum Vergrößern bitte die Bilder anklicken !
Zum Vergrößern bitte die Bilder anklicken !
Die Aufnahmen der Crossfire-Brücken sind gut zugänglich, so daß es überhaupt kein Problem darstellt, die Brücken zur Verbindung der beiden Karten aufzustecken. Eine spezielle Masterkarte ist für den Verbund aus aktuellen ATI-Grafikkarten nicht mehr notwendig, was die Flexibilität deutlich erhöht, denn so kann man auch durchaus den Hersteller einer bestimmten Produktlinie mischen. Man könnte auch eine HD3870 mit einer HD3850 kombinieren, ob dies sinnvoll ist oder nicht, lassen wir mal dahingestellt sein.
Seit dem Catalyst 8.1 ist es übrigens möglich, die Grafikkarten der HD3850/3870 Baureihen zu einem Crossfire-X Verbund aus 3 Grafikkarten oder mehr auszubauen.
Zum Vergrößern bitte die Bilder anklicken !
Die Voraussetzungen für unseren Crossfire Verbund sind ideal, denn das eingesetzte Asus P5E WS X38 Mainboard stellt zwei PCIe2.0 Steckplätze mit jeweils 16x Lanes zur Verfügung, ein Flaschenhals auf diesem BUS ist also definitiv nicht vorhanden.
Die Frage, ob man beide Crossfire Brücken verwenden sollte, wird gerne kontrovers diskutiert, wir konnten in unseren Tests keinen Unterschied feststellen, oder Probleme beobachten. Sollten sich bei der Verwendung von beiden Brücken Probleme wie dem sporadischem Flackern ergeben, dann läßt man eben eine weg.
An dieser Stelle noch ein Link zu den von ATI zertifizierten Crossfire Produkten, deren Aktualität allerdings insbesondere bei Netzteilen und Mainboards etwas hinterherhinkt:
Crossfire Zertifizierungen
Das Testsystem:
CPU |
Intel Core 2 Duo E6850 |
Mainboard |
Asus P5E WS Professional/Asus Striker II Formula |
Arbeitsspeicher |
Mushkin XP2-6400 DDR2-800 4GB-Kit |
Soundkarte |
Sound Blaster X-Fi XtremeGamer Fatality |
CPU-Kühler |
Thermalright Ultra-120 extreme |
CPU-Lüfter |
Scythe |
Festplatten System |
2x Western Digital Raptor a´150GB (10000 U/min, S-ATA) RAID-0 |
Festplatte Daten |
1x Samsung F1 750GB 32MB SATA II |
Festplatte Backup |
1x Samsung F1 1TB 32MB SATA II |
DVD-Brenner |
Plextor PX-760 SATA |
DVD-ROM |
Plextor PX-130 |
Diskettenlaufwerk |
Scythe Combo |
Gehäuse |
Lian Li PC-G70 B |
Netzteil |
Seasonic S12 II 500 Watt |
Monitor |
Eizo S2100 |
Betriebssystem |
Windows XP Prof. SP 2 PreSP3/Vista Ultimate 64-bit |
Zubehör |
2x Aerocool Turbine 120mm @5Volt
|
Montage, Treiberinstallation und Tipps:
Zur Treiber Installation/Aktualisierung/Deinstallation bevorzugen wir unseren entsprechenden Artikel:
ATI-Catalyst-Workshop Part II
Nach einem Neustart wurden beide Grafikkarten ohne Murren erkannt:
Zum Vergrößern bitte die Bilder anklicken !
Die Crossfire Aktivierung ist jetzt nur noch reine Formsache, dafür bedarf es ledglich eines kleinen Häkchens in den Treiberoptionen des Catalyst Paketes:
Zum Vergrößern bitte die Bilder anklicken !
Wer sein Betriebssystem ohnehin neu aufsetzen wollte, der sollte nach Möglichkeit unsere Installationsreihenfolge verwenden:
1. Windows installieren.
2. Servicepacks installieren. (sofern nicht schon auf CD eingebunden)
3. Wurmports schließen ->zum Artikel
4. Chipsatztreiber installieren.
5. DirectX 9.0c installieren. (im Servicepack2 bereits enthalten!)
6. Grafikkartentreiber und Monitortreiber installieren.
7. Soundkartentreiber installieren.
8. weitere Treiber für Peripheriegeräte installieren.
9. die restlichen Windows-Patches installieren.
10. die Dienste sicherheitsrelevant konfigurieren ->zum Artikel
11. jetzt erst den Internetzugang konfigurieren (nachdem alle Sicherheitsupdates installiert sind)
wichtige und unverzichtbare Multi-GPU Updates für Windows Vista:
Update KB945149
Update KB936710
Damit war die Montage der GrafikKarte und auch die Treiberinstallation zunächst erfolgreich abgeschlossen und wir installierten die noch fehlenden Treiber für den Eizo Monitor. Abschließend stellten wir die Auflösung für den Desktop auf 1600x1200 bei 32-Bit und die Bildschirmaktualisierungsrate auf die von Eizo vorgeschriebenen 60 Hertz.
Als ersten Eindruck erhielten wir sehr neutrale 2D-Farben und ein gestochen scharfes Bild. Scheinbar kann der Eizo S2100 die gelieferten Signale optimal umsetzen.
Noch eine kleine nicht unwesentliche Anmerkung am Rande:
wer sich eine teure Grafikkarte kauft, sollte darauf achten, das sein Monitor ebenfalls diesen gehobenen Ansprüchen gerecht wird. Denn Frust ist vorprogrammiert, wenn die teure High-End Grafikkarte mit einem Billig-Monitor kommunizieren muß, der gar nicht in der Lage ist, das erhofft schöne Bild zu reproduzieren...!
Die Tests:
Vor den eigentlichen Tests optimierten wir Windows XP/SP2 nach unserem
Performance-Workshop
, schließlich sollte eine ideale Basis optimale Voraussetzungen bieten.
Abschließend wurde das gesamte eine Stunde mit Prime95 "vorgeheizt".
Die Lautheit der Grafikkarten-Lüfter haben wir nicht separat gemessen, sondern als Systemgesamtlautstärke in die Tests eingebunden. Dabei wurden die Lautstärke ca. 15cm vom Rechner entfernt mit einem ACR-264-plus Messgerät verifiziert und dabei die Umgebungsgeräusche so weit wie möglich reduziert, um das Ergebnis nicht zu verfälschen. Laut DIN-Norm sollte der Abstand von Messgerät zum Testobjekt 100cm betragen, aber da wir nicht über einen schalltoten respektive schallarmen Raum verfügen, waren Kompromisse unumgänglich.
Mit dem Digitalen Temperaturmessgerät TL-305 haben wir während sämtlicher Testdurchläufe die Temperaturen der Grafikkarte per Sensor gemessen und aufgezeichnet. Somit erhält der mögliche Käufer auch eine gute Übersicht bezüglich der zu erwartenden Kühlleistung der Grafikkarte.
Um den Stromverbrauch möglichst genau wiederzugeben (gesamtes System), haben wir den grafischen Leistungsmesser Peak Tech 2535 verwendet.
Testprogramme:
- Windows XP SP2.
- Windows Vista Ultimate 64Bit.
- 3DMark 2006 aktuell gepatcht.
- aktuelle DirectX9 Spiele.
- aktuelle DirectX10 Spiele.
Treibereinstellungen:
- Systemleistung: Hohe Qualität
- Vertikale Synchronisierung: Aus
- sonst alles auf Standard
Kommentare zu den synthetischen 3DMark Benchmarkprogrammen ersparen wir uns, dafür gibt es einfach zu viele Irritationen bei Vergleichswerten und ebenso viele Möglichkeiten diese, in welcher Form auch immer, zu beeinflussen. Die Relevanz ist somit zumindest fragwürdig, aber der vollständigkeithalber haben wir sie ebenfalls durchlaufen lassen, wobei wir auf 3DMark 2003 und 2005 wegen fehlender Aktualität gänzlich verzichteten.
Für aussagekräftige Benchmarks sollte als Testeinstieg in jedem Fall die Auflösung 1280x1024 (Standard-TFT-Auflösung für 17 und 19" Geräte)) und die Option Quality 4AAx16AF (4-fach Antialiasing + 16-fach anisotropischer Filter) aktiviert sein, ansonsten gerät die Beurteilung aktueller High-Endgrafikkarten zur Farce. Dies gilt insbesondere für Crossfire/SLI Systeme, wo alles unter 1600x1200 Pixel den Sinn eines solchen Systems mehr als nur in Frage stellt. Ohne entsprechende Qualitätseinstellung, kann man keine Aussage darüber treffen, welche Leistung wirklich erbracht wird, zumal auch eine Mittelklasse Grafikkarte ohne 4xAA und 16xAF recht schnell sein kann.
Grundsätzlich sollte man synthetischen Benchmarks nicht allzu große Bedeutung beimessen, denn 1. sind einige schon etwas betagt und haben somit kaum einen ernsthaften Bezug zur aktuellen Technik und 2. entstehen immer wieder mal kuriose Situationen, in denen der eine oder andere programmierbedingte Lapsus dieser oder jener Grafikkarte Vorteile verschafft, die eigentlich gar nicht vorhanden sind.
Da sind Spielebenchmarks schon etwas aussagekräftiger, auch wenn viele der Spiele entweder auf ATI oder Nvidia optimiert wurden. Da gilt es dann zu unterscheiden: Open GL Spiele von id-Software wie Quake 4 oder Doom 3 z.B. laufen generell etwas schneller auf Nvidia-Karten und Direct3D Spiele wie Halflife 2 oder Call of Duty 2 favorisieren ATI, um nur ein paar Beispiele zu nennen.
Selbstverständlich kamen auch aktuelle und brandneue DirectX10-Spiele in unserem Testparcour zum Einsatz, die dann unter Vista Ultimate 64 Bit berücksichtigt wurden. Bei Crysis beließen wir es allerdings auf Benchmarks ohne 4xAA/16xAF, da es sich sonst zur Ruckelorgie entwickelt.
Wer einen Widescreen TFT besitzt, dem sei erklärt, das es bezüglich der Füllrate keinen großen Unterschied macht, ob nun in 1600x1200 (1,9 Millionen Pixel) oder 1680x1050 (1,75 Millionen Pixel) aufgelöst wird.
1a. Spiele-Benchmarks DirectX9:
Zum Vergrößern bitte die Bilder anklicken !
Prey 1280x1024 4xAA und 16xAF |
Grafikkarte:
| FPS (Frames per Second) |
XFX Geforce 8800 ultra SLI |
144 fps |
Powercolor HD3870 CF |
114 fps |
Nvidia Geforce 8800 ultra |
106 fps |
Nvidia Geforce 8800GTX |
93,7 fps |
BFG 8800GT OC |
81,5 fps |
Powercolor HD3870 |
78,5 fps |
ATI Radeon HD 2900XT |
76,1 fps |
Nvidia Geforce
7950 GX2 |
71,1 fps |
Nvidia Geforce
8800GTS (G80) |
65 fps |
Nvidia Geforce
8800GTS-320MB |
62,8 fps |
Prey 1600x1200 4xAA und 16xAF |
Grafikkarte:
| FPS (Frames per
Second) |
XFX Geforce 8800 ultra SLI |
118 fps |
Powercolor HD3870 CF |
97 fps |
Nvidia Geforce 8800 ultra |
81 fps |
Nvidia Geforce 8800GTX |
73,2 fps |
BFG 8800GT OC |
62,4 fps |
Powercolor HD3870 |
61,6 fps |
ATI Radeon
HD 2900XT |
59,9 fps |
Nvidia Geforce
7950 GX2 |
56 fps |
Nvidia Geforce
8800GTS (G80) |
51,7 fps |
Nvidia Geforce 8800GTS 320MB |
50,5 fps |
|
F.E.A.R. 1280x1024 4xAA und 16xAF |
Grafikkarte:
| FPS (Frames per Second) |
XFX Geforce 8800 ultra SLI |
209 fps |
Powercolor HD3870 CF |
148 fps |
Nvidia Geforce 8800 ultra |
131 fps |
Nvidia Geforce 8800GTX |
116 fps |
BFG 8800GT OC |
103 fps |
Powercolor HD3870 |
91 fps |
ATI Radeon HD 2900XT |
89 fps |
Nvidia Geforce
8800GTS (G80) |
85 fps |
Nvidia Geforce
8800GTS 320MB |
80 fps |
Nvidia Geforce
7950 GX2 |
61 fps |
F.E.A.R. 1600x1200 4xAA und 16xAF |
Grafikkarte:
| FPS (Frames per
Second) |
XFX Geforce 8800 ultra SLI |
163 fps |
Powercolor HD3870 CF |
116 fps |
Nvidia Geforce 8800 ultra |
95 fps |
Nvidia Geforce 8800GTX |
86 fps |
BFG 8800GT OC |
77 fps |
Powercolor HD3870 |
71 fps |
ATI Radeon
HD 2900XT |
67 fps |
Nvidia Geforce
8800GTS (G80) |
64 fps |
Nvidia Geforce
8800GTS 320MB |
61 fps |
Nvidia Geforce 7950 GX2 |
47 fps |
|
Company of Heroes 1280x1024 4xAA und 16xAF |
Grafikkarte:
| FPS (Frames per Second) |
XFX Geforce 8800 ultra SLI |
177 fps |
Powercolor HD3870 CF |
159 fps |
Nvidia Geforce 8800 ultra |
131 fps |
BFG
8800GT OC |
119,4 fps |
Nvidia Geforce 8800GTX |
118,9 fps |
Powercolor HD3870 |
109 fps |
ATI Radeon HD 2900XT |
102,2 fps |
Nvidia Geforce
7950 GX2 |
88,9 fps |
Nvidia Geforce 8800GTS (G80) |
87,4 fps |
Nvidia Geforce
8800GTS 320MB |
79,8 fps |
Company of Heroes 1600x1200 4xAA und 16xAF |
Grafikkarte:
| FPS (Frames per Second) |
XFX Geforce 8800 ultra SLI |
146 fps |
Powercolor HD3870 CF |
129 fps |
Nvidia Geforce 8800 ultra |
99,3 fps |
Nvidia Geforce
8800GTX |
89,5 fps |
BFG 8800GT OC |
80,9 fps |
Powercolor HD3870 |
79,7 fps |
ATI Radeon
HD 2900XT |
77,8 fps |
Nvidia Geforce
7950 GX2 |
62,6 fps |
Nvidia Geforce
8800GTS (G80) |
57,4 fps |
Nvidia Geforce
8800GTS 320MB |
54,7 fps |
|
Half-Life 2: Episode One 1280x1024 4xAA und 16xAF |
Grafikkarte:
| FPS (Frames per Second) |
XFX Geforce 8800 ultra SLI |
249 fps |
Powercolor HD3870 CF |
225 fps |
Nvidia Geforce 8800 ultra |
198 fps |
Nvidia Geforce
8800GTX |
182 fps |
BFG 8800GT OC |
176 fps |
Powercolor HD3870 |
146 fps |
Nvidia Geforce 8800GTS (G80) |
134 fps |
Nvidia Geforce 8800GTS 320MB |
131 fps |
ATI Radeon HD 2900XT |
126 fps |
Nvidia Geforce
7950 GX2 |
107 fps |
Half-Life 2: Episode One 1600x1200 4xAA und 16xAF |
Grafikkarte:
| FPS (Frames per Second) |
XFX Geforce 8800 ultra SLI |
211 fps |
Powercolor HD3870 CF |
189 fps |
Nvidia Geforce 8800 ultra |
155 fps |
Nvidia Geforce 8800 GTX |
141 fps |
BFG 8800GT OC |
139 fps |
Powercolor HD3870 |
122 fps |
ATI Radeon
HD 2900XT |
97 fps |
Nvidia Geforce
8800GTS (G80) |
94 fps |
Nvidia Geforce
8800GTS 320MB |
91 fps |
Nvidia Geforce
7950 GX2 |
79 fps |
|
1b. Spiele-Benchmarks DirectX10:
Zum Vergrößern bitte die Bilder anklicken !
Crysis Time Demo 1280x1024 |
Grafikkarte:
| FPS (Frames per Second) |
XFX Geforce 8800 ultra SLI |
58,5 fps |
Powercolor HD3870 CF |
47,8 fps |
Nvidia Geforce 8800 ultra |
44,3 fps |
Nvidia Geforce 8800GTX |
39,5 fps |
BFG 8800GT OC |
35,9 fps |
Powercolor HD3870 |
29,5 fps |
Nvidia Geforce 8800GTS (G80) |
28,3 fps |
ATI Radeon HD 2900 XT |
24,3 fps |
Nvidia Geforce
8800GTS 320MB |
19,8 fps |
Crysis Time Demo 1600x1200 |
Grafikkarte:
| FPS (Frames per Second) |
XFX Geforce 8800 ultra SLI |
47,4 fps |
Powercolor HD3870 CF |
37,8 fps |
Nvidia Geforce 8800 ultra |
34,8 fps |
Nvidia Geforce 8800GTX |
31,6 fps |
BFG 8800GT OC |
27,9 fps |
Powercolor HD3870 |
23,9 fps |
Nvidia Geforce 8800GTS (G80) |
22,1 fps |
ATI Radeon HD 2900 XT |
19,5 fps |
Nvidia Geforce
8800GTS 320MB |
14,2 fps |
|
Bioshock 1280x1024 1xAA und
16xAF |
Grafikkarte:
| FPS (Frames per Second) |
XFX Geforce 8800 ultra SLI |
102,5 fps |
Powercolor HD3870 CF |
78,8 fps |
Nvidia Geforce 8800 ultra |
77,9 fps |
Nvidia Geforce 8800GTX |
68,6 fps |
BFG 8800GT OC |
64,1 fps |
ATI Radeon
HD 2900 XT |
52,7 fps |
Powercolor HD3870 |
51,8 fps |
Nvidia Geforce
8800GTS (G80) |
51,4 fps |
Nvidia Geforce
8800GTS 320MB |
50,2 fps |
Bioshock 1600x1200 1xAA und
16xAF |
Grafikkarte:
| FPS (Frames per Second) |
XFX Geforce 8800 ultra SLI |
86,5 fps |
Powercolor HD3870 CF |
62,1 fps |
Nvidia Geforce 8800 ultra |
58,7 fps |
Nvidia Geforce 8800GTX |
50,3 fps |
BFG 8800GT OC |
46,1 fps |
Powercolor HD3870 |
40,5 fps |
ATI Radeon
HD 2900 XT |
37,9 fps |
Nvidia Geforce
8800GTS (G80) |
38,8 fps |
Nvidia Geforce
8800GTS 320MB |
36,6 fps |
|
In unseren Spiele Benchmarks zeigt sich, das der Crossfire Verbund erwartungsgemäß alle Singel-GPU Grafikkarten hinter sich läßt und nur der SLI-Verbund aus zwei 8800 ultra Karten Nvidias Ehre wiederherstellt, dies dann allerdings auch ziemlich deutlich.
2. Synthetische-Benchmarks:
3DMark2006 1280x1024 4xAA und 16xAF |
Grafikkarte:
| Punkte |
XFX Geforce 8800 ultra SLI |
17610 |
Powercolor HD3870 CF |
12993 |
Nvidia Geforce 8800 ultra |
11998 |
Nvidia Geforce 8800GTX |
11116 |
BFG 8800GT OC |
10846 |
Powercolor HD3870 |
8155 |
ATI Radeon
HD 2900 XT |
7913 |
Nvidia Geforce
8800GTS (G80) |
7431 |
Nvidia Geforce
8800GTS 320MB |
7205 |
3DMark2006 1600x1200 4xAA und 16xAF |
Grafikkarte:
| Punkte |
XFX Geforce 8800 ultra SLI |
14936 |
Powercolor HD3870 CF |
11416 |
Nvidia Geforce 8800 ultra |
9153 |
Nvidia geforce 8800GTX |
8405 |
BFG 8800GT OC |
7575 |
Powercolor HD3870 |
7193 |
ATI Radeon HD 2900 XT |
6472 |
Nvidia Geforce 8800GTS (G80) |
5933 |
Nvidia Geforce 8800GTS 320MB |
5111 |
|
The same Procedure,
was für die Spielebenchmarks gilt, findet auch in den synthetischen Benchmarks ihre Relevanz, es bietet sich ein unverändertes Bild.
3. Stromverbrauch (gesamtes System):
Stromverbrauch-Idle |
Grafikkarte:
| Angaben in Watt |
Nvidia Geforce 7900GT |
153 |
Powercolor HD3870 |
174 |
Nvidia Geforce 7900GTO |
176 |
Nvidia Geforce 7900GTX |
179 |
ATI Radeon X1900XTX |
181 |
Sapphire X1950XTX |
186 |
Powercolor HD3870 CF |
193 |
BFG 8800GT OC |
194 |
Nvidia Geforce 8800GTX |
225 |
ATI Radeon 2900 XT |
235 |
Nvidia Geforce 8800 ultra |
275 |
XFX Geforce 8800 ultra SLI |
310 |
Stromverbrauch-Last |
Grafikkarte:
| Angaben in Watt |
Nvidia Geforce 7900GT |
153 |
Nvidia Geforce 7900GTO |
176 |
Nvidia Geforce 7900GTX |
179 |
ATI Radeon X1900XTX |
181 |
Sapphire X1950XTX |
186 |
Powercolor HD3870 |
259 |
BFG 8800GT OC |
268 |
Nvidia Geforce 8800GTX |
332 |
Powercolor HD3870 CF |
349 |
Nvidia Geforce 8800 ultra |
358 |
ATI Radeon 2900 XT |
373 |
XFX Geforce 8800 ultra SLI |
545 |
Der Stromverbrauch ist immer noch ein trauriges Kapitel, hier sind Innovationen scheinbar lange Zeit vom Reißbrett verbannt worden, denn was aktuelle Highend Grafikkarten bisher einem Netzteil abverlangten, das hatte den Pegel der Vernunft längst überschritten. Intel und AMD haben dies erkannt und die exorbitante Verlustleistungen mit sparsamen und trotzdem leistungsstarken Prozessoren wie z.B. dem Phenom und dem Penryn reduziert. Bei den Grafikkarten ist diese Entwicklung noch deutlich optimierungsbedürftig, auch wenn die 8800GT im Highend-Segment einen ersten Schritt in die richtige Richtung bedeutete und die HD3870 ebenfalls über deutlich optimierte Verbrauchswerte verfügt.
Um so erstaunlicher ist es, das der HD3870 Verbund ohne Last im Grunde Kopf an Kopf mit einer 8800GT rangiert. Unter Last stellt sich dieses Gefüge dann aber deutlich anders dar, auch wenn das Crossfire Gespann nur unwesentlich mehr Strombedarf aufweist, als eine einzelne 8800GTX.
Interessant ist an dieser Stelle die Tasache, das die Dual-GPU Lösung von ATI in Form der HD3870 X2 ohne und mit Last gute 50 bis 60 Watt mehr verlangt...
4. Temperaturen:
Temperaturen-Idle |
Grafikkarte:
| Angaben in °C |
Nvidia Geforce 7900GTX |
39° |
Powercolor HD3870 |
44° |
Powercolor HD3870 CF |
46° |
BFG 8800GT OC |
46° |
Nvidia Geforce 8800GTS 320MB |
50° |
Nvidia Geforce 8800GTS |
51° |
Nvidia Geforce 8800GTX |
54° |
Nvidia Geforce 8800 ultra |
62° |
ATI Radeon HD 2900 XT |
70° |
XFX Geforce 8800 ultra SLI |
71° |
Nvidia Geforce 7950 GX2 |
73° |
Temperaturen-Last |
Grafikkarte:
| Angaben in °C |
Nvidia Geforce 7900GTX |
61° |
Nvidia Geforce 8800GTS 320MB |
69° |
Nvidia Geforce 8800GTS |
70° |
Nvidia Geforce 8800GTX |
76° |
Nvidia Geforce 8800 ultra |
77° |
BFG 8800GT OC |
78° |
ATI Radeon HD 2900XT |
80° |
Powercolor HD3870 |
83° |
Powercolor HD3870 CF |
86° |
XFX Geforce 8800 ultra SLI |
88° |
Nvidia Geforce 7950 GX2 |
90° |
Die Kühler der 7900GTX Karten sind nach wie vor die Messlatte für alle anderen Grafikkarten, wobei die Kühler der G80 Baureihe außer der ultra ebenfalls sehr gute Werte abliefern, insbesondere wenn man deren wesentlich höhere Stromaufnahme dabei berücksichtigt.
Die Powercolor HD3870 Einzelkarte kann diesbezüglich nicht ganz mithalten, unter Last wurde die Karte recht warm, auch wenn die Temperaturen im grünen Bereich liegen. Dies gilt gleichermaßen für unseren Crossfire Verbund, wer so ein System einsetzt (ebenso SLI), für den ist eine gute Gehäuse Be-und Entlüftung absolutes Pflichtprogramm.
5. Lautstärke (gesamtes System):
Lautstärke-Idle |
Grafikkarte:
| Angaben in dBA |
Nvidia Geforce 8800GTX |
43 dBA |
BFG Geforce 8800GT OC |
43,5 dBA |
Powercolor HD3870 |
44 dBA |
Powercolor HD3870 CF |
44,5 dBA |
Nvidia Geforce 7900GTX |
45,5 dBA |
ATI Radeon HD 2900XT |
47 dBA |
Nvidia 8800GTS |
47,5 dBA |
Nvidia Geforce 8800GTS 320MB |
47,5 dBA |
Nvidia 8800 ultra |
48 dBA |
Nvidia Geforce 7950 GX2 |
49 dBA |
XFX Geforce 8800 ultra SLI |
53 dBA |
Lautstärke-Last |
Grafikkarte:
| Angaben in dBA |
Powercolor HD3870 |
45,5 dBA |
BFG 8800GT OC |
47 dBA |
Nvidia Geforce 7900GTX |
47,5 dBA |
Nvidia Geforce 8800GTX |
48,5 dBA |
Nvidia Geforce 8800GTS |
49 dBA |
Powercolor HD3870 CF |
49,5 dBA |
Nvidia Geforce 8800GTS 320MB |
49,5 dBA |
Nvidia 8800 ultra |
51 dBA |
ATI Radeon HD 2900 XT |
54,5 dBA |
Nvidia Geforce 7950 GX2 |
56,5 dBA |
XFX Geforce 8800 ultra SLI |
58,5 dBA |
Das ATI-typische Hochdrehen des Lüfters beim Starten ist normal, daran sollte sich niemand stören. Es gleicht einem kurzem Gasgeben, bevor die Fahrt losgeht und die Grafikkarte "ins Rollen kommt".
Im Idle Modus sind die Lüfter der HD3870 auch im Crossfire Gespann definitiv nicht aus dem System heraus zu identifizieren und drehen sehr unauffällig ihre Runden.
Unter Last erhöht sich die Drehzahlen zwar, aber wie bereits erwähnt, in einem gut belüfteten System hält sich auch dies in angenehmen Grenzen, so daß wir zumindest auf unserem System keinen Kopfhörer benötigten, um Crysis zu spielen oder Benchmarks zu absolvieren.
All dies steht und fällt aber wie bereits erwähnt, mit dem Kühlmanagement eures Systems. Wenn die vorhandene Abwärme nicht effektiv und schnell aus dem PC-Gehäuse befördert wird, können sich die Lüfter deutlich steigern.
6. Video/DVD-Qualität:
Zum Vergrößern bitte die Bilder anklicken !
Leider kommt die Bildqualität auf unseren Screens nicht wirklich rüber und 8 Bilder mit jeweils mehr als 1MB Größe wollten wir euch nicht zumuten, schließlich gibt es auch immer noch Leser mit Modems... Aber man dürfte wohl zumindest erahnen, was diese Karten auch im Bereich DVD zu leisten imstande sind.
Wer diese Karten gerne in Bezug auf HDTV und einer 1080p Auflösung testen möchte, der kann sich bei Microsoft ein entsprechendes Video herunterladen (110MB):
Step into Liquid
Der Mediplayer 11 sollte dafür aber schon installiert sein, die 10er Variante kann nur nach einem speziellem Update genutzt werden: Update für MP10
Noch einige Anmerkungen zur Wiedergabe von Blue-ray und HD-DVD Material,
hier hat ATI ganz klar die Nase vorne und decodiert entsprechendes Material deutlich schneller und mit weniger Prozessorlast und das nicht ohne Grund:
Als Avivo bezeichnet AMD eine bereits mit der Radeon X1300 eingeführte Video-Plattform, um die Multimedia-Fähigkeiten von ATIs Grafikkarten deutlich zu verbessern (Qualität und Flexibilität). Die Weiterentwicklung dieser Technologie nennt sich ATI-Avivo-HD-Technologie und kommt seit der HD2000er Grafikkartenserie zum Einsatz.
Der Unified Video Decoder (UVD) (früher auch „Universal Video Decoder“) ist ein Videoprozessor der Firma AMD und basiert auf der Technik der Multimedia-Prozessoren Xilleon. Die ersten Produkte, in die er integriert wurde, waren die ATI Radeon HD 2400 und 2600 der ATI-Radeon-HD-2000-Serie. UVD wird für Avivo HD benötigt und wurde dementsprechend auch bei der HD3870 implementiert. Bei der Wiedergabe von bestimmten Videoformaten kann der UVD die Decodierarbeit übernehmen und somit den Hauptprozessor deutlich entlasten.
Unsere HD3870 verfügen also über die ATI-Avivo-HD-Technologie für bessere Video-Wiedergabe und bietet einen bereits eingebauten UVD (Unified Video Decoder) für die Hardware beschleunigte Dekodierung von Blu-ray- und HD-DVD-Inhalten für sowohl VC-1- als auch H.264-Codes. HDMI-User können über den mitgelieferten Adapter sowohl Bild als auch Ton über nur ein Kabel auf einem HDMI-ready-Bildschirm wiedergeben.
7. Overclocking:
Das Übertakten der HD3870 Crossfire sollte entweder über das beliebte ATI-Tool erfolgen, eine aktuelle Version des Riva Tuners funktioniert aber ebenso und Powerstrip ohnehin.
Mit dem ATI Tool waren auf unserem System ohne Spannungserhöhungen stabile 840MHZ für den Core und 1220MHZ für den Speicher möglich, die Karten verfügt also durchaus auch im Crossfire Verbund noch über Reserven.
Das Übertakten der Karten bewirkt in Spielen und Benchmarks eine Leistungssteigerung von bis zu 10%, das kann sich durchaus sehen lassen, ist aber wie immer nicht auf jedes System und jede HD3870 übertragbar, dazu muß man die Kühlung im System ebenso berücksichtigen, wie die Serienstreuung in der Fertigung.
8. Crossfire-Anmerkungen:
Wir waren eigentlich voller Euphorie in dieses Review eingestiegen, weil wir uns vom Catalyst 8.2 sehr viel erhofft hatten. Diese Hoffnungen wurden aber schnell begraben, denn auch mit diesem Treiber kommt es zu sporadischen Crossfire Auflösungen, d.h. Crossfire ist nach einem Neustart des Systems gelegentlich nicht mehr aktiv. Das Ganze geschieht zwar nicht mehr so häufig, aber es kommt vor und das ist einfach nur lästig...
Das berühmt berüchtigte Mikroruckeln, mit dem sich auch Nvidia auf ihren SLI-Systemen herumplagt, tritt in aktuellen Spielen ebenfalls auf, glücklicherweise nicht so, das es wirklich permanent nervt. Zur Vertiefung und als visuelle Unterstützung des Themas, haben wir einen Artikel samt Video der Kollegen von PC Games Hardware verlinkt:
Crossfire/SLI-Mikroruckler
>
Pikant ist natürlich, das weder ATI/AMD noch Nvidia bisher überhaupt klar ist, ob dieses Problem einen wirklichen Treiberbezug aufweist, oder ob nicht doch die Spieleprogrammierer ihre Crossfire/SLI Umsetzungen in den Sand gesetzt haben. Wir dürfen gespannt sein, was sich diesbezüglich in den nächsten Monaten tun wird, bisher existieren jedenfalls mehr Fragezeichen als Antworten...
Wer nun einwirft: "ok, dann kauf ich mir halt eine 3870 X2", ist definitiv auf dem Holzweg, denn die o.g. Probleme gelten auch für Grafikkarten mit mehreren GPUs auf einer Platine, es geht also ganz sicher nicht um die Anzahl der Platinen.
9. Die Treibersituation:
Powercolor HD3870 Besitzer sollten trotzdem unbedingt den aktuellen Catalyst 8.2 Treiber einsetzen, bei dem wieder viele Bugs bereinigt wurden und der nach einigen Versuchen unsererseits grundsätzlich am besten läuft, egal ob nun unter Windows XP oder Vista:
Catalyst 8.2
Ein deutliches Manko im Vergleich zu den Einzelkarten ist die Tatsache, das sich im Catalyst keine Spiele Profile modifizieren lassen, um diese dann auch zu nutzen. Das hat den Nachteil, das die Spiele nicht unter optimalen Bedingungen laufen, was nicht im Sinne des Erfinders sein kann. Was an dieser Stelle helfen würde, wären frei verfügbare Profile, die je nach Crossfire Verbund entsprechend einzustellen wären, was leider bisher nicht möglich ist.
Gelegentliche Abstürze in aktuellen Games sind auch hin und wieder zu beobachten, in dieser Hinsicht herrscht ebenfalls noch Optimierungsbedarf.
10. Netzteil-Empfehlungen:
Die Powercolor HD3870 sind bezüglich der Stromaufnahme deutlich optimiert worden, insofern bedarf wie so oft auch hier keines 1000 Watt Netzteils, ein gutes 350 Watt Netzteil von Seasonic (S12 II) oder Silverstone (ST35F) erfüllt die meisten Zwecke völlig. Wer ein Crossfire-System betreiben möchte, kann das Ganze mit einem 450 bis 500 Watt Watt Netzteil aus der gleichen Güteklasse ebenso locker abdecken.
Wichtig:
Wir weisen ausdrücklich daraufhin, daß die von uns erreichten Resultate, bedingt durch die fertigungsbedingte Serienstreuung, nicht ohne weiteres auf andere Grafikkarten gleichen Typs übertragen respektive garantiert werden können...!
Fazit:
Wir waren nach dem inzwischen fast 4 Wochen andauernden Test schon ein wenig desillusioniert,
einerseits ist die schiere 3D Grafikleistung natürlich hervorragend und die ATI Bildqualität ohnehin. Aber die immer noch vorhandenen Crossfire Auflösungserscheinungen und Mikroruckler können einem den Spaß an der Freude schon vergellen, von den ebenfalls sporadisch auftretenden Spieleabstürzen ganz zu schweigen.
Unserer Meinung nach sollten sich die Spielentwickler und die Multi-GPU Hersteller dringend an einen Tisch setzen, um diesen Problemen endlich einen wirksamen Riegel vorzuschieben.
Die Vista Unterstützung ist nach einigen speziellen Patches von Microsoft gegeben, nur sollten die auch installiert sein.
Zur besseren Übersicht unsere Test-Resultate noch einmal in einer kompakteren Zusammenfassung:
Plus:
- ausgezeichnete Verarbeitung.
- ansprechendes Design.
- leiser Betrieb in allen Lastbereichen.
- hervorragende 3D-Leistungen.
- erstklassige Bildqualität.
- HDR, AF und AA ermöglichen sehr gute Qualität auch in hohen Auflösungen.
- erstklassige DVD/Blue-ray Qualität dank ATI-Avivo-HD.
- reduzierter Strombedarf.
- gutes Übertaktungspotential.
- HD-DVD und Blue-ray über Dual link auch an großen TFTs möglich.
- problemlos Crossfire-fähig (auf Intel Plattformen).
- DirectX 10.1 und Shader 4.1 werden unterstützt.
- herausragendes Preis-Leistungsverhältnis (ca. 320 € für Crossfire).
Minus:
- magere Ausstattung.
- Mikroruckler und Crossfire Abstürze.
- Treiberprobleme.
- Spieleabstürze.
- Spieleprofile nicht modifizierbar.
Die Verfügbarkeit dieser Karten ist mittlerweile flächendeckend gesichert, so daß wirklich jeder potentielle Käufer auch bedient werden kann. Ein Crossfire Verbund macht allerdings überhaupt nur dann Sinn, wenn 1. eine schnelle CPU vorhanden ist und 2. ein entsprechend großer Monitor, denn auf einem 19-Zöller mit einer Auflösung von 1280x1024 Pixel, wäre weder Crossfire noch SLI eine sinnvolle Option.
Erfahrenen Anwender können wir Crossfire durchaus empfehlen, dies beinhaltet aber auch den Willen, sich mit den immer noch auftretenden Problemen auseinanderzusetzen, was zuweilen einen ziemlich zeitraubenden Charakter annimmt.
Alle anderen Interessenten sollten doch eher über eine deutlich pflegeleichtere Singlecore Grafikkarte nachdenken, denn die Alltagstauglichkeit bleibt sonst definitiv auf der Strecke...
Gesamtergebnis unseres Reviews:
Der Powercolor Radeon HD3870 Crossfire Verbund erhält den PC-Experience-Award in Bronze !
Weiterführende Links:
Powercolor
euer PC-Experience.de Team
Cerberus