Powercolor Radeon HD3870 Part I "Singlefire" |
 |
Powercolor Radeon HD3870 Part I "Singlefire"
Einleitung:
Das Jahr 2007 dürfte sicherlich nicht in die Erfolgschroniken von ATI/AMD aufgenommen werden, dafür gab es einfach zu viele Irritationen und technische Probleme. Wenigstens im Grafikkarten-Segment konnte man nach anfänglichen Schwierigkeiten wieder etwas Boden gut machen. Nicht so sehr mit der angepriesenen und doch recht enttäuschenden HD2900XT, als viel mehr mit der neuen HD3000er Serie, die beispielsweise mit der ausgezeichneten HD3850 den hart umkämpften Mitteklasse Sektor in kurzer Zeit ziemlich aufgemischt hat.
Damit nicht genug, legte man mit der HD3870 das vorläufiges Topmodell nach, so daß man zumindest der 8800GT Paroli bieten kann, denn die 8800GTX oder Ultra scheinen aktuell nicht erreichbar zu sein. Ermöglicht werden soll dies durch optimierte Effizienz, geringer Betriebslautstärke und mit einem Preis, bei dem jeder potentielle Kunde kaum widerstehen kann.
Macht es also Sinn, diese Karte beim anstehenden Grafikkarten-Neukauf ins Kalkül zu ziehen?
Diese und andere Fragen klären wir im ersten Teil unseres ausführlichen Praxistests, viel Vergnügen beim Lesen...
Die technischen Daten Powercolor HD3870:
GPU |
RV670 |
Fertigungsprozess |
55 nm |
Fertigung |
TSMC |
Transistoren |
ca. 666 Mio. |
GPU Speed |
775 MHZ |
Memory |
512MB onboard GDDR4-SDRAM |
RAMDAC |
2x 400MHZ |
Memory Speed |
1125 MHZ |
Shader Speed |
775 MHZ |
Stream Prozessoren |
320 |
Speicher-Bandbreite |
72 GB/sec |
FLOPs |
496 GFLOPs |
ROPs |
16 |
Speicherinterface |
256 Bit |
Speicher-Chips |
Samsung 0,8ns |
Schnittstelle |
PCI Express 2.0 |
Pixel Füllrate |
12400 MPix/s |
Texelfüllrate |
12400 MTex/s |
Shader Model |
4.1 |
winkelabhängiges AF |
ja |
Anti-Aliasing |
16x Fullscreen |
Multisampling |
16x |
Transparenz FSAA |
ja |
DirectX Unterstützung |
DirectX 10.1 |
HDPC Unterstützung |
ja |
Crossfire Unterstützung |
ja |
OpenGL version |
OpenGL 2.0 |
Output Anschlüsse |
2xDuallink DVI |
Maximale Auflösung |
2560x1600 über DVI |
Stromanschluß |
1x 6-pin Molex |
Platinenlänge |
23cm |
Lüfter |
75mm Radiallüfter |
Gewicht |
ca. 770 Gramm mit Kühleinheit |
Garantie
|
2 Jahre |
Die technischen Daten im Vergleich:
|
Nvidia 8800GT |
Powercolor HD3870 |
Radeon HD2900 XT |
Nvidia 8800GTS |
Nvidia 8800GTX |
Nvidia 8800 ultra |
GPU-Revision |
G92 |
RV670 |
R600 |
G80 |
G80 |
G80 |
GPU-Takt |
600 MHz |
775 MHz |
742 MHz |
500 MHz |
575 MHz |
612 MHz |
Fertigung |
TSMC |
TSMC |
TSMC |
TSMC |
TSMC |
TSMC |
Fertigungsprozess |
65 nm |
55 nm |
80 nm |
90 nm |
90 nm |
90 nm |
Transistoren |
754 Millionen |
666 Millionen |
700 Millionen |
681 Millionen |
681 Millionen |
681 Millionen |
Leistungsaufnahme |
ca. 110 Watt |
ca. 105 Watt |
ca. 180 Watt |
bis 150 Watt |
ab 150 Watt |
ab 170 Watt |
Speichertakt |
900 MHz |
1125 MHz |
828 MHz |
800 MHz |
900 MHz |
1080 MHz |
Shadertakt |
1512 MHz |
775 MHz |
742 MHz |
1200 MHz |
1350 MHz |
1512 MHz |
Speicherinterface |
256 Bit |
256 Bit |
512 Bit |
320 Bit |
384 Bit |
384 Bit |
Speicherart |
GDDR3 |
GDDR4 |
GDDR3 |
GDDR3 |
GDDR3 |
GDDR3 |
Speicher-Kapazität |
512 MB |
512 MB |
512 MB |
640 MB |
768 MB |
768 MB |
RAMDAC |
400 MHz |
400 MHz |
400 MHz |
400 MHz |
400 MHz |
400 MHz |
Speicherbandbreite |
57,6 GB /s |
72 GB /s |
106 GB/s |
64 GB/s |
86,4 GB/s |
103,6 GB/s |
Interface |
PCI Express 2.0 |
PCI Express 2.0 |
PCI Express |
PCI Express |
PCI Express |
PCI Express |
DirectX Version |
10 |
10.1 |
10 |
10 |
10 |
10 |
Shader-Model |
4.0 |
4.1 |
4.0 |
4.0 |
4.0 |
4.0 |
Stream CPUs |
112 |
320 |
320 |
96 |
128 |
128 |
Texture Units |
56 |
16 |
16 |
48 |
64 |
64 |
ROPs |
16 |
16 |
16 |
20 |
24 |
24 |
FLOPs |
508 GFLOPs |
496 GFLOPs |
475 GFLOPs |
346 GFLOPs |
518 GFLOPs |
581 GFLOPs |
Pixel-Füllrate |
9600 MPix/s |
12400 MPix/s |
11872 MPix/s |
10000 MPix/s |
13800 MPix/s |
14688 MPix/s |
Texel-Füllrate |
33600 MTex/s |
12400 MTex/s |
11872 MTex/s |
24000 MTex/s |
36800 MTex/s |
39168 MTex/s |
Preis (aktuell) |
ca. 240 € |
ca. 200 € |
ca. 340 € |
ca. 330 € |
ca. 450 € |
ca. 550 € |
Lieferumfang und Layout:
- Powercolor HD3870 Retail.
- Treiber-CD.
- VIVO-Kabel und -Adapter.
- DVI/VGA-Adapter.
- Crossfire Brücke.
- Kurzanleitung.
Zum Vergrößern bitte die Bilder anklicken !
Alle HD3870 Grafikkarten werden von den jeweiligen Herstellern im ATI Referenzdesign gefertigt, egal ob nun von Sapphire oder Powercolor oder wem auch immer, insofern existieren nur marginale Unterschiede, wenn man mal von den entsprechenden Zubehörpaketen absieht. Ab Werk übertaktete Versionen existieren auch einige wenige z.B. von Powercolor, GeCube oder von MSI, teilweise sogar mit geänderten Kühlern.
Alle Hersteller liefern ein S-Video und ein Composite-Kabel mit aus, dazu gesellen sich ein TV-Out und ein TV-IN Adapter. DVI-VGA Adapter dürfen natürlich auch nicht fehlen. Neben der Treiber-CD endet dann aber auch schon das Ausstattungspaket von Powercolor, Spiele oder andere Zuaten sucht man leider vergebens...
Wie bei Karten dieser Klasse schon obligatorisch, sind sie mit 2 Dual-Link fähigen DVI-Ausgängen ausgerüstet worden. 23cm mißt die Platine der Powercolor Grafikkarte, das ist zwar gewaltig, paßt aber ohne Kompatibilitätsprobleme eigentlich in jeden PC-Tower, da existieren Platinen in deutlich größeren Dimensionen.
Zum Vergrößern bitte die Bilder anklicken !
Der Kühler ist ein alter Bekannter, werkelte er doch schon in leicht abgeänderter Form auf der X1950XTX und ermöglichte dort eine geräuscharme und adäquate Kühlung.
Der neue/alte Kühler mit dem 75mm Radiallüfter besteht komplett aus Kupfer und der Kunststoffschutz-Leithülle, die auch hilft, die Abluft in die richtige Richtung zu dirigieren. Eine Heatpipe analog zum Kühler aus der X1950XTX-Serie ist allerdings nicht vorhanden. Der Kühler bedeckt die Karte fast vollständig, wobei auf der Rückseite keine Kühlkörper verbaut wurden, dafür erhielten die Spannungswandler und die 0,8 ns Samsung Speicherchips entsprechende Kühlkörper.
Die warme Abluft wird über den Kühlkörper hinweg direkt aus der Karte heraustransportiert, was einen ganz entscheidenden Vorteil hat, so werden benachbarte Komponenten nicht übermäßig mit der Abwärme der Grafikkarte belästigt.
Wie bei allen Kühlern dieses Ausmaßes, benötigt er einen freien Slot (Dualslot-Kühlung) unterhalb der Grafikkarte, aber das sollte in der Regel und einem vernünftigen Mainboardlayout nun wirklich kein Problem sein.
Zum Vergrößern bitte die Bilder anklicken !
Die Aufnahmen der Crossfire-Brücken sind gut zugänglich, zu diesem speziellen Thema referieren wir im zweiten Teil dieses Reviews, in dem wir zwei Powercolor HD3870 im Crossfire-Verbund getestet haben.
Die Verarbeitung der Powercolor HD3870 kann sich hervorragend in Szene setzen, die Platine wurde akribisch mit den einzelnen Bauteilen verlötet, da wurde nichts dem Zufall überlassen.
Das die aktuellen Karten nach RoHS Norm gefertigt werden, sei an dieser Stelle auch noch erwähnt, dies ist allerdings nicht nur Feature, sondern Vorschrift.
Der einzelne 6-pin Stromanschluss resultiert ebenfalls aus der Leistungsaufnahme der Karte, da mit knapp 105 Watt keine weitere Stromversorgungsleitung nötig ist. Ohne diesen Anschluss geht es prinzipiell nicht, da die PCI-Express Slots maximal 75 Watt zur Verfügung stellen, daran ändern auch neue Mainboards mit PCI 2.0 Schnittstelle nichts.
Bei ATI besteht die Möglichkeit, den Ton über einen speziellen DVI->HDMI Adapter wiederzugeben, eine Option die bei vielen Nvidia Grafikkarten fehlt.
Die Technik:
Wir wollen euch zwar nicht endlos mit technischen Details und unverständlichen Fachbegriffen langweilen, aber ein paar Eckdaten der neuen RV670-Technik sollten es schon sein...
Die Radeon-HD-3000-Serie basiert grundsätzlich auf der Architektur der HD-2000-Serie, es wurden jedoch einige entscheidende Detailverbesserungen vorgenommen. Um den z.B. bei der HD2900XT häufig reklamierten Kritikpunkt der hohen Leistungsaufnahme zu beseitigen, wurde ATI Powerplay in die Chips integriert, welches im Idle-Modus nicht nur Spannung und Taktraten senken, sondern auch nicht benötigte Teile des Chips abschaltet, wodurch die Karten deutlich weniger Strom verbrauchen. Um dies zu ermöglichen wurde aber nicht nur die integrierten Bauteile renoviert, auch der Fertigungsprozess wurde in der Fertigung bei TSMC auf 55nm umgestellt. Einerseits werden so die DIE-Flächen relativ klein gehalten (192mm²), andererseits reduziert dies den Platz für die Transistoren deutlich (666 Millionen, HD2900XT: 700 Millionen).
Selbstverständlich ist die Massnahme durchaus nicht, denn man bleibt schon ganz gern bei den alteingesessenen Verfahren, zumal dafür die Masse der Erfahrung und darüber hinaus auch eine größere Yield-Ausbeute spricht.
Die Taktfrequenzen des Radeon HD 3870 mit 775 MHz für den Chip und 1125 MHz für die 512 MByte GDDR4-Speicher liegen über denen der HD 2900 XT (740/828 MHz). An den Recheneinheiten als solches ändert sich nichts, die neuen Grafikchips enthalten wie der HD 2900 XT 320 Shader-, 16 Textur- sowie 16 Raster-Operation-Einheiten. Der GDDR4/GDDR3 V-Ram wird bei allen neuen Modellen mit 256Bit angesprochen und genau das sorgte im Vorfeld für Sorgenfalten bei den Außenstehenden. Da die ATi-Karten der HD2000er Baureihe ja für einen doch recht starken Leistungseinbruch bei der Benutzung von Anisotropen Filtern und Anti Aliasing bekannt sind, war diese Sorge nicht unberechtigt, zumal die Verringerung der Speicherbandbreite diesen Effekt ja noch verstärkt.
Einen nicht unerheblichen Teil der geringeren Bandbreite konnte man durch den Einbau des schnellen GDDR4 Rams ausgleichen, welcher mit bis zu 1200MHz realem Takt betrieben wird. Dadurch ergibt sich eine Speicherbandbreite von genau 75 GB/s, die 8800GT erreicht zum Vergleich 57,6 GB/s. Mitentscheidend für eine weitere Kompensation der reduzierten Speicherbandbreite dürfte aber die Optimierung der Zugriffszeiten und des Speichercontrollers sein, zumindest ist dies die Aussage von ATI.
Das Featureset wurde erweitert und umfasst nun auch DirectX 10.1, außerdem unterstützt diese Serie nun PCI-Express 2.0. Die aktuelle Generation DirectX 10-kompatibler Grafikkarten wird mit der Einführung des Updates auf DirectX 10.1 keineswegs überflüssig, sondern abwärtskompatibel unterstützt. Es wird also keine Fälle geben, in denen derzeit erhältliche Grafikkarten nicht mit der aktualisierten Plattform kompatibel seien. Das Update ist ganz klar daraufhin ausgelegt, dass es die Funktionalität erweitere. Darum ist diese Aktualisierung auch mit den Updates zu vergleichen, die DirectX 9 in der Vergangenheit ebenfalls erfahren habe. Man werde zwar nicht alle neue Features nutzen können, es soll aber auch keine Spiele geben, die ausschließlich mit DirectX 10.1 laufen.
Wer noch etwas tiefer in die DirectX 10.1 Materie eintauchen möchte, dem sei das entsprechende Whitpaper von ATI empfohlen:
DirectX 10.1 White Paper
Neu ist bei den aktuellen Grafikkarten ebenfalls die Kompatibilität zum PCIe-2.0-Standard. Vorherige Grafikkarten waren PCIe-1.1-kompatibel und konnten mit je acht Gigabyte pro Sekunde mit dem PCIe-Bus kommunizieren. PCIe 2.0 verdoppelt zumindest theoretisch die Bandbreite auf 16 GB pro Kanal, da fühlt man sich doch sehr deutlich an AGP 4x versus AGP 8x erinnert. Nvidia gibt diesbezüglich übrigens nicht ganz unerwartet an, das Spiele und sogar 3-Way-SLI in naher Zukunft nur bedingt von der höheren Bandbreite profitieren werden. Nvidia sieht PCIe 2.0 aber als einen großen Schritt bei GPGPU-Anwendungen (Cuda), die je nach Programmierung einen starken Geschwindigkeitsschub von PCIe 2.0 erfahren sollen. Zum Thema Stromversorgung gab es zwar einige Gerüchte, die Fakten sehen aber wie so oft anders aus, beim neuen Standard wurde der maximale Stromverbrauch pro PCIe-Slot nicht verändert, er liegt also für den PCIe-x16-Slot nach wie vor bei den bereits erwähnten 75 Watt.
Aber genug der grauen Theorie, kommen wir endlich zum Praxistest...
Das Testsystem:
CPU |
Intel Core 2 Duo E6850 |
Mainboard |
Asus P5E WS Professional |
Arbeitsspeicher |
Mushkin XP2-6400 DDR2-800 4GB-Kit |
Soundkarte |
Sound Blaster X-Fi XtremeGamer Fatality |
CPU-Kühler |
Thermalright Ultra-120 extreme |
CPU-Lüfter |
Scythe |
Festplatten System |
2x Western Digital Raptor a´150GB (10000 U/min, S-ATA) RAID-0 |
Festplatte Daten |
1x Samsung F1 750GB 32MB SATA II |
Festplatte Backup |
1x Samsung F1 1TB 32MB SATA II |
DVD-Brenner |
Plextor PX-760 SATA |
DVD-ROM |
Plextor PX-130 |
Diskettenlaufwerk |
Scythe Combo |
Gehäuse |
Lian Li PC-G70 B |
Netzteil |
Seasonic S12 II 500 Watt |
Monitor |
Eizo S2100 |
Betriebssystem |
Windows XP Prof. SP 2 PreSP3/Vista Ultimate 64-bit |
Zubehör |
2x Aerocool Turbine 120mm @5Volt
|
Montage, Treiberinstallation und Tipps:
Bevor wir den Vorgänger der HD3870, die BFG 8800GT OC aus dem Rechner entfernt haben, wurde der Nvidia Detonator-Treiber aus dem System verbannt.
Dazu bevorzugen wir die Vorgehensweise aus unserem entsprechenden Artikel:
Catalyst-Workshop II
Wer bereits eine ATI-Grafikkarte im System beherbergt hatte, der sollte ebenfalls unseren Catalyst-Workshop II berücksichtigen, wo auch die Treiberaktualisierung berücksichtigt wird.
- Die neue Karte eingebaut und über einen entsprechenden Stromanschluss mit dem Netzteil verbinden, schon ist die HD3870 startklar.
Achtet nach Möglichkeit darauf, das sich die Grafikkarte den Stromstecker nicht mit anderen Geräten teilen muß !
- Neu starten, eventuelle Nvidia-Reste aus dem System noch entfernen und die gewünschten Treiber installieren, in unserem Fall den Catalyst 7.12.
- Abschließend aktualisierten wir die vorhandene DirectX9.0c Version auf die überarbeitete Version aus November 2007.
Zum Vergrößern bitte die Bilder anklicken !
- Fertig.
Wer sein Betriebssystem ohnehin neu aufsetzen wollte, der sollte nach Möglichkeit unsere Installationsreihenfolge verwenden:
1. Windows installieren.
2. Servicepacks installieren. (sofern nicht schon auf CD eingebunden)
3. Wurmports schließen ->zum Artikel
4. Chipsatztreiber installieren.
5. DirectX 9.0c installieren. (im Servicepack2 bereits enthalten!)
6. Grafikkartentreiber und Monitortreiber installieren.
7. Soundkartentreiber installieren.
8. weitere Treiber für Peripheriegeräte installieren.
9. die restlichen Windows-Patches installieren.
10. die Dienste sicherheitsrelevant konfigurieren ->zum Artikel
11. jetzt erst den Internetzugang konfigurieren (nachdem alle Sicherheitsupdates installiert sind)
Damit war die Montage der GrafikKarte und auch die Treiberinstallation zunächst erfolgreich abgeschlossen und wir installierten die noch fehlenden Treiber für den Eizo Monitor. Abschließend stellten wir die Auslösung für den Desktop auf 1600x1200 bei 32-Bit und die Bildschirmaktualisierungsrate auf die von Eizo vorgeschriebenen 60 Hertz.
Als ersten Eindruck erhielten wir sehr neutrale 2D-Farben und ein gestochen scharfes Bild. Scheinbar kann der Eizo S2100 die gelieferten Signale optimal umsetzen.
Noch eine kleine nicht unwesentliche Anmerkung am Rande:
wer sich eine teure Grafikkarte kauft, sollte darauf achten, das sein Monitor ebenfalls diesen gehobenen Ansprüchen gerecht wird. Denn Frust ist vorprogrammiert, wenn die teure High-End Grafikkarte mit einem Billig-Monitor kommunizieren muß, der gar nicht in der Lage ist, das erhofft schöne Bild zu reproduzieren...!
Die Tests:
Vor den eigentlichen Tests optimierten wir Windows XP/SP2 nach unserem Performance-Workshop
, schließlich sollte eine ideale Basis optimale Voraussetzungen bieten.
Abschließend wurde das gesamte eine Stunde mit Prime95 "vorgeheizt".
Die Lautheit der Grafikkarten-Lüfter haben wir nicht separat gemessen, sondern als Systemgesamtlautstärke in die Tests eingebunden. Dabei wurden die Lautstärke ca. 15cm vom Rechner entfernt mit einem geliehenen ACR-264-plus Messgerät verifiziert und dabei die Umgebungsgeräusche so weit wie möglich reduziert, um das Ergebnis nicht zu verfälschen. Laut DIN-Norm sollte der Abstand von Messgerät zum Testobjekt 100cm betragen, aber da wir nicht über einen schalltoten respektive schallarmen Raum verfügen, waren Kompromisse unumgänglich.
Mit dem Digitalen Temperaturmessgerät TL-305 haben wir während sämtlicher Testdurchläufe die Temperaturen der Grafikkarte per Sensor gemessen und aufgezeichnet. Somit erhält der mögliche Käufer auch eine gute Übersicht bezüglich der zu erwartenden Kühlleistung der Grafikkarte.
Um den Stromverbrauch möglichst genau wiederzugeben (gesamtes System), haben wir den grafischen Leistungsmesser Peak Tech 2535 verwendet.
Testprogramme:
- Windows XP SP2.
- Windows Vista Ultimate 64Bit.
- 3DMark 2006 aktuell gepatcht.
- aktuelle DirectX9 Spiele.
- aktuelle DirectX10 Spiele.
Treibereinstellungen:
- Systemleistung: Hohe Qualität
- Vertikale Synchronisierung: Aus
- sonst alles auf Standard
Kommentare zu den synthetischen 3DMark Benchmarkprogrammen ersparen wir uns, dafür gibt es einfach zu viele Irritationen bei Vergleichswerten und ebenso viele Möglichkeiten diese, in welcher Form auch immer, zu beeinflussen. Die Relevanz ist somit zumindest fragwürdig, aber der vollständigkeithalber haben wir sie ebenfalls durchlaufen lassen, wobei wir auf 3DMark 2003 und 2005 wegen fehlender Aktualität gänzlich verzichteten.
Für aussagekräftige Benchmarks sollte als Testeinstieg in jedem Fall die Auflösung 1280x1024 (Standard-TFT-Auflösung für 17 und 19" Geräte)) und die Option Quality 4AAx16AF (4-fach Antialiasing + 16-fach anisotropischer Filter) aktiviert sein, ansonsten gerät die Beurteilung aktueller High-Endgrafikkarten zur Farce. Ohne entsprechende Qualitätseinstellung, kann man keine Aussage darüber treffen, welche Leistung wirklich erbracht wird, zumal auch eine Mittelklasse Grafikkarte ohne 4xAA und 16xAF recht schnell sein kann.
Grundsätzlich sollte man synthetischen Benchmarks nicht allzu große Bedeutung beimessen, denn 1. sind einige schon etwas betagt und haben somit kaum einen ernsthaften Bezug zur aktuellen Technik und 2. entstehen immer wieder mal kuriose Situationen, in denen der eine oder andere programmierbedingte Lapsus dieser oder jener Grafikkarte Vorteile verschafft, die eigentlich gar nicht vorhanden sind.
Da sind Spielebenchmarks schon etwas aussagekräftiger, auch wenn viele der Spiele entweder auf ATI oder Nvidia optimiert wurden. Da gilt es dann zu unterscheiden: Open GL Spiele von id-Software wie Quake 4 oder Doom 3 z.B. laufen generell etwas schneller auf Nvidia-Karten und Direct3D Spiele wie Halflife 2 oder Call of Duty 2 favorisieren ATI, um nur ein paar Beispiele zu nennen.
Selbstverständlich kamen auch aktuelle und brandneue DirectX10-Spiele in unserem Testparcour zum Einsatz, die dann unter Vista Ultimate 64 Bit berücksichtigt wurden. Bei Crysis beließen wir es allerdings auf Benchmarks ohne 4xAA/16xAF, da es sich sonst zur Ruckelorgie entwickelt.
Wer einen Widescreen TFT besitzt, dem sei erklärt, das es bezüglich der Füllrate keinen großen Unterschied macht, ob nun in 1600x1200 (1,9 Millionen Pixel) oder 1680x1050 (1,75 Millionen Pixel) aufgelöst wird.
1a. Spiele-Benchmarks DirectX9:
Zum Vergrößern bitte die Bilder anklicken !
Prey 1280x1024 4xAA und 16xAF |
Grafikkarte:
| FPS (Frames per Second) |
Nvidia Geforce 8800 ultra |
106 fps |
Nvidia Geforce 8800GTX |
93,7 fps |
BFG 8800GT OC |
81,5 fps |
Powercolor HD3870 |
78,5 fps |
ATI Radeon HD 2900XT |
76,1 fps |
Nvidia Geforce
7950 GX2 |
71,1 fps |
Nvidia Geforce
8800GTS (G80) |
65 fps |
Nvidia Geforce
8800GTS-320MB |
62,8 fps |
Prey 1600x1200 4xAA und 16xAF |
Grafikkarte:
| FPS (Frames per
Second) |
Nvidia Geforce 8800 ultra |
81 fps |
Nvidia Geforce 8800GTX |
73,2 fps |
BFG 8800GT OC |
62,4 fps |
Powercolor HD3870 |
61,6 fps |
ATI Radeon
HD 2900XT |
59,9 fps |
Nvidia Geforce
7950 GX2 |
56 fps |
Nvidia Geforce
8800GTS (G80) |
51,7 fps |
Nvidia Geforce 8800GTS 320MB |
50,5 fps |
|
F.E.A.R. 1280x1024 4xAA und 16xAF |
Grafikkarte:
| FPS (Frames per Second) |
Nvidia Geforce 8800 ultra |
131 fps |
Nvidia Geforce 8800GTX |
116 fps |
BFG 8800GT OC |
103 fps |
Powercolor HD3870 |
91 fps |
ATI Radeon HD 2900XT |
89 fps |
Nvidia Geforce
8800GTS (G80) |
85 fps |
Nvidia Geforce
8800GTS 320MB |
80 fps |
Nvidia Geforce
7950 GX2 |
61 fps |
F.E.A.R. 1600x1200 4xAA und 16xAF |
Grafikkarte:
| FPS (Frames per
Second) |
Nvidia Geforce 8800 ultra |
95 fps |
Nvidia Geforce 8800GTX |
86 fps |
BFG 8800GT OC |
77 fps |
Powercolor HD3870 |
71 fps |
ATI Radeon
HD 2900XT |
67 fps |
Nvidia Geforce
8800GTS (G80) |
64 fps |
Nvidia Geforce
8800GTS 320MB |
61 fps |
Nvidia Geforce 7950 GX2 |
47 fps |
|
Company of Heroes 1280x1024 4xAA und 16xAF |
Grafikkarte:
| FPS (Frames per Second) |
Nvidia Geforce 8800 ultra |
131 fps |
BFG
8800GT OC |
119,4 fps |
Nvidia Geforce 8800GTX |
118,9 fps |
Powercolor HD3870 |
109 fps |
ATI Radeon HD 2900XT |
102,2 fps |
Nvidia Geforce
7950 GX2 |
88,9 fps |
Nvidia Geforce 8800GTS (G80) |
87,4 fps |
Nvidia Geforce
8800GTS 320MB |
79,8 fps |
Company of Heroes 1600x1200 4xAA und 16xAF |
Grafikkarte:
| FPS (Frames per Second) |
Nvidia Geforce 8800 ultra |
99,3 fps |
Nvidia Geforce
8800GTX |
89,5 fps |
BFG 8800GT OC |
80,9 fps |
Powercolor HD3870 |
79,7 fps |
ATI Radeon
HD 2900XT |
77,8 fps |
Nvidia Geforce
7950 GX2 |
62,6 fps |
Nvidia Geforce
8800GTS (G80) |
57,4 fps |
Nvidia Geforce
8800GTS 320MB |
54,7 fps |
|
Half-Life 2: Episode One 1280x1024 4xAA und
16xAF |
Grafikkarte:
| FPS (Frames per Second) |
Nvidia Geforce 8800 ultra |
198 fps |
Nvidia Geforce
8800GTX |
182 fps |
BFG 8800GT OC |
176 fps |
Powercolor HD3870 |
146 fps |
Nvidia Geforce 8800GTS (G80) |
134 fps |
Nvidia Geforce 8800GTS 320MB |
131 fps |
ATI Radeon HD 2900XT |
126 fps |
Nvidia Geforce
7950 GX2 |
107 fps |
Half-Life 2: Episode One 1600x1200 4xAA und
16xAF |
Grafikkarte:
| FPS (Frames per Second) |
Nvidia Geforce 8800 ultra |
155 fps |
Nvidia Geforce 8800 GTX |
141 fps |
BFG 8800GT OC |
139 fps |
Powercolor HD3870 |
122 fps |
ATI Radeon
HD 2900XT |
97 fps |
Nvidia Geforce
8800GTS (G80) |
94 fps |
Nvidia Geforce
8800GTS 320MB |
91 fps |
Nvidia Geforce
7950 GX2 |
79 fps |
|
1b. Spiele-Benchmarks DirectX10:
Zum Vergrößern bitte die Bilder anklicken !
Crysis Time Demo 1280x1024 |
Grafikkarte:
| FPS (Frames per Second) |
Nvidia Geforce 8800 ultra |
44,3 fps |
Nvidia Geforce 8800GTX |
39,5 fps |
BFG 8800GT OC |
35,9 fps |
Powercolor HD3870 |
29,5 fps |
Nvidia Geforce 8800GTS (G80) |
28,3 fps |
ATI Radeon HD 2900 XT |
24,3 fps |
Nvidia Geforce
8800GTS 320MB |
19,8 fps |
Crysis Time Demo 1600x1200 |
Grafikkarte:
| FPS (Frames per Second) |
Nvidia Geforce 8800 ultra |
34,8 fps |
Nvidia Geforce 8800GTX |
31,6 fps |
BFG 8800GT OC |
27,9 fps |
Powercolor HD3870 |
23,9 fps |
Nvidia Geforce 8800GTS (G80) |
22,1 fps |
ATI Radeon HD 2900 XT |
19,5 fps |
Nvidia Geforce
8800GTS 320MB |
14,2 fps |
|
Bioshock 1280x1024 4xAA und
16xAF |
Grafikkarte:
| FPS (Frames per Second) |
Nvidia Geforce 8800 ultra |
77,9 fps |
Nvidia Geforce 8800GTX |
68,6 fps |
BFG 8800GT OC |
64,1 fps |
ATI Radeon
HD 2900 XT |
52,7 fps |
Powercolor HD3870 |
51,8 fps |
Nvidia Geforce
8800GTS (G80) |
51,4 fps |
Nvidia Geforce
8800GTS 320MB |
50,2 fps |
Bioshock 1600x1200 4xAA und
16xAF |
Grafikkarte:
| FPS (Frames per Second) |
Nvidia Geforce 8800 ultra |
58,7 fps |
Nvidia Geforce 8800GTX |
50,3 fps |
BFG 8800GT OC |
46,1 fps |
Powercolor HD3870 |
40,5 fps |
ATI Radeon
HD 2900 XT |
37,9 fps |
Nvidia Geforce
8800GTS (G80) |
38,8 fps |
Nvidia Geforce
8800GTS 320MB |
36,6 fps |
|
Die Powercolor HD3870 hält in der Hierarchie einen ziemlich unangefochtenen 4.Platz, wobei der Abstand zur 8800GT teilweise sehr gering ausfällt, insbesondere bei höheren Auflösungen. Beiden Karten fehlt es aber klar an Speicherbandbreite, so daß die 8800ultra und GTX immer noch recht deutlich dominieren können.
Die Radeon HD 2900XT aus eigenem Hause liefert zwar auch ein akzeptables Ergebnis ab, liegt aber trotzdem relativ klar hinter den Top-4 Grafikkarten, wobei sich die neue 8800GTS G92 dort noch dazwischenschieben dürfte.
2. Synthetische-Benchmarks:
3DMark2006 1280x1024 4xAA und 16xAF |
Grafikkarte:
| Punkte |
Nvidia Geforce 8800 ultra |
11998 |
Nvidia Geforce 8800GTX |
11116 |
BFG 8800GT OC |
10846 |
Powercolor HD3870 |
8155 |
ATI Radeon
HD 2900 XT |
7913 |
Nvidia Geforce
8800GTS (G80) |
7431 |
Nvidia Geforce
8800GTS 320MB |
7205 |
3DMark2006 1600x1200 4xAA und 16xAF |
Grafikkarte:
| Punkte |
Nvidia Geforce 8800 ultra |
9153 |
Nvidia geforce 8800GTX |
8405 |
BFG 8800GT OC |
7575 |
Powercolor HD3870 |
7193 |
ATI Radeon HD 2900 XT |
6472 |
Nvidia Geforce 8800GTS (G80) |
5933 |
Nvidia Geforce 8800GTS 320MB |
5111 |
|
Was für die Spielebenchmarks gilt, findet auch in den synthetischen Benchmarks ihre Relevanz, die HD3870 positioniert sich auch hier auf Platz 4.
3. Stromverbrauch (gesamtes System):
Stromverbrauch-Idle |
Grafikkarte:
| Angaben in Watt |
Nvidia Geforce 7900GT |
153 |
Powercolor HD3870 |
174 |
Nvidia Geforce 7900GTO |
176 |
Nvidia Geforce 7900GTX |
179 |
ATI Radeon X1900XTX |
181 |
Sapphire X1950XTX |
186 |
BFG 8800GT OC |
194 |
Nvidia Geforce 8800GTX |
225 |
ATI Radeon 2900 XT |
235 |
Nvidia Geforce 8800 ultra |
275 |
Stromverbrauch-Last |
Grafikkarte:
| Angaben in Watt |
Nvidia Geforce 7900GT |
153 |
Nvidia Geforce 7900GTO |
176 |
Nvidia Geforce 7900GTX |
179 |
ATI Radeon X1900XTX |
181 |
Sapphire X1950XTX |
186 |
Powercolor HD3870 |
259 |
BFG 8800GT OC |
268 |
Nvidia Geforce 8800GTX |
332 |
Nvidia Geforce 8800 ultra |
358 |
ATI Radeon 2900 XT |
373 |
Der Stromverbrauch ist immer noch ein trauriges Kapitel, hier sind Innovationen scheinbar lange Zeit vom Reißbrett verbannt worden, denn was aktuelle Highend Grafikkarten bisher einem Netzteil abverlangten, das hatte den Pegel der Vernunft längst überschritten. Intel und AMD haben dies erkannt und die exorbitante Verlustleistungen mit sparsamen und trotzdem leistungsstarken Prozessoren wie z.B. dem Phenom und dem Penryn reduziert. Bei den Grafikkarten ist diese Entwicklung noch deutlich optimierungsbedürftig, auch wenn die 8800GT im Highend-Segment einen ersten Schritt in die richtige Richtung bedeutete und die HD3870 ebenfalls über deutlich optimierte Verbrauchswerte verfügt.
4. Temperaturen:
Temperaturen-Idle |
Grafikkarte:
| Angaben in °C |
Nvidia Geforce 7900GTX |
39° |
Powercolor HD3870 |
44° |
BFG 8800GT OC |
46° |
Nvidia Geforce 8800GTS 320MB |
50° |
Nvidia Geforce 8800GTS |
51° |
Nvidia Geforce 8800GTX |
54° |
Nvidia Geforce 8800 ultra |
62° |
ATI Radeon HD 2900 XT |
70° |
Nvidia Geforce 7950 GX2 |
73° |
Temperaturen-Last |
Grafikkarte:
| Angaben in °C |
Nvidia Geforce 7900GTX |
61° |
Nvidia Geforce 8800GTS 320MB |
69° |
Nvidia Geforce 8800GTS |
70° |
Nvidia Geforce 8800GTX |
76° |
Nvidia Geforce 8800 ultra |
77° |
BFG 8800GT OC |
78° |
ATI Radeon HD 2900XT |
80° |
Powercolor HD3870 |
83° |
Nvidia Geforce 7950 GX2 |
90° |
Die Kühler der 7900GTX Karten sind nach wie vor die Messlatte für alle anderen Grafikkarten, wobei die Kühler der G80 Baureihe ebenfalls sehr gute Werte abliefern, insbesondere wenn man deren wesentlich höhere Stromaufnahme dabei berücksichtigt.
Die Powercolor HD3870 kann diesbezüglich nicht ganz mithalten, unter Last wurde die Karte recht warm, auch wenn die Temperaturen im grünen Bereich liegen.
5. Lautstärke (gesamtes System):
Lautstärke-Idle |
Grafikkarte:
| Angaben in dBA |
Nvidia Geforce 8800GTX |
43 dBA |
BFG Geforce 8800GT OC |
43,5 dBA |
Powercolor HD3870 |
44 dBA |
Nvidia Geforce 7900GTX |
45,5 dBA |
ATI Radeon HD 2900XT |
47 dBA |
Nvidia 8800GTS |
47,5 dBA |
Nvidia Geforce 8800GTS 320MB |
47,5 dBA |
Nvidia 8800 ultra |
48 dBA |
Nvidia Geforce 7950 GX2 |
49 dBA |
Lautstärke-Last |
Grafikkarte:
| Angaben in dBA |
Powercolor HD3870 |
45,5 dBA |
BFG 8800GT OC |
47 dBA |
Nvidia Geforce 7900GTX |
47,5 dBA |
Nvidia Geforce 8800GTX |
48,5 dBA |
Nvidia Geforce 8800GTS |
49 dBA |
Nvidia Geforce 8800GTS 320MB |
49,5 dBA |
Nvidia 8800 ultra |
51 dBA |
ATI Radeon HD 2900 XT |
54,5 dBA |
Nvidia Geforce 7950 GX2 |
56,5 dBA |
Das ATI-typische Hochdrehen des Lüfters beim Starten ist normal, daran sollte sich niemand stören. Es gleicht einem kurzem Gasgeben, bevor die Fahrt losgeht und die Grafikkarte "ins Rollen kommt".
Im Idle Modus ist der Lüfter der HD3870 definitiv nicht aus dem System heraus zu identifizieren und dreht sehr unauffällig seine Runden.
Unter Last erhöht sich die Drehzahlen zwar, aber wie bereits erwähnt, in einem gut belüfteten System hält sich auch dies in sehr angenehmen Grenzen, so daß wir zumindest auf unserem System keinen Kopfhörer benötigten, um Crysis zu spielen oder Benchmarks zu absolvieren.
All dies steht und fällt aber wie bereits erwähnt, mit dem Kühlmanagement eures Systems. Wenn die vorhandene Abwärme nicht effektiv und schnell aus dem PC-Gehäuse befördert wird, kann sich der Lüfter deutlich steigern.
6. Video/DVD-Qualität:
Zum Vergrößern bitte die Bilder anklicken !
Leider kommt die Bildqualität auf unseren Screens nicht wirklich rüber und 8 Bilder mit jeweils mehr als 1MB Größe wollten wir euch nicht zumuten, schließlich gibt es auch immer noch Leser mit Modems... Aber man dürfte wohl zumindest erahnen, was diese Karte auch im Bereich DVD zu leisten imstande ist.
Wer diese Karte gerne in Bezug auf HDTV und einer 1080p Auflösung testen möchte, der kann sich bei Microsoft ein entsprechendes Video herunterladen (110MB):
Step into Liquid
Der Mediplayer 11 sollte dafür aber schon installiert sein, die 10er Variante kann nur nach einem speziellem Update genutzt werden: Update für MP10
Noch einige Anmerkungen zur Wiedergabe von Blue-ray und HD-DVD Material,
hier hat ATI ganz klar die Nase vorne und decodiert entsprechendes Material deutlich schneller und mit weniger Prozessorlast und das nicht ohne Grund:
Als Avivo bezeichnet AMD eine bereits mit der Radeon X1300 eingeführte Video-Plattform, um die Multimedia-Fähigkeiten von ATIs Grafikkarten deutlich zu verbessern (Qualität und Flexibilität). Die Weiterentwicklung dieser Technologie nennt sich ATI-Avivo-HD-Technologie und kommt seit der HD2000er Grafikkartenserie zum Einsatz.
Der Unified Video Decoder (UVD) (früher auch „Universal Video Decoder“) ist ein Videoprozessor der Firma AMD und basiert auf der Technik der Multimedia-Prozessoren Xilleon. Die ersten Produkte, in die er integriert wurde, waren die ATI Radeon HD 2400 und 2600 der ATI-Radeon-HD-2000-Serie. UVD wird für Avivo HD benötigt und wurde dementsprechend auch bei der HD3870 implementiert. Bei der Wiedergabe von bestimmten Videoformaten kann der UVD die Decodierarbeit übernehmen und somit den Hauptprozessor deutlich entlasten.
Unsere HD3870 verfügt also über die ATI-Avivo-HD-Technologie für bessere Video-Wiedergabe und bietet einen bereits eingebauten UVD (Unified Video Decoder) für die Hardware beschleunigte Dekodierung von Blu-ray- und HD-DVD-Inhalten für sowohl VC-1- als auch H.264-Codes. HDMI-User können über den mitgelieferten Adapter sowohl Bild als auch Ton über nur ein Kabel auf einem HDMI-ready-Bildschirm wiedergeben.
7. Overclocking:
Das Übertakten der HD3870 sollte entweder über das beliebte ATI-Tool erfolgen, eine aktuelle Version des Riva Tuners funktioniert aber ebenso und Powerstrip ohnehin.
Mit dem ATI Tool waren auf unserem System ohne Spannungserhöhungen stabile 830MHZ für den Core und 1200MHZ für den Speicher möglich, die Karte verfügt also durchaus noch über Reserven.
Das Übertakten der Karte bewirkt in Spielen und Benchmarks eine Leistungssteigerung von bis zu 10%, das kann sich durchaus sehen lassen, ist aber wie immer nicht auf jedes System und jede HD3870 übertragbar, dazu muß man die Kühlung im System ebenso berücksichtigen, wie die Serienstreuung in der Fertigung.
8. Crossfire-Anmerkungen:
Dank vorhandener Crossfire-Brücke ist jede aktuelle HD3870 Grafikkarte für den Crossfire-Betrieb grundsätzlich vorbereitet und das ohne Master und Slave Karten, wie es bei frühreren Modellen vorgeschrieben wurde.
Das Thema Crossfire behandeln wir in einem separaten Review, in dem dann zwei Power Color HD3870 zum Einsatz kommen...
9. Die Treibersituation:
Powercolor HD3870 Besitzer sollten unbedingt den aktuellen Catalyst 7.12 Treiber einsetzen, bei dem wieder viele Bugs bereinigt wurden und der nach einigen Versuchen unsererseits auch tatsächlich am besten läuft, egal ob nun unter Windows XP oder Vista.
Catalyst 7.12
10. Netzteil-Empfehlungen:
Die Powercolor HD3870 sind bezüglich der Stromaufnahme deutlich optimiert worden, insofern bedarf wie so oft auch hier keines 1000 Watt Netzteils, ein gutes 350 Watt Netzteil von Seasonic (S12 II) oder Silverstone (ST35F) erfüllt die meisten Zwecke völlig. Wer ein Crossfire-System betreiben möchte, kann das Ganze mit einem 450 bis 500 Watt Watt Netzteil aus der gleichen Güteklasse ebenso locker abdecken.
Wichtig:
Wir weisen ausdrücklich daraufhin, daß die von uns erreichten Resultate, bedingt durch die fertigungsbedingte Serienstreuung, nicht ohne weiteres auf andere Grafikkarten gleichen Typs übertragen respektive garantiert werden können...!
Fazit:
Nach den schwarzen Wolken am AMD-Himmel scheint sich ein deutlicher Lichtblick abzuzeichnen. ATI hat mit der HD3870 nicht nur die firmeninterne Konkurrenzkarte 2900XT realtiv deutlich distanziert, sie behauptet sich auch im Reigen der Nvidia Spitzenreiter zumindest respektabel.
Der Stromverbrauch wurde deutlich gesenkt, der Kühler verrichtet seinen Dienst unauffällig und die Leistungen gehören auch nach der Veröffentlichung der 8800GTS G92 in die Top-Five der aktuell schnellsten Grafikkarten und das zu einem äußerst attraktiven Preis.
Zur besseren Übersicht unsere Test-Resultate noch einmal in einer kompakteren Zusammenfassung:
Plus:
- ausgezeichnete Verarbeitung.
- ansprechendes Design.
- sehr leiser Betrieb in allen Lastbereichen.
- sehr gute 3D-Leistungen.
- erstklassige Bildqualität.
- HDR, AF und AA ermöglichen sehr gute Qualität auch in hohen Auflösungen.
- erstklassige DVD/Blue-ray Qualität dank ATI-Avivo-HD.
- deutlich reduzierter Strombedarf.
- gutes Übertaktungspotential.
- HD-DVD und Blue-ray über Dual link auch an großen TFTs möglich.
- problemlos Crossfire-fähig (auf Intel Plattformen).
- DirectX 10.1 und Shader 4.1 werden unterstützt.
- herausragendes Preis-Leistungsverhältnis (ca. 200 €).
Minus:
- magere Ausstattung.
- Verfügbarkeit aktuell nicht gewährleistet (Stand: 28.12.2007).
Die Verfügbarkeit dieser Karten ist analog zu den aktuellen G92 Grafikkarten von Nvidia ein trauriges und auch ärgerliches Kapitel, das sich hoffentlich im Januar drastisch ändert, damit potentielle Käufer dann auch ohne künstliche Preisaufschläge in den Genuss dieser wirklich guten Karten kommen.
Wer sich für das Thema Crossfire interessiert, den informieren wir im zweiten Teil dieses Reviews, in dem wir zwei Powercolor HD3870 im Crossfire-Verbund auf den Zahn respektive Pixel gefühlt haben...
Gesamtergebnis unseres Reviews:
Die Powercolor Radeon HD3870 erhält den PC-Experience-Award in Gold !
Weiterführende Links:
Powercolor
euer PC-Experience.de Team
Cerberus
|