PC-Experience (https://www.pc-experience.de/wbb2/index.php)
- Hardware Reviews: (https://www.pc-experience.de/wbb2/board.php?boardid=69)
-- Reviews: (https://www.pc-experience.de/wbb2/board.php?boardid=68)
--- EVGA GeForce GTX 560 Ti FPB Grafikkarte (https://www.pc-experience.de/wbb2/thread.php?threadid=31370)
Bevor wir den Vorgänger der neuen Nvidia Grafikkarte, eine Gainward GTX 580 aus dem Rechner entfernt haben, wurde der Nvidia Treiber aus dem System verbannt und der Rechner heruntergefahren.
• Die neue Karte wird nun verschraubt und über zwei entsprechende Stromanschlüsse mit dem Netzteil verbinden, schon wäre die Nvidia Grafikkarte startklar.
• Achtet nach Möglichkeit darauf, das sich die Grafikkarte den Stromstecker nicht mit anderen Geräten teilen muß, also verzichtet bitte auf entsprechende Adapter !
• Das System wird jetzt neu gestartet und die gewünschten Treiber installiert, in unserem Fall den aktuellen Nvidia GeForce 266.58
• Abschließend aktualisierten wir für Windows die vorhandene DirectX Version: DirectX-Endbenutzer-Runtimes November 2010
• Für Windows Windows 7 aktualisierten wir lediglich den Nvidia Treiber. Vor dem Einsatz irgendwelcher Bereinigungstools können wir unter Windows 7 nur dringend abraten !
Um künftige Systemirritationen zu vermeiden, deaktivierten wir alle Autostarteinträge von Nvidia (in der Regel 3 Stück) und deaktivierten den Dienst Nvidia Display Driver Service. Die Nvidia Systemsteuerung läßt sich trotz dieser Maßnahmen problemlos nutzen und die Systemstabilität haben wir darüber hinaus auch gleich erhöht.
Damit wäre die Montage der GrafikKarte (mit Werks-BIOS) und auch die Treiberinstallation zunächst erfolgreich abgeschlossen und wir installierten die noch fehlenden Treiber für den Eizo Foris FX2431 Monitor. Abschließend stellten wir die Auflösung für den Desktop auf 1920x1200 bei 32-Bit und die Bildschirmaktualisierungsrate auf die von Eizo empfohlenen 60 Hertz.
Als ersten Eindruck erhielten wir wie gewohnt sehr schöne und kontrastreiche 2D-Farben und ein gestochen scharfes Bild. Scheinbar können die Eizo Monitore die gelieferten Signale optimal umsetzen.
Noch eine kleine nicht unwesentliche Anmerkung am Rande:
wer sich eine teure Grafikkarte kauft, sollte darauf achten, das sein Monitor ebenfalls diesen gehobenen Ansprüchen gerecht wird. Denn Frust ist vorprogrammiert, wenn die teure High-End Grafikkarte mit einem Billig-Monitor kommunizieren muß, der gar nicht in der Lage ist, das erhofft attraktive Bild zu reproduzieren...!
Als Testeinleitung wurde das gesamte System eine Stunde mit dem Systemstabilitätstest von Everest/Aida64
"vorgeheizt".
Die Lautheit der Grafikkarten-Lüfter haben wir nicht separat gemessen, sondern als Systemgesamtlautstärke in die Tests eingebunden. Dabei wurden die Lautstärke ca. 15cm vom Rechner entfernt mit einem ACR-264-plus Messgerät verifiziert und dabei die Umgebungsgeräusche so weit wie möglich reduziert, um das Ergebnis nicht zu verfälschen. Das Gerät verfügt ab Werk normalerweise über einen Messbereich von 15 bis 140 dBA umfaßt. Laut DIN-Norm sollte der Abstand von Messgerät zum Testobjekt 100cm betragen, aber da wir nicht über einen schalltoten respektive schallarmen Raum verfügen, waren Kompromisse unumgänglich.
Mit dem Digitalen Temperaturmessgerät TL-305 (Messbereich von Minus 200°C bis plus 1370°C) haben wir während sämtlicher Testdurchläufe die Temperaturen der Grafikkarte per Sensor gemessen und aufgezeichnet. Somit erhält der mögliche Käufer auch eine gute Übersicht bezüglich der zu erwartenden Kühlleistung des Grafikkartenkühlers.
Um den Stromverbrauch möglichst genau wiederzugeben (gesamtes System), haben wir den grafischen Leistungsmesser Peak Tech 2535 verwendet. Das Gerät eignet sich für Messungen von 0,0 Watt bis 4 kW/0,0 bis 600 V und 0,0 bis 15 A (mit externem Zangen-Adapter bis 1000 A)
Wer sich darüber wundert, das wir die AMD HD 6870 und HD6850 nicht mit aufgeführt haben, dem sei gesagt, das wir diese unausgegorene Zwischenlösung von ATI/AMD nicht getestet haben, weil wir es schlicht und wenig ergreifend nicht für lohnenswert erachten, zumal die HD5870 und HD5850 diesen Karten immer noch leicht Paroli bieten können, was auch nicht verwunderlich ist, denn eine wirkliche Leistungssteigerung findet kaum statt, von der fragwürdigen Namensfindung ganz zu schweigen.
Die neuen Fermi GF110 Revisionen können sich mehr oder weniger deutlich von ihren GF100 Vorgängern absetzen, ohne allerdings nun gleich neue Rekorde zu erzielen. Das ändert allerdings auch nichts daran, das die GTX 580 aktuell die schnellste single-GPU Grafikkarte auf dem Markt ist, auch wenn AMD mit der neuen HD6970 ihnen dicht auf den Fersen bleibt. Viel wichtiger als die schöden Frames ist aber die Bildqualität und diesbezüglich haben beide Hersteller nochmal ein Schippchen draufgelegt, wobei Nvidia seinen Tessellationsvorsprung behaupten konnte und die praktisch nicht vorhandene Texturflimmerei ohnehin eine Nvidia Domäne darstellt. AMD respektive ATI hat zwar aufgeholt, aber immer noch einiges auf Zettel, der abgearbeitet werden sollte. Die erstklassige Super-Sampling-Anti-Aliasing Qualität ist auch kein Alleinstellungsmerkmal mehr, denn Nvidia ermöglicht inzwischen ebenfalls diese Bildqualitätsoption und dies sogar in allen APIs, also auch in DirectX 10 und 11.
Unsere EVGA GTX 560 TI schlägt sich ausgezeichnet und sitzt der HD 6950 sehr dicht im Nacken. Der Abstand zur GTX 460 1024MB gestaltet sich überdeutlich, auch wenn die Frames per Second dies vielleicht nicht so intensiv wiedergeben.
Der Stromverbrauch war lange Zeit ein trauriges Kapitel, hier sind Innovationen scheinbar grundsätzlich vom Reißbrett verbannt worden, denn was aktuelle Highend Grafikkarten bisher einem Netzteil abverlangten, das hatte den Pegel der Vernunft längst überschritten. Mit der Radeon HD5800-Serie hatte sich dies nachhaltig geändert, eine Radeon HD 5870 benötigt im Idle Modus sparsame 27 Watt und unter Vollast knappe 190 Watt, das hat sich auch mit der 2048MB Variante nur unwesentlich geändert, solange sie nicht übertaktet wird. Die neueren 6850/6870 liegen ebenfalls auf diesem erträglichem Niveau. Die ganz neuen HD6950/6970 sind diesbezüglich ohne Last immer noch hoch einzuschätzen, dies ändert sich aber zumindest für die HD 6970, die unter Last so viel verbraucht wie eine GTX 570 von Nvidia und das ist eindeutig zu viel.
Die neue GTX 560 Ti hält sich im idle Modus sehr dezent zurück und benötigt selten mehr als 15 bis 18 Watt. Dies ändert sich unter Last und insbesondere wenn Spiele eingelegt werden rapide, dann sind bis zu 150 Watt nötig (Furmark bis 175 Watt). Vorsicht ist beim Einsatz von zwei Monitoren geboten. Solange die gleichermaßen eingestellt laufen, genügen in der Regel 20 bis 25 Watt. Sind die Monitore aber unterschiedlich eingestellt (Bildwiederholfrequenz, Auflösung) können daraus schon mal 60 bis 65 Watt werden.
Was bedeutet dies nun für den eventuellen Netzteilkauf ?
Für eine GTX 560 TI mit moderaten Restzutaten sollte ein sehr gutes 400 bis 450 Watt Netzteil genügen, dementsprechend empfehlen wir euch die Spitzenreiter aus unserer Preis-Leistungs-Top-Liste
. Das Ganze hängt aber wie gesagt davon ab, was an Peripherie vorhanden ist respektive noch dazu gekauft wird und ob Übertakten für euch ein Thema ist. Solltest ihr diesbezüglich noch konkrete Fragen haben, könnt ihr sie gerne in unserem Forum stellen.
Die Kühler der betagten 7900GTX Karten waren lange Zeit die Messlatte für alle anderen Grafikkarten, wobei die Kühler der G80 Baureihe ebenfalls sehr gute Werte ablieferten, insbesondere wenn man deren damalige Stromaufnahme dabei berücksichtigt. Die 40nm Fertigung zeigte ja schon bei unserer HD5850/HD5870 Tests deutliche Reduzierungen hinsichtlich der Stromaufnahme und dementsprechend auch eine optimierte Basis für eine effektivere Kühlung. Dies hat Sapphire mit dem Vapor-X Kühler einmal mehr potenziert, unsere HD5870 Vapor-X katapultiert sich auch unter Last mühelos an die Spitze unseres Testfeldes, damit unterbietet die Vapor-X Version unter Last eine HD5870 Referenzkarte um bis zu 15°C. Dies ändert sich auch unter dem Härtetest mit Furmark nicht. Was für die Stromaufnahme gilt, gilt demzufolge auch für die Temperaturen, Nvidias GF100/GF110 Karten sind diesbezüglich sicherlich noch ausbaufähig, wobei die neuen GTX 570 und GTX 580 dank Vapor-Chamber Kühlung schon einige Wogen glätten konnten.
Das alles ist allerdings Schnee von gestern, wenn wir das GF114 Layout betrachten, das der GTX 560 TI Grafikkarte einen kongenialen Kühlpartner beschert, der nicht nur geringe Temperaturen, sondern dies auch noch sehr leise bewerkstelligt, wie wir im nächsten Kapitel noch sehen werden.
Die Abstimmung der Vapor-X Kühler von Sapphire auf den jeweiligen HD5800 Grafikkarten erscheinen uns nahezu ideal, sowohl idle als auch unter Last (auch unter Furmark) sind die Karten aus unserem System heraus kaum zu identifizieren. Für die aktuellen Fermi Grafikkarten können wir dies beileibe nicht attestieren, zumindest nicht unter Last. Diesbezüglich werden Nachrüstkühler und geänderte Layouts der Hersteller mit eigenen Kühlern sicherlich noch Silent-Optionen bieten.
Dies alles gilt für die GTX 560 TI nicht, zumindest nicht wenn der Referenzkühler montiert ist. Unsere EVGA kann weder ohne noch mit Last aus dem System heraus geortet werden, der Kühler samt 75mm Axiallüfter liefert einen hervorragenden Job ab, das muß man einfach mal anerkennen. Insofern stellt sich im Grunde auch nicht die Frage nach einem Nachrüstkühler oder einem modifiziertem Layout, auch wenn diese von den jeweiligen Boardpartnern kommen werden.
Leider kommt die Bildqualität auf unseren Screens kaum zur Geltung, aber man dürfte wohl zumindest erahnen, was diese Karten auch im Bereich DVD/Blu-Ray zu leisten imstande sind. Wer diese Karten gerne in Bezug auf HDTV und einer 1080p Auflösung testen möchte, der kann sich bei Microsoft ein entsprechendes Video herunterladen (110MB):
Noch einige technische Anmerkungen zur Wiedergabe von Blu-ray und HD-DVD Material:
ATI hat diesbezüglich immer noch klar die Nase vorne, die Karten decodieren entsprechendes Material deutlich schneller und mit weniger Prozessorlast und das nicht ohne Grund: als Avivo bezeichnet AMD eine bereits mit der Radeon X1300 eingeführte Video-Plattform, um die Multimedia-Fähigkeiten von ATIs Grafikkarten deutlich zu verbessern (Qualität und Flexibilität). Die Weiterentwicklung dieser Technologie nennt sich ATI-Avivo-HD-Technologie und kommt seit der HD2000er Grafikkartenserie zum Einsatz.
Der Unified Video Decoder (UVD) (früher auch „Universal Video Decoder“) ist ein Videoprozessor der Firma AMD und basiert auf der Technik der Multimedia-Prozessoren Xilleon. Die ersten Produkte, in die er integriert wurde, waren die ATI Radeon HD 2400 und 2600 der ATI-Radeon-HD-2000-Serie. UVD wird für Avivo HD benötigt und wurde dementsprechend auch bei der HD5850/5870 in der neuesten Version implementiert. Bei der Wiedergabe von bestimmten Videoformaten kann der UVD die Decodierarbeit übernehmen und somit den Hauptprozessor deutlich entlasten. Das funktioniert ausgezeichnet, wobei wir darauf hinweisen, das Blu-ray nur mit einem HDCP-fähigen Monitor am PC möglich ist, mit einem Blu-ray Laufwerk allein ist es nicht getan.
Natürlich wollen die Kunden wissen, wie weit sich die neuen GTX 560 TI Grafikkarten übertakten lassen. Das kann man bei diesen Karten z.B. sehr schön mit dem Rivatuner oder dem Afterburner Tool von MSI realisieren, das grundsätzlich auf dem Rivatuner aufbaut. Der Speicher unserer EVGA Referenzkarte läßt sich problemlos bis 2300 MHZ (anstatt 2004 MHZ) übertakten, die GPU lief in unserem Test noch mit 935 MHZ stabil (anstatt 822 MHZ). Das bedeutet im Klartext, das Spiele und Multimedia Applikationen zwischen 10 und 12% schneller laufen können. Ob sich dies allerdings lohnt, muß jeder mit sich selbst abhandeln, denn wie sagt die alte Übertakter-Regel: Übertakten ist 90% Glück und 10% RMA, oder war es tatsächlich doch umgekehrt...?
Wichtig:
Wir weisen ausdrücklich darauf hin, daß die von uns erreichten Resultate, resultierend aus der fertigungsbedingten Serienstreuung, nicht ohne weiteres auf andere Grafikkarten gleichen Typs übertragen respektive garantiert werden können...!
Die neue Nvidia Geforce GTX 560 TI wird ihren Platz in unseren Rechnern finden, da beißt keine Maus den Faden ab. Sie ist der legitime und vor allem verbesserte Nachfolger der überaus erfolgreichen GTX 460 und sie kann fast alles besser. Die Geschwindigkeit liegt auf einem Niveau mit der HD 6950 von AMD (mit 2048MB VRAM), die Lautstärke und Kühlleistung erreicht schon fast Referenzniveau und das Preis-Leistungsverhätnis gestaltet sich dementsprechend äußerst kundenfreundlich. Wenn es überahupt etwas zu bemängeln gibt, dann der Stromverbrauch unter Last, diesbezüglich tun sich aber alle Hersteller sehr schwer, auch wenn dies beileibe keine Entschuldigung darstellen kann, denn eine Orientierung an Negativa sollte nun wirklich nicht das angestrebte Ziel sein.
Noch ein paar technische Bemerkungen:
Das Thema Nachladeruckler wird gerne angeführt, um den Kauf einer Grafikkarte mit mehr VRAM zu rechtfertigen. Wobei die Spiele Engine und auch die Qualitätseinstellungen im Treiber diesbezüglich natürlich auch eine enorm gewichtige Rolle spielt, wie man ja beispielsweise anhand von Crysis oder jetzt Metro 2033 deutlich nachvollziehen konnte. Wer nun aber alles am VRAM festmacht, wird der Sache auch nicht gerecht, da die Qualität der Texturen und Textur-Swaps ein entscheidendes Wörtchen mitreden, zu beobachten über eben diese Nachladeruckler oder starke Einbrüche beim schnellen Wechsel der Games-Level. Da kann mehr VRAM schon etwas Linderung erreichen, wenn auch nicht gänzlich das grundsätzliche Problem beseitigen, denn da sind die Spieledesigner ebenso gefordert.
Nun könnte man trefflich darüber streiten, ob das verbesserte AF (Anisotropische Filterung) von Nvidia oder ATIs Supersampling Kantenglättung vorzuziehen wäre, beide Philosophien haben ihre Vor-und Nachteile. Nvidia hat seine Vorteile diesbezüglich durch eine eindeutig geringere Neigung zum Flimmern als ATI, auch wenn künftige Treiber diese Diskrepanz abfedern sollen. Darüber hinaus lassen sich die Optmierungen für anisotrope Filter einzeln zuschalten, was bei ATI bisher gänzlich fehlt. SuperSampling Anti-Aliasing ist auf Nvidias Fermi Grafikkarten inzwischen über offizielle externe Tools nachrüstbar und das für alle DirectX Varianten (AMD nur DirectX9). Nvidia hat diesbezüglich immer noch die Nase vorne, aber nicht weil in neue innoviative Techniken investiert wurde, sondern weil ATI immer noch kleinere Rückstände aufholen muß und über kurz oder lang sicherlich wird. Technisch betrachtet ist der Fermi Grafikchip zur Zeit das Maß der Dinge und das nicht nur wegen der Werbewirksamkeit von CUDA, Tessalation oder PhysX, sondern weil Nvidia auch die Spiele bei der Entwicklung berücksichtigt hat, die es noch gar nicht gibt. Wobei sich natürlich die Frage stellt: was hat der potenzielle Käufer davon?
Traumhaft wäre es, wenn sich AMD und Nvidia endlich an einen Tisch setzen würden und gemeinsame Standars für SGSSAA und auch PhysX festlegen könnten. Dann würden auch mehr Spieledesigner auf diesen Zug springen und wir alle hätten etwas davon: nämlich attraktivere Spiele mit einem Maximum an Bildqualität...
Zur besseren Übersicht unsere Test-Resultate noch einmal in einer kompakteren Zusammenfassung:
Plus:
• ausgezeichnete Verarbeitung, sehr gute Lötqualität
• ansprechendes schickes Design, wertige Haptik
• sehr leiser Betrieb mit und ohne Last
• hervorragende 3D-Leistungen, auch in sehr hohen Auflösungen
• hervorragende Bildqualität, kein Texturflimmern
• gutes Übertaktungspotential
• erstklassige DVD/Blu-ray Qualität
• HD-DVD und Blue-ray über Dual-link auch an großen TFTs möglich
• zwei Monitore ansteuerbar
• SLI-fähig (kein 3-way SLI oder 4-way SLI !)
• CUDA, Tessalation und PhysX Integration
• minimierter Stromverbrauch (idle Modus)
• danke effektivem Kühlsystem minimierte Temperaturen
• sehr gutes Preis-Leistungsverhältnis (ca. 220 €)
Minus:
• Stromverbrauch unter Last etwas zu hoch
• magere Ausstattung