PC-Experience - IT-Portal für Reviews, Artikel, Windows Tipps und Problemlösungen -

PC-Experience
Registrierungdie Foren-Regelndie 2016 überarbeiteten FAQs für unser CMS und das ForumImpressum und DatenschutzSucheKalenderMitgliederlistezu unseren ArtikelnTutorialsZur Startseitezur Forenübersicht


PC-Experience » Hardware Reviews: » Reviews: » EVGA GeForce GTX 560 Ti FPB Grafikkarte » Hallo Gast [Anmelden|Registrieren]
Letzter Beitrag | Erster ungelesener Beitrag Druckvorschau | An Freund senden | Thema zu Favoriten hinzufügen
Neues Thema erstellen Thema ist geschlossen
Zum Ende der Seite springen EVGA GeForce GTX 560 Ti FPB Grafikkarte
Autor
Beitrag « Vorheriges Thema | Nächstes Thema »
Cerberus Cerberus ist männlich
Chefredakteur


Dabei seit: 23.07.2002
Beiträge: 12.049
Herkunft: Lübeck

Achtung EVGA GeForce GTX 560 Ti FPB Grafikkarte Auf diesen Beitrag antworten Zitatantwort auf diesen Beitrag erstellen Diesen Beitrag editieren/löschen Diesen Beitrag einem Moderator melden       Zum Anfang der Seite springen

EVGA GeForce GTX 560 Ti FPB Grafikkarte







Einleitung:

Erinnert sich noch jemand an die Geforce 4 TI 4200 aus Februar 2002? das war damals eine der angesagtesten Grafikkarten schlechthin. Warum Nvidia gerade jetzt das TI Kürzel wiederbelebt, bleibt weitestgehend unklar, scheinbar möchte man daran erinnern, das dieser Namenszusatz mit hoher Performance gleichzusetzen war und ist. Oder soll es doch ein Wink auf das chemische Elementsymbol Titan sein? Belassen wir es bei diesen Spekulationen und konzentrieren uns lieber auf den neuen Thronanwärter der Highend-Mittelklasse und der hört namentlich auf: Nvidia Geforce TI 560.
Die GTX 560 TI ist nichts anderes als ein vollausgebauter GF104-Grafikchip der GTX-460-Serie. Insgesamt 384 Shader-Prozessoren bietet die neue Geforce GTX 560 Ti. Die Taktraten wurden im Vergleich zur GTX 570 noch leicht erhöht: So taktet die GPU mit 822 MHz und der 1 GByte große GDDR5-SDRAM arbeitet mit 1.001 MHz bzw. 2004 MHZ effektiv. Das Speicher-Interface wurde von Nvidia auf 256 Bit minimiert. Die TDP der Karte liegt bei 170 Watt, demzufolge sind zwei 6-polige Stromanschlüsse notwendig, um die entsprechende Stromversorgung sicherzustellen.
Schauen wir uns also gemeinsam an, was der legitime Nachfolger der überaus erfolgreichen GTX 460 Grafikkarte zu leisten im Stande ist, dazu wünschen wir euch wieder viel Vergnügen bei unserem neuesten Review...




Die technischen Daten EVGA Geforce GTX 560 TI:





Die technischen Daten im Vergleich:





Lieferumfang und Layout:

• EVGA GTX 560 TI in Full Retail Verpackung
• EVGA Treiber-CD und Utilities. Spiele Demos
• DVI-VGA-Adapter
• HDMI-Adapter
• 2x6-Pin PCIe Adapter
• Kurzanleitung
• Case-Badge

Zum Vergrößern bitte die Bilder anklicken !
bitte klicken bitte klicken bitte klicken bitte klicken

EVGAs Verpackung bietet sehr viel Platz, leider ohne den erhofften Inhalt. Natürlich sind die obligatorischen Adapter und Kabel beigelegt worden und auf der Treiber CD finden wir sogar zwei Spiele, aber eben nur Demos. Nenneswerte Software Pakete wurden auch nicht geschnürt, das fällt dann leider in die Rubrik "spartanische Ausstattung", denn nicht einmal eine kleine SLI-Brücke liegt im Karton
Es zeigt sich, das Nvidia seine Referenzplatinen in überschaubaren Abmessungen produziert hat, die GTX 560 TI bleibt mit ihren 228mm in relativ platzsparenden Regionen, auch wenn Nvidia die Stromanschlüsse ins Heck verlegt hat, was die Karte unnötig verlängert, denn die Stecker dürfen bei der Platzkalkulation nicht vergessen werden. Trotzdem sollten handelsübliche PC-Gehäuse genügend Platz für diese Grafikkarte bereitstellen können.

Zum Vergrößern bitte die Bilder anklicken !
bitte klicken bitte klicken bitte klicken bitte klicken

Wer ein aktuelles Netzteil mit den passenden Steckverbindungen besitzt, sollte die beiden 6-pin Stromanschlüsse natürlich auch entsprechend verstöpseln, ansonsten hagelt es Piep-Kanonaden vom Mainboard. Ohne diese Anschlüsse geht es prinzipiell nicht, da die PCI-Express Slots maximal 75 Watt zur Verfügung stellen, daran ändern auch neue Mainboards mit PCI 2.0 Schnittstelle nichts.
Die GTX 560 TI verfügt über zwei DVI-Ports und einen Mini-HDMI 1.4a Anschluß, ein Displayport ist nicht vorhanden. Das ein VGA Anschluß fehlt, ist aus technischer Hinsicht durchaus nachvollziehbar, zumal ein VGA Port weder die Auflösung, noch die Qualität aktueller Grafikkarten an hochwertige Monitore liefern kann. Ein Betrieb von drei Monitoren ist also nicht möglich, dazu bedarf es einer SLI-Kombination sprich zwei Grafikkarten. Diesbezüglich ist ATI klar im Vorteil, sofern einer der drei Monitore einen Displayport besitzt oder eine der ganz neuen HD 6950 respektive HD 6970 zum Einsatz kommen.

Zum Vergrößern bitte die Bilder anklicken !
bitte klicken bitte klicken bitte klicken

Am grundsätzlichen Layout des Referenzdesigns hat EVGA nichts geändert, die GTX 560 TI wird mit einer 4-phasigen Spannungswandlung für die GPU und einer 1-phasigen Wandlung für den Samsung K4G10325FE-HC04 Speicher bestückt. Die Grafikkarte verfügt über digitale Spannungswandler, die vom bewährten ON SemiConductor-Chip gesteuert werden. Die notwendigen Spulen der Wandler sind geschlossen und mit Epoxydharz vergossen worden, so dass das berühmt-berüchtigte Spulenpfeifen kein Problem darstellen sollte. Nvidia hat überdies noch zusätzliche Überwachungskomponenten ins Spiel gebracht, und zwar überwachen Chips in Korrespondenz mit dem Treiber auf der Platine die Spannung und den Stromverbrauch der 12Volt-Schiene in Echtzeit. Kommt nun ein Übertakter auf die glorreiche Idee, die Grafikkarte mal ein oder zwei Stunden mit Furmark maltretieren zu wollen, regeln diese Chips den Verbrauch herunter, damit die Grafikkarte diese Tortur überlebt. Der Haken dabei ist allerdings, das diese Chipkontrolle für die Boardpartnern optionalisiert wurde, d.h. es besteht kein Zwang diesse Kontrolle auch zu verbauen.
Das Gewicht der Grafikkarte liegt auf einem üblichen Niveau, die nachgewogenen 632 Gramm entsprechen durchaus anderen aktuellen Highend Grafikkarten und wären absolut kein Anlaß zur Sorge. Zu einer verbesserten Signalqualität tragen die auf der FR4-Platine deutlich sichtbaren Feststoff-Kondensatoren (Polymer-Aluminium-Kondensatoren) bei, die wir wieder gehäuft antreffen und das ist auch gut so, denn deren Vorteile sind ja nicht wegzudiskutieren, zumal sie u.a. nicht auslaufen.

Zum Vergrößern bitte die Bilder anklicken !
bitte klicken bitte klicken

Der 75mm Axiallüfter sorgt zusammen mit dem neu konzipierten Kupferkühlblock und seinen drei Heatpipes für eine sehr efektive Kühlung, auch wenn die Abwärme nicht auf direktem Weg aus dem Gehäuse geleitet wird. Die Abwärme der Spannungswandler wird durch eine große schwarze Grundplatte an den Hauptkühler abgeleitet, so wie wir es auch schon von der GTX 570/GTX 580 kennen. Wir sehen es aber ohnehin als Grundvoraussetzung an, das so eine Grafikkarte nur in einem gut ventiliertem Gehäuse verbaut wird. Die Verarbeitung der EVGA GTX 560 TI kategorisieren wir als sehr hochwertig und die Lötqualität auf dem PCB hinterläßt einen überaus professionellen Eindruck. Die schwarze Platine strahlt eine gewisse Exklusität aus, andersfarbige Platinen wären auch völlig fehl am Platze.
Wer sich über externe Kühlernachrüstungen Gedanken macht, sollte zunächst erst einmal weiter lesen und sich nach unserem entsprechenden Testkapitel eine Meinung bilden, denn eines sei jetzt schon verraten, der Referenzkühler dürfte samt seiner ausgewogenen Steuerung schwerlich zu übertrumpfen sein.



Das Sockel 1366 Testsystem:

Zum Vergrößern bitte die Bilder anklicken !
bitte klicken bitte klicken bitte klicken bitte klicken

Zum Vergrößern bitte die Bilder anklicken !
bitte klicken bitte klicken bitte klicken bitte klicken

Zum Vergrößern bitte die Bilder anklicken !
bitte klicken bitte klicken bitte klicken bitte klicken





Montage, Treiberinstallation und Tipps:

Bevor wir den Vorgänger der neuen Nvidia Grafikkarte, eine Gainward GTX 580 aus dem Rechner entfernt haben, wurde der Nvidia Treiber aus dem System verbannt und der Rechner heruntergefahren.
• Die neue Karte wird nun verschraubt und über zwei entsprechende Stromanschlüsse mit dem Netzteil verbinden, schon wäre die Nvidia Grafikkarte startklar.
• Achtet nach Möglichkeit darauf, das sich die Grafikkarte den Stromstecker nicht mit anderen Geräten teilen muß, also verzichtet bitte auf entsprechende Adapter !
• Das System wird jetzt neu gestartet und die gewünschten Treiber installiert, in unserem Fall den aktuellen Nvidia GeForce 266.58
• Abschließend aktualisierten wir für Windows die vorhandene DirectX Version: DirectX-Endbenutzer-Runtimes November 2010

• Für Windows Windows 7 aktualisierten wir lediglich den Nvidia Treiber. Vor dem Einsatz irgendwelcher Bereinigungstools können wir unter Windows 7 nur dringend abraten !

Um künftige Systemirritationen zu vermeiden, deaktivierten wir alle Autostarteinträge von Nvidia (in der Regel 3 Stück) und deaktivierten den Dienst Nvidia Display Driver Service. Die Nvidia Systemsteuerung läßt sich trotz dieser Maßnahmen problemlos nutzen und die Systemstabilität haben wir darüber hinaus auch gleich erhöht.
Damit wäre die Montage der GrafikKarte (mit Werks-BIOS) und auch die Treiberinstallation zunächst erfolgreich abgeschlossen und wir installierten die noch fehlenden Treiber für den Eizo Foris FX2431 Monitor. Abschließend stellten wir die Auflösung für den Desktop auf 1920x1200 bei 32-Bit und die Bildschirmaktualisierungsrate auf die von Eizo empfohlenen 60 Hertz.
Als ersten Eindruck erhielten wir wie gewohnt sehr schöne und kontrastreiche 2D-Farben und ein gestochen scharfes Bild. Scheinbar können die Eizo Monitore die gelieferten Signale optimal umsetzen.
Noch eine kleine nicht unwesentliche Anmerkung am Rande:
wer sich eine teure Grafikkarte kauft, sollte darauf achten, das sein Monitor ebenfalls diesen gehobenen Ansprüchen gerecht wird. Denn Frust ist vorprogrammiert, wenn die teure High-End Grafikkarte mit einem Billig-Monitor kommunizieren muß, der gar nicht in der Lage ist, das erhofft attraktive Bild zu reproduzieren...!




Die Tests:

Als Testeinleitung wurde das gesamte System eine Stunde mit dem Systemstabilitätstest von Everest/Aida64 "vorgeheizt".
Die Lautheit der Grafikkarten-Lüfter haben wir nicht separat gemessen, sondern als Systemgesamtlautstärke in die Tests eingebunden. Dabei wurden die Lautstärke ca. 15cm vom Rechner entfernt mit einem ACR-264-plus Messgerät verifiziert und dabei die Umgebungsgeräusche so weit wie möglich reduziert, um das Ergebnis nicht zu verfälschen. Das Gerät verfügt ab Werk normalerweise über einen Messbereich von 15 bis 140 dBA umfaßt. Laut DIN-Norm sollte der Abstand von Messgerät zum Testobjekt 100cm betragen, aber da wir nicht über einen schalltoten respektive schallarmen Raum verfügen, waren Kompromisse unumgänglich.
Mit dem Digitalen Temperaturmessgerät TL-305 (Messbereich von Minus 200°C bis plus 1370°C) haben wir während sämtlicher Testdurchläufe die Temperaturen der Grafikkarte per Sensor gemessen und aufgezeichnet. Somit erhält der mögliche Käufer auch eine gute Übersicht bezüglich der zu erwartenden Kühlleistung des Grafikkartenkühlers.
Um den Stromverbrauch möglichst genau wiederzugeben (gesamtes System), haben wir den grafischen Leistungsmesser Peak Tech 2535 verwendet. Das Gerät eignet sich für Messungen von 0,0 Watt bis 4 kW/0,0 bis 600 V und 0,0 bis 15 A (mit externem Zangen-Adapter bis 1000 A)


Testprogramme:

• Windows XP SP3 mit DirectX 9 aus November 2010, alle aktuellen Updates
• Windows 7 Ultimate 64Bit, alle aktuellen Updates
• aktuelle DirectX9 Spiele (aktuell gepatcht)
• aktuelle DirectX10 Spiele (aktuell gepatcht)
• aktuelle DirectX11 Spiele (aktuell gepatcht)

Treibereinstellungen Nvidia GeForce 266.58:

- 3D Einstellungen: Standard
• Vertikale Synchronisierung: Aus
• sonst ebenfalls alles auf Standard

Kommentare zu den synthetischen 3DMark Benchmarkprogrammen ersparen wir uns, dafür gibt es einfach zu viele Irritationen bei Vergleichswerten und ebenso viele Möglichkeiten diese, in welcher Form auch immer, zu manipulieren. Grundsätzlich sollte man trotz 3DMark Vantage oder des neuen 3D ark 11 synthetischen Benchmarks nicht allzu große Bedeutung beimessen, denn 1. sind einige schon etwas betagt und haben somit kaum einen ernsthaften Bezug zur aktuellen Technik und 2. entstehen immer wieder mal kuriose Situationen, in denen der eine oder andere programmierbedingte Lapsus dieser oder jener Grafikkarte Vorteile verschafft, die eigentlich gar nicht vorhanden sind. Das ist auch der Grund, warum wir auf dererlei Benchmarks künftig komplett verzichten.
Für aussagekräftige Benchmarks sollte als Testeinstieg in jedem Fall die Auflösung 1280x1024 (Standard-TFT-Auflösung für 17 und 19" Geräte) und die Option Quality 4AAx16AF (4-fach Antialiasing + 16-fach anisotropischer Filter) aktiviert sein, ansonsten gerät die Beurteilung aktueller High-Endgrafikkarten zur Farce. Dies gilt insbesondere für Crossfire/SLI Systeme, wo alles unter 1600x1200 Pixel den Sinn eines solchen Systems mehr als nur in Frage stellt. Ohne entsprechende Qualitätseinstellung, kann man keine Aussage darüber treffen, welche Leistung wirklich erbracht wird, zumal auch eine Mittelklasse Grafikkarte ohne 4xAA und 16xAF recht schnell sein kann.
Da sind Spielebenchmarks schon etwas aussagekräftiger, auch wenn viele der Spiele entweder auf ATI oder Nvidia optimiert wurden. Da gilt es dann zu unterscheiden: Open GL Spiele von id-Software wie Quake 4 oder Doom 3 z.B. laufen generell etwas schneller auf Nvidia-Karten und Direct3D Spiele wie Halflife 2 oder die Call of Duty Serie favorisieren AMD, um nur ein paar Beispiele zu nennen. Selbstverständlich kamen auch aktuelle DirectX11-Spiele in unserem Testparcour zum Einsatz, die dann unter Windows 7 entsprechend berücksichtigt wurden.
Wer einen Widescreen TFT besitzt, dem sei erklärt, das es bezüglich der Füllrate keinen großen Unterschied macht, ob nun in 1600x1200 (1,9 Millionen Pixel) oder 1680x1050 (1,75 Millionen Pixel) aufgelöst wird. Damit wir den Grafikspeicher auch entsprechend berücksichtigen, haben wir die Tests grundsätzlich ab 1600x1200, 1920x1600 und 2560x1600 vorgenommen. Zumindest dort, wo es möglich war, ansonsten wurden alternative Auflösungen eingestellt, wie z.B. in Crysis Warhead.



1a. Spiele-Benchmarks DirectX9:

Zum Vergrößern bitte die Bilder anklicken !
bitte klicken bitte klicken bitte klicken bitte klicken

Zum Vergrößern bitte die Bilder anklicken !
bitte klicken bitte klicken bitte klicken bitte klicken





1b. Spiele-Benchmarks DirectX10:

Zum Vergrößern bitte die Bilder anklicken !
bitte klicken bitte klicken bitte klicken bitte klicken

Zum Vergrößern bitte die Bilder anklicken !
bitte klicken bitte klicken bitte klicken bitte klicken

Zum Vergrößern bitte die Bilder anklicken !
bitte klicken bitte klicken bitte klicken bitte klicken







1c. Spiele-Benchmarks DirectX11:

Zum Vergrößern bitte die Bilder anklicken !
bitte klicken bitte klicken bitte klicken bitte klicken

Zum Vergrößern bitte die Bilder anklicken !
bitte klicken bitte klicken bitte klicken bitte klicken




Wer sich darüber wundert, das wir die AMD HD 6870 und HD6850 nicht mit aufgeführt haben, dem sei gesagt, das wir diese unausgegorene Zwischenlösung von ATI/AMD nicht getestet haben, weil wir es schlicht und wenig ergreifend nicht für lohnenswert erachten, zumal die HD5870 und HD5850 diesen Karten immer noch leicht Paroli bieten können, was auch nicht verwunderlich ist, denn eine wirkliche Leistungssteigerung findet kaum statt, von der fragwürdigen Namensfindung ganz zu schweigen.
Die neuen Fermi GF110 Revisionen können sich mehr oder weniger deutlich von ihren GF100 Vorgängern absetzen, ohne allerdings nun gleich neue Rekorde zu erzielen. Das ändert allerdings auch nichts daran, das die GTX 580 aktuell die schnellste single-GPU Grafikkarte auf dem Markt ist, auch wenn AMD mit der neuen HD6970 ihnen dicht auf den Fersen bleibt. Viel wichtiger als die schöden Frames ist aber die Bildqualität und diesbezüglich haben beide Hersteller nochmal ein Schippchen draufgelegt, wobei Nvidia seinen Tessellationsvorsprung behaupten konnte und die praktisch nicht vorhandene Texturflimmerei ohnehin eine Nvidia Domäne darstellt. AMD respektive ATI hat zwar aufgeholt, aber immer noch einiges auf Zettel, der abgearbeitet werden sollte. Die erstklassige Super-Sampling-Anti-Aliasing Qualität ist auch kein Alleinstellungsmerkmal mehr, denn Nvidia ermöglicht inzwischen ebenfalls diese Bildqualitätsoption und dies sogar in allen APIs, also auch in DirectX 10 und 11.
Unsere EVGA GTX 560 TI schlägt sich ausgezeichnet und sitzt der HD 6950 sehr dicht im Nacken. Der Abstand zur GTX 460 1024MB gestaltet sich überdeutlich, auch wenn die Frames per Second dies vielleicht nicht so intensiv wiedergeben.



2. Stromverbrauch (gesamtes System):


Der Stromverbrauch war lange Zeit ein trauriges Kapitel, hier sind Innovationen scheinbar grundsätzlich vom Reißbrett verbannt worden, denn was aktuelle Highend Grafikkarten bisher einem Netzteil abverlangten, das hatte den Pegel der Vernunft längst überschritten. Mit der Radeon HD5800-Serie hatte sich dies nachhaltig geändert, eine Radeon HD 5870 benötigt im Idle Modus sparsame 27 Watt und unter Vollast knappe 190 Watt, das hat sich auch mit der 2048MB Variante nur unwesentlich geändert, solange sie nicht übertaktet wird. Die neueren 6850/6870 liegen ebenfalls auf diesem erträglichem Niveau. Die ganz neuen HD6950/6970 sind diesbezüglich ohne Last immer noch hoch einzuschätzen, dies ändert sich aber zumindest für die HD 6970, die unter Last so viel verbraucht wie eine GTX 570 von Nvidia und das ist eindeutig zu viel.
Die neue GTX 560 Ti hält sich im idle Modus sehr dezent zurück und benötigt selten mehr als 15 bis 18 Watt. Dies ändert sich unter Last und insbesondere wenn Spiele eingelegt werden rapide, dann sind bis zu 150 Watt nötig (Furmark bis 175 Watt). Vorsicht ist beim Einsatz von zwei Monitoren geboten. Solange die gleichermaßen eingestellt laufen, genügen in der Regel 20 bis 25 Watt. Sind die Monitore aber unterschiedlich eingestellt (Bildwiederholfrequenz, Auflösung) können daraus schon mal 60 bis 65 Watt werden.
Was bedeutet dies nun für den eventuellen Netzteilkauf ?
Für eine GTX 560 TI mit moderaten Restzutaten sollte ein sehr gutes 400 bis 450 Watt Netzteil genügen, dementsprechend empfehlen wir euch die Spitzenreiter aus unserer Preis-Leistungs-Top-Liste . Das Ganze hängt aber wie gesagt davon ab, was an Peripherie vorhanden ist respektive noch dazu gekauft wird und ob Übertakten für euch ein Thema ist. Solltest ihr diesbezüglich noch konkrete Fragen haben, könnt ihr sie gerne in unserem Forum stellen.


4. Temperaturen:


Die Kühler der betagten 7900GTX Karten waren lange Zeit die Messlatte für alle anderen Grafikkarten, wobei die Kühler der G80 Baureihe ebenfalls sehr gute Werte ablieferten, insbesondere wenn man deren damalige Stromaufnahme dabei berücksichtigt. Die 40nm Fertigung zeigte ja schon bei unserer HD5850/HD5870 Tests deutliche Reduzierungen hinsichtlich der Stromaufnahme und dementsprechend auch eine optimierte Basis für eine effektivere Kühlung. Dies hat Sapphire mit dem Vapor-X Kühler einmal mehr potenziert, unsere HD5870 Vapor-X katapultiert sich auch unter Last mühelos an die Spitze unseres Testfeldes, damit unterbietet die Vapor-X Version unter Last eine HD5870 Referenzkarte um bis zu 15°C. Dies ändert sich auch unter dem Härtetest mit Furmark nicht. Was für die Stromaufnahme gilt, gilt demzufolge auch für die Temperaturen, Nvidias GF100/GF110 Karten sind diesbezüglich sicherlich noch ausbaufähig, wobei die neuen GTX 570 und GTX 580 dank Vapor-Chamber Kühlung schon einige Wogen glätten konnten.
Das alles ist allerdings Schnee von gestern, wenn wir das GF114 Layout betrachten, das der GTX 560 TI Grafikkarte einen kongenialen Kühlpartner beschert, der nicht nur geringe Temperaturen, sondern dies auch noch sehr leise bewerkstelligt, wie wir im nächsten Kapitel noch sehen werden.


5. Lautstärke (Schalldruck, gesamtes System):


Die Abstimmung der Vapor-X Kühler von Sapphire auf den jeweiligen HD5800 Grafikkarten erscheinen uns nahezu ideal, sowohl idle als auch unter Last (auch unter Furmark) sind die Karten aus unserem System heraus kaum zu identifizieren. Für die aktuellen Fermi Grafikkarten können wir dies beileibe nicht attestieren, zumindest nicht unter Last. Diesbezüglich werden Nachrüstkühler und geänderte Layouts der Hersteller mit eigenen Kühlern sicherlich noch Silent-Optionen bieten.
Dies alles gilt für die GTX 560 TI nicht, zumindest nicht wenn der Referenzkühler montiert ist. Unsere EVGA kann weder ohne noch mit Last aus dem System heraus geortet werden, der Kühler samt 75mm Axiallüfter liefert einen hervorragenden Job ab, das muß man einfach mal anerkennen. Insofern stellt sich im Grunde auch nicht die Frage nach einem Nachrüstkühler oder einem modifiziertem Layout, auch wenn diese von den jeweiligen Boardpartnern kommen werden.


6. Video/DVD/Blu-Ray-Qualität:

Zum Vergrößern bitte das Bild anklicken !
bitte klicken


Leider kommt die Bildqualität auf unseren Screens kaum zur Geltung, aber man dürfte wohl zumindest erahnen, was diese Karten auch im Bereich DVD/Blu-Ray zu leisten imstande sind. Wer diese Karten gerne in Bezug auf HDTV und einer 1080p Auflösung testen möchte, der kann sich bei Microsoft ein entsprechendes Video herunterladen (110MB):

Step into Liquid


Der Mediplayer 11 bzw. 12 sollte dafür aber schon installiert sein, die 10er Variante kann nur nach einem speziellem Update genutzt werden: Update für MP10

Noch einige technische Anmerkungen zur Wiedergabe von Blu-ray und HD-DVD Material:
ATI hat diesbezüglich immer noch klar die Nase vorne, die Karten decodieren entsprechendes Material deutlich schneller und mit weniger Prozessorlast und das nicht ohne Grund: als Avivo bezeichnet AMD eine bereits mit der Radeon X1300 eingeführte Video-Plattform, um die Multimedia-Fähigkeiten von ATIs Grafikkarten deutlich zu verbessern (Qualität und Flexibilität). Die Weiterentwicklung dieser Technologie nennt sich ATI-Avivo-HD-Technologie und kommt seit der HD2000er Grafikkartenserie zum Einsatz.
Der Unified Video Decoder (UVD) (früher auch „Universal Video Decoder“) ist ein Videoprozessor der Firma AMD und basiert auf der Technik der Multimedia-Prozessoren Xilleon. Die ersten Produkte, in die er integriert wurde, waren die ATI Radeon HD 2400 und 2600 der ATI-Radeon-HD-2000-Serie. UVD wird für Avivo HD benötigt und wurde dementsprechend auch bei der HD5850/5870 in der neuesten Version implementiert. Bei der Wiedergabe von bestimmten Videoformaten kann der UVD die Decodierarbeit übernehmen und somit den Hauptprozessor deutlich entlasten. Das funktioniert ausgezeichnet, wobei wir darauf hinweisen, das Blu-ray nur mit einem HDCP-fähigen Monitor am PC möglich ist, mit einem Blu-ray Laufwerk allein ist es nicht getan.



7. Übertakten:

Natürlich wollen die Kunden wissen, wie weit sich die neuen GTX 560 TI Grafikkarten übertakten lassen. Das kann man bei diesen Karten z.B. sehr schön mit dem Rivatuner oder dem Afterburner Tool von MSI realisieren, das grundsätzlich auf dem Rivatuner aufbaut. Der Speicher unserer EVGA Referenzkarte läßt sich problemlos bis 2300 MHZ (anstatt 2004 MHZ) übertakten, die GPU lief in unserem Test noch mit 935 MHZ stabil (anstatt 822 MHZ). Das bedeutet im Klartext, das Spiele und Multimedia Applikationen zwischen 10 und 12% schneller laufen können. Ob sich dies allerdings lohnt, muß jeder mit sich selbst abhandeln, denn wie sagt die alte Übertakter-Regel: Übertakten ist 90% Glück und 10% RMA, oder war es tatsächlich doch umgekehrt...?


Wichtig:
Wir weisen ausdrücklich darauf hin, daß die von uns erreichten Resultate, resultierend aus der fertigungsbedingten Serienstreuung, nicht ohne weiteres auf andere Grafikkarten gleichen Typs übertragen respektive garantiert werden können...!




Fazit:

Die neue Nvidia Geforce GTX 560 TI wird ihren Platz in unseren Rechnern finden, da beißt keine Maus den Faden ab. Sie ist der legitime und vor allem verbesserte Nachfolger der überaus erfolgreichen GTX 460 und sie kann fast alles besser. Die Geschwindigkeit liegt auf einem Niveau mit der HD 6950 von AMD (mit 2048MB VRAM), die Lautstärke und Kühlleistung erreicht schon fast Referenzniveau und das Preis-Leistungsverhätnis gestaltet sich dementsprechend äußerst kundenfreundlich. Wenn es überahupt etwas zu bemängeln gibt, dann der Stromverbrauch unter Last, diesbezüglich tun sich aber alle Hersteller sehr schwer, auch wenn dies beileibe keine Entschuldigung darstellen kann, denn eine Orientierung an Negativa sollte nun wirklich nicht das angestrebte Ziel sein.
Noch ein paar technische Bemerkungen:
Das Thema Nachladeruckler wird gerne angeführt, um den Kauf einer Grafikkarte mit mehr VRAM zu rechtfertigen. Wobei die Spiele Engine und auch die Qualitätseinstellungen im Treiber diesbezüglich natürlich auch eine enorm gewichtige Rolle spielt, wie man ja beispielsweise anhand von Crysis oder jetzt Metro 2033 deutlich nachvollziehen konnte. Wer nun aber alles am VRAM festmacht, wird der Sache auch nicht gerecht, da die Qualität der Texturen und Textur-Swaps ein entscheidendes Wörtchen mitreden, zu beobachten über eben diese Nachladeruckler oder starke Einbrüche beim schnellen Wechsel der Games-Level. Da kann mehr VRAM schon etwas Linderung erreichen, wenn auch nicht gänzlich das grundsätzliche Problem beseitigen, denn da sind die Spieledesigner ebenso gefordert.
Nun könnte man trefflich darüber streiten, ob das verbesserte AF (Anisotropische Filterung) von Nvidia oder ATIs Supersampling Kantenglättung vorzuziehen wäre, beide Philosophien haben ihre Vor-und Nachteile. Nvidia hat seine Vorteile diesbezüglich durch eine eindeutig geringere Neigung zum Flimmern als ATI, auch wenn künftige Treiber diese Diskrepanz abfedern sollen. Darüber hinaus lassen sich die Optmierungen für anisotrope Filter einzeln zuschalten, was bei ATI bisher gänzlich fehlt. SuperSampling Anti-Aliasing ist auf Nvidias Fermi Grafikkarten inzwischen über offizielle externe Tools nachrüstbar und das für alle DirectX Varianten (AMD nur DirectX9). Nvidia hat diesbezüglich immer noch die Nase vorne, aber nicht weil in neue innoviative Techniken investiert wurde, sondern weil ATI immer noch kleinere Rückstände aufholen muß und über kurz oder lang sicherlich wird. Technisch betrachtet ist der Fermi Grafikchip zur Zeit das Maß der Dinge und das nicht nur wegen der Werbewirksamkeit von CUDA, Tessalation oder PhysX, sondern weil Nvidia auch die Spiele bei der Entwicklung berücksichtigt hat, die es noch gar nicht gibt. Wobei sich natürlich die Frage stellt: was hat der potenzielle Käufer davon?
Traumhaft wäre es, wenn sich AMD und Nvidia endlich an einen Tisch setzen würden und gemeinsame Standars für SGSSAA und auch PhysX festlegen könnten. Dann würden auch mehr Spieledesigner auf diesen Zug springen und wir alle hätten etwas davon: nämlich attraktivere Spiele mit einem Maximum an Bildqualität...
Zur besseren Übersicht unsere Test-Resultate noch einmal in einer kompakteren Zusammenfassung:

Plus:
• ausgezeichnete Verarbeitung, sehr gute Lötqualität
• ansprechendes schickes Design, wertige Haptik
• sehr leiser Betrieb mit und ohne Last
• hervorragende 3D-Leistungen, auch in sehr hohen Auflösungen
• hervorragende Bildqualität, kein Texturflimmern
• gutes Übertaktungspotential
• erstklassige DVD/Blu-ray Qualität
• HD-DVD und Blue-ray über Dual-link auch an großen TFTs möglich
• zwei Monitore ansteuerbar
• SLI-fähig (kein 3-way SLI oder 4-way SLI !)
• CUDA, Tessalation und PhysX Integration
• minimierter Stromverbrauch (idle Modus)
• danke effektivem Kühlsystem minimierte Temperaturen
• sehr gutes Preis-Leistungsverhältnis (ca. 220 €)

Minus:
• Stromverbrauch unter Last etwas zu hoch
• magere Ausstattung




Gesamtergebnis unseres Reviews:

Die EVGA GeForce GTX 560 Ti FPB Grafikkarte erhält den PC-Experience-Award in Gold






Weiterführende Links:

EVGA

EVGA bei Caseking




euer PC-Experience.de Team

Cerberus
02.02.2011 07:00 Cerberus ist offline Homepage von Cerberus Beiträge von Cerberus suchen Nehmen Sie Cerberus in Ihre Freundesliste auf
Baumstruktur | Brettstruktur
Neues Thema erstellen Thema ist geschlossen
PC-Experience » Hardware Reviews: » Reviews: » EVGA GeForce GTX 560 Ti FPB Grafikkarte


Designed by PC-Experience.de, online seit 06.August 2002
Copyright © 2002 - 2023 PC-Experience.de