Geforce FX Top oder Flop ? |
Mikesch
Technik-Freak
Dabei seit: 25.09.2002
Beiträge: 644
Herkunft: Lüneburg
|
|
Geforce FX Top oder Flop ? |
|
Mahlzeit,
was sagt ihr zur kommenden Geforce FX ?
Die News die man bisher so hörte oder las, sind ja alles andere als positiv, vom Preis mal ganz zu schweigen.
Für mich ist die neue FX ein Grund mehr zu ATI zu wechseln.
Wie seht ihr das ???
mfg
Mikesch
__________________ MfG
Mikesch
|
|
31.01.2003 11:58 |
|
|
Bullzeye-Xor
Gold Member
Dabei seit: 06.08.2002
Beiträge: 824
|
|
Ich finde die neuste Graka von Nvidia immer völlig uninteressant, weil die viel zu teuer ist.
Über die Performance habe ich bisher nicht viel gehört, was ich gehört habe klang nicht besonders gut. Das einzigst gute an der GeforceFX ist für mich, dass die Geforce4 billiger wird :D
|
|
31.01.2003 12:05 |
|
|
Zonk
Technik-Freak
Dabei seit: 11.01.2003
Beiträge: 543
Herkunft: Berlin
|
|
Hallo
wenn ich die Preise höre und sehe was nVidia für Klimmzüge macht, um die FX halbwegs gekühlt zu bekommen, dann stellt sich die Frage nach dieser Karte sowieso nicht.
Die bisherigen Benchmarks sind enttäuschend, der Preis inakzetabel, das Gewicht ...ähm sagen wir mal ein schlechter Witz.
Ich glaube in der Marketing und Entwicklungsabteilung von nVidia werden Köpfe rollen.
Zonk
__________________
|
|
31.01.2003 12:34 |
|
|
Mikesch
Technik-Freak
Dabei seit: 25.09.2002
Beiträge: 644
Herkunft: Lüneburg
Themenstarter
|
|
Jo so sehe ich das auch,
damit steht mein Entschluß auch fest: ich werde mir eine Radeon 9700 gönnen.
mfg
Mikesch
__________________ MfG
Mikesch
|
|
31.01.2003 13:06 |
|
|
tomy unregistriert
|
|
Für mich ist die FX auch eine herbe Entäuschung.Die Karte ist jetzt ein halbes Jahr nach der 9700 herausgekommen und bringt in etwa die gleiche Leistung als die ATI,kostet aber fast das doppelte.
Ich wollte mir eigentlich eine FX kaufen aber jetzt werde ich mir auch eine 9700 leisten.
Mit dieser Meinug stehe ich wohl nicht alleine da und viele potenzielle FX Käufer werden jetzt zur Radeon wechseln.
greets,tomy
|
|
31.01.2003 15:00 |
|
|
Dr@gonXP unregistriert
|
|
Nach den bisherigen Berichten und Tests ist die FX eindeutig eine ganz starke "Fehlkonstruktion" von Nvidia.
Kein bischen Innovation, nur ein schlechter Versuch über höhere Taktraten mehr Leistung zu bekommen!
Cheers
Dr@gonXP
|
|
31.01.2003 15:25 |
|
|
Goldfield unregistriert
|
|
Für mich steht fest, ich lasse mir `ne 9xxx Ati zum
Geb. schenken !!
Aber Nvdia wird diese negativen Dinge abstellen und
zurückschlagen.
Die werden irgendwie das Maß aller Dinge bleiben.
|
|
31.01.2003 18:59 |
|
|
Destroyers
Technik-Freak
Dabei seit: 27.09.2002
Beiträge: 515
Herkunft: Rendsburg
|
|
Eine Grafikkarte von nVidia kommt mir schon lannge nicht mehr in den Rechner.
Ich habe mir jetzt eine Radeon 9500Pro gekauft und bin superzufrieden.
bye
Destroyer
__________________ Geld ist besser als Armut - wenn auch nur aus finanziellen Gründen.
|
|
01.02.2003 00:48 |
|
|
Wallace
Redakteur/Co-Administrator
Dabei seit: 21.08.2002
Beiträge: 5.128
Herkunft: Montreal
|
|
Immer dasselbe Lied, wenn sich Monopolisten auf ihren Lorbeeren ausruhen.
ATI wird sich in Fäustchen lachen.
Ich habe jetzt auch eine 9700er in meinem Rechner und kann nur sagen...extraordinäre Grafikkarte.
so long
Wallace
|
|
01.02.2003 02:04 |
|
|
Protoberance
neu im Forum
Dabei seit: 01.02.2003
Beiträge: 13
|
|
Joa da heisst es Anfangs, mehr als doppelt so gut wie die Ti4600 und um weiten besser als die Radeon 9700, natürlich dezent ausgedrückt damit auch keinem weh getan wird und nun habens den Salat. Mir solls egal sein, hab mir letztes Jahr ne Ti4600 gekauft und die hält denke ich dieses Jahr auch noch durch, ohne dass ich auf Grafikpracht verzichten muss. Wenn dem nicht so sein sollte, lasst mich bitte schnell in Panik ausbrechen 8)
Um noch einmal kurz die FX anzusprechen. Es war ja von Anfang an die Rede von DDR II Ram, der zum damaligen Zeitpunkt, zu dem es des erste mal bekannt gegeben wurde, noch hiess "Dieser Ram ist schwer verfügbar" Samsung war der einzige Hersteller, der DDR II mit einem Takt von 500 Mhz also effektiv 1000 Mhz liefern konnte, dies allerdings auch nur in sehr kleinen Stückzahlen. Vielleicht ist es der Ram, welcher der Karte noch so arghe Probs macht, denn der GPU Takt ist ja nicht so argh hochgesetzt worden wie der Speicher.
|
|
01.02.2003 14:47 |
|
|
Bullzeye-Xor
Gold Member
Dabei seit: 06.08.2002
Beiträge: 824
|
|
Ich mal gespannt, wie sich das Ding verkauft. Nvidia's Marketing kam mir bisher immer sehr gut organisiert vor. Bin mir sicher, dass die dadurch wieder einieges rausholen werden, aber warten wir ab. Vielleicht kann ATI seine Chance ja auch nutzen!
|
|
02.02.2003 14:18 |
|
|
Zonk
Technik-Freak
Dabei seit: 11.01.2003
Beiträge: 543
Herkunft: Berlin
|
|
Zitat: |
Vielleicht kann ATI seine Chance ja auch nutzen! |
|
Das tun die Kanadier bereits seit Monaten
Zonk
__________________
|
|
02.02.2003 15:18 |
|
|
Protoberance
neu im Forum
Dabei seit: 01.02.2003
Beiträge: 13
|
|
Ich weiss nicht, anscheinend ist sie doch zu was zu gebrauchen.
Klick mich !
|
|
04.02.2003 22:44 |
|
|
Wallace
Redakteur/Co-Administrator
Dabei seit: 21.08.2002
Beiträge: 5.128
Herkunft: Montreal
|
|
|
06.02.2003 05:19 |
|
|
Protoberance
neu im Forum
Dabei seit: 01.02.2003
Beiträge: 13
|
|
Ich hab gerade was interessantes gefunden. John Carmack, was jedem ein Begriff sein sollte hat einen Vergleich des R300 zum NV30 geschrieben.
Quelle : Beyond3d.com
Zitat: |
NV30 vs R300, current developments, etc
At the moment, the NV30 is slightly faster on most scenes in Doom than the R300, but I can still find some scenes where the R300 pulls a little bit ahead. The issue is complicated because of the different ways the cards can choose to run the game.
The R300 can run Doom in three different modes: ARB (minimum extensions, no specular highlights, no vertex programs), R200 (full featured, almost always single pass interaction rendering), ARB2 (floating point fragment shaders, minor quality improvements, always single pass).
The NV30 can run DOOM in five different modes: ARB, NV10 (full featured, five rendering passes, no vertex programs), NV20 (full featured, two or three rendering passes), NV30 ( full featured, single pass), and ARB2.
The R200 path has a slight speed advantage over the ARB2 path on the R300, but only by a small margin, so it defaults to using the ARB2 path for the quality improvements. The NV30 runs the ARB2 path MUCH slower than the NV30 path. Half the speed at the moment. This is unfortunate, because when you do an exact, apples-to-apples comparison using exactly the same API, the R300 looks twice as fast, but when you use the vendor-specific paths, the NV30 wins.
The reason for this is that ATI does everything at high precision all the time, while Nvidia internally supports three different precisions with different performances. To make it even more complicated, the exact precision that ATI uses is in between the floating point precisions offered by Nvidia, so when Nvidia runs fragment programs, they are at a higher precision than ATI's, which is some justification for the slower speed. Nvidia assures me that there is a lot of room for improving the fragment program performance with improved driver compiler technology.
The current NV30 cards do have some other disadvantages: They take up two slots, and when the cooling fan fires up they are VERY LOUD. I'm not usually one to care about fan noise, but the NV30 does annoy me.
I am using an NV30 in my primary work system now, largely so I can test more of the rendering paths on one system, and because I feel Nvidia still has somewhat better driver quality (ATI continues to improve, though). For a typical consumer, I don't think the decision is at all clear cut at the moment.
For developers doing forward looking work, there is a different tradeoff -- the NV30 runs fragment programs much slower, but it has a huge maximum instruction count. I have bumped into program limits on the R300 already. As always, better cards are coming soon.
|
|
|
|
07.02.2003 21:01 |
|
|
|