Zitat Zitat von noxon Beitrag anzeigen
Wie kommst du darauf, dass das überhaupt mehr Kosten verursachen würde? nVidia bastelt an einem 1,4 Mil. Transistor-Monster und hat mit jeder Menge Problemen bezüglich Größe, Verlustleistung, Blindströme und Strukturbreiten zu kämpfen, während ATi es geschaft hat (wahrscheinlich auch mittels AMDs Know How) einen kleinen aber denn noch effektiven Chip herzustellen, der sich dank einer neuen CF-Bridge einfach mit mehreren anderen Kernen koppeln lässt.
Warum muss das teurer sein? Es könnte sogar das Gegenteil der Fall sein. Wenn das mit den 45nm tatsächlich stimmt, dann sind die Chips nur noch halb so groß, wie die GT200'er und die Ausbeute steigt erheblich, wodurch die Chips wirklich günstig werden. Hinzu kommt, dass der Ausschuss aufgrund der geringeren Transistoranzahl geringer ausfallen dürfte.
Wie kommst du darauf, dass ATI die HD4870X2 in 45nm baut? Soweit ich mitbekommen habe, ist davon der R800 betroffen, der vielleicht sogar in 40nm gebaut werden soll. Vom R700 in 45nm war nie die Rede.

Spielt das eine Rolle, warum sie so schnell ist? Das sie so schnell ist und trotzdem weniger negative Effekte aufweist zeigt doch, das ATi auf dem richtigen Weg ist.
Und ob das eine Rolle spielt! Vielleicht nicht für den Endverbraucher, aber für Interessierte ist umso wichtiger durch die gegnerische Architektur herauszufinden, wo die eigenen Fehler lagen.

Das einzige, was Nvidia beim GT200 falsch gemacht hat, war eben die Bauweise in 65nm. Der Chip an sich ist leistungsstärker als der RV770, denn man sollte sich nicht von Marketing verwirren lassen und denken, ATI GFLOPs = Nvidia GFLOPs. Und alle schreien sofort, yeah, ATI kanns besser, weil sie über 1 TFLOP erreichen...juhu. Totaller Quatsch! Schließlich sind Nvidia Alu Shader auch nicht gleich ATI Alu Shader.

Oder beurteilst du die Leistung einer Graka nur nach der Größe des VRams, so wie die meisten Laien das tun?

Nvidia hat eine super Karte mit der GTX 280 hingestellt. Fehler war nur die größere Fertigung in 65nm und der etwas hohe Preis.

BTW:
Es soll bereits ein "Hobby-Programmierer" geschaft haben die PhysX Engine jetzt schon auf einer 3800 zu beschleunigen.
PhysX-Beschleunigung auf ATi Radeon HD 3800?

Wenn der das kann, dann wird es wohl sicher nicht mehr lange dauern, bis es offiziell von ATi unterstützt wird. Theoretisch müsste ATi dann auch bei den Physikberechnungen nVidia davon ziehen mit seinen theoretischen 1,2 TFlops.
Tja, mal sehen wie Nvidia darauf reagiert? Mit einer Geldstrafe oder war das auch so geplant? Nvidia geht es wohl darum, dass soviele PhysiX unterstützen wie möglich, um Intel eins auszuwischen. Da kann sich Nvidia nur darüber freuen, dass auch ATI mit auf diesen Zug aufgesprungen ist.