Geld kostet es immer. Die Frage ist, welche Investition sich eher auszahlt.
Wie kommst du darauf, dass das überhaupt mehr Kosten verursachen würde? nVidia bastelt an einem 1,4 Mil. Transistor-Monster und hat mit jeder Menge Problemen bezüglich Größe, Verlustleistung, Blindströme und Strukturbreiten zu kämpfen, während ATi es geschaft hat (wahrscheinlich auch mittels AMDs Know How) einen kleinen aber denn noch effektiven Chip herzustellen, der sich dank einer neuen CF-Bridge einfach mit mehreren anderen Kernen koppeln lässt.Ich denke, das mit dem zwei Chips on DIE oder on Package ist beim R700 eher noch Wunschdenken oder war zumindest so geplant, dann fehlten aber die finanziellen Mittel.
Warum muss das teurer sein? Es könnte sogar das Gegenteil der Fall sein. Wenn das mit den 45nm tatsächlich stimmt, dann sind die Chips nur noch halb so groß, wie die GT200'er und die Ausbeute steigt erheblich, wodurch die Chips wirklich günstig werden. Hinzu kommt, dass der Ausschuss aufgrund der geringeren Transistoranzahl geringer ausfallen dürfte.
Spielt das eine Rolle, warum sie so schnell ist? Das sie so schnell ist und trotzdem weniger negative Effekte aufweist zeigt doch, das ATi auf dem richtigen Weg ist.Dass die HD4870 nur deshalb fast so schnell ist wie die GTX 280, verdankt sie den 800 Stream Prozessoren bzw. den 160 (5D) Alu Shadern und dem schnellen GDDR5 Speicher.
BTW:
Es soll bereits ein "Hobby-Programmierer" geschaft haben die PhysX Engine jetzt schon auf einer 3800 zu beschleunigen.
PhysX-Beschleunigung auf ATi Radeon HD 3800?
Wenn der das kann, dann wird es wohl sicher nicht mehr lange dauern, bis es offiziell von ATi unterstützt wird. Theoretisch müsste ATi dann auch bei den Physikberechnungen nVidia davon ziehen mit seinen theoretischen 1,2 TFlops.




Zitieren

