Zitat Zitat von noxon Beitrag anzeigen
Warum nicht? Ich finde den Ansatz von ATi recht clever. Anstatt einen Mega-Chip zu basteln und diesen dann künstlich zu beschneiden produzieren sie einen günstigeren, einfacheren aber schwächeren Chip, den sie dafür in einem verbessertem CF Verbund laufen lassen können.
Anstatt zwei komplette Chips parallel laufen zu lassen, schalten sie nur die Kernkomponenten der Chips zusammen und diese teilen sich dann die globalen Dinge, wie das Speicherinterface.
ATi hat dank dieser Methode den Vorteil die Streamprozessoren sehr einfach vervielfachen zu können indem einfach mehrere Kerne verwendet werden, während nVidia immer nur die Chance hat von den maximal verfügbaren Shadern einige zu deaktivieren.

nVidia hat ja auch schon gesagt, dass der GT200 ihre letzte Single-Core GPU sein wird. Die nächsten werden auch Multi-Core GPUs sein und ATi ist in diesem Falle halt etwas schneller. Technisch sind sie das eigentlich schon immer gewesen. Sie schrumpften eher auf kleinere Strukturen. Bei der Implementierung der ersten DirectX10 Fähigkeiten und die Einfühung der Geometry Shader war ATi schneller als nVidia. Auch jetzt wieder mit DX 10.1 und der Tessalation Unit. Sie sind auch Vorreiter, was den GDDR5 Speicher betrifft und jetzt eben auch was Multi-Core GPUs angeht.

nVidia ist schon immer mehr auf Nummer sicher gegangen, während ATi die Entwicklung schneller vorangetrieben hat. Wirtschaftlich gesehen ist das vielleicht nicht immer sinnvoll gewesen, aber trotzdem können wir ATi dankbar sein, dass sie nVidia auf Trap halten.
Ich finde diese Entwicklung zwar auch gut, aber wie ich es eben sagte, Entwicklung kostet Geld und woher hatte ATI bitteschön das Geld, um sowas zu verwirklichen? Ich denke, das mit dem zwei Chips on DIE oder on Package ist beim R700 eher noch Wunschdenken oder war zumindest so geplant, dann fehlten aber die finanziellen Mittel. Ich könnte mir das jedoch beim R800 gut vorstellen, nachdem ATI wieder Gewinn einfahren konnte durch die HD4xxx Serie.

Und so technisch hinkt Nvidia auch nicht hinterher. Wer brachte denn zuerst SM 3.0 in eine Karte? Nvidia, denn ATI hat es damals nicht für nötig empfunden und jetzt das gleiche Spiel mit DX10.1, nur umgekehrt...

Technologisch war ATI schon immer besser oder sagen wir einfach - aktueller - als Nvidia. Allerdings ist Nvidia bei vielen auch deshalb so beliebt, weil sie im Gegensatz zu ATI nicht einfach nur andauernd neue Technologien rausbringen, sondern alte Technologien ausreizen, bevor man zum neuen übergeht und dadurch nochmals ordentlich Leistung bekommt. Sieht man ja wunderbar am GT200, der quasi das Maximum des G80 ist. Erreicht fast die Performance von 2x 8800GTX, aber so war es von den Nvidia-Ingenieuren auch geplant. Nicht mehr, nicht weniger.

Dass die HD4870 nur deshalb fast so schnell ist wie die GTX 280, verdankt sie den 800 Stream Prozessoren bzw. den 160 (5D) Alu Shadern und dem schnellen GDDR5 Speicher.

Das spielt im Endeffekt aber keine Rolle! Was wichtig ist, dass es wieder Konkurenz im Graka Markt gibt und somit werden beide Lager zu besseren und neuen Technologien angespornt.