
Zitat von
noxon
Warum nicht? Ich finde den Ansatz von ATi recht clever. Anstatt einen Mega-Chip zu basteln und diesen dann künstlich zu beschneiden produzieren sie einen günstigeren, einfacheren aber schwächeren Chip, den sie dafür in einem verbessertem CF Verbund laufen lassen können.
Anstatt zwei komplette Chips parallel laufen zu lassen, schalten sie nur die Kernkomponenten der Chips zusammen und diese teilen sich dann die globalen Dinge, wie das Speicherinterface.
ATi hat dank dieser Methode den Vorteil die Streamprozessoren sehr einfach vervielfachen zu können indem einfach mehrere Kerne verwendet werden, während nVidia immer nur die Chance hat von den maximal verfügbaren Shadern einige zu deaktivieren.
nVidia hat ja auch schon gesagt, dass der GT200 ihre letzte Single-Core GPU sein wird. Die nächsten werden auch Multi-Core GPUs sein und ATi ist in diesem Falle halt etwas schneller. Technisch sind sie das eigentlich schon immer gewesen. Sie schrumpften eher auf kleinere Strukturen. Bei der Implementierung der ersten DirectX10 Fähigkeiten und die Einfühung der Geometry Shader war ATi schneller als nVidia. Auch jetzt wieder mit DX 10.1 und der Tessalation Unit. Sie sind auch Vorreiter, was den GDDR5 Speicher betrifft und jetzt eben auch was Multi-Core GPUs angeht.
nVidia ist schon immer mehr auf Nummer sicher gegangen, während ATi die Entwicklung schneller vorangetrieben hat. Wirtschaftlich gesehen ist das vielleicht nicht immer sinnvoll gewesen, aber trotzdem können wir ATi dankbar sein, dass sie nVidia auf Trap halten.