Jup.

Mein Vergleich von gerade hinkt allerdings ein wenig. Es ist nicht so, dass 64 Pipelines gegen 32 antreten, sondern 64 universelle Pipelines des R600 gegen 32 Pixel- + 16 Vertex/Geometry-Pipelines des G80.

Das Problem von nVidia ist halt nur, dass sie nie alle 48 Pipelines voll ausnutzen können, während der R600 alle Pipelines ausreizen kann. Jedenfals theoretisch. Keine Ahnung ob das in der Praxis wirklich funktioniert.

Außerdem muss man beachten, dass Unified-Shader geringfügig langsamer sind, als spezielle Pixel- und Vertex-Shader. Dafür sind sie aber univeseller nutzbar.

Naja. Man wird's abwarten müssen, was sich so ergibt und was die ersten Benchmarks zeigen. Ich hoffe nur, dass der Stromverbrauch nicht bei den befürchteten 175 - 200 Watt liegen wird.

Schade ist auch, dass TSMC anscheinend noch nicht in der Lage ist den R600 in 65 nm zu fertigen. Das soll erst irgendwann im nächsten Jahr möglich sein. Ich weiß allerdings nicht, ob ich darauf warten sollte oder doch einen 80nm Chip nehmen soll.



//EDIT:

Ach jetzt habe ich das erst einmal kappiert. 64 MMAD-Einheiten wären gar nicht so ungewöhnlich. Das Sensationelle, wenn es denn stimmen sollte, ist, dass es 64 physikalische Pipelines sind.

Bisher wurde das immer so gemacht, dass pro Pipeline mehrere MADDs versorgt wurden. Zum Beispiel haben die X1800 und die GeForce 7800 physikalisch gesehen beide nur 8 Pixelpipelines, aber ATi hat 2 MADDs pro Pipeline und nVidia 3 MADDS pro Pipeline angebunden, weswegen die logische Gesamtanzahl von 16 und 24 Pixelpipelines Zustande kommt.

Was das allerdings für nNchteile hat, wenn sich mehrere MADDs eine Pipeline teilen müssen weiß ich im Moment nicht, aber für jede MADD eine eigene Pipeline zu haben scheint wohl von Vorteil zu sein.

Wenn es wirklich 64 physikalische Pipelines sind, dann können wir uns echt auf einen riesigen Stromfresser einrichten.