naja wenn man schon etwas "quoted" und dadrauf eine antwort gibt, sollte es schon richtig sein.
Asus P5B Deluxe auf dem stecken
C2D E6300@3,3ghz | 2gb G.Skill 6400 cl4 | 8800gt 512mb | SB Audigy 4
letzendlich giung es da um den Test von CB wo nVidia's 9800GX2 mal wieder ATI eingeholt hat, inkl noch nich finalem Treiber für die GraKa ^^
Nvidia bräuchte echt mal nen Dämpfer aber das wird leider noch etwas dauern![]()
Wenn ATI wirklich ne MegaKarte mit 800 StreamProzis hat, dann hoffe ich das es keine "mehrkern" GPU wird weil dann wird es denk ich nich soviel bringen![]()
Glaubt man den Spezifikationen für den G100 bzw G200 dann könnte das eine harte nuss für AMD/ATI werden. Wenn ich das noch richtig in erinnerung habe dann sollte auf dem teil 1 oder 2 GB GDDR5 Speicher verbaut werden mit sage und schreibe 2200MHz inkl 780MHz GPU takt und 512bit Speicheranbindung wodurch eine Bandbreite von gut 205.000 MB/s erreicht werden könnten.
EDIT: (wie glaubwürdig auch immer, heutzutage is einigesw möglich!!!)
Hier die daten wie ich sie gefunden hatte:
Codename: G100
Herstellung in 65 nm
256 Stream-Prozessoren
780 MHz Chiptakt
3.200 MHz Speichertakt
512 Bit Speicherinterface
2.048 MB (256 X 8 GDDR5 (0.25-0.5 ns)
Dual DVI
Unterstützung für DirectX 10.1, VP3 <LI class=last-child>15–25 Prozent geringere TDP als GeForce 8800 GTS
Ich betone nochmals "alles gerüchte!!!!!" sollten sie aber wahr werden wird es für AMD/ATI schwieriger. Andererseits könnte ich nich verstehen warum nVidia auf sowenige Streamprozessoren baut?!
OMG, Gott hilf mir!!!
Dieses Denken ist genauso dumm, wie die Leistung einer Graka am VRAM auszumachen! ATI Stream Prozessoren sind NICHT gleich Nvidia Stream Prozessoren!
Die HD3870 hat derzeit 320 Stream Prozessoren, die 8800GTX aber nur 128 Stream Prozessoren! Die 8800GTX ist aber dennoch schneller als die HD3870.
Ich zitiere mal einen User aus PCGH:
Leute, ich möchte hier niemanden beleidigen, aber bitte glaubt nicht sofort jeden ******! Und vor allem bitte ich euch diese dumme Amy Denkweise: "Bigger is Better" abzugewöhnen.Laut AMD/ATI besitzt die Radeon HD 2400 insgesamt 40 Streamprozessoren, welche für die Berechnung von Shaderanweisungen zuständig sind. Um diese Anzahl besser einschätzen zu können, sollen folgende Beispielrechnungen helfen:
Die Radeon X1950 XTX besitzt beispielsweise insgesamt 56 Shadereinheiten (48 Pixel- und 8 Vertexshader). Jede Einheit kann die Komponenten Rot, Grün, Blau und den Alphawert berechnen. Hier spricht man von 4D.
Die Geforce 8800 besitzt insgesamt 128 Streamprozessoren. Diese können aber nur eine einzige Komponente berechnen. In diesem Falle sind die Streamprozessoren 1-dimensional (1D). Teilt man nun die 128 Streamprozessoren durch vier, so kommt man auf 32 Pixelshader der alten Technik!
Die Radeon HD 2400 eigentlich nur 8 "richtige" Streamprozessoren. Diese sind aber in der Lage neben den klassischen Komponenten Rot, Grün, Blau und den Alphawert noch eine weitere 1D-Skalaranweisung zu berechnen. Die Radeon HD 2400 ist demzufolge 5-dimensional (5D). Laut AMD/Ati sind die Streamprozessoren „a 5-way superscalar shader processor“. Im Vergleich zur Geforce 8800, welche nur 1-dimensionale Streamprozessoren besitzt, spricht AMD/ATI zurecht von 40 Streamprozessoren (8 x 5 = 40), denn jeder Streamprozessor auf der Radeon HD 2400 können bis zu 5 Anweisungen parallel zugewiesen werden.
Zu guter letzt kann man nun noch die Radeon HD 2400 mit der alten Radeon X1950 XTX vergleichen. 56 4-dimensionale Shadereinheiten ergeben nach "der neuen Rechnung" 224 Streamprozessoren (56 x 4 = 224). 40 Streamprozessoren der Radeon HD 2400 sind also alles andere als viel!
Gleiches gilt andersherum natürlich dann auch für die 320 Streeaming Prozessoren des RV670. Nach alter Technik wären das gerade mal 64 Pixelshader. Das würde zwar imemrnoch gut dem Doppelten des G92 entsprechen, das Verhältnis 64 zu 32 trifft die Sache aber schon eher als 320 zu 128, da man nun annehmen müßte, das der RV670 nur nooch doppelt und nicht mehr 3mal so schnell ist wie ein G92.
Warum ist der G92 dann aber immer noch schneller?
Bei der Radeon HD 2xxx-Serie werden der eigentliche Grafikchip (GPU) und die Shadereinheiten identisch getaktet. Bei den Geforce 8xxx-Modellen werden die Shadereinheiten (also die Streamprozessoren) deutlich höher getaktet. So beträgt beispielsweise bei der Geforce 8500 GT der Chiptakt 450 MHz und der Takt der Shadereinheiten 900 MHz.
Das heißt, die Shader sind doppelt so schnell, 32 können also die Arbeit von 64 verrichten, weshalb der G92 und der RV670 leistungsmäßig in der etwa der gleichen Klasse spielen.
Das der G92 dann doch immer noch ein Tick schneller ist, liegt möglicherweise daran, das der G92 möglichweise insgesamt höher taktet (wenn man sich die Abwärme angut, glaub ich das gerne) oder aber auch daran, das NVidias Archetektur effezienter ist.
Geändert von HunT (16.03.2008 um 20:49 Uhr)
"Mit dem Wort 'Zufall' gibt der Mensch nur seiner Unwissenheit Ausdruck."
(Laplace, frz. Astronom u. Mathematiker, 1749-1827)
Sind wir jetzt schlauer? Nein!
Das ist wie wenn ich sage, Wolfsburg soll den Riesenvorteil gegenüber Bayern haben. Warum? keines Ahnung! Aber total krass ey alter, aber Bayern hat auch was krasses in der Hinterhand...
So ein Riesenmüll... Sorry... Aber die Meldung hat in etwa so viel Gehalt wie der Haufen den ich eben ins Klo gejagt hab...
kommt drauf an in welcher hinsicht!! in den höheren resis kann kein g92 dem g80 des wasser reichen! es muss sich jetzt keiner hier die mühe machen und was anderes behaupten, denn es ist fakt! aber hier gehts ja eig um was anderes, worüber man gar noch nix sagen kann, weil nix wirk festes bekannt ist .. eig mehr oder weniger sinnlos und zudem sorgt es wieder 1x mehr für flames und aufhetzung der user hier. ist ja "schön", wenn ein konkurrenzkampf herrscht, aber schon nur der satz "schock für nvidia" sorgt wieder riesig für aufruhr. warten wir doch erst ma ab und sind vernünftig ..
Geändert von -THRiLLiAL- (16.03.2008 um 22:34 Uhr)