Zitat von Kaktus79
Ui.. langsam wird es schwierig.... *g*!
Wo fang ich an......
Speicher:
Sicher ist schnellerer Speicher wichtig, keine Frage, es geht mir auch mehr um die größe des Speichers der ungenutzt bleibt. Im ernst, es ist eher ein Marketing Trick als wirklich nützlich. Keiner würde heute einem Hersteller glauben das seine Karte eine High End Karte ist wen sie nur 256MB Speicher hätte. Es gibt ja auch eine X1600pro mit 512MB, was ja auch völlig Witzlos ist. Bei den super High End Karten ist es so, da diese für enorme Auflösungen gebaut werden und da auch der Speicher genutzt wird. Man geht einfach davon aus das der Hardcore Gamer Auflösungen ab 1600x1200 fährt, tun ja auch viele, aber eben nicht alle. Man wird demnächst sehen was ich meine, wen die 8800GTS mit 320MB auf den Markt kommt. Diese mit der aktuellen 640MB Version verglichen wird man erst Unterschiede in höheren Auflösungen sehen.
Die Speicherbandbreite an sich wirkt sich nur aus wen die GPU aus mitziehen kann. Und eine 8800GTX dürfte bei dieser Speicherbandbreite schon ziemlich ausgeschöpft sein. Einfach nur den Speichertakt zu erhöhen wird kaum etwas bringen wen man nicht parallel den GPU Takt mit erhöht. Das muss im Gleichgewicht sein. Ich habe meine X1900GT im Speichertakt höher als eine X1900XT, aber es bringt mir eigentlich nichts ob ich diesen mit 1400Mhz oder 1640Mhz laufen lasse, einfach weil die GPU nicht mehr mitkommt, so sieht es auch ähnlich bei der 8800GTX und 8800GTS aus.
Quad SLI!
Für was ist das den genau ausgelegt? Für 1280x1024? Bestimmt nicht. Es ist die Möglichkeit extrem hohe Auflösungen flüssig darzustellen, bei den Standard Auflösungen macht SLI kaum Sinn, da das System völlig unterfordert ist. Die Sache mit der Physik Berechnung auf einer Seperaten Grafikkarte ist noch ein wenig Zukunftsmusik und wird bisher nicht unterstützt. Wünschenswert wäre diese Lösung für High End Gamer sicherlich, da die wichtige Floting Point Berechnung bei einer Grafikkarte teilweise um da 20ig Fache höher ist als bei einer CPU die dafür schlichtweg nicht ausgelegt ist. Eine kleine zweite oder dritte Grafikkarte kölnnte diese Berechnung spielend übernehmen, richtig. Aber es hat sich noch nicht durchgesetzt. Abwarten. Ich hoffe es, den es hat mehr Vorteile als eine PhysikX Karte, die lediglich Effektphysik darstellen kann und keine echte Spielephysik, was in meinen Augen etwas erbärmlich ist.
So.. hab ich was vergessen? Das Thema wird immer größer :lol:
Achja.. das nVidias G80 GPU schon ziemlich einer CPU ähnelt ist bekannt.... aber das sagt kaum etwas über die Leistung aus. Nur das man Theoretisch die GPU als CPU verwenden könnte.. zumindest fast. Einige überhebliche Fachleute munkeln das nVidia ins CPU Geschäft will. Bedenkt man aber wie winzig die Reccourcen nVidias im Gegensatz zu AMD oder Intel sind, ziemlich unwahrscheinlich. ATI war für AMD auch nur ein etwas größerer Einkauf, der aber aus der Portotasche bezahlt wurde. :wink: