-
Oh, jetzt bin ich überfragt. Hab mir die Stromstecker nicht angesehen. Allerdings erzielt man Mehrleistung kaum noch mit einer höheren Speicherbandbreite und schon gar nicht mit mehr Grafikspeicher. Selbst derzeit gibt es kaum ein Spiel das mit 512MB etwas anfangen kann, das spielt erst eine Rolle ab Auflösungen von 1600x1200 und aufwärts, was kaum jemand verwendet und auf den meisten Monitoren auch gar nicht zu empfehlen ist.
Der R600 ist ja generell etwas anderes aufgebaut und die 30-40% sind noch nicht bestätigt, sondern nur Gerüchte. Realistisch rechne ich eher mit ca. 20%, bedingt auch durch die längere Enwicklungszeit. Wäre ja Peinlich wen der R600 nicht schneller wäre.
Das nVidia da was gebastetlt hat, erwarte das nicht, es stimmt nicht. nVidia bastelt erstmal daran die gewinnbringenden Karten auszubauen, und das sind nun mal die Einsteigerkarten für den OEM Bereich. Die High End Karten bringen keinen Gewinn sondern nur Prestige.
nVidia ist auch gar nicht in Zugzwang, sie haben ja fast 6 Monate Vorsprung und können sich etwas zurück lehnen. ATI muss was bringen, dann wird nVidia einfach mit leichten Verbesserungen Kontern. DDR4 wäre hier ein Thema für nVidia.
Aber erstmal abwarten. Sicher kann man nie wirklich sein.
-
deswegen mein ich ja das die platinen des G80 ausbaufähig sind! Wer weiß was die machen und Nvidia wird schon am nächsten chip arbeiten sonst gingen ja nich wieder so gerüchte um die nächste generation rum!
Der R600 wird denk ich doch durch seine Speicherbandbreite und die daraus resultierende Speicheranbindung mehr leistung raus holen. Vor allem taktet der GDDR4 höher als der GDDR3.
zu deiner Auflösung, alles läuft heutzutage darauf hinaus, HardcoreGamer wollen auch hohe Auflösung RIESEN bild etc.... Mein Monitor reicht mir auch nicht wirklich hätte da gern was größeres aber erstmal hab ich mir den PC gegönnt dann kommt später der neue 21" oder größere TFT :twisted:
-
So wie ich das gehört hab kommt der R600 am anfang nur mit GDDR3 raus und danach wirt auf GDDR4 umgerüstet.
21"? Mikrich bei den Karten ist 24"+ angesagt !
-
Verrückter.
Das wäre mir das Geld nicht Wert. Da fahre ich lieber mit meiner Freundin in den Urlaub, geh ein paar mal mehr ins Theater oder tu sonst was. Aber jedem das seine. Irgendjemand muss die teuren Dinger ja kaufen :lol:
Die Gerüchte gehen immer und überall herum. Aber der "neue" Chip wird nur ein lauer Aufguss sein, so wie es bisher immer war. Was wirklich neues oder viel schnelleres wirst du nicht sehen. Nicht vor Ende diesen Jahres.
Und nochma. Ob z.B. die 8800GTX eine Speicherbandbreite von, wie jetzt, 86,4GB/sec hat oder 70GB/sec, würde in der Leistung so gut wie keinen Unterschied machen, da diese riesige Bandbreite gar nicht genutzt wird. Deshalb ist eine X1950XTX auch nicht viel schneller als eine X1900XTX, obwohl sich hier die Bandbreite um fast 15GB/sec unterscheidet, zugunsten der X1950XTX!
-
Wirt die volle Bandbreite von der 8800GTX auch mit DX10 nicht ausgelastet?
Wenn nein: Warum macht sich NV (oder ATI) dann soviel mühe immer größere Bandbreiten zu entwickeln?
Das verstehe ich nich!
Wegen den Monitoren:
Ich würde mir einen großen Monitor nicht nur zum Spielen holen.
Ich arbeite öfters mal mit Photoshop o.ä. , da ist eine schöne große Arbeitzfläche eig. immer sehr angebrecht.
-
Dies Bandbreiten werden erst in sehr hohen Auflösungen mit hohem AA und FFA genutzt. Dann macht das Sinn. Aber dann muss man schon in Auflösungen Jenseits von 1280x 1024 spielen. Sinnvoller wäre hier 1600x1200 als Mindestmaß zu nehmen. Das ist ja auch der Knackpunkt beim Grafikspeicher allgemein. Was kaum jemand versteht ist, das 512MB Grafikspeicher bei 1280x1024 völlig Unnötig sind.
Sicher ist Speicherbandbreite wichtig und auch oft ein Knackpunkt in der Leistung, aber in den Gefilden in dem sich eine 8800GTX bewegt ist das halt nur in extremen Auflösungen interessant.....
-
Da gebe ich Cellux recht, die Bandbreiten sowie die menge der speicher werden immer größer und größer... wir reden hier von einer neuen architektur, die Speicher der heutigen GraKas (sprcih DX10) werden auch für die Streamprozessoren genutzt denke ich...
ich weiß nur soviel, das die GraKa jetzt anhand der Treiber durch DX10 selber entscheiden kann wieviel Ram für Shader oder auch für dies oder das genutzt wird... dazu kommt die Physik berechnung die auch teilweise auf die Grafikkarten ausgelegt wird... daher mehr Speicher für die Grafikkarten :wink:
Das wirkt sich bei DX9 nicht aus, das ist mir klar aber der R600 wird halt auch eine DX10 karte vn daher wird er auch unter DX9 eine beachtliche leistung erbringen durch eben des hohen Speicher ...
-
Jetzt bin ich aber mal Neugierig... was glaubt ihr den was SM4 oder DX10 genau ist? ICh habe das gefühl das ihr das irgendwie falsch verstanden habt. Eigentlich ist DX10 nichts weiter als ein erweitertes DX9. Und zwar lediglich in der Form das Vertex und PixelShader nicht mehr getrennt sind und nun völig Frei zur Verfügung stehen. Durch den einfacheren Aufbau können Shader schlichtweg einfacher und Vielfältiger genutzt werden, mehr nicht. Das ist alles. Neue Effekte gibt es unter DX10 nicht, alles gabs schon unter DX9, nur das hier das Problem bestand das durch den komplexeren Aufbau der Shader die Effekte nicht gezeigt werden konnten, weil der Aufwand so viel Performance kostet das sich dann nix mehr auf dem Schirm getan hätte. Einen neuen Effekt gibt es schlichtweg nicht.
Zudem wird die Physikberechnung entweder auf den zweiten Core ausgelagert oder auf eine Separate Grafikkarte, ansonsten bleibt es da auch wie gehabt. Einen festen Standard gibts es noch nicht. Welcher der drei bisherigen Ansätze sich durchsetzen wird, ist noch offen.
Speicherbandbreite hin oder her, derzeit dürfte die reine Shaderleistung wichtiger sein, und Shader verbrauchen nicht viel Speicher da sie in Echtzeit eingefügt werden.
-
damals waren Vertex und pixelshader auch auf Hardware getrennt, erst durch die DX10 Architektur wurde das frei und nun ist es der GraKa möglich mehr für diesen oder jenen shader zu nutzen dazu gehört auch der Ram!!! damit sich das ganze prog treiber sowie hardware entscheiden können wieviel sie für was nutzen... eben diese nutzt auch der R600
-
Der Ram ist schon immer frei Verfügbar und hat nichts mit der GPU direkt zu tun. Es ist lediglich ein Auslagerungsplatz... merh nicht.. und ist es jetzt mit DX10 auch nicht mehr. Oder was meinst du mit "damit sich das ganze prog treiber sowie hardware entscheiden können wieviel sie für was nutzen"
Das konnten die Treiber oder das Prog oder was auch immer schon seid der ersten Grafikkarte mit eigenem Speicher.