Vielleicht weiß ja der Noxon etwas genaues über die Karten. Eventuell ahnt er ja was bezüglich des Stromverbrauchs.
Druckbare Version
Vielleicht weiß ja der Noxon etwas genaues über die Karten. Eventuell ahnt er ja was bezüglich des Stromverbrauchs.
yeaha wird das wieder teuer ^^
Mehr ist ja bisher nicht bekannt, lassen wir uns doch überraschen. Ich denke mal das die DIE geshrinkt is und im 65nm verfahren produziert wird und somit der Stromverbrauch niedriger sein wird aber denke mal dank der hohen leistung immer noch etwas über der 8800Ultra liegen wird.
Strom? Ich sag nur:
E-On-Bayern; ... Strom für immer, und jeden Tag :D :lol: (höre Radio :wink: )
Nein, scherz, bin auch mal auf den Stromverbrauch gespannt (ich werd ja jetz schon halb wegen meiner Graka wegen Strom "gekillt" :lol: :D )
Wow, hört sich echt geil an. Dann müsste nämlich auch die 8800GTX nochmal billiger werden, dann steht einer 2. zu jahresende nichts mehr im Wege :lol:
Wie geil... :-)
Bin jetzt schon auf die kommenden Tech-Demos von Nvidia gespannt...
Wenn mit der GeForce 8800 Ultra die Human Head Demo machbar is, was wird wohl dann nur am Ende diesen Jahres auf uns zukommen ???
Abgesehen davon, weiß schon jemand, ob die G92 Chips bereits ne neue DirectX-Revision unterstützen ???
DX10.1 kommt ja zeitnah raus, wenn ich mich net irre...
Das denke ich nicht. Die Gigaflop-Leistung ist nicht mit der Grafikleistung der Graka gleichzusetzen. Die Hersteller geben ganz gerne mit Flop-Werten an, aber die haben absolut keine Ausagekraft darüber, wie die Leistung letzendlich umgesetzt wird.Zitat:
Zitat von dapalme
Und wer weiß, ob diese Flops überhaupt vergleichbar sind. Ein Flop ist ja nicht fest definiert. Das bedeutet ja nichts anderes, als das der Chip eine Billiarde Fließkomma-Operation pro Sekunde durchführen kann. Es steht aber nirgendwo geschrieben, was das für Operationen sind.
Ich kann auch mit einem Flop rechnen, wenn ich die Wurzeln aus 1, 4 oder 9 ziehen soll, aber bei Werten wie 239713324137 sieht das schon anders aus.
Beides ist jeweils ein Flop. Ein Flop sagt also nichts darüber aus, wie komplex die Berechnung ist, sondern sagt lediglich etwas über die anzahl der Berechnungen aus. Es bringt ja nichts, wenn der G80 eine Billiarde 1*2 Rechnungen durchführen kann. Damit kann er keine Grafiken zeichnen.
Ich würde also nicht erwarten, dass die Karte 3 mal so schnell ist. Als Maximum würde ich die 2-fache Geschwindigkeit ansetzen. Die Vergangenheit hat gezeigt, dass dies der Durchschnittszuwachs zwischen den Chipgenerationen ist und ich denke das wird sich ähnlich wie das Mooresche Gesetz fortsetzen.
Meint ihr eigentlich, dass der G92 noch auf die jetzigen Mainboards passen wird?
Hoffentlich muss ich nicht ne Einkerbung von der Größe eines Schuhkartons an mein Case basteln, damit die Karte da reinpasst. :wink:
also irgendwie kommts mir so vor, als säße ich inner Zeitmaschine, so schnell wie die Graka-Generationen an einem vorbeirauschen...naja, Schaden tuts ja nicht. Ist eigentlich bekannt, ob es da wieder einen Sprung in der Architektur geben wird?
bleibt vorerst PCI-E ;)Zitat:
Zitat von Die_Chriele