Vielleicht weiß ja der Noxon etwas genaues über die Karten. Eventuell ahnt er ja was bezüglich des Stromverbrauchs.
Vielleicht weiß ja der Noxon etwas genaues über die Karten. Eventuell ahnt er ja was bezüglich des Stromverbrauchs.
yeaha wird das wieder teuer ^^
Mfg ev1lbert
Intel Pentium D 805 (Sockel 775, 2x 3.00GHz) Gigabyte geforce 9600 GT 4x 512MB RAM (DDR2-533) 250GB S-ATA2 Festplatte ( 7.200 U/min )
Freecom externe Festplatte 400 GB
Strom? Ich sag nur:
E-On-Bayern; ... Strom für immer, und jeden Tag![]()
(höre Radio
)
Nein, scherz, bin auch mal auf den Stromverbrauch gespannt (ich werd ja jetz schon halb wegen meiner Graka wegen Strom "gekillt"![]()
)
Wow, hört sich echt geil an. Dann müsste nämlich auch die 8800GTX nochmal billiger werden, dann steht einer 2. zu jahresende nichts mehr im Wege![]()
Wie geil...
Bin jetzt schon auf die kommenden Tech-Demos von Nvidia gespannt...
Wenn mit der GeForce 8800 Ultra die Human Head Demo machbar is, was wird wohl dann nur am Ende diesen Jahres auf uns zukommen ???
Abgesehen davon, weiß schon jemand, ob die G92 Chips bereits ne neue DirectX-Revision unterstützen ???
DX10.1 kommt ja zeitnah raus, wenn ich mich net irre...
Das denke ich nicht. Die Gigaflop-Leistung ist nicht mit der Grafikleistung der Graka gleichzusetzen. Die Hersteller geben ganz gerne mit Flop-Werten an, aber die haben absolut keine Ausagekraft darüber, wie die Leistung letzendlich umgesetzt wird.Zitat von dapalme
Und wer weiß, ob diese Flops überhaupt vergleichbar sind. Ein Flop ist ja nicht fest definiert. Das bedeutet ja nichts anderes, als das der Chip eine Billiarde Fließkomma-Operation pro Sekunde durchführen kann. Es steht aber nirgendwo geschrieben, was das für Operationen sind.
Ich kann auch mit einem Flop rechnen, wenn ich die Wurzeln aus 1, 4 oder 9 ziehen soll, aber bei Werten wie 239713324137 sieht das schon anders aus.
Beides ist jeweils ein Flop. Ein Flop sagt also nichts darüber aus, wie komplex die Berechnung ist, sondern sagt lediglich etwas über die anzahl der Berechnungen aus. Es bringt ja nichts, wenn der G80 eine Billiarde 1*2 Rechnungen durchführen kann. Damit kann er keine Grafiken zeichnen.
Ich würde also nicht erwarten, dass die Karte 3 mal so schnell ist. Als Maximum würde ich die 2-fache Geschwindigkeit ansetzen. Die Vergangenheit hat gezeigt, dass dies der Durchschnittszuwachs zwischen den Chipgenerationen ist und ich denke das wird sich ähnlich wie das Mooresche Gesetz fortsetzen.
Lest euch bitte unsere FAQs für grundsätzliche Fragen zu Crysis durch und beachtet bitte unsere Forenregeln.
Meint ihr eigentlich, dass der G92 noch auf die jetzigen Mainboards passen wird?
Hoffentlich muss ich nicht ne Einkerbung von der Größe eines Schuhkartons an mein Case basteln, damit die Karte da reinpasst.![]()
also irgendwie kommts mir so vor, als säße ich inner Zeitmaschine, so schnell wie die Graka-Generationen an einem vorbeirauschen...naja, Schaden tuts ja nicht. Ist eigentlich bekannt, ob es da wieder einen Sprung in der Architektur geben wird?
bleibt vorerst PCI-EZitat von Die_Chriele
![]()