man sollte nicht alles glauben, was dort steht, häufig lagen die auch schon daneben (man erinnere sich an die angeblichen G80 Bilder), aber wenn es denn doch so kommen sollte dann wäre es schon schön
Druckbare Version
man sollte nicht alles glauben, was dort steht, häufig lagen die auch schon daneben (man erinnere sich an die angeblichen G80 Bilder), aber wenn es denn doch so kommen sollte dann wäre es schon schön
Nvidia is nichblöde, die geben dem R600 schon etwas zum angst kriegen, und das 4-5 monate nach der 8800GTX lol....
Die 8900GTX werd ich mir nur dann holen wenn sich der leistungssprung auch lohnt, unter 25% mehr als die 8800GTX werd ich nix mehr holen!!!
ach, das war ja mit der 7900GT genauso, hat auch keiner erwartet :)Zitat:
Zitat von R4PtoR
ich besorg mir eh immer nur alle paar jahre ne neue hardware .Zitat:
Zitat von dapalme
von ner 8800 auf ne 8900 wäre für mich persönlich rausgewurfenes geld ....
nVidia versucht G80-Stromverbrauch zu drosseln
Bezüglich der Geschwindigkeit und der Bildqualität gibt es bei der G80-GPU von nVidia in Form der GeForce-8800-Serie kaum etwas zu bemängeln. Anders sieht es dagegen beim Stromverbrauch aus, der vor allem im Idle-Modus unnötig hoch ist.
Als wir nVidia auf dieses Thema ansprachen, gab der „Central European Product PR Manager“ von nVidia, Jens Neuschäfer, uns gegenüber bekannt, dass nVidia derzeit einen Treiber in Entwicklung hat, der den Stromverbrauch der G80-GPU im Leerlauf deutlich senken soll. Dies soll nicht nur durch eine starke Taktminderung sowie einer Reduzierung der Spannung, sondern ebenfalls durch eine Deaktivierung der Shadercluster bewerkstelligt werden. Der G80 hat insgesamt acht dieser Shadercluster (welche die ALUs, TMUs, TAUs sowie ein Großteil des Caches beinhalten), die selbst bei Verwendung der Aero-Oberfläche unter Windows Vista nicht nötig sind.
Wann und ob überhaupt solch ein Treiber erscheinen wird, konnte uns nVidia nicht sagen. Einzig, dass nVidia versucht einen entsprechenden Treiber zu programmieren, kann man als gesichert ansehen.
http://www.computerbase.de/news/hard...tromverbrauch/
Ich warte mal bis August/Juli dann ist sicher die 8900GS(512Mb) draußen die man mit ein bisschen ocen zu ner GT macht 8)
August ist ein günstiger Monat da ich das Geld für den Ferialjob bekomme
und der Preis für den C2Q Q6600 auf 266$=200€ sinkt
Hoffe mal ein Quad reicht für Crysis
http://www.computerbase.de/news/hard...rodukte_intel/
lol ein quad reicht für crysis 100mal
auf der präsentation auf der cebit meinten die das wenn man crysis auf max. details spielen will eine dx10 karte braucht und vllt auch einen c2d/c2q also wird der allemal reichen!