nVidia GT200 Infos/Spekulationen - Sammelthread
Druckbare Version
nVidia GT200 Infos/Spekulationen - Sammelthread
Boah, wenn die karte so kommen würde, wäre echt jeder froh. Das wäre ein riesen Leistungsplus, da ja die Werte fast doppelt so hoch sind, wie die des G92 Chips und die sind ja schon recht gut ;) Ich denke, dass diese Karten endlich ausreichen dürften für jeden Cyrsis und vllt auch Crysis 2 Spieler, das wäre so goil :D
Wenn die rauskommt kaufe ich mir direkt zwei oder drei von den Karten, das geld für 1,5 Grafikkarten habe ich schon zusammen. Ich hoffe mal, dass mein Prozessor dann nicht für manche Spiele schon zu langsam ist bzw. die Grafikkarten ausbremst.
Die Zeit verrint und der neue Grafikchip GT200 rückt näher!
Im Internet gibt es zurzeit viel Spekulationen über die kommende neue Grafikgeneration. Während die einen noch spekulieren ob die Karte den Namen G100 oder GT200 tragen soll, diskutieren andere darüber ob die Karte aus 2 Dies bestehen soll (also 2 Grafikkarten). Daher ist nicht ganz unwarscheinlich das die Grafikkarte wie die 98GX2 aus 2 Chips besteht.
Ich persönlich fände einen zusammenschluss zweier Karten verbaut als eine immer nicht als beste Lösung. Weiterhin wäre das für Nvidia wohl der einfachste Weg. Denn der Zusammenbau bestände sodann aus 2 G92b chips. Das heißt NV müsse sich nicht viel Arbeit machen um den kommenden RV700 Chip von ATI die Krone erneut zu entreisen.
Viel Interessanter wäre allerdings dann allerdings die Singlecard als GT200. Extrem wäre natürlich das Ausmaß dieses Chips. Wenn man mal die Vergleichstabelle (unten) anschaut und vergleicht die einzelnen daten z.b. die Transistoren kann man schon enorm viel Leistung erwarten. Die Tabelle ist natürlich auch nur eine Möglichkeit wie der Chip kommen könnte.
Auf diese Option hoffe ich natürlich am meißten und man findet im Internet auch diesbezüglich das meißte.
http://www.pcgameshardware.de/aid,64...i/Juli_kommen/
Wie ich auch schon gelesen habe soll das Tapeout der Karte schon bereits im April gelaufen sein. Sodass der Launch der Karte schon im Juni/Juli erwarten kann. Sicher ist dies allerdings nicht, da auch noch bis spät Herbst mit der Ausgabe gerechnet werden darf.
Die verschiedenen Versionen der Karte sind auch noch unbekannt. Ob es eine GTS oder GT geben wird steht noch in den Sternen
Die neue Generation sollte vor allem für uns als CRYSIS-Fans von hoher Bedeutung sein, da das Spiel ja sehr GPU-Lastig ist. Während die Grafikkarte voll arbeitet wird der Quadcore oder der Dualcore nicht voll belastet. Hiermit können wir einen enormen Leistungsschub in CRYSIS mit der neuen Generation erwarten. Kommt die Karte als Single-Chip wie ich hoffe werden wir als Gamer am meißten Profitieren.
http://img517.imageshack.us/img517/6044/gt200vk7.jpg
Mfg LKrieger
Das sind sehr gute Neuigkeiten! Ich werde da sicher auch endgültig zugreifen.
Die 8800GT ist mir jetzt zu alt und die 9600GT ist eine Billigvariante von der 8800GT.
Kleine Grundsatzfrage an alle: Kommt mir das nur so vor oder habt ihr alle immer so viel Geld für Hardware? Wenn ich eure Systeme lesen gehen mir ja manchmal schon die Augen über:shock: Und macht ihr euch auch mal Gedanken über den Stromverbrauch???
naja kann ja seind asdie auch weniger verbrauchen. die neue gt frisst soweit ich weiss auch weniger als meine GTS und bring tmehr leistung. warum soll es dann nicht auch bei G200 sein wo ich ma hoffe das die bald rauskommen!
Die Karte soll angeblich 230 Watt verbrauchen. Aber da is auch noch nicht der Groschen gefallen. Stromverbrauch is eig ok. Bins ja gewohnt von den 3 GTXen^^. Und meinen Strom zahl ich auch selber von da is das schon ok.. Was macht man nicht alles für sein Hobby :DZitat:
Zitat von Tommi-lee
Mfg LKrieger
Stromverbrauch kommt bei mir an erster Stelle, deshalb surfe ich ja auch zu 80% mit der N-Wii. Aber wie es aussehen wird, werden die Karten weniger verbrauchen, als die aktuellen.
Ich werde mir auch kein SLi System zulegen, auch wegen den Verbrauch. Nicht wegen der Kosten, sondern wegen der Umwelt.
Was das Geld angeht: Sowas fragt man nicht ;)
@Pascal Zum Thema Stromverbrauch habe ich hier mal nen Thread erstellt: http://crysis.4thdimension.info/foru...ead.php?t=6079
Du wirst es nicht glauben aber es gibt hier auch Berufstätige ;)
Stromverbrauch/Umweltbelastung ist für mich wichtig. Da aber leider Game PC und Wirtschaftlichkeit kaum vereinbar ist (mein Rechner macht ca 15-20% der Stromrechnung aus) bin ich auf Ökostrom umgestiegen. Aber trotzdem würde ich mir eine 9900 nur dann einbauen wenn sie nicht mehr oder weniger als meine 8800GTX verbrauchen würde.
So wie es ausschaut wird die langersehnte "GT200" mit einem Retailerpreis von 499 US$ ab Juni erhältlich sein. Gab ja schon viel Spekulation bezüglich der Karte letzterzeit. Allerdings pendelt sich das jetzt so wies aussieht doch auf Juni diesen Jahres ein.
Der Name GT200 wurde wie ich noch gelesen habe für die Karte jetzt fest definiert. Somit ist die nummerierung wie bisher G70, G80 usw. vom Tisch. Daher wird sie nicht den Codenamen G100 sondern GT200 tragen.
Hier erstmal der Artikel zum warscheinlichem Release. Ich halte natürlich meine Augen für weitere News offen.
Quelle:Zitat:
The new GTX
It looks like the GT200 or D10U card will sell for US$499 and it will be the perfect replacement for the Geforce 9800GTX. We are not sure about the name. Many people have suggested Geforce 9900GTX and GT brands, but we are not sure if these will really be the final names.
The cards based on the GT200 will sell for $499 and the cards are sampled and work well. Nvidia plans to show the cards to journalists in the last week of May and it’s highly likely to see the launch in June, with retail availability.
It will be fun to see if the GT200 will end up faster than the GX2 and if this single big chip can actually beat a dual chip card. We have a feeling it should.
http://www.fudzilla.com/index.php?op...=7286&Itemid=1
EDIT: Hier eventuelle Bilder und Definitionen zur Karte. Allerdings wie bisher noch unbestätigt - nur Spekulation -
http://diy.pconline.com.cn/graphics/...5/1294786.html
http://www.computerbase.de/news/hard...00-karte_netz/
Mfg LKrieger
Ja und Nein (zumindest nicht wegen der Kosten, sondern höchstens wegen der Wärmeentwicklung).
Außerdem ist das Ganze nur halb so wild, wenn man den Rechner von der Steuer absetzen kann. ;)
@Topic:
Ich hoffe, dass es den GT200 auch möglichst bald in 55nm gibt. Ich würde ungerne noch auf 65nm setzen.
Ende des Jahres oder Anfang nächsten Jahres, wenn die neuen Nehalem Prozessoren erscheinen, möchte ich dann auch eine neue Graka kaufen. Ich hoffe, dass es dann schon die ersten 55'er Modelle gibt.
@noxon: Deutet immer mehr darauf hin das sie in 65nm gefertigt wird. Habe aber auch schon gelesen das es evtl noch sowas wie ne Ultra geben könnte die dann in 55nm gefertigt wird. Natürlich auch alles nur Spekulationen.
Aber hoffen können wir nur das es wie noxon schon sagt in 55 gefertigt wird.
Mfg LKrieger
Ich glaube aber nicht, dass der Unterschied zwischen 65nm und 55nm so groß sein wird. Aber auch ich kann nur hoffen, dass auch bald die 55nm Variante kommt.
Naja, meine CPU = 45nm, Chipsatz = 90nm, GT200 = 65nm oder 55nm?
Abwarten...doch wenn das mit den 55nm zu lange dauert, hole ich mir die mit 65nm, solange sie mir genügend Leistung gibt, auch Crysis in Very High flüssig zu zocken.
Das sie zuerst in 65nm scheint wohl wirklich schon festzustehen, aber ich frage mich, wie lange der Schritt nach 55nm dauern wird.
Aber vielleicht hast du recht. So groß wird der Unterschied wahrscheinlich gar nicht sein.
Ich werde die Karte einfach dann kaufen, wenn ich auch meinen Prozessor kaufe. Egal, ob es dann schon eine 55'er Version gibt oder nicht.
Es gibt Neuigkeiten!
Angeblich soll die GT200 über 13000 Punkte im 3DMark Vantage erreichen.
http://www.pcgameshardware.de/aid,64...DMark_Vantage/
Wie ich mir gerade gedacht habe und ihr warscheinlich denkt - das bestimmt wieder nen Fake. Jedoch schreibt PCGames Hardware:Sollte die GT200 wirklich so viel Leistung haben wie jetzt von PCGH geschrieben wird, knackt Sie sogar die Leisung dreier G80 GTX Karten von mir (13910 Vantage Punkte mit Prozzi auf 3,6 und 3 Karten)!!!Zitat:
" Sie werden jetzt sicherlich sagen "Hm, ein Eintrag in einem chinesischen Forum..." - aber der User phk ist üblicherweise gut informiert über die Geschehnisse in der Welt der Grafikkarte - noch bevor sie öffentlich werden."
Nvidia hätte warscheinlich dann endlich mal den Aufruf von uns Gamern :) erhört und bringt doch mal was richtig feines raus.
Die Sache bleibt finde ich jedoch trotzdem noch abzuwarten.
Mfg LKrieger
So gut wie die 3 GTXen von dir:shock: Das wäre der Wahnsinn. ATI bzw. AMD könnte da niemals mithalten.
Gibt wieder neue Informationen.
http://www.fudzilla.com/index.php?op...=7364&Itemid=1
So wies aussieht wird der Launch am 16. Juni stattfinden. Und zwar scheint die neue Karte dann den Namen "GTX 280" oder 9900 GTX tragen. Der Codename soll bei GT200 bleiben.
Mfg LKrieger
600€ für eine GTX 280 wären dann durchaus akzeptabel, da drei 88er GTXen auch so viel kosten.
Gab es bis jetzt überhaupt schonmal so eine starke Leistungssteigerung? Normalerweise ist der Nachfolger doch immer "nur" doppelt so schnell.
@CRYSISTENSE: Nya der Leistungsprung von der G70 zur G80 war ähnlich. Der Preis sollte laut gerüchten sogar bei 499 liegen für die 280 GTX. Nya wir werden warten müssen...
Mfg LKrieger
500€, da würd ich sofort zuschlagen. Kaufst du dir dann eine bzw. 3 oder bleibst du bei deinen 88ern?
Da ich imo Probleme mit Board oder den Grakas habe. Weiß ich noch nicht was ich mache. Wollte eigentlich nicht die 3 88 gleich wieder ausbauen - hat ja schließlich nen haufen gekostet.
Die andere Frage ist - was für eine CPU benötigt man für die Graka das die sich überhaupt angesprochen fühlt:D
Aber nu BTT
Mfg LKrieger
Also wenn die Karte wirklich so dermaßen abgeht, dann bekomm ich auch eine, aber nur, wenn die Steigerung mit GeForce 7 auf Geforce 8 zu vergleichen ist.
Bei dem Dollarkurs könnte ich nicht anders, aber ich bezweifel, dass ihnen ein solcher Sprung nochmal gelingt bzw. ich bezweifle noch eher, dass sie einen solchen Sprung überhaupt wollen. Die wollen die Kunden häppchenweise melken und mit der GeForce8 haben viele Leute zu lange keine neue Karte gekauft. Ich glaub die machen das jetzt eher Häppchenweise, könnte aber ich hoffe trotzdem auf N*Geforce8-GTX (N>=2).
Die Kunden wurden doch schon mit dem G92 genügend ausgenommen;) Jetzt ist wieder ein richtiger Kracher fällig, denn momentan ist die 8800ULTRA immernoch die beste Karte, wenn es um hohe Auflösungen mit AA geht.
Ach du kacke
Und ich hab mir erst ne GTX gekauft -.-
Geforce GTX 280/260: Angeblich offizielle Spezifikationen aufgetaucht
http://www.pcgameshardware.de/aid,64...3Cbr%20/%3Eht/
tja kein gddr 5 aber abwarten.:)
Lassen wir uns mal vom Preis und dem Verbrauch überraschen. Bei weit Jenseits der 300 Euro werde ich sie mir eh nicht vor Oktober/November kaufen und wer weiß ob Nvidia da nicht noch das Weihnachtsgeschäft mit der DDR5 Variante melken will ;)
Also angeblich soll der Chip ja kein DX10.1 unterstützen, was ich schon sehr komisch fände. Ich hoffe, dass sich diese Information als falsch herausstellt, obwohl das auch kein Beinbruch wäre, wenn sie nur DX10 unterstützt. So viel Neues bietet DX10.1 auch nicht.
Naja. Wer weiß. Vielleicht kann DX10.1 ja noch per Software nachgeliefert werden.
Aber PhysX via Cuda ist natürlich eine tolle Sache. Ich bin mal gespannt, wann sich das die ersten Spiele zu Nutze machen. Das wird sich viel schneller durchsetzen, als das bisher mit den PhysX Karten der Fall war.
Hat man eigentlich mal wieder etwas von "Free 4xAA" gehört? Das tauchte damals in den Spekulationen immer auf und hat den Eindruck gemacht, als ob der Chip ein 4x AA beherschen würde ohne das die Performance dabei sinkt.
Das mit dem DX10.1 habe ich auch gelesen. Würde ich aber total daneben finden wenn die Karte es nicht könnte. Noch ein Grund mehr zu warten ;)
Kein GDDR5, dafür aber 512bit! :wink: DX10.1 finde ich auch net so notwendig! PhysiX find ich interessanter, da ich einige PhysiX Spiele habe, aber nie eine PhysiX Karte hatte.
da spricht der Physiker/Mathematiker :-D:-D
@ topic
wenn die tatsächlich das doppelte schafft dann werde ich meine Hardware-Kauf-Pläne wohl noch einmal umdenken müssen. :-D
Ich glaube das sie kein DX 10.1 unterstützen wird, sonst hätte Nvidia nicht dafür gesorgt, dass die DX10.1-Effekte aus AC entfernt werden, für die zwei Monate hätte sich das nicht gelohnt. Zuerst die Effekte deaktivieren und nach einem knappen Monat wieder zu aktivieren, wäre sogar CBS merkwürdig vorgekommen ;-)
Dieses CUDA hört sich ganz interessant an.
Trotzdem gibt es so viele Dinge, die man hätte verändern können. Nicht nur, dass es langsam Zeit wird, 55nm Prozessoren zu bauen. Auch DX10.1 wäre ne nette Sache. Weil das bestimmt wieder ne extra Graka erfordert. Windows wird das dann wieder mit einem eigenen OS verbinden und dann steht man als User wieder da und muss sich alles neu kaufen. Nach allem was ich lese, ist wohl auch kein Shadermodel 4.1 drin. Und GDDR5 wäre auch ein guter Schritt gewesen.
@Jannez: Es gibt doch noch gar kein DX10.1, wie hätten dann die Effekte in AC drin sein können? Ich kenn mich damit nicht so gut aus, aber wäre es nicht das Selbe, wenn man jetzt ein Spiel für DX11 entwickelt, obwohl es weder Treiber noch Hardware gibt?
EDIT: Zum Thema 499$: Das bedeutet nicht, dass das 499$*0,65 = 325€ sind. Bei den letzten Karten war der vorgeschlagene Preis in Dollar auch meist der Preis in Euro. Und 500€ für ne Karte ist mir etwas zu viel. Bei 300€ kann man drüber reden.
Ich glaube das ist gar nicht mal so ein großes Problem, was die ALUs angeht, die extra dafür zutändig wären.
Soweit ich weiß liegt das Problem eher in der hohen Speicherbandbreite, die man dafür benötigt. Die kann man nur erzielen, wenn man den Speicher dafür direkt in den Chip integriert und das ist zum Einen schwieriger zu fertigen und zum Anderen wird der Ausschuss der Chips größer.
Möglich ist es aber. Die Xbox360 hat zum Beispiel 10 MB eDRAM in der GPU, obwohl ich nicht genau weiß, wofür die genutzt werden.
Wenn man sich aber mal so die Spekulationen über die Anzahl der Transistoren des GT200s ansieht, dann bezweifle ich, dass dort genügend eDRAM drin steckt um so etwas zu ermöglichen. 10 MB würden jedenfalls nicht reichen um 4xAA bei hohen Auflösungen zu realisieren.
Naja. Warten wir es ab. Mich würde es aber stark wundern, wenn das wirklich möglich wäre.
Keine Angst. Das wird nicht passieren. Der einzige Grund, warum DX10 nur in Verbindung mit Vista funktioniert ist die komplette Neuentwicklung der Schnittstelle die zwingend das neue Treibermodell vorraussetzt, das mit Vista eingeführt wurde. Das wird noch lange lange Zeit bestand haben und so lange werden nachfolgende DirectX Versionen auch alle auf Vista laufen.
Deswegen ja keine DX10.1 Unterstützung. ;)Zitat:
Nach allem was ich lese, ist wohl auch kein Shadermodel 4.1 drin.
Stimmt. GDDR5 wäre zwar schön, aber durch das 512 Bit Speicherinterface ist die Speicherbandbreite eh enorm hoch und GDDR3 sollte mehr als ausreichen. Der Vorteil ist natürlich, dass die Karte billiger wird, als wenn sie GDDR5 verbaut hätte. Dennoch wird es sicherlich irgendwann Karten mit GDDR5 Speicher geben. Ob das wirklich sinnvoll ist, wird sich zeigen.Zitat:
Und GDDR5 wäre auch ein guter Schritt gewesen.
Das gibt es sehr wohl.
mit SP 1 wurde es eingeführt. Irgendwem ist bei einem test von AC aufgefallen, dass es mit SP 1 und einer AMD HD 3xxx 25% schneller lief und die Kantenglättung besser funktionierte als mit ohne SP1 und derselben Karte.
-> eindeutig DX 10.1
guck mal auf pcgh.de wenn du es ausfühlicher wissen willst (musst wohl etwas suchen, ist schon ein bisschen her)
tja, mit dem neusten Patch wurde DX10.1 ja "glücklicher Weise" wieder deaktiviert... wir wolln doch nicht, dass ein paar Kunden zu ATI wechseln :x
echt!!
ich hab den patch bei mir auch drauf und der bringt gar nix!
.....BTT!!
@noxon
Wie viel RAM bräuchte man denn um 4 x AA zu machen?? (du kennst dich mit allem aus :woh_notworthy:)
bei 1024 MB ist ja auch einiges an RAM verfügbar. vlt kann man den dann ja mal sinnvoll nutzen und nicht so wie bei den 1 GB Karten, die es jetzt gibt und bei denen es nicht wirklich was bringt.
ach die sollen erst ma die karte(n) launchen .. bei der 9er war im vorfeld ein riesen aufruhr - und was kam dabei raus? ;) naja, ich lass des ganze ma auf mich zukommen, erstma bin ich mit meiner xfx 88er gtx xxx zufrieden.
und was den namenjungle betrifft (falls es wirk so sein sollte mit der 2xx bezeichnung) .. :isn:
wieso kann man nicht einfach da weitermachen, wo man aufgehört hat?? statt verschlimmbessern lernt man draus und machts halt wieder besser ..
Jannez,
ich hab dir mal grade ausgerechnet wieviel RAM man mindestens fürs einfachste 4xAA braucht. Die letzte Spalte in MB, das brauchst du mindestens. Da reines FSAA aber unschön ist und man noch mehr Subpixel braucht ist die letzte Zahl ein guter Richtwert für die Größenordnung, in Wahrheit, dürfte man aber bis zum Doppelten brauchen, je nachdem was noch gepuffert werden muss.
Bei meinem 22" TFT mit 1680er Auflösung bräuchte die CPU für das on-chip 4xAA also mal gute 40MB extra cache... nicht grade klein, nur gut 4 mal so groß, wie der ganze chip im Moment :)
http://www-users.rwth-aachen.de/mega...mory_usage.png
Dies ist ein AA, welches vom ganzen Bild gemacht wird. Je nachdem wie man das ganze angeht, kann man aber auch abschnittsweise AA machen mit weniger Speicher. Es wird immer mehr geglättet und das Ergebnis in einem sogenannten accumulation buffer immer wieder überschrieben, das bräuchte dann garnicht mehr Speicher, weiß garnicht mehr, wieso das nicht mehr so gemacht wird, ist schon länger her, dass ich sowas wusste.
Ich würde das ganze AA in der Pipeline gar ganz auslagern und gar von nem dedizierten chip machen lassen. Da sie aber immer mehr alles auf einem wollen, müssen sie wohl ne AA-CPU auf der GPU unterbringen :)
Nochmal zu der DX10.1 Geschichte zurückzukommen. Ich sehe das so, das DX10.1 ja nichts weiter ist, als Physik. Da gabs ja eben mal eine Techdemo die vor kurzem erschienen ist. Inder konnte man mit einem Fön lauter Bälle wegblasen. Auf dem Platz waren so um die 10000 Bälle! Da NV dieses PhysiX-Feature besitzt, wird man vielleicht indirekt DX10.1 besitzen. Denke mal das wird sogar noch mehr Leistung bringen als das von den DX10.1 Ati dingern.
Denke mal das man in den Spielen dann die Option hat (nicht die Pflicht DX10.1 zu besitzen) DX10.1 anzuschalten bzw NV PhysiX zu enabeln.
Bei der Demo gehts nicht um die Physik, sondern um die Beleuchtung.
Dank dx10.1 kann man realistischere Beleuchtung schneller berechnen (global ilumin.. ka.)
Die Bälle deswegen, weil das ganze dank dem lightning räumlicher aussehen soll^^
Der PhysicsCuda Kram sollte sowieso drauf laufen.
Na, wir wollen mal nicht übertreiben. Von 25% habe ich jedenfalls nichts gehört. Vielleicht an einigen Stellen, aber sicherlich nicht im Durchschnitt. So viel Performance kann man durch die kleinen Verbesserungen des SM 4.1 gar nicht erzielen.
Ein Großteil des Performancezuwachses hatte auch ganz andere Gründe und zwar wurde ein Renderpfad im Postprocessing mit DX10.1 nicht mehr durchgeführt. Dann steigt natürlich auch die Framerate.
Da hat dir der gute Randfee ja schon weitergeholfen.Zitat:
@noxon
Wie viel RAM bräuchte man denn um 4 x AA zu machen?? (du kennst dich mit allem aus :woh_notworthy:)
Wie du siehst kommt man mit ein paar MB nicht besonders weit. Sollte das Feature nur bei Auflösungen von 1024x768 und darunter verfügbar sein wäre es für mich überflüssig.
1680x1050 sollten schon mindestens unterstützt werden und 40 MB eDRAM auf der GPU unterzubringen ist wohl so gut wie unmöglich.
Ich könnte mir höchstens vorstellen, dass dies alles auf einen separaten Chip ausgelagert wird, aber auch das bezweifle ich stark. Ich denke auch, dass das Ganze viel zu teuer werden würde.
Glaubt ihr, dass der GT200 einen E6600 oder sogar einen Q6600 ausbremsen könnte? Wäre schon etwas hart, wenn man sich gleich zur neuen GPU auch noch eine neue CPU holen müsste, nur damit man keinen Engpass hat;)
Ich denke nicht, dass ein E6600 die Karte ausbremsen würde.
Auf CB gibt es im Moment einen Artikel darüber, wie sich die Anzahl der Prozessorkerne auf die Spieleleistung auswirkt und da erkennt man selbst bei Multicore Spielen wie Crysis keinen großen Leistungsunterschied.
Aktuelle und grafisch anspruchsvolle Spiele werden auch mit den neuen Karten weiterhin GPU limitiert sein und DX10 sorgt auch dafür, dass die CPU Last deutlich sinkt.
Nur ältere Spiele wie zum Beispiel Unreal Tournament 3 werden CPU limitiert sein, aber wen stört es schon, ob man 230 fps oder 300 fps hat? ;)
hier gibt s pics
http://www.forum-3dcenter.org/vbulle...&postcount=423
Ja, hab auch schon gehört, dass die GTX 260/280 aufgrund der 512bit Speicherbausteine auf beiden Seiten des PCB hat. Wenn das allerdings stimmt, wie werden wohl die Wasserkühllösungen dafür aussehen? Weil ich hab kein Bock meinen GT200 durch den Standart Lüfter kochen zu lassen, sondern will ihn gepflegt mit Wasser kühlen! ;)
Geforce GTX 280 doppelt so schnell wie die 9800 GX2?
http://www.pcgameshardware.de/aid,64..._die_9800_GX2/
http://www.computerbase.de/news/hard..._gt200_nvidia/
Erste Bilder der GT280 und Neue Infos
@Borni. Das mit den 13000 Punkten wurde schonmal gepostet. Denke mal mit den passenden Treibern wirds bestimmt 3 Karten der 98GTX Reihe einholen oder sogar überholen!
Dürfen wirklich gespannt sein.
Mfg LKrieger
ochnee, wenn das Teil wirklich so monster-lang ist passts nichtmal in mein Gehäuse. Dann will ich keine! Hab keine Lust alles umzubauen und mir so ein riesige unhandliche Kiste dahin zu stellen. Hm...
Also ich habe nen riesiges Gehäuse, wo selbst ne 40cm Karte reinpassen würde. :)
Aber heute scheint ja mal richtig Gerüchtetag zu sein -> http://www.pcgameshardware.de/aid,64...istoren_haben/
tja .. es boomt ma wieder siberian ;) dass die nvidia high end karte schneller sein wird als die konkurrenz, davon bin ich allerdings fast überzogen.
Ich hab einen Antec Solo Tower, da ist nicht so riesig viel Platz hinter dem Festplatten Kasten...
http://www.antec.com/images/400/solo_inside.jpg
http://www.images-box.com/uploads/b50170bf8a.jpg
Hi, ich hab das Thermaltake Mambo. Ich hab mal ungefähr die Ultra eingezeichent wie sie bei mir Saß ( noch etwas höher als in der Zeichnung ).
Das gute, die Passt noch zwischen den HDD Käfig und kann somit bis zum grünen Strich gehen. (ging zwar noch ein wenig weiter, würde dann aber den Luftstrom stören) In Rot sieht man die HDD. Das Problem, meine 500gb sind bald total voll, und ich wollte mir eine 1tb Samsung (gleiche größe mit dazu hängen aber popo schlabbern^^, kein platz.
Hab zwar momentan eine 8800gt, aber ich möcht bei der Gt200 schon gerne wieder das (falls vorhanden) die Ultra oder sogar 2 holen, dann wirds eng.
Dann müsste man über ein Server gehäuse denken, das hat man die Probleme nicht mehr^^.
Das mit der Größe klingt wirklich sehr schlecht. Ich habe noch etwa einen cm zwischen der GTX und dem Laufwerkkäfig :( Ich kann es mir aber nicht wirklich vorstellen das sich NVIDIA einen Teil des Marktes selbst verbaut.
bis vor 2 jahren war die entwicklung hin zum kleineren rechner zu verzeichen.............jetzt scheint das andersrum zu gehen......
bei mir passt gerade so ne GT rein...naja geradeso ist übertrieben aber ich glaube ne GTX passt hier nicht rein^^...also doch nen neues gehäuse...
Bei einigen Gehäusen kann man doch gut den gesamten HDD-Käfik ausbauen und die HDD dann in einen anderen 3,5 Zoll-Schacht einbauen.
Bei mir (Thermaltake Armor Junior) hab ich den Käfig ausgebaut und die HDD in das control-panel eingebaut, jetzt müsste eigentlich jede Graka (auch kommende) reinpassen.
na ja die haben schon einen deutlichen Unterschied festgestellt: (kA warum das auf Englisch ist ^^)
http://www.pcgameshardware.de/aid,64...viewed/&page=2
Das mit dem Auslassen eines Renderfades würde ich nicht für bare Münze nehmen, es könnte auch nur ein ausgedachter Grund sein, die DX 10.1 Effekte wieder zu entfernen, damit Nvidia Zeit hat, eine DX 10.1-Karte zu entwickeln.
Verschwörungstheorie ^^:lol:
EDIT: Sry für den Doppelpost !!
Ich hab da mal eine ganz allgemeine Frage. Bis gestern war ich noch fest davon überzeugt, mir eine GTX 280 zu kaufen. Dann ist mir aufgefallen, dass die Karte "eigentlich" noch völlig überflüssig ist. Welches Spiel braucht überhaupt eine 8800GTX? Bis auf Crysis fällt mir momentan nichts ein. Sogar Bioshock konnte man mit einer 7900GT wunderbar auf high zocken. Und auch die Spiele in naher Zukunft werden kaum eine GTX 280 brauchen, höchstens FC2. Die Karte verliert ja jeden Tag an Wert, bis sie mal wirklich von einem Spiel ausgelastet wird könnte sie schon die Hälfte an Wert verloren haben. Es ist ja nicht so, dass ich das Geld nicht hätte, aber ob ich jetzt in aktuellen Spielen (außer Crysis;)) 100 oder 200 fps habe, ist doch eigentlich egal, oder? Nur damits in meiner Sig steht oder damit ich im "Notfall" genügend Power im Rechner hab...neee. Versteht mich bitte nicht falsch, ich will die Karte auch nicht schlechtreden oder so, aber irgendwie hab ich doch meine Zweifel.
Also wenn einer ein wirklich gutes Argument liefern kann, warum man sich die GTX 280 kaufen sollte, dann immer her damit.
http://www.pcgameshardware.de/aid,64...atmillimetern/
fläche in quadratmilimetern :D .. man kann es auch langsam übertreiben mit den infos und gerüchten, mannomann - schon der fünfte oder sechste art. von heute.
Ich sags mal so: Ich habe lieber 200 fps in CoD4 und genügend Leistungsreserven für kommenden Titel wie FC2, anstatt nur 60 fps in CoD4 und ne Diashow in kommenden Titeln. ;)
Und genügend Leistungsreserven hätte ich zumindest schon für Crysis. Es kommt noch FC2 und Stalker Clear Sky.
@Serial: Ich weiß auch net, was heute los ist...Kein einziges Faktum in Sicht...nur ne Flut der Gerüchte.
Hier mal aktuelle Bilder zur GT200
http://www.xtremesystems.org/forums/...&postcount=438
Soweit ich weiß soll die Karte die gleiche größe haben wie die G80^^
Mfg LKrieger
LoL in mein small alienware tower case wirds schätz ich mal nicht passen :D
MoBo an wand hängen und dann haste enough space :D
Nya glaube aber auch kaum das die Karten kleiner werden. Eher noch größer. Wenn sie die Karten allerdings noch größer machen in Zukunft - dann werd ich mit dem Bigtower schon probs bekommen! Ich sagma solange die Karten nicht größer werden als die G80 oder G92 ist alles noch machbar (siehe Black_Death^^ :-D)
Mfg LKrieger
und als notlösung bleibt noch das mobo an wand un haste space enough ^_^
Und wennste ins weltall dein mobo plaziert, haste sowieso erstmal BIG space + gute kühlung ^^
Das sieht ja schon wesentlich benutzerfreundlicher aus ;) Notfalls könnte ich auch meinen Festplattenkäfig ausbauen und die 4 Laufwerke in die 3'5" Schächte montieren. Die Kühlung dürfte auch da kein Problem sein da der Abstand deutlich größer währe. Aber es muss ja nicht unbedingt sein :-D
Sollten die Daten der 260er stimmen währe das Teil schon ein Hammer. Und ich weiß nun wofür der 8 Pinn Stecker endlich einen Sinn macht.
naja ich bin nur froh dass die stromstecker oben sind und nicht wie bei der 8800gts(old) hinten zum festplattenkäfig hin, denn sonst würde das ding, falls ichs mir mal hole, garnich reinpassen, denn die wird ja 26,9cm lang und meine is ja nur 24cm^^
Gibt jetzt auch schon eine Vorankündigung eines Wasserkühlungsaufsatz
http://www.aqua-computer-systeme.de/...num=1211479269
Wird wohl den Aufbau der Karte bestätigen.
Mfg LKrieger
http://www.pcgameshardware.de/aid,64...s_eine_HD3870/
Das mit der Leistung scheint wirklich zu passen. Wenn die Karte wirklich 2 98gx2 in den Boden stampft - dann wird das sogar noch ein brutaleres Teil als die G80 damals.
Mfg LKrieger
Es wird zwar immer gesagt, dass der Stromverbrauch sehr hoch ist und bei neueren Modellen auch weiter zunehmen wird aber wenn man den Stromverbrauch im bezug zur Leistungssteigerung sieht kann man sich eigentlich nicht beschweren.
Du scheinst auch die Stromrechnung nicht zahlen zu müssen ;)
Ich meine gehört zu haben, dass der GT200 einige Stromspareigenschaften besitzen soll und somit im normalen 2D-Betrieb deutlich weniger verbrauchen soll.
Lediglich im 3D-Bereich wird sie mehr benötigen, als heutige Karten. Zumindest habe ich das mal irgendwo gelesen und wenn man an Hybrid-SLI denkt, dann kann ich mir schon gut vorstellen, dass es so etwas auch im GT200 geben wird.
Für mich würde das Ganze dann zu einer geringeren Stromrechnung führen, da ich hauptsächlich im 2D-Betrieb arbeite. Wer natürlich nur spielt, der wird mehr zahlen müssen.
Letztendlich ist das aber alles nicht so wild. Sooo teuer ist das wirklich nicht.
Wenn man nebenher noch sämtliche andere Haushaltsgeräte am Laufen hat, sollte man sich nicht über hohe Stromrechnungen wundern! Ich persönlich schalte alles ab (außer Kühlschrank, ist klar), wenn ich am PC sitze.
ja stimmt letztendlich machst ja die menge aus aber eine graka die weniger strom verbraucht und mehr leistung erzielt ist immer gerne gesehen^^ auch wenn es nur weniger strom verbrauch im 2D modus ist (ich hänge ja eig fast nur im windows betrieb rum und zocke 1-2 std am tag (mein pc ist eig aber auch viel zu lange an 6stunden oft am tag wobei ich dann höchstens 4 stunden dran sitze)
aber naja ein bisschen OT sorry
BTT:
wann kommen die denn rauß steht schon irgendwas fest?
Mitte oder Ende Juni, würde ich mal sagen. Es sollte also bald "richtige" Tests geben, mit denen man dann wirklich etwas anfangen kann. Ist eigentlich schonmal der Kühler gesichtet worden? Hab bis jetzt nur mal ein Foto mit einem ähnlichen Kühler, wie bei der G92 GTS gesehen. Ist der denn überhaupt effektiver, als der alte G80 Kühler? Optisch gefällt mir der G92er jedenfalls garnicht.
Off Topic finde ich das Thema Stromsparen nicht gerade. Aber du musst ja auch bedenken: Wenn dir Stromsparen wichter als Leistung ist, dann solltest du eher eine HD4870 bevorzugen. Denn leider ist die Technik noch nicht so ausgereift, dass du bei brachialer Rohleistung auch noch Strom sparen kannst. Ich kenne schließlich auch keinen Ferrari, der genausoviel Sprit verbraucht wie nen Polo oder was weiß ich noch was.
Wer sparen will, muss Leistung einbüßen. Wer Leistung will, muss blechen. So oder so, irgendwie ist beides *******, aber ich entscheide mich dann doch für Leistung und blechen. Noch kann ich es mir ja leisten.
Wenn das Ding eine Juni raus kommt und wenn die Graka HybritSLI kann, muss ein neuer PC und 1-2 von diesen Karten da rein.
Mehr als doppelt so viel Leistung wie zwei 9800GX2?
Wie sieht es dann mit den Karten im Quad-SLI aus?
2x GT200GX2 = Crysis Very-Very-High+16xAA@1920x1080p+ein grafiklastiges Programm gleichzeitig @ 60fps? :D
Freu mich auf das Ding. (jeah Juni Geburtstag, vieleicht nehm ich die Kohle gleich her)
Weis einer von euch was die GeForce GTX 280 ist ?
also wenn es wirklich mehr als 2 mal 9800GX2 bringt, dann säge ich dafür auch meinen Laufwerkskäfig auf!
Das finde ich eine wirklich kurzsichtige und auch dumme Aussage. Intel machte es mit dem Generationswechsel auf C2D vor. Wenn die wollen dann geht das auch! Viele Menschen bemühen sich Energie zu sparen und lassen die Köpfe dafür rauchen, dass wir das RIESEN PROBLEM irgendwie in den Griff kriegen, dann sollen das gefälligst auch alle tun! Auch wenn ich finde, dass es so ist, Strom scheint für viele Leute einfach noch nicht teuer genug zu sein, Benzin auch nicht. Ich ralls nicht!
Allein die Tatsache, dass sich eine ganze Generation von Programmierern nur noch einen Schei** um effizienten code bemüht, weil die Hardware ja eh so schnell geworden ist, dass es ihnen egal sein kann. Die gehören alle in den AR*** getreten! Es gibt so viel wirklich miese Software! Java, dieser ineffiziente Mist verbraucht weltweit sicher einige Atomkraftwerke an Strom, bloß weil Apps aus Bequemlichkeit in Java geschrieben wurden statt in C oder sonstwas, lächerlich! Diverse Software kann hier als Beispiel dienen. Nehmt z.B. mal Maple 8 (c++) und berechnet Pi auf 10^6 Stellen und macht das gleiche mit Maple 9 bis 12. Faktor 10 langsamer, ich glaub ich spinne! Wer mehr Beispiele will kann gerne Fragen, gute Hardware hat die Programmierer sehr faul werden lassen... und viele Entwickler schieben die Performance-Frage immer mehr auf die Hardware Firmen, die top Produkte liefern, die aber von millionen Zeilen overhead zugemüllt werden... aaaargh.
BTT!
Kauft euch auf keinen fall einen AC Wakü Kühler
Sonst sind die ganz gut aber mit ihren GPu Kühlern hinken sie hinterher
Einfach nicht fortschrittlich da nich SLI fähig und extrem schlechte Durchflusswerte
Einfach nich konkurenzfähig
Kauft euch lieber EK oder Heatkiller
Elgenat JA!
Efizient Naja geht so
Aber Alu geht gar nicht
Korrosion FTW
Haste schonmal richtig üble Pics gesehn von ner Wakü mit ner Korosion?
Das sieht aus wie nach ner schlimmen Magen Flatulenz ^^
Du kannst zwar duch G48/30 oder Inno Protect das verlangsamen aber niemals stoppen
Och, mit Alu hatte ich bisher net so schlechte Erfahrung wie mit Kupfer...da hat sich was angesammelt, du. Aber einmal im Jahr sollte man die Kühlflüssigkeit eh austauschen und da kann man auch gleich die Innereien eines solchen Kühlblocks reinigen.
Also wie gesagt, Zalman ist echt top!
Also wenn ich des richtig verstanden habe, ist die Geforce GTX 280 nur ein neues Namensschema , aber die Karte und die noch kommen werden basieren alle auf dem GT 200 Chip.
Die Geofrce GTX 280 soll
Die Daten von dem GT200 bleiben aber gleich, oder ändern sich die dann ??
Denn die Geforce GTX 280 hat nämlich GDDR3 , obwohl aber der GT200 Chip GDDR5 habe soll
Link zur Meldung: http://www.pcgameshardware.de/aid,64...n_aufgetaucht/
Bedeuted dann die Zahl 2 vorne , das es sich um den GT 200 Chip handelt ??
Ist das dann die Geforce 200 Familie.
Ich finde die GTX 260 sehr interessant. Sie ist teilweise nur knapp hinter einer GTX 280 und wenn man sich da dann eine ordentliche WaKü oder eine gute LuKü draufbaut und stark OCed, sollte man einigermaßen an die Leistung einer GTX 280 rankommen. Jetzt bleibt noch die Frage offen, wie viel die schwächere Variante kosten wird;)
@Alpha
Stimme dir da voll zu, die von AC ünterstützen kein SLI. Deswegen sollte man sich gut überlegen, ob man sich gleich am Anfang die Option für SLI verbauen will;)
Ja aber was ist mit dem GDDR5 Speicher ??
der GDDR3 ist doch alt, ATi nützt in seinen neuen HD 4000 Karten auch schon GDDR 5.
News Meldung:
http://www.gamestar.de/index.cfm?pid...fp=2#liststart
16.04.2008;)
Mit dem Release des GT200 werden die Preise extrem sinken. Ich vermute mal, dass man eine 8800GTX dann für unter 150€ bekommt und eine 8800GT für weniger als 100€. Ich hoffe nur, dass Nvidia nicht wieder einen extrem preiswerten Chip wie den G92 nachschiebt und die Kunden nochmal extrem verscheißert.