PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia GT200 Infos/Spekulationen



Seiten : [1] 2 3 4 5 6 7

HunT
09.05.2008, 14:05
nVidia GT200 Infos/Spekulationen - Sammelthread

Counter233
09.05.2008, 14:18
Boah, wenn die karte so kommen würde, wäre echt jeder froh. Das wäre ein riesen Leistungsplus, da ja die Werte fast doppelt so hoch sind, wie die des G92 Chips und die sind ja schon recht gut ;) Ich denke, dass diese Karten endlich ausreichen dürften für jeden Cyrsis und vllt auch Crysis 2 Spieler, das wäre so goil :D

WheenE
09.05.2008, 14:34
Wenn die rauskommt kaufe ich mir direkt zwei oder drei von den Karten, das geld für 1,5 Grafikkarten habe ich schon zusammen. Ich hoffe mal, dass mein Prozessor dann nicht für manche Spiele schon zu langsam ist bzw. die Grafikkarten ausbremst.

LKrieger
09.05.2008, 16:05
Die Zeit verrint und der neue Grafikchip GT200 rückt näher!

Im Internet gibt es zurzeit viel Spekulationen über die kommende neue Grafikgeneration. Während die einen noch spekulieren ob die Karte den Namen G100 oder GT200 tragen soll, diskutieren andere darüber ob die Karte aus 2 Dies bestehen soll (also 2 Grafikkarten). Daher ist nicht ganz unwarscheinlich das die Grafikkarte wie die 98GX2 aus 2 Chips besteht.

Ich persönlich fände einen zusammenschluss zweier Karten verbaut als eine immer nicht als beste Lösung. Weiterhin wäre das für Nvidia wohl der einfachste Weg. Denn der Zusammenbau bestände sodann aus 2 G92b chips. Das heißt NV müsse sich nicht viel Arbeit machen um den kommenden RV700 Chip von ATI die Krone erneut zu entreisen.

Viel Interessanter wäre allerdings dann allerdings die Singlecard als GT200. Extrem wäre natürlich das Ausmaß dieses Chips. Wenn man mal die Vergleichstabelle (unten) anschaut und vergleicht die einzelnen daten z.b. die Transistoren kann man schon enorm viel Leistung erwarten. Die Tabelle ist natürlich auch nur eine Möglichkeit wie der Chip kommen könnte.

Auf diese Option hoffe ich natürlich am meißten und man findet im Internet auch diesbezüglich das meißte.

http://www.pcgameshardware.de/aid,64...i/Juli_kommen/ (http://www.pcgameshardware.de/aid,641350/News/Geforce_9900_GTX_und_GTS_sollen_schon_Juni/Juli_kommen/)

Wie ich auch schon gelesen habe soll das Tapeout der Karte schon bereits im April gelaufen sein. Sodass der Launch der Karte schon im Juni/Juli erwarten kann. Sicher ist dies allerdings nicht, da auch noch bis spät Herbst mit der Ausgabe gerechnet werden darf.

Die verschiedenen Versionen der Karte sind auch noch unbekannt. Ob es eine GTS oder GT geben wird steht noch in den Sternen

Die neue Generation sollte vor allem für uns als CRYSIS-Fans von hoher Bedeutung sein, da das Spiel ja sehr GPU-Lastig ist. Während die Grafikkarte voll arbeitet wird der Quadcore oder der Dualcore nicht voll belastet. Hiermit können wir einen enormen Leistungsschub in CRYSIS mit der neuen Generation erwarten. Kommt die Karte als Single-Chip wie ich hoffe werden wir als Gamer am meißten Profitieren.

http://img517.imageshack.us/img517/6044/gt200vk7.jpg

Mfg LKrieger

foofi
09.05.2008, 16:10
Das sind sehr gute Neuigkeiten! Ich werde da sicher auch endgültig zugreifen.

Die 8800GT ist mir jetzt zu alt und die 9600GT ist eine Billigvariante von der 8800GT.

Rückenmark
09.05.2008, 16:13
Kleine Grundsatzfrage an alle: Kommt mir das nur so vor oder habt ihr alle immer so viel Geld für Hardware? Wenn ich eure Systeme lesen gehen mir ja manchmal schon die Augen über:shock: Und macht ihr euch auch mal Gedanken über den Stromverbrauch???

Tommi-lee
09.05.2008, 16:14
naja kann ja seind asdie auch weniger verbrauchen. die neue gt frisst soweit ich weiss auch weniger als meine GTS und bring tmehr leistung. warum soll es dann nicht auch bei G200 sein wo ich ma hoffe das die bald rauskommen!

LKrieger
09.05.2008, 16:19
macht ihr euch auch mal Gedanken über den Stromverbrauch???


naja kann ja seind asdie auch weniger verbrauchen. die neue gt frisst soweit ich weiss auch weniger als meine GTS und bring tmehr leistung. warum soll es dann nicht auch bei G200 sein wo ich ma hoffe das die bald rauskommen!


Die Karte soll angeblich 230 Watt verbrauchen. Aber da is auch noch nicht der Groschen gefallen. Stromverbrauch is eig ok. Bins ja gewohnt von den 3 GTXen^^. Und meinen Strom zahl ich auch selber von da is das schon ok.. Was macht man nicht alles für sein Hobby :D

Mfg LKrieger

foofi
09.05.2008, 16:21
Kleine Grundsatzfrage an alle: Kommt mir das nur so vor oder habt ihr alle immer so viel Geld für Hardware? Wenn ich eure Systeme lesen gehen mir ja manchmal schon die Augen über:shock: Und macht ihr euch auch mal Gedanken über den Stromverbrauch???
Stromverbrauch kommt bei mir an erster Stelle, deshalb surfe ich ja auch zu 80% mit der N-Wii. Aber wie es aussehen wird, werden die Karten weniger verbrauchen, als die aktuellen.

Ich werde mir auch kein SLi System zulegen, auch wegen den Verbrauch. Nicht wegen der Kosten, sondern wegen der Umwelt.

Was das Geld angeht: Sowas fragt man nicht ;)

@Pascal Zum Thema Stromverbrauch habe ich hier mal nen Thread erstellt: http://crysis.4thdimension.info/forum/showthread.php?t=6079

Dumdidum
09.05.2008, 20:55
Du wirst es nicht glauben aber es gibt hier auch Berufstätige ;)

Stromverbrauch/Umweltbelastung ist für mich wichtig. Da aber leider Game PC und Wirtschaftlichkeit kaum vereinbar ist (mein Rechner macht ca 15-20% der Stromrechnung aus) bin ich auf Ökostrom umgestiegen. Aber trotzdem würde ich mir eine 9900 nur dann einbauen wenn sie nicht mehr oder weniger als meine 8800GTX verbrauchen würde.

LKrieger
13.05.2008, 10:52
So wie es ausschaut wird die langersehnte "GT200" mit einem Retailerpreis von 499 US$ ab Juni erhältlich sein. Gab ja schon viel Spekulation bezüglich der Karte letzterzeit. Allerdings pendelt sich das jetzt so wies aussieht doch auf Juni diesen Jahres ein.

Der Name GT200 wurde wie ich noch gelesen habe für die Karte jetzt fest definiert. Somit ist die nummerierung wie bisher G70, G80 usw. vom Tisch. Daher wird sie nicht den Codenamen G100 sondern GT200 tragen.

Hier erstmal der Artikel zum warscheinlichem Release. Ich halte natürlich meine Augen für weitere News offen.



The new GTX

It looks like the GT200 or D10U card will sell for US$499 and it will be the perfect replacement for the Geforce 9800GTX. We are not sure about the name. Many people have suggested Geforce 9900GTX and GT brands, but we are not sure if these will really be the final names.

The cards based on the GT200 will sell for $499 and the cards are sampled and work well. Nvidia plans to show the cards to journalists in the last week of May and it’s highly likely to see the launch in June, with retail availability.

It will be fun to see if the GT200 will end up faster than the GX2 and if this single big chip can actually beat a dual chip card. We have a feeling it should.
Quelle:
http://www.fudzilla.com/index.php?option=com_content&task=view&id=7286&Itemid=1





EDIT: Hier eventuelle Bilder und Definitionen zur Karte. Allerdings wie bisher noch unbestätigt - nur Spekulation -

http://diy.pconline.com.cn/graphics/news/0805/1294786.html
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2008/mai/vermeindliches_bild_gt200-karte_netz/

Mfg LKrieger

noxon
13.05.2008, 11:36
Kleine Grundsatzfrage an alle: Kommt mir das nur so vor oder habt ihr alle immer so viel Geld für Hardware? Wenn ich eure Systeme lesen gehen mir ja manchmal schon die Augen über:shock: Und macht ihr euch auch mal Gedanken über den Stromverbrauch???Ja und Nein (zumindest nicht wegen der Kosten, sondern höchstens wegen der Wärmeentwicklung).
Außerdem ist das Ganze nur halb so wild, wenn man den Rechner von der Steuer absetzen kann. ;)


@Topic:
Ich hoffe, dass es den GT200 auch möglichst bald in 55nm gibt. Ich würde ungerne noch auf 65nm setzen.
Ende des Jahres oder Anfang nächsten Jahres, wenn die neuen Nehalem Prozessoren erscheinen, möchte ich dann auch eine neue Graka kaufen. Ich hoffe, dass es dann schon die ersten 55'er Modelle gibt.

LKrieger
13.05.2008, 11:42
@noxon: Deutet immer mehr darauf hin das sie in 65nm gefertigt wird. Habe aber auch schon gelesen das es evtl noch sowas wie ne Ultra geben könnte die dann in 55nm gefertigt wird. Natürlich auch alles nur Spekulationen.

Aber hoffen können wir nur das es wie noxon schon sagt in 55 gefertigt wird.

Mfg LKrieger

HunT
13.05.2008, 11:49
Ich glaube aber nicht, dass der Unterschied zwischen 65nm und 55nm so groß sein wird. Aber auch ich kann nur hoffen, dass auch bald die 55nm Variante kommt.

Naja, meine CPU = 45nm, Chipsatz = 90nm, GT200 = 65nm oder 55nm?

Abwarten...doch wenn das mit den 55nm zu lange dauert, hole ich mir die mit 65nm, solange sie mir genügend Leistung gibt, auch Crysis in Very High flüssig zu zocken.

noxon
13.05.2008, 12:37
Das sie zuerst in 65nm scheint wohl wirklich schon festzustehen, aber ich frage mich, wie lange der Schritt nach 55nm dauern wird.
Aber vielleicht hast du recht. So groß wird der Unterschied wahrscheinlich gar nicht sein.

Ich werde die Karte einfach dann kaufen, wenn ich auch meinen Prozessor kaufe. Egal, ob es dann schon eine 55'er Version gibt oder nicht.

LKrieger
15.05.2008, 12:17
Es gibt Neuigkeiten!

Angeblich soll die GT200 über 13000 Punkte im 3DMark Vantage erreichen.
http://www.pcgameshardware.de/aid,643686/News/Erreicht_Nvidias_GT200_13000_Punkte_im_3DMark_Vant age/

Wie ich mir gerade gedacht habe und ihr warscheinlich denkt - das bestimmt wieder nen Fake. Jedoch schreibt PCGames Hardware:
" Sie werden jetzt sicherlich sagen "Hm, ein Eintrag (http://we.pcinlife.com/thread-933395-1-1.html) in einem chinesischen Forum..." - aber der User phk ist üblicherweise gut informiert über die Geschehnisse in der Welt der Grafikkarte (http://www.pcgameshardware.de/aid,643686/News/Erreicht_Nvidias_GT200_13000_Punkte_im_3DMark_Vant age/#) - noch bevor sie öffentlich werden." Sollte die GT200 wirklich so viel Leistung haben wie jetzt von PCGH geschrieben wird, knackt Sie sogar die Leisung dreier G80 GTX Karten von mir (13910 Vantage Punkte mit Prozzi auf 3,6 und 3 Karten)!!!

Nvidia hätte warscheinlich dann endlich mal den Aufruf von uns Gamern :) erhört und bringt doch mal was richtig feines raus.

Die Sache bleibt finde ich jedoch trotzdem noch abzuwarten.

Mfg LKrieger

HunT
15.05.2008, 12:36
Es gibt Neuigkeiten!

Angeblich soll die GT200 über 13000 Punkte im 3DMark Vantage erreichen.
http://www.pcgameshardware.de/aid,643686/News/Erreicht_Nvidias_GT200_13000_Punkte_im_3DMark_Vant age/

Wie ich mir gerade gedacht habe und ihr warscheinlich denkt - das bestimmt wieder nen Fake. Jedoch schreibt PCGames Hardware: Sollte die GT200 wirklich so viel Leistung haben wie jetzt von PCGH geschrieben wird, knackt Sie sogar die Leisung dreier G80 GTX Karten von mir (13910 Vantage Punkte mit Prozzi auf 3,6 und 3 Karten)!!!

Nvidia hätte warscheinlich dann endlich mal den Aufruf von uns Gamern :) erhört und bringt doch mal was richtig feines raus.

Die Sache bleibt finde ich jedoch trotzdem noch abzuwarten.

Mfg LKrieger

Ich kanns nur hoffen! Nvidia würde sich damit nur beliebter machen. Bei mir auf jeden Fall!

T-Rocc
15.05.2008, 20:25
Es gibt Neuigkeiten!

Angeblich soll die GT200 über 13000 Punkte im 3DMark Vantage erreichen.
http://www.pcgameshardware.de/aid,643686/News/Erreicht_Nvidias_GT200_13000_Punkte_im_3DMark_Vant age/

Wie ich mir gerade gedacht habe und ihr warscheinlich denkt - das bestimmt wieder nen Fake. Jedoch schreibt PCGames Hardware: Sollte die GT200 wirklich so viel Leistung haben wie jetzt von PCGH geschrieben wird, knackt Sie sogar die Leisung dreier G80 GTX Karten von mir (13910 Vantage Punkte mit Prozzi auf 3,6 und 3 Karten)!!!

Nvidia hätte warscheinlich dann endlich mal den Aufruf von uns Gamern :) erhört und bringt doch mal was richtig feines raus.

Die Sache bleibt finde ich jedoch trotzdem noch abzuwarten.

Mfg LKrieger

Abwarten und Tee trinken.

Mich würde es allerding(en)s auch sehr freuen.

CRYSISTENSE
15.05.2008, 20:28
So gut wie die 3 GTXen von dir:shock: Das wäre der Wahnsinn. ATI bzw. AMD könnte da niemals mithalten.

LKrieger
16.05.2008, 12:56
Gibt wieder neue Informationen.

http://www.fudzilla.com/index.php?option=com_content&task=view&id=7364&Itemid=1

So wies aussieht wird der Launch am 16. Juni stattfinden. Und zwar scheint die neue Karte dann den Namen "GTX 280" oder 9900 GTX tragen. Der Codename soll bei GT200 bleiben.

Mfg LKrieger

masterkiller7
16.05.2008, 12:57
So gut wie die 3 GTXen von dir:shock: Das wäre der Wahnsinn. ATI bzw. AMD könnte da niemals mithalten.

Sag niemals nie ;)

HunT
16.05.2008, 13:05
Gibt wieder neue Informationen.

http://www.fudzilla.com/index.php?option=com_content&task=view&id=7364&Itemid=1

So wies aussieht wird der Launch am 16. Juni stattfinden. Und zwar scheint die neue Karte dann den Namen "GTX 280" oder 9900 GTX tragen. Der Codename soll bei GT200 bleiben.

Mfg LKrieger

GTX 260 und GTX 280 werden die Karten jetzt wohl heißen. Wobei die 260 eher die GTS sein soll und die 280 die GTX/Ultra. Ich jedenfalls werde mir nie wieder Secend Editions kaufen, sondern gleich die High End Modelle, sprich GTX 280!

CRYSISTENSE
16.05.2008, 13:06
600€ für eine GTX 280 wären dann durchaus akzeptabel, da drei 88er GTXen auch so viel kosten.

Gab es bis jetzt überhaupt schonmal so eine starke Leistungssteigerung? Normalerweise ist der Nachfolger doch immer "nur" doppelt so schnell.

LKrieger
16.05.2008, 13:10
@CRYSISTENSE: Nya der Leistungsprung von der G70 zur G80 war ähnlich. Der Preis sollte laut gerüchten sogar bei 499 liegen für die 280 GTX. Nya wir werden warten müssen...

Mfg LKrieger

CRYSISTENSE
16.05.2008, 13:14
500€, da würd ich sofort zuschlagen. Kaufst du dir dann eine bzw. 3 oder bleibst du bei deinen 88ern?

LKrieger
16.05.2008, 13:18
Da ich imo Probleme mit Board oder den Grakas habe. Weiß ich noch nicht was ich mache. Wollte eigentlich nicht die 3 88 gleich wieder ausbauen - hat ja schließlich nen haufen gekostet.

Die andere Frage ist - was für eine CPU benötigt man für die Graka das die sich überhaupt angesprochen fühlt:D

Aber nu BTT

Mfg LKrieger

randfee
16.05.2008, 16:57
Also wenn die Karte wirklich so dermaßen abgeht, dann bekomm ich auch eine, aber nur, wenn die Steigerung mit GeForce 7 auf Geforce 8 zu vergleichen ist.

Bei dem Dollarkurs könnte ich nicht anders, aber ich bezweifel, dass ihnen ein solcher Sprung nochmal gelingt bzw. ich bezweifle noch eher, dass sie einen solchen Sprung überhaupt wollen. Die wollen die Kunden häppchenweise melken und mit der GeForce8 haben viele Leute zu lange keine neue Karte gekauft. Ich glaub die machen das jetzt eher Häppchenweise, könnte aber ich hoffe trotzdem auf N*Geforce8-GTX (N>=2).

CRYSISTENSE
16.05.2008, 16:59
Die Kunden wurden doch schon mit dem G92 genügend ausgenommen;) Jetzt ist wieder ein richtiger Kracher fällig, denn momentan ist die 8800ULTRA immernoch die beste Karte, wenn es um hohe Auflösungen mit AA geht.

1337_alpha
16.05.2008, 17:05
Ach du kacke
Und ich hab mir erst ne GTX gekauft -.-

xeonsys
18.05.2008, 13:48
Geforce GTX 280/260: Angeblich offizielle Spezifikationen aufgetaucht

http://www.pcgameshardware.de/aid,644050/News/Geforce_GTX_280/%20260_Angeblich_offizielle_Spezifikationen_aufget auc%3Cbr%20/%3Eht/

tja kein gddr 5 aber abwarten.:)

Dumdidum
18.05.2008, 14:07
Lassen wir uns mal vom Preis und dem Verbrauch überraschen. Bei weit Jenseits der 300 Euro werde ich sie mir eh nicht vor Oktober/November kaufen und wer weiß ob Nvidia da nicht noch das Weihnachtsgeschäft mit der DDR5 Variante melken will ;)

noxon
18.05.2008, 20:22
Also angeblich soll der Chip ja kein DX10.1 (http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2008/mai/geforce_gtx_200_physx_directx_101/) unterstützen, was ich schon sehr komisch fände. Ich hoffe, dass sich diese Information als falsch herausstellt, obwohl das auch kein Beinbruch wäre, wenn sie nur DX10 unterstützt. So viel Neues bietet DX10.1 auch nicht.
Naja. Wer weiß. Vielleicht kann DX10.1 ja noch per Software nachgeliefert werden.

Aber PhysX via Cuda ist natürlich eine tolle Sache. Ich bin mal gespannt, wann sich das die ersten Spiele zu Nutze machen. Das wird sich viel schneller durchsetzen, als das bisher mit den PhysX Karten der Fall war.

Hat man eigentlich mal wieder etwas von "Free 4xAA" gehört? Das tauchte damals in den Spekulationen immer auf und hat den Eindruck gemacht, als ob der Chip ein 4x AA beherschen würde ohne das die Performance dabei sinkt.

Dumdidum
18.05.2008, 20:25
Das mit dem DX10.1 habe ich auch gelesen. Würde ich aber total daneben finden wenn die Karte es nicht könnte. Noch ein Grund mehr zu warten ;)

Jannez
18.05.2008, 20:25
Hat man eigentlich mal wieder etwas von "Free 4xAA" gehört? Das tauchte damals in den Spekulationen immer auf und hat den Eindruck gemacht, als ob der Chip ein 4x AA beherschen würde ohne das die Performance dabei sinkt.

Wie soll das denn gehen?? Das würd mich ja mal brennend interressieren!!
vlt mit einem spezialisiertem Chip extra dafür :?:

HunT
18.05.2008, 20:33
Kein GDDR5, dafür aber 512bit! :wink: DX10.1 finde ich auch net so notwendig! PhysiX find ich interessanter, da ich einige PhysiX Spiele habe, aber nie eine PhysiX Karte hatte.

Jannez
18.05.2008, 20:36
N*Geforce8-GTX (N>=2).

da spricht der Physiker/Mathematiker :-D:-D

@ topic
wenn die tatsächlich das doppelte schafft dann werde ich meine Hardware-Kauf-Pläne wohl noch einmal umdenken müssen. :-D

Ich glaube das sie kein DX 10.1 unterstützen wird, sonst hätte Nvidia nicht dafür gesorgt, dass die DX10.1-Effekte aus AC entfernt werden, für die zwei Monate hätte sich das nicht gelohnt. Zuerst die Effekte deaktivieren und nach einem knappen Monat wieder zu aktivieren, wäre sogar CBS merkwürdig vorgekommen ;-)

Heinz_Baer
18.05.2008, 20:41
Dieses CUDA hört sich ganz interessant an.
Trotzdem gibt es so viele Dinge, die man hätte verändern können. Nicht nur, dass es langsam Zeit wird, 55nm Prozessoren zu bauen. Auch DX10.1 wäre ne nette Sache. Weil das bestimmt wieder ne extra Graka erfordert. Windows wird das dann wieder mit einem eigenen OS verbinden und dann steht man als User wieder da und muss sich alles neu kaufen. Nach allem was ich lese, ist wohl auch kein Shadermodel 4.1 drin. Und GDDR5 wäre auch ein guter Schritt gewesen.

@Jannez: Es gibt doch noch gar kein DX10.1, wie hätten dann die Effekte in AC drin sein können? Ich kenn mich damit nicht so gut aus, aber wäre es nicht das Selbe, wenn man jetzt ein Spiel für DX11 entwickelt, obwohl es weder Treiber noch Hardware gibt?

EDIT: Zum Thema 499$: Das bedeutet nicht, dass das 499$*0,65 = 325€ sind. Bei den letzten Karten war der vorgeschlagene Preis in Dollar auch meist der Preis in Euro. Und 500€ für ne Karte ist mir etwas zu viel. Bei 300€ kann man drüber reden.

noxon
18.05.2008, 20:50
Ich glaube das ist gar nicht mal so ein großes Problem, was die ALUs angeht, die extra dafür zutändig wären.
Soweit ich weiß liegt das Problem eher in der hohen Speicherbandbreite, die man dafür benötigt. Die kann man nur erzielen, wenn man den Speicher dafür direkt in den Chip integriert und das ist zum Einen schwieriger zu fertigen und zum Anderen wird der Ausschuss der Chips größer.

Möglich ist es aber. Die Xbox360 hat zum Beispiel 10 MB eDRAM in der GPU, obwohl ich nicht genau weiß, wofür die genutzt werden.

Wenn man sich aber mal so die Spekulationen über die Anzahl der Transistoren des GT200s ansieht, dann bezweifle ich, dass dort genügend eDRAM drin steckt um so etwas zu ermöglichen. 10 MB würden jedenfalls nicht reichen um 4xAA bei hohen Auflösungen zu realisieren.

Naja. Warten wir es ab. Mich würde es aber stark wundern, wenn das wirklich möglich wäre.



Windows wird das dann wieder mit einem eigenen OS verbinden und dann steht man als User wieder da und muss sich alles neu kaufen.Keine Angst. Das wird nicht passieren. Der einzige Grund, warum DX10 nur in Verbindung mit Vista funktioniert ist die komplette Neuentwicklung der Schnittstelle die zwingend das neue Treibermodell vorraussetzt, das mit Vista eingeführt wurde. Das wird noch lange lange Zeit bestand haben und so lange werden nachfolgende DirectX Versionen auch alle auf Vista laufen.


Nach allem was ich lese, ist wohl auch kein Shadermodel 4.1 drin.Deswegen ja keine DX10.1 Unterstützung. ;)


Und GDDR5 wäre auch ein guter Schritt gewesen.Stimmt. GDDR5 wäre zwar schön, aber durch das 512 Bit Speicherinterface ist die Speicherbandbreite eh enorm hoch und GDDR3 sollte mehr als ausreichen. Der Vorteil ist natürlich, dass die Karte billiger wird, als wenn sie GDDR5 verbaut hätte. Dennoch wird es sicherlich irgendwann Karten mit GDDR5 Speicher geben. Ob das wirklich sinnvoll ist, wird sich zeigen.

Jannez
18.05.2008, 21:17
@Jannez: Es gibt doch noch gar kein DX10.1, wie hätten dann die Effekte in AC drin sein können? Ich kenn mich damit nicht so gut aus, aber wäre es nicht das Selbe, wenn man jetzt ein Spiel für DX11 entwickelt, obwohl es weder Treiber noch Hardware gibt?

Das gibt es sehr wohl.
mit SP 1 wurde es eingeführt. Irgendwem ist bei einem test von AC aufgefallen, dass es mit SP 1 und einer AMD HD 3xxx 25% schneller lief und die Kantenglättung besser funktionierte als mit ohne SP1 und derselben Karte.
-> eindeutig DX 10.1
guck mal auf pcgh.de wenn du es ausfühlicher wissen willst (musst wohl etwas suchen, ist schon ein bisschen her)

jodob
18.05.2008, 21:38
tja, mit dem neusten Patch wurde DX10.1 ja "glücklicher Weise" wieder deaktiviert... wir wolln doch nicht, dass ein paar Kunden zu ATI wechseln :x

Jannez
18.05.2008, 21:47
tja, mit dem neusten Patch wurde DX10.1 ja "glücklicher Weise" wieder deaktiviert... wir wolln doch nicht, dass ein paar Kunden zu ATI wechseln :x

echt!!
ich hab den patch bei mir auch drauf und der bringt gar nix!

.....BTT!!

@noxon
Wie viel RAM bräuchte man denn um 4 x AA zu machen?? (du kennst dich mit allem aus :woh_notworthy:)

bei 1024 MB ist ja auch einiges an RAM verfügbar. vlt kann man den dann ja mal sinnvoll nutzen und nicht so wie bei den 1 GB Karten, die es jetzt gibt und bei denen es nicht wirklich was bringt.

-THRiLLiAL-
18.05.2008, 21:55
ach die sollen erst ma die karte(n) launchen .. bei der 9er war im vorfeld ein riesen aufruhr - und was kam dabei raus? ;) naja, ich lass des ganze ma auf mich zukommen, erstma bin ich mit meiner xfx 88er gtx xxx zufrieden.
und was den namenjungle betrifft (falls es wirk so sein sollte mit der 2xx bezeichnung) .. :isn:
wieso kann man nicht einfach da weitermachen, wo man aufgehört hat?? statt verschlimmbessern lernt man draus und machts halt wieder besser ..

randfee
18.05.2008, 23:28
Jannez,

ich hab dir mal grade ausgerechnet wieviel RAM man mindestens fürs einfachste 4xAA braucht. Die letzte Spalte in MB, das brauchst du mindestens. Da reines FSAA aber unschön ist und man noch mehr Subpixel braucht ist die letzte Zahl ein guter Richtwert für die Größenordnung, in Wahrheit, dürfte man aber bis zum Doppelten brauchen, je nachdem was noch gepuffert werden muss.

Bei meinem 22" TFT mit 1680er Auflösung bräuchte die CPU für das on-chip 4xAA also mal gute 40MB extra cache... nicht grade klein, nur gut 4 mal so groß, wie der ganze chip im Moment :)

http://www-users.rwth-aachen.de/megajoule/temp/aa_memory_usage.png

Dies ist ein AA, welches vom ganzen Bild gemacht wird. Je nachdem wie man das ganze angeht, kann man aber auch abschnittsweise AA machen mit weniger Speicher. Es wird immer mehr geglättet und das Ergebnis in einem sogenannten accumulation buffer immer wieder überschrieben, das bräuchte dann garnicht mehr Speicher, weiß garnicht mehr, wieso das nicht mehr so gemacht wird, ist schon länger her, dass ich sowas wusste.

Ich würde das ganze AA in der Pipeline gar ganz auslagern und gar von nem dedizierten chip machen lassen. Da sie aber immer mehr alles auf einem wollen, müssen sie wohl ne AA-CPU auf der GPU unterbringen :)

LKrieger
19.05.2008, 09:48
Nochmal zu der DX10.1 Geschichte zurückzukommen. Ich sehe das so, das DX10.1 ja nichts weiter ist, als Physik. Da gabs ja eben mal eine Techdemo die vor kurzem erschienen ist. Inder konnte man mit einem Fön lauter Bälle wegblasen. Auf dem Platz waren so um die 10000 Bälle! Da NV dieses PhysiX-Feature besitzt, wird man vielleicht indirekt DX10.1 besitzen. Denke mal das wird sogar noch mehr Leistung bringen als das von den DX10.1 Ati dingern.

Denke mal das man in den Spielen dann die Option hat (nicht die Pflicht DX10.1 zu besitzen) DX10.1 anzuschalten bzw NV PhysiX zu enabeln.

Haha7
19.05.2008, 10:11
Nochmal zu der DX10.1 Geschichte zurückzukommen. Ich sehe das so, das DX10.1 ja nichts weiter ist, als Physik. Da gabs ja eben mal eine Techdemo die vor kurzem erschienen ist. Inder konnte man mit einem Fön lauter Bälle wegblasen. Auf dem Platz waren so um die 10000 Bälle! Da NV dieses PhysiX-Feature besitzt, wird man vielleicht indirekt DX10.1 besitzen. Denke mal das wird sogar noch mehr Leistung bringen als das von den DX10.1 Ati dingern.

Denke mal das man in den Spielen dann die Option hat (nicht die Pflicht DX10.1 zu besitzen) DX10.1 anzuschalten bzw NV PhysiX zu enabeln.

Bei der Demo gehts nicht um die Physik, sondern um die Beleuchtung.
Dank dx10.1 kann man realistischere Beleuchtung schneller berechnen (global ilumin.. ka.)
Die Bälle deswegen, weil das ganze dank dem lightning räumlicher aussehen soll^^
Der PhysicsCuda Kram sollte sowieso drauf laufen.

noxon
19.05.2008, 11:27
mit SP 1 wurde es eingeführt. Irgendwem ist bei einem test von AC aufgefallen, dass es mit SP 1 und einer AMD HD 3xxx 25% schneller lief und die Kantenglättung besser funktionierte als mit ohne SP1 und derselben Karte.Na, wir wollen mal nicht übertreiben. Von 25% habe ich jedenfalls nichts gehört. Vielleicht an einigen Stellen, aber sicherlich nicht im Durchschnitt. So viel Performance kann man durch die kleinen Verbesserungen des SM 4.1 gar nicht erzielen.
Ein Großteil des Performancezuwachses hatte auch ganz andere Gründe und zwar wurde ein Renderpfad im Postprocessing mit DX10.1 nicht mehr durchgeführt. Dann steigt natürlich auch die Framerate.




@noxon
Wie viel RAM bräuchte man denn um 4 x AA zu machen?? (du kennst dich mit allem aus :woh_notworthy:)Da hat dir der gute Randfee ja schon weitergeholfen.
Wie du siehst kommt man mit ein paar MB nicht besonders weit. Sollte das Feature nur bei Auflösungen von 1024x768 und darunter verfügbar sein wäre es für mich überflüssig.
1680x1050 sollten schon mindestens unterstützt werden und 40 MB eDRAM auf der GPU unterzubringen ist wohl so gut wie unmöglich.

Ich könnte mir höchstens vorstellen, dass dies alles auf einen separaten Chip ausgelagert wird, aber auch das bezweifle ich stark. Ich denke auch, dass das Ganze viel zu teuer werden würde.

CRYSISTENSE
20.05.2008, 10:44
Glaubt ihr, dass der GT200 einen E6600 oder sogar einen Q6600 ausbremsen könnte? Wäre schon etwas hart, wenn man sich gleich zur neuen GPU auch noch eine neue CPU holen müsste, nur damit man keinen Engpass hat;)

noxon
20.05.2008, 11:24
Ich denke nicht, dass ein E6600 die Karte ausbremsen würde.
Auf CB gibt es im Moment einen Artikel (http://www.computerbase.de/artikel/hardware/prozessoren/2008/bericht_1_2_3_4_cpu-kerne/) darüber, wie sich die Anzahl der Prozessorkerne auf die Spieleleistung auswirkt und da erkennt man selbst bei Multicore Spielen wie Crysis keinen großen Leistungsunterschied.

Aktuelle und grafisch anspruchsvolle Spiele werden auch mit den neuen Karten weiterhin GPU limitiert sein und DX10 sorgt auch dafür, dass die CPU Last deutlich sinkt.
Nur ältere Spiele wie zum Beispiel Unreal Tournament 3 (http://www.computerbase.de/artikel/hardware/prozessoren/2008/bericht_1_2_3_4_cpu-kerne/5/#abschnitt_unreal_tournament_3) werden CPU limitiert sein, aber wen stört es schon, ob man 230 fps oder 300 fps hat? ;)

chicken
20.05.2008, 11:25
hier gibt s pics
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6516261&postcount=423

HunT
20.05.2008, 12:25
hier gibt s pics
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6516261&postcount=423

Ja, hab auch schon gehört, dass die GTX 260/280 aufgrund der 512bit Speicherbausteine auf beiden Seiten des PCB hat. Wenn das allerdings stimmt, wie werden wohl die Wasserkühllösungen dafür aussehen? Weil ich hab kein Bock meinen GT200 durch den Standart Lüfter kochen zu lassen, sondern will ihn gepflegt mit Wasser kühlen! ;)

-THRiLLiAL-
20.05.2008, 21:27
http://www.pcgameshardware.de/aid,644360/News/Angebliche_erste_Bilder_von_GT200-Grafikkarten_aufgetaucht_-_kuenftig_nur_noch_Designs_mit_mindestens_zwei_GPU s/

borni
21.05.2008, 10:57
Geforce GTX 280 doppelt so schnell wie die 9800 GX2?


http://www.pcgameshardware.de/aid,644385/News/Geforce_GTX_280_doppelt_so_schnell_wie_die_9800_GX 2/

tuete
21.05.2008, 11:01
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2008/mai/fotos_infos_gt200_nvidia/

Erste Bilder der GT280 und Neue Infos

LKrieger
21.05.2008, 11:03
@Borni. Das mit den 13000 Punkten wurde schonmal gepostet. Denke mal mit den passenden Treibern wirds bestimmt 3 Karten der 98GTX Reihe einholen oder sogar überholen!

Dürfen wirklich gespannt sein.

Mfg LKrieger

randfee
21.05.2008, 15:17
ochnee, wenn das Teil wirklich so monster-lang ist passts nichtmal in mein Gehäuse. Dann will ich keine! Hab keine Lust alles umzubauen und mir so ein riesige unhandliche Kiste dahin zu stellen. Hm...

Captain-S
21.05.2008, 15:38
ochnee, wenn das Teil wirklich so monster-lang ist passts nichtmal in mein Gehäuse. Dann will ich keine! Hab keine Lust alles umzubauen und mir so ein riesige unhandliche Kiste dahin zu stellen. Hm...

So wie es aussieht wird sie so lang wie eine 8800GTX, kriegst die nicht rein?
Ich werde sie mir auch zulegen, will endlich 1920x1200 very high DX10 flüssig zocken. :grin:

HunT
21.05.2008, 15:57
Also ich habe nen riesiges Gehäuse, wo selbst ne 40cm Karte reinpassen würde. :)

Aber heute scheint ja mal richtig Gerüchtetag zu sein -> http://www.pcgameshardware.de/aid,644487/News/GT200-Chip_soll_ueber_14_Milliarden_Transistoren_haben/

-THRiLLiAL-
21.05.2008, 16:00
tja .. es boomt ma wieder siberian ;) dass die nvidia high end karte schneller sein wird als die konkurrenz, davon bin ich allerdings fast überzogen.

Black_Death
21.05.2008, 16:05
ochnee, wenn das Teil wirklich so monster-lang ist passts nichtmal in mein Gehäuse. Dann will ich keine! Hab keine Lust alles umzubauen und mir so ein riesige unhandliche Kiste dahin zu stellen. Hm...

Ein bisschen haste recht, denn wenn die graka noch länger als ne gtx/ultra ist, dann kann ich ne zweite Festplatte vergessen ;)

randfee
21.05.2008, 18:20
Ein bisschen haste recht, denn wenn die graka noch länger als ne gtx/ultra ist, dann kann ich ne zweite Festplatte vergessen ;)

Ich hab einen Antec Solo Tower, da ist nicht so riesig viel Platz hinter dem Festplatten Kasten...

http://www.antec.com/images/400/solo_inside.jpg

Black_Death
21.05.2008, 18:47
http://www.images-box.com/uploads/b50170bf8a.jpg (http://www.images-box.com)

Hi, ich hab das Thermaltake Mambo. Ich hab mal ungefähr die Ultra eingezeichent wie sie bei mir Saß ( noch etwas höher als in der Zeichnung ).
Das gute, die Passt noch zwischen den HDD Käfig und kann somit bis zum grünen Strich gehen. (ging zwar noch ein wenig weiter, würde dann aber den Luftstrom stören) In Rot sieht man die HDD. Das Problem, meine 500gb sind bald total voll, und ich wollte mir eine 1tb Samsung (gleiche größe mit dazu hängen aber popo schlabbern^^, kein platz.

Hab zwar momentan eine 8800gt, aber ich möcht bei der Gt200 schon gerne wieder das (falls vorhanden) die Ultra oder sogar 2 holen, dann wirds eng.

Dann müsste man über ein Server gehäuse denken, das hat man die Probleme nicht mehr^^.

Dumdidum
21.05.2008, 18:50
Das mit der Größe klingt wirklich sehr schlecht. Ich habe noch etwa einen cm zwischen der GTX und dem Laufwerkkäfig :( Ich kann es mir aber nicht wirklich vorstellen das sich NVIDIA einen Teil des Marktes selbst verbaut.

Pleezefragme
21.05.2008, 18:52
bis vor 2 jahren war die entwicklung hin zum kleineren rechner zu verzeichen.............jetzt scheint das andersrum zu gehen......

bei mir passt gerade so ne GT rein...naja geradeso ist übertrieben aber ich glaube ne GTX passt hier nicht rein^^...also doch nen neues gehäuse...

Jannez
21.05.2008, 19:01
Bei einigen Gehäusen kann man doch gut den gesamten HDD-Käfik ausbauen und die HDD dann in einen anderen 3,5 Zoll-Schacht einbauen.
Bei mir (Thermaltake Armor Junior) hab ich den Käfig ausgebaut und die HDD in das control-panel eingebaut, jetzt müsste eigentlich jede Graka (auch kommende) reinpassen.


Na, wir wollen mal nicht übertreiben. Von 25% habe ich jedenfalls nichts gehört. Vielleicht an einigen Stellen, aber sicherlich nicht im Durchschnitt. So viel Performance kann man durch die kleinen Verbesserungen des SM 4.1 gar nicht erzielen.
Ein Großteil des Performancezuwachses hatte auch ganz andere Gründe und zwar wurde ein Renderpfad im Postprocessing mit DX10.1 nicht mehr durchgeführt. Dann steigt natürlich auch die Framerate.

na ja die haben schon einen deutlichen Unterschied festgestellt: (kA warum das auf Englisch ist ^^)
http://www.pcgameshardware.de/aid,641035/Test/Benchmark/Assassins_Creed_D3D_101_mode_reviewed/&page=2

Das mit dem Auslassen eines Renderfades würde ich nicht für bare Münze nehmen, es könnte auch nur ein ausgedachter Grund sein, die DX 10.1 Effekte wieder zu entfernen, damit Nvidia Zeit hat, eine DX 10.1-Karte zu entwickeln.

Verschwörungstheorie ^^:lol:

EDIT: Sry für den Doppelpost !!

CRYSISTENSE
21.05.2008, 19:21
Ich hab da mal eine ganz allgemeine Frage. Bis gestern war ich noch fest davon überzeugt, mir eine GTX 280 zu kaufen. Dann ist mir aufgefallen, dass die Karte "eigentlich" noch völlig überflüssig ist. Welches Spiel braucht überhaupt eine 8800GTX? Bis auf Crysis fällt mir momentan nichts ein. Sogar Bioshock konnte man mit einer 7900GT wunderbar auf high zocken. Und auch die Spiele in naher Zukunft werden kaum eine GTX 280 brauchen, höchstens FC2. Die Karte verliert ja jeden Tag an Wert, bis sie mal wirklich von einem Spiel ausgelastet wird könnte sie schon die Hälfte an Wert verloren haben. Es ist ja nicht so, dass ich das Geld nicht hätte, aber ob ich jetzt in aktuellen Spielen (außer Crysis;)) 100 oder 200 fps habe, ist doch eigentlich egal, oder? Nur damits in meiner Sig steht oder damit ich im "Notfall" genügend Power im Rechner hab...neee. Versteht mich bitte nicht falsch, ich will die Karte auch nicht schlechtreden oder so, aber irgendwie hab ich doch meine Zweifel.

Also wenn einer ein wirklich gutes Argument liefern kann, warum man sich die GTX 280 kaufen sollte, dann immer her damit.

-THRiLLiAL-
21.05.2008, 19:25
http://www.pcgameshardware.de/aid,644531/News/Nvidia_GT200_hat_angeblich_eine_Flaeche_von_576_Qu adratmillimetern/

fläche in quadratmilimetern :D .. man kann es auch langsam übertreiben mit den infos und gerüchten, mannomann - schon der fünfte oder sechste art. von heute.

HunT
21.05.2008, 19:33
Ich hab da mal eine ganz allgemeine Frage. Bis gestern war ich noch fest davon überzeugt, mir eine GTX 280 zu kaufen. Dann ist mir aufgefallen, dass die Karte "eigentlich" noch völlig überflüssig ist. Welches Spiel braucht überhaupt eine 8800GTX? Bis auf Crysis fällt mir momentan nichts ein. Sogar Bioshock konnte man mit einer 7900GT wunderbar auf high zocken. Und auch die Spiele in naher Zukunft werden kaum eine GTX 280 brauchen, höchstens FC2. Die Karte verliert ja jeden Tag an Wert, bis sie mal wirklich von einem Spiel ausgelastet wird könnte sie schon die Hälfte an Wert verloren haben. Es ist ja nicht so, dass ich das Geld nicht hätte, aber ob ich jetzt in aktuellen Spielen (außer Crysis;)) 100 oder 200 fps habe, ist doch eigentlich egal, oder? Nur damits in meiner Sig steht oder damit ich im "Notfall" genügend Power im Rechner hab...neee. Versteht mich bitte nicht falsch, ich will die Karte auch nicht schlechtreden oder so, aber irgendwie hab ich doch meine Zweifel.

Also wenn einer ein wirklich gutes Argument liefern kann, warum man sich die GTX 280 kaufen sollte, dann immer her damit.

Ich sags mal so: Ich habe lieber 200 fps in CoD4 und genügend Leistungsreserven für kommenden Titel wie FC2, anstatt nur 60 fps in CoD4 und ne Diashow in kommenden Titeln. ;)

Und genügend Leistungsreserven hätte ich zumindest schon für Crysis. Es kommt noch FC2 und Stalker Clear Sky.

@Serial: Ich weiß auch net, was heute los ist...Kein einziges Faktum in Sicht...nur ne Flut der Gerüchte.

LKrieger
22.05.2008, 12:08
Hier mal aktuelle Bilder zur GT200
http://www.xtremesystems.org/forums/showpost.php?p=3006739&postcount=438

Soweit ich weiß soll die Karte die gleiche größe haben wie die G80^^

Mfg LKrieger

KissOfDeath
22.05.2008, 12:33
LoL in mein small alienware tower case wirds schätz ich mal nicht passen :D
MoBo an wand hängen und dann haste enough space :D

LKrieger
22.05.2008, 12:37
Nya glaube aber auch kaum das die Karten kleiner werden. Eher noch größer. Wenn sie die Karten allerdings noch größer machen in Zukunft - dann werd ich mit dem Bigtower schon probs bekommen! Ich sagma solange die Karten nicht größer werden als die G80 oder G92 ist alles noch machbar (siehe Black_Death^^ :-D)

Mfg LKrieger

KissOfDeath
22.05.2008, 13:04
und als notlösung bleibt noch das mobo an wand un haste space enough ^_^
Und wennste ins weltall dein mobo plaziert, haste sowieso erstmal BIG space + gute kühlung ^^

HunT
22.05.2008, 13:26
und als notlösung bleibt noch das mobo an wand un haste space enough ^_^
Und wennste ins weltall dein mobo plaziert, haste sowieso erstmal BIG space + gute kühlung ^^

Vorausgesetzt, die Elektronen können sich bei dieser Kälte überhaupt fortbewegen.^^ Den Halbleitertechnik braucht ne gewisse Wärme, um effizent zu arbeiten.

Aber wenn die GTX280 nen 4pin Stromstecker hat, muss ich mir wohl nen Adapter kaufen, weil ich nur 2x 6pin habe.

Dumdidum
22.05.2008, 13:54
Das sieht ja schon wesentlich benutzerfreundlicher aus ;) Notfalls könnte ich auch meinen Festplattenkäfig ausbauen und die 4 Laufwerke in die 3'5" Schächte montieren. Die Kühlung dürfte auch da kein Problem sein da der Abstand deutlich größer währe. Aber es muss ja nicht unbedingt sein :-D
Sollten die Daten der 260er stimmen währe das Teil schon ein Hammer. Und ich weiß nun wofür der 8 Pinn Stecker endlich einen Sinn macht.

Nighthawk33
22.05.2008, 21:42
naja ich bin nur froh dass die stromstecker oben sind und nicht wie bei der 8800gts(old) hinten zum festplattenkäfig hin, denn sonst würde das ding, falls ichs mir mal hole, garnich reinpassen, denn die wird ja 26,9cm lang und meine is ja nur 24cm^^

LKrieger
23.05.2008, 11:03
Gibt jetzt auch schon eine Vorankündigung eines Wasserkühlungsaufsatz

http://www.aqua-computer-systeme.de/cgi-bin/YaBB/YaBB.pl?board=1;action=display;num=1211479269

Wird wohl den Aufbau der Karte bestätigen.

Mfg LKrieger

HunT
23.05.2008, 12:21
Gibt jetzt auch schon eine Vorankündigung eines Wasserkühlungsaufsatz

http://www.aqua-computer-systeme.de/cgi-bin/YaBB/YaBB.pl?board=1;action=display;num=1211479269

Wird wohl den Aufbau der Karte bestätigen.

Mfg LKrieger

Juhuu! Kann ich mir den GTX280 direkt bei Launch mit Wakü kaufen. :)

LKrieger
23.05.2008, 16:00
http://www.pcgameshardware.de/aid,644648/News/Folding@Home_Client_fuer_Nvidia_GTX_280_soll_dreim al_schneller_falten_als_eine_HD3870/

Das mit der Leistung scheint wirklich zu passen. Wenn die Karte wirklich 2 98gx2 in den Boden stampft - dann wird das sogar noch ein brutaleres Teil als die G80 damals.

Mfg LKrieger

HunT
23.05.2008, 16:07
http://www.pcgameshardware.de/aid,644648/News/Folding@Home_Client_fuer_Nvidia_GTX_280_soll_dreim al_schneller_falten_als_eine_HD3870/

Das mit der Leistung scheint wirklich zu passen. Wenn die Karte wirklich 2 98gx2 in den Boden stampft - dann wird das sogar noch ein brutaleres Teil als die G80 damals.

Mfg LKrieger

Hoffen wir es mal! Boah, wenn das stimmt, dann freu ich mich jetzt schon wie ein kleines Kind auf BRACHIALE ROHLEISTUNG! :bana:

WheenE
23.05.2008, 16:46
Es wird zwar immer gesagt, dass der Stromverbrauch sehr hoch ist und bei neueren Modellen auch weiter zunehmen wird aber wenn man den Stromverbrauch im bezug zur Leistungssteigerung sieht kann man sich eigentlich nicht beschweren.

Dumdidum
23.05.2008, 17:34
Du scheinst auch die Stromrechnung nicht zahlen zu müssen ;)

noxon
23.05.2008, 20:33
Ich meine gehört zu haben, dass der GT200 einige Stromspareigenschaften besitzen soll und somit im normalen 2D-Betrieb deutlich weniger verbrauchen soll.
Lediglich im 3D-Bereich wird sie mehr benötigen, als heutige Karten. Zumindest habe ich das mal irgendwo gelesen und wenn man an Hybrid-SLI denkt, dann kann ich mir schon gut vorstellen, dass es so etwas auch im GT200 geben wird.

Für mich würde das Ganze dann zu einer geringeren Stromrechnung führen, da ich hauptsächlich im 2D-Betrieb arbeite. Wer natürlich nur spielt, der wird mehr zahlen müssen.

Letztendlich ist das aber alles nicht so wild. Sooo teuer ist das wirklich nicht.

Flying_Dragon
23.05.2008, 20:37
Ich meine gehört zu haben, dass der GT200 einige Stromspareigenschaften besitzen soll und somit im normalen 2D-Betrieb deutlich weniger verbrauchen soll.
Lediglich im 3D-Bereich wird sie mehr benötigen, als heutige Karten. Zumindest habe ich das mal irgendwo gelesen und wenn man an Hybrid-SLI denkt, dann kann ich mir schon gut vorstellen, dass es so etwas auch im GT200 geben wird.

Für mich würde das Ganze dann zu einer geringeren Stromrechnung führen, da ich hauptsächlich im 2D-Betrieb arbeite. Wer natürlich nur spielt, der wird mehr zahlen müssen.

Letztendlich ist das aber alles nicht so wild. Sooo teuer ist das wirklich nicht.

wenn das so kommt dann wäre das spitze finde ich!
dann kauf ich mir die vllt doch noch^^ weil die GTX zieht echt viel strom von mir :-?

HunT
23.05.2008, 20:55
Wenn man nebenher noch sämtliche andere Haushaltsgeräte am Laufen hat, sollte man sich nicht über hohe Stromrechnungen wundern! Ich persönlich schalte alles ab (außer Kühlschrank, ist klar), wenn ich am PC sitze.

Flying_Dragon
23.05.2008, 21:08
Wenn man nebenher noch sämtliche andere Haushaltsgeräte am Laufen hat, sollte man sich nicht über hohe Stromrechnungen wundern! Ich persönlich schalte alles ab (außer Kühlschrank, ist klar), wenn ich am PC sitze.

ja stimmt letztendlich machst ja die menge aus aber eine graka die weniger strom verbraucht und mehr leistung erzielt ist immer gerne gesehen^^ auch wenn es nur weniger strom verbrauch im 2D modus ist (ich hänge ja eig fast nur im windows betrieb rum und zocke 1-2 std am tag (mein pc ist eig aber auch viel zu lange an 6stunden oft am tag wobei ich dann höchstens 4 stunden dran sitze)

aber naja ein bisschen OT sorry

BTT:
wann kommen die denn rauß steht schon irgendwas fest?

CRYSISTENSE
23.05.2008, 21:20
Mitte oder Ende Juni, würde ich mal sagen. Es sollte also bald "richtige" Tests geben, mit denen man dann wirklich etwas anfangen kann. Ist eigentlich schonmal der Kühler gesichtet worden? Hab bis jetzt nur mal ein Foto mit einem ähnlichen Kühler, wie bei der G92 GTS gesehen. Ist der denn überhaupt effektiver, als der alte G80 Kühler? Optisch gefällt mir der G92er jedenfalls garnicht.

HunT
23.05.2008, 21:37
ja stimmt letztendlich machst ja die menge aus aber eine graka die weniger strom verbraucht und mehr leistung erzielt ist immer gerne gesehen^^ auch wenn es nur weniger strom verbrauch im 2D modus ist (ich hänge ja eig fast nur im windows betrieb rum und zocke 1-2 std am tag (mein pc ist eig aber auch viel zu lange an 6stunden oft am tag wobei ich dann höchstens 4 stunden dran sitze)

aber naja ein bisschen OT sorry

BTT:
wann kommen die denn rauß steht schon irgendwas fest?

Off Topic finde ich das Thema Stromsparen nicht gerade. Aber du musst ja auch bedenken: Wenn dir Stromsparen wichter als Leistung ist, dann solltest du eher eine HD4870 bevorzugen. Denn leider ist die Technik noch nicht so ausgereift, dass du bei brachialer Rohleistung auch noch Strom sparen kannst. Ich kenne schließlich auch keinen Ferrari, der genausoviel Sprit verbraucht wie nen Polo oder was weiß ich noch was.

Wer sparen will, muss Leistung einbüßen. Wer Leistung will, muss blechen. So oder so, irgendwie ist beides *******, aber ich entscheide mich dann doch für Leistung und blechen. Noch kann ich es mir ja leisten.

flashX
23.05.2008, 22:32
Wenn das Ding eine Juni raus kommt und wenn die Graka HybritSLI kann, muss ein neuer PC und 1-2 von diesen Karten da rein.
Mehr als doppelt so viel Leistung wie zwei 9800GX2?
Wie sieht es dann mit den Karten im Quad-SLI aus?
2x GT200GX2 = Crysis Very-Very-High+16xAA@1920x1080p+ein grafiklastiges Programm gleichzeitig @ 60fps? :D
Freu mich auf das Ding. (jeah Juni Geburtstag, vieleicht nehm ich die Kohle gleich her)

Servitor
23.05.2008, 22:33
Weis einer von euch was die GeForce GTX 280 ist ?

flashX
23.05.2008, 22:36
Weis einer von euch was die GeForce GTX 280 ist ?

Wird die neue Grafikkarte von NVidia (man hört anscheinend mit 8800, 9800 etc. auf) die auf dem neuen GT200 Chip bassiert.

€: Ist nur der GT200 Chip selbst die GTX 280, hab mich getäuscht.

HunT
23.05.2008, 23:14
Weis einer von euch was die GeForce GTX 280 ist ?

GTX 280 = GTX (High End Modell)
GTX 260 = GTS (Performance Modell)

randfee
24.05.2008, 00:13
also wenn es wirklich mehr als 2 mal 9800GX2 bringt, dann säge ich dafür auch meinen Laufwerkskäfig auf!


Es wird zwar immer gesagt, dass der Stromverbrauch sehr hoch ist und bei neueren Modellen auch weiter zunehmen wird aber wenn man den Stromverbrauch im bezug zur Leistungssteigerung sieht kann man sich eigentlich nicht beschweren.

Das finde ich eine wirklich kurzsichtige und auch dumme Aussage. Intel machte es mit dem Generationswechsel auf C2D vor. Wenn die wollen dann geht das auch! Viele Menschen bemühen sich Energie zu sparen und lassen die Köpfe dafür rauchen, dass wir das RIESEN PROBLEM irgendwie in den Griff kriegen, dann sollen das gefälligst auch alle tun! Auch wenn ich finde, dass es so ist, Strom scheint für viele Leute einfach noch nicht teuer genug zu sein, Benzin auch nicht. Ich ralls nicht!

Allein die Tatsache, dass sich eine ganze Generation von Programmierern nur noch einen Schei** um effizienten code bemüht, weil die Hardware ja eh so schnell geworden ist, dass es ihnen egal sein kann. Die gehören alle in den AR*** getreten! Es gibt so viel wirklich miese Software! Java, dieser ineffiziente Mist verbraucht weltweit sicher einige Atomkraftwerke an Strom, bloß weil Apps aus Bequemlichkeit in Java geschrieben wurden statt in C oder sonstwas, lächerlich! Diverse Software kann hier als Beispiel dienen. Nehmt z.B. mal Maple 8 (c++) und berechnet Pi auf 10^6 Stellen und macht das gleiche mit Maple 9 bis 12. Faktor 10 langsamer, ich glaub ich spinne! Wer mehr Beispiele will kann gerne Fragen, gute Hardware hat die Programmierer sehr faul werden lassen... und viele Entwickler schieben die Performance-Frage immer mehr auf die Hardware Firmen, die top Produkte liefern, die aber von millionen Zeilen overhead zugemüllt werden... aaaargh.

BTT!

1337_alpha
24.05.2008, 00:24
Juhuu! Kann ich mir den GTX280 direkt bei Launch mit Wakü kaufen. :)

Kauft euch auf keinen fall einen AC Wakü Kühler
Sonst sind die ganz gut aber mit ihren GPu Kühlern hinken sie hinterher
Einfach nicht fortschrittlich da nich SLI fähig und extrem schlechte Durchflusswerte
Einfach nich konkurenzfähig
Kauft euch lieber EK oder Heatkiller

HunT
24.05.2008, 00:32
Kauft euch auf keinen fall einen AC Wakü Kühler
Sonst sind die ganz gut aber mit ihren GPu Kühlern hinken sie hinterher
Einfach nicht fortschrittlich da nich SLI fähig und extrem schlechte Durchflusswerte
Einfach nich konkurenzfähig
Kauft euch lieber EK oder Heatkiller

Ich hoffe. dass es einen von Zalman gibt! Die Dinger find ich einfach elegant und effizient! Hab selber einen auf meiner jetzigen 8800 GTS (G80).

1337_alpha
24.05.2008, 00:44
Ich hoffe. dass es einen von Zalman gibt! Die Dinger find ich einfach elegant und effizient! Hab selber einen auf meiner jetzigen 8800 GTS (G80).
Elgenat JA!
Efizient Naja geht so
Aber Alu geht gar nicht
Korrosion FTW
Haste schonmal richtig üble Pics gesehn von ner Wakü mit ner Korosion?
Das sieht aus wie nach ner schlimmen Magen Flatulenz ^^
Du kannst zwar duch G48/30 oder Inno Protect das verlangsamen aber niemals stoppen

HunT
24.05.2008, 02:29
Elgenat JA!
Efizient Naja geht so
Aber Alu geht gar nicht
Korrosion FTW
Haste schonmal richtig üble Pics gesehn von ner Wakü mit ner Korosion?
Das sieht aus wie nach ner schlimmen Magen Flatulenz ^^
Du kannst zwar duch G48/30 oder Inno Protect das verlangsamen aber niemals stoppen

Och, mit Alu hatte ich bisher net so schlechte Erfahrung wie mit Kupfer...da hat sich was angesammelt, du. Aber einmal im Jahr sollte man die Kühlflüssigkeit eh austauschen und da kann man auch gleich die Innereien eines solchen Kühlblocks reinigen.

Also wie gesagt, Zalman ist echt top!

Servitor
24.05.2008, 05:13
Also wenn ich des richtig verstanden habe, ist die Geforce GTX 280 nur ein neues Namensschema , aber die Karte und die noch kommen werden basieren alle auf dem GT 200 Chip.

Die Geofrce GTX 280 soll

Die Daten von dem GT200 bleiben aber gleich, oder ändern sich die dann ??
Denn die Geforce GTX 280 hat nämlich GDDR3 , obwohl aber der GT200 Chip GDDR5 habe soll

Link zur Meldung: http://www.pcgameshardware.de/aid,644050/News/Geforce_GTX_280/260_Angeblich_offizielle_Spezifikationen_aufgetauc ht/


Bedeuted dann die Zahl 2 vorne , das es sich um den GT 200 Chip handelt ??


Ist das dann die Geforce 200 Familie.

-THRiLLiAL-
24.05.2008, 07:02
Bedeuted dann die Zahl 2 vorne , das es sich um den GT 200 Chip handelt ??

genau ja, wobei dann die gtx280 des high end modell dieser reihe darstellt. evtl. gibts dann noch ne ultra280, wer weiss.

CRYSISTENSE
24.05.2008, 07:54
Ich finde die GTX 260 sehr interessant. Sie ist teilweise nur knapp hinter einer GTX 280 und wenn man sich da dann eine ordentliche WaKü oder eine gute LuKü draufbaut und stark OCed, sollte man einigermaßen an die Leistung einer GTX 280 rankommen. Jetzt bleibt noch die Frage offen, wie viel die schwächere Variante kosten wird;)

@Alpha
Stimme dir da voll zu, die von AC ünterstützen kein SLI. Deswegen sollte man sich gut überlegen, ob man sich gleich am Anfang die Option für SLI verbauen will;)

Servitor
24.05.2008, 08:47
Ja aber was ist mit dem GDDR5 Speicher ??

der GDDR3 ist doch alt, ATi nützt in seinen neuen HD 4000 Karten auch schon GDDR 5.

News Meldung:

http://www.gamestar.de/index.cfm?pid=398&pk=1944478&sortorder=asc&fp=2#liststart

CRYSISTENSE
24.05.2008, 09:02
News Meldung:

http://www.gamestar.de/index.cfm?pid=398&pk=1944478&sortorder=asc&fp=2#liststart


16.04.2008;)

Mit dem Release des GT200 werden die Preise extrem sinken. Ich vermute mal, dass man eine 8800GTX dann für unter 150€ bekommt und eine 8800GT für weniger als 100€. Ich hoffe nur, dass Nvidia nicht wieder einen extrem preiswerten Chip wie den G92 nachschiebt und die Kunden nochmal extrem verscheißert.

pilzbefall
24.05.2008, 09:31
verscheissert wären ja nur diejenigen, die nicht warten können ;). Allerdings bezweifle ich einen starken Preisverfall, ich schätze die Kurve ähnlich flach ein wie nach Release der 8800GTX. Natürlich nur sofern der Leistungssprung ordentlich ist.

noxon
24.05.2008, 09:48
der GDDR3 ist doch alt, ATi nützt in seinen neuen HD 4000 Karten auch schon GDDR 5.[/COLOR]Die benutzen aber auch nur ein 256 Bit Speicherinterface und der GT200 wird ein 512 Bit Interface besitzen.
Der GDDR3 Speicher mag dann zwar langsamer getaktet sein, aber durch die doppelt so hohe Busbreite macht der er zumindest einen Teil davon wieder gut.

Die Karte wird durch die Verwendung von GDDR3 Speicher sicherlich deutlich günstiger werden, als wenn sie mit GDDR5 Speicher bestückt würde. Besonders bei der 1 GB Version.
Trotzdem wird es sicherlich auch Karten mit GDDR5 Speicher geben, sobald die Speicherchips günstiger werden. Spätestens Ende des Jahres wird es meiner Meinung nach soweit sein. Ob das Ganze aber wirklich nötig ist, ist eine andere Frage.

Servitor
24.05.2008, 09:57
Die benutzen aber auch nur ein 256 Bit Speicherinterface und der GT200 wird ein 512 Bit Interface besitzen.




Ist dann die Geforce GTX 280 noch nicht auf dem GT200 Chip. ?

Edit:

Wenn eine Neue Serie kommt heißen dann die Karten Geforce 300, 310 340 ...., oder wie ??
Wie lang wird den der GT200 erhalten bleiben ??

noxon
24.05.2008, 10:29
Ist dann die Geforce GTX 280 noch nicht auf dem GT200 Chip. ?Doch. Ich hätte vielleicht GTX 280 schreiben sollen da der Chip ja nicht immer mit 512 Bit angebunden ist.


Wenn eine Neue Serie kommt heißen dann die Karten Geforce 300, 310 340 ...., oder wie ??
Das nehme ich doch mal an. Die Karten der nächsten Chipgeneration werden sicherlich auch GTX/GTS/GT 340/360/380 heißen oder sowas und Refreshchips werden ähnlich wie bisher GTX 390 heißen oder so.

Naja. Aber wer weiß das schon. Eine richtig nachvollziehbare Logik steckte ja noch nie hinter der Namensgebung.



Wie lang wird den der GT200 erhalten bleiben ??Da wird sich im Vergleich zur Vergangenheit sicherlich auch nicht viel ändern. 1 - 2 Jahre wird es dauern, bis die nächste Chip-Generation erscheint. Je nach dem, was man darunter versteht. Kleinere Refreshchips mit leichten Änderungen könnte es vorher geben, aber bis ein wirklich neuer Chip mit grundlegenden Änderungen ("Multicore on die" zum Beispiel) erscheint, kann es schon mal bis zu 2 Jahre dauern, denke ich.

HunT
24.05.2008, 10:40
Multicore on Package wenn schon. Multicore on Die macht nicht viel Sinn und bringt keinen Leistungsvorteil, überleg mal warum. ;)

Desweiteren wüsste ich nicht, wozu man bei so einer Karte nen SLI System bräuchte? Ich habe mir deshalb auch nen Intel Chipsatz geholt, weil ich auf diesen SLI Mist keinen Bock mehr habe. Entweder Skalierungsprobleme oder Microruckler oder beides zusammen. Ne, tu ich mir nicht mehr an! Hatte damals schon 2x 8800GTS (G80) und will weder SLI noch CF.

chicken
24.05.2008, 16:50
Crysis on GeForce GTX 280 SLI:shock:

http://de.youtube.com/watch?v=KS2oPuQcQDM

CRYSISTENSE
24.05.2008, 16:53
Crysis on GeForce GTX 280 SLI:shock:

http://de.youtube.com/watch?v=KS2oPuQcQDM

Willst du uns veralbern??^^

@topic:
Ich vermute mal, dass sich die GTX 280 ca. 1-2 Jahre halten kann (so wie Noxon es schon sagte). Vielleicht werden sie einen refresh bringen, aber wahrscheinlich mit einer geringeren Speicheranbindung, damit die GTX 280 weiterhin an der Spitze bleibt (s. G80-G92)

5c4r
24.05.2008, 16:56
Das kannte ich schon :-|
Voll behindert wie der typ isst. 8.44 minuten für ne eklige Wurst mit zeug

1337_alpha
24.05.2008, 17:08
Och, mit Alu hatte ich bisher net so schlechte Erfahrung wie mit Kupfer...da hat sich was angesammelt, du. Aber einmal im Jahr sollte man die Kühlflüssigkeit eh austauschen und da kann man auch gleich die Innereien eines solchen Kühlblocks reinigen.

Also wie gesagt, Zalman ist echt top!

Jo aber glaub mir EK und Heatkiller und Watercool sind die besten

Captain-S
24.05.2008, 19:18
Crysis on GeForce GTX 280 SLI:shock:

http://de.youtube.com/watch?v=KS2oPuQcQDM

Schon über 97.000 Zugriffe...:shock:

CRYSISTENSE
24.05.2008, 19:45
Beide Unternehmen hatten in den vergangenen Monaten immer wieder angedeutet, mit ihren neuen GPU-Generationen gebe es eine Verdoppelung der Rechenleistung - so wie das lange Zeit im Grafikgeschäft jährlich der Fall war. Das würde jedoch bedeuten, dass die schnellste Grafikkarte mit einer GPU weiterhin von Nvidia kommt und sich am Leistungsverhältnis innerhalb der Klassen weiterhin nichts ändert. Das belegen die bereits durchgesickerten inoffiziellen Preise der AMD-Karten, die sich auch für das Topmodell HD 4870 deutlich unter 300,- US-Dollar bewegen sollen. Nvidias High-End-Karten liegen dagegen stets im Bereich um 500,- US-Dollar, die "Ultra"-Varianten auch darüber.


http://www.golem.de/0805/59871.html

Hab eigentlich gedacht, dass ATI/AMD wieder Anschluss finden könnte, aber es sieht so aus, als ob sie sich vom richtigen Highendmarkt verabschieden:sad: Wenigstens ist dann die GTX 280 preisstabiler, solange kein refresh kommt.

1337_alpha
24.05.2008, 19:49
Ich weiß schon was ich mir zu Weihnachten hol^^
Ne GTX 280 und nen passenden EK Kühler^^

LKrieger
25.05.2008, 01:31
So die Specs scheinen jetzt wirklich fest zu stehen.

http://www.hardware-infos.com/news.php?news=2090

Hoffe die werden so bleiben. Mit den Specs packt alles was wir bisher kannten ein!!!

Mfg LKrieger

HunT
25.05.2008, 01:43
So die Specs scheinen jetzt wirklich fest zu stehen.

http://www.hardware-infos.com/news.php?news=2090

Hoffe die werden so bleiben. Mit den Specs packt alles was wir bisher kannten ein!!!

Mfg LKrieger

OMG, 236W...das nenn ich mal Hammer...

Naja, für mich nix neues, da mein früheres SLI System mindestens genauso viel verschlungen hatte, wenn auch sogar mehr! Werd mir wohl die GTX 280 holen. Die GTX 260 wäre ja ungefähr so schnell wie ne 9800GX2.

chicken
25.05.2008, 09:06
könnten pics des gtx280 sein

http://img515.imageshack.us/img515/6027/nvidiaeditorsday20087b0ou8.jpg

http://img267.imageshack.us/img267/8021/jenhsunhuangnvidiaeditozo6.jpg

Captain-S
25.05.2008, 10:25
Hört sich schon mal gut an...
Aus dem beyond3d Forum, Zitat:

"What do you think about this guys?http://forum.beyond3d.com/images/smilies/icon_wink.gif

"Just wait until June 17th when the GTX 200 series of GPU's launch, and you'll start asking yourself when you last witnessed such a dramatic technology improvement. If you thought the GeForce 8 series blew the 7-series out of the water, this is going to leave you in shock. That's not my own marketing spin... Benchmark Reviews is presently testing the new GeForce video card."

Does it mean we will see at least as big performance bump as we have seen with G80 against G71?http://forum.beyond3d.com/images/smilies/icon_smile.gif
I say it sounds very promising.

This is from Benchmarkreviews."

Link:
http://forum.beyond3d.com/showpost.php?p=1166065&postcount=1465

LKrieger
25.05.2008, 12:08
OMG, 236W...das nenn ich mal Hammer...

236 Watt is doch garnix heutzutage. Wenn du jetzt SLI mit 2 GTXen hast bist du schon bei 600 Watt. Mit 3 Karten habe ich Spizte 798,75 Watt schon ausgelesen. Finde den Verbrauch für die enorme Leistung (wenn die Specs passen) sehr gut.


Does it mean we will see at least as big performance bump as we have seen with G80 against G71?http://forum.beyond3d.com/images/smilies/icon_smile.gif
I say it sounds very promising.


Genau das was ich hoffe. Sollte das wirklich son Sprung werden - sind glaub ich alle CRYSISer und alle FC2 zocker glücklich. Denke das man schon mit einer Karte CRYSIS bis zu einer Auflösung von 1920x1200 auf Very high zocken kann mit Ultra. Mit 2 Karten warscheinilch schon FC2 auf Allerhöchste Stufe. Nya man weiß es nicht - jedoch weiß man das mal eine richtig gute Karte kommen muss. Denn der limitierende Faktor heißt zurzeit einfach GRAFIKKARTE!.

Mfg LKrieger

HunT
25.05.2008, 12:24
236 Watt is doch garnix heutzutage. Wenn du jetzt SLI mit 2 GTXen hast bist du schon bei 600 Watt. Mit 3 Karten habe ich Spizte 798,75 Watt schon ausgelesen. Finde den Verbrauch für die enorme Leistung (wenn die Specs passen) sehr gut.



Genau das was ich hoffe. Sollte das wirklich son Sprung werden - sind glaub ich alle CRYSISer und alle FC2 zocker glücklich. Denke das man schon mit einer Karte CRYSIS bis zu einer Auflösung von 1920x1200 auf Very high zocken kann mit Ultra. Mit 2 Karten warscheinilch schon FC2 auf Allerhöchste Stufe. Nya man weiß es nicht - jedoch weiß man das mal eine richtig gute Karte kommen muss. Denn der limitierende Faktor heißt zurzeit einfach GRAFIKKARTE!.

Mfg LKrieger

Da haste natürlich wiederum Recht! Also ich weiß ja nicht, wie das bei euch aussieht, aber die GTX 280 hab ich quasi schon vorbestellt. ;)

siLenz
25.05.2008, 12:48
toll ihr habt wohl alle nen geldscheisser...fuer die 280 benoetigt man schon nen eigenes akw und das bei den steigenden strompreisen und dann gibts noch so psychopathen die sich damit ein sli oder sogar nen triple-sli-system zusammenbauen...
wenn ich das hoere, vonwegen angemessene leistung. ich wette crysis laeuft in very high immer noch nicht mit 100 fps durchgehend!!!

Heinz_Baer
25.05.2008, 13:29
WTF mehr als 600$ für die Karte? Das ist ja lebensmüde. Der Wert wird vom Europreis kaum abweichen, wie das frühere Kostenvoranschläge gezeigt haben. Ich finde das schon extrem, so viel zu verlangen, Leistungsschub hin oder her.

DualNuke
25.05.2008, 13:39
Da haste natürlich wiederum Recht! Also ich weiß ja nicht, wie das bei euch aussieht, aber die GTX 280 hab ich quasi schon vorbestellt. ;)

Für mich gilt das gleiche. Ich warte schon lange auf eine richtig gute Karte. Ein paar Dinge muß ich aber noch wissen.

1. Wie schnell ist sie wirklich ? (3DMark und Spielebenchmarks)
2. Ist meine CPU schnell genug um die Karte auszureizen ?
3. Preis ( für 600 EUR würde ich sie nicht kaufen, maximal 500 EUR da ich noch 100 EUR für ein Netzteil ausgeben muss.

Die Fragen werden sich ja bald klären lassen :D

HunT
25.05.2008, 13:43
WTF mehr als 600$ für die Karte? Das ist ja lebensmüde. Der Wert wird vom Europreis kaum abweichen, wie das frühere Kostenvoranschläge gezeigt haben. Ich finde das schon extrem, so viel zu verlangen, Leistungsschub hin oder her.

Sagt mal, habt ihr alle kein Gedächnis oder was? Und wie viel bitteschön hatte damals eine 8800GTX gekostet? Na? Klingelts?

Zudem wirds ja die kostengünstigere Variante ala GTX 260 geben. Soll angeblich 449$ kosten.

Also ich hole mit die GTX 280 aus dem Grund, damit ich nicht nach einem Jahr wieder ne Karte kaufen muss, weil eine GTX 260 zu schwach ist. Diesen Fehler habe ich mit der 8800GTS (G80) gemacht und kann Crysis jetzt nichtmal auf Hoch flüssig spielen, während Leute mit ner 8800GTX keine so großen Probleme haben.

CRYSISTENSE
25.05.2008, 13:59
600$/€ sind EIGENTLICH gerechtfertigt. Schließlich ist die Karte ca. so schnell wie 3 88er GTXen und die kosten auch ca. 600€. Allerdings sehe ich nicht ein 600€ für ein Stück Plastik zu zahlen, das nach ein paar Jahren noch 50-100€ kostet;) Nur damit man Crysis und FC2 ordentlich spielen kann?^^ Ich bin jedenfalls gespannt, wer sich die Karte kaufen wird.

Jannez
25.05.2008, 14:02
Also ich hole mit die GTX 280 aus dem Grund, damit ich nicht nach einem Jahr wieder ne Karte kaufen muss, weil eine GTX 260 zu schwach ist. Diesen Fehler habe ich mit der 8800GTS (G80) gemacht und kann Crysis jetzt nichtmal auf Hoch flüssig spielen, während Leute mit ner 8800GTX keine so großen Probleme haben.

Das geht mir genauso, ich dachte damals auch, dass ich jetzt erstmal für ne ganze Zeit vorgesorgt hätte DENKSTE!!!

(offtopic: ich finde es lässt sich mit der Karte aber schon sehr schön auf hoch spielen, wobei sich hier natürlich wieder die Frage stellt was denn flüssig ist, mir reicht das auf high mit OC schon (SP versteht sich ;-))

@ topic
Was für ein Netzteil brauch man denn für die neuen Grakas etwa, wenn man sonst nur einen Dual-core und sonst nichts besonderes hat??? Würde mein 450 Watt Be-quiet NT da ausreichen??

Heinz_Baer
25.05.2008, 14:03
Auch Leute mit einer GTX haben Probleme. Außerdem ist es eine riesen Geldentwertung, wenn du dir jetzt eine Karte kaufst, die in 1 Jahr nur noch die Hälfte kostet. Also lieber zweimal ne Karte, die im Moment gut ist, als eine, die etwas länger gut ist. In einem Jahr gibt´s wieder bessere Karten, die die 280 schlagen werden und dann müsstest du dasselbe über die 280 sagen wie jetzt über deine 8800.

Ich muss langsam einigen zustimmen: Außer für Crysis braucht man für kein Spiel ne 8800GTX oder was höheres. Damit würde es sich lohnen, einfach zu warten, bis solche Spiele rauskommen, weil das am billigsten wäre. Deshalb werd ich mir lieber ne 260 kaufen, wenn überhaupt. Vielleicht ist es Zeit nochmal darüber nachzudenken, wenn Spiele wie CoD5, Stalker Clear Sky, FarCry 2 oder Battlefield 3 rausgekommen sind, bis dahin fallen die Preise.

Ich hab auch damals schon die hohen Preise für die 8800 verurteilt, Karten sind nach dem Release immer total überteuert (8800GT war ne Ausnahme). Für 600 Dollar bekommt man zum Releasezeitpunkt wahrscheinlich 3 GTS (G92), die sicher mindestens genauso schnell wie die 280 sein werden. Wo bleibt der revolutionäre Schritt, wenn der Preis/Frame nicht sinkt?


EDIT:@Jannez: 450 Watt reichen wahrscheinlich nicht aus. Ich hab 470 Watt und würde nach meiner Rechnung schon ab 220 Watt für eine Graka extreme Probleme bekommen. Ist bloß die Frage, inwiefern Rechnung und Wirklichkeit übereinstimmen.

Jannez
25.05.2008, 14:12
Für 600 Dollar bekommt man zum Releasezeitpunkt wahrscheinlich 3 GTS (G92), die sicher mindestens genauso schnell wie die 280 sein werden.

EDIT:@Jannez: 450 Watt reichen wahrscheinlich nicht aus. Ich hab 470 Watt und würde nach meiner Rechnung schon ab 220 Watt für eine Graka extreme Probleme bekommen. Ist bloß die Frage, inwiefern Rechnung und Wirklichkeit übereinstimmen.

Danke!!!:grin:


Meines Wissens nach kann man doch keine 3 GTS zusammenbenutzen (die "können" doch gar kein TripleSLI, weil die gar nicht genug plätze für die SLI-Brücken haben.

Aber egal, du hast trotzdem Recht. ;-)

HunT
25.05.2008, 14:21
Auch Leute mit einer GTX haben Probleme. Außerdem ist es eine riesen Geldentwertung, wenn du dir jetzt eine Karte kaufst, die in 1 Jahr nur noch die Hälfte kostet. Also lieber zweimal ne Karte, die im Moment gut ist, als eine, die etwas länger gut ist. In einem Jahr gibt´s wieder bessere Karten, die die 280 schlagen werden und dann müsstest du dasselbe über die 280 sagen wie jetzt über deine 8800.


Ähm, du weißt, dass SLI für manche absolut keine Alternative darstellt? Und so gerne wie ich Crysis spiele, brauche ich so ein "Monster". Bald kommen ja auch noch FC2 und Clear Sky. Und warum sollte ich ein Jahr warten? Dann kommt ja doch eh ne neue Gen raus und die will man dann auch haben. Ich bin in gewisser Hinsicht Enthusiast und hole mir fast immer das Neuste

Nur weil du so ne Leistung nicht brauchst, heißt das nicht, dass diese Leistung andere auch nicht brauchen.

-THRiLLiAL-
25.05.2008, 14:25
joa also mit solchen grafikkrachern kannst die hardware wenigstens ausnützen - anders würde es ausschaun, wenn man sich bloss die neueste holt, um "reserven" zu haben. ich denke, es ist besser, halt mehr hinzublättern, somit sofort spass zu haben und später beim verkauf auch noch was dafür zu bekommen. besser, als sich 2 oder 3x was günstigeres zu kaufen (in dieser sektion wohl verstanden)

CRYSISTENSE
25.05.2008, 14:26
Nur weil du so ne Leistung nicht brauchst, heißt das nicht, dass diese Leistung andere auch nicht brauchen.

Momentan braucht kein Mensch diese Leistung bzw. die Leistung kann nicht genutzt werden. Frühestens bei FC2 und ob das Spiel das wert ist...

Dumdidum
25.05.2008, 14:34
450 Watt reichen wirklich nicht. Nach Abzug der Verlustleistung und das sich die Leistung auf die verschiedenen Anschlüsse verteilt hast du für die 12 V nur 300 Watt wenn es hoch kommt.
Ich müsste mir auch wegen den paar Euro Strom extra im Monat wegen der neunen GraKa keine (finanziellen) Gedanken machen. Aber trotzdem finde ich es nicht verantwortlich von den Herstellern einen solchen Stromfresser herzustellen da die große Masse zu einem deutlichen Strom Mehrbedarf führt. Und ich muss die Spiele auch nicht auf meinem LCD Fernseher in HD spielen können da der auch das 4 fache meines Monitors verbraucht.
Ob du den Wertverlust in kauf nimmst oder nicht bleibt dir überlassen. Die Hersteller verdienen sich halt an den First Buyer eine goldene Nase.

HunT
25.05.2008, 15:22
Momentan braucht kein Mensch diese Leistung bzw. die Leistung kann nicht genutzt werden. Frühestens bei FC2 und ob das Spiel das wert ist...

Ihr denkt zu kurzfristig!

Es kann nicht schaden ein wenig Leistungsreserven zu haben. Zudem kommt noch hinzu, dass ich auf meinen Grakas Waküblocks draufpacke. Für mich ist es lohnender wenn ich mir gleich das High End Modell für etwa 2 Jahre kaufe, als innerhalb von 2 Jahren 2 oder 3mal die Graka wechsel, weil man für jede Graka einen dafür gebauten Kühlblock braucht und dieser wiederum kostet bekanntlich ja auch was.

Noname
25.05.2008, 16:00
So die letzten 14 Seiten sind durch :D

Eine Frage hat das Nonam´chen dann auch mal.

Was haltet ihr davon das die beiden Graka "so billig" sein sollen/ werden ?

260: ca. 310€
280: ca. 420€

Ich meine wenn ich sehe, das die GX2 ca. 430€ kostet frage ich mich schon wo da die relation ist, denn die 280 wird definitv die GX2 zerstören ohne dabei jemals zu schwitzen. Tests zeigen es mir, und wenn die ersten Benchs in wenigen Tagen kommen, dann wird man es noch deutlicher sehen :D

Nur muss ich sagen, mein neues System ist fertig, Geld hab ich auch, nur zur Freundin will ich in den Sommerferien, und deshalb warte ich noch bis ca. August. Und naja der Punkt: momentan XFX 98GTX 760M BlackEdition für 260 Euronen und naja die GTX260 mit ihren süßen 50 € stören mich dann auch nicht mehr :D nur halt 2 Wochen mehr arbeiten.

Sry fürs OT nur brennt mir das auf der Seele! :oops:

CRYSISTENSE
25.05.2008, 18:21
260: ca. 310€
280: ca. 420€ :oops:

Die Werte stimmen nicht ganz. Du kannst in etwa die Dollarpreise übernehmen =

600€ für die 280
450-500€ für die 260

Wenn die 280 nur 420€ kosten würde, hätte sie gleich jeder und das weis Nvidia;)

SashTheMash
25.05.2008, 18:27
naja ich glaub schonn dass man die Dollarpreise nicht 1 zu 1 übernehmen kann, denn der Dollar steht ja nun wirklich schlecht zur Zeit

meine Schätzung:

GTX 280: ca. 500-550€

GTX 260: ca. 400€

so, mal meine Meinung^^

EDIT:
Prognose 1 Monat nach Einführung:

GTX 280: ca. 400-450€

GTX 260: ca. 300€

xD

HunT
25.05.2008, 22:01
naja ich glaub schonn dass man die Dollarpreise nicht 1 zu 1 übernehmen kann, denn der Dollar steht ja nun wirklich schlecht zur Zeit

meine Schätzung:

GTX 280: ca. 500-550€

GTX 260: ca. 400€

so, mal meine Meinung^^

EDIT:
Prognose 1 Monat nach Einführung:

GTX 280: ca. 400-450€

GTX 260: ca. 300€

xD

Schön wärs. ist aber unwahrscheinlich, dass die Preise bei einer "Next Gen" innerhalb kurzer Zeit so drastisch sinken. War ja bei der 8800er Reihe Anfangs auch nicht anders. Und all die Generationen davor.

Noname
26.05.2008, 12:33
Schätzungen sind eh nur Humbug :p

Was fakt ist, die GTX260 wurde mit 449$ bestätigt!!!!! Und dass sind bei aktuellem Kurs ~310 Euro :!::!: 8)

Dumdidum
26.05.2008, 12:40
Der Dollarkurs kann nicht direkt umgerechnet werden da dieser in der Regel OHNE Mehrwertsteuer ist! Allerdings hält der empfohlene Verkaufspreis wahrscheinlich eh nur ein paar Wochen.

Black_Death
26.05.2008, 13:15
600$ sind gerade 409.27694406548€

pilzbefall
26.05.2008, 13:35
Der Dollarkurs kann nicht direkt umgerechnet werden da dieser in der Regel OHNE Mehrwertsteuer ist! Allerdings hält der empfohlene Verkaufspreis wahrscheinlich eh nur ein paar Wochen.

eben. Ich denke eine wirklich herbe Geldentwertung werden nur diejenigen erleben, die die Karten im ersten Releasemonat kaufen. WENN ich zuschlagen sollte, dann frühestens nach 2 Monaten. Meine letzte Karte, die ich für damals 900 DM kaufte, war eine Radeon 9800....

noxon
26.05.2008, 14:18
600$ sind gerade 409.27694406548€+ Einfuhrsteuer = 500 EUR
+ Zusatzkosten = 500-600 EUR

Es lässt sich also quasi 1:1 umrechnen.

Ich hoffe aber, dass die Karten zumindest zu Weihnachten oder anfang nächsten Jahres ihre erste deutliche Preissenkung hinter sich haben. Dann werd ich mir wohl eine 280'er zulegen

Noname
26.05.2008, 15:06
1:1 oh oh oh

Erzähl das nur Niemanden, für solche Aussagen wurde man früher geköpft.

Und sicher kann man den normal Umrechnen, gut die MwSt wie süß, ansonsten ist alles egal, oder warum denkt ihr alle fahren ca. 30% der Deutschen 2008 in die Staaten um dort einzukaufen, bestimmt nicht weil man dort nicht auf die Mehrwertsteuer achten muss :arofl:

300! max. 350 das wäre dann auch die Relation der damaligen 88GTS !!!!!! nichtmehr, ihr werde sehen!!

LKrieger
26.05.2008, 15:10
Nene ich muss da Noxon recht geben. Es ist ja nicht nur die Mehrwertsteuer und die Einfuhrkosten, sondern schlagen die verschiedenen Marken wie Leadtek, XFX usw bestimmt auch noch was drauf. Umsonst geben sie Ihre Produkte jedenfalls nicht Preis. Und eine Karte direkt von NV bekommt man nicht!

Mfg LKrieger

Heinz_Baer
26.05.2008, 16:01
Die Spekulationen über die finalen Taktraten hatte LKrieger zwar schon mal erwähnt, hier aber noch mal der Artikel von computerbase:

klick (http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2008/mai/finale_taktraten_geforce_gtx_280_gtx_260/)

SashTheMash
26.05.2008, 16:11
oh mann noname wie dumm muss man denn sein^^

man kann die $-Preise nicht mit dem Wechselkurs in Euro umrechnen, da kommen ja noch jede Menge kosten drauf

aba andererseits kann ich mir auchnich vorstellen, dass die $-Preise 1 zu 1 übernehmbar sind

wie gesagt, ich sag ma so ~50€ unter dem jeweiligen $-Preis^^

-THRiLLiAL-
26.05.2008, 18:01
also ich bin ma sehr gespannt ob des stimmt http://www.pcgameshardware.de/aid,644827/News/Technische_Details_zu_Geforce_GTX_260_und_280/ .. verwundern würde es mich auf jeden fall ;)

CRYSISTENSE
26.05.2008, 18:22
also ich bin ma sehr gespannt ob des stimmt http://www.pcgameshardware.de/aid,644827/News/Technische_Details_zu_Geforce_GTX_260_und_280/ .. verwundern würde es mich auf jeden fall ;)

Hab ich das falsch verstanden oder behaupten die wirklich, dass ATI mehr Leistung bietet???

HunT
26.05.2008, 18:42
Hab ich das falsch verstanden oder behaupten die wirklich, dass ATI mehr Leistung bietet???

Hast richtig verstanden, aber mach dir mal keine Sorgen, solche Aussagen basieren auf Unwissenheit über die Funktionalität solcher Technologie. Naja, ATI Fans müssen doch auch mal Hoffnung bekommen, sonst werden sie depressiv.

Ich habe in nem englischem Forum gelesen, dass der R700 also die HD4870X2 die GTX 280 nicht schlagen wird. Inwiefern das wahr ist, weiß ich nicht. ATI ist schon erbärmlich, wenn sie zwei Chips einsetzen, um an die Leistung eines Single Chips von NV ranzukommen.

-THRiLLiAL-
26.05.2008, 18:49
also des 512-bit speicherinterface bei der gtx280er soll immer noch der wahrheit entsprechen.
(joa und zudem bleibt für amd noch zu hoffen, dass diese den treiber dann so gut hinbekommen wie momentan der 8.5er @vista unter dx10)

HunT
26.05.2008, 19:15
Im Moment sind auch Gerüchte im Umlauf, der GT200 sei in Wirklichkeit ein G90, der dann nicht veröffentlicht wurde, weil AMD zu der Zeit keine Konkurenz darstellte. Er sollte zum Q4 2007 rauskommen, weshalb sich auch erklären ließe, warum der GT200 kein DX10.1 unterstützen würde. Der GT100 soll dann der Nachfolger des GT200, der angeblich ein G90 sein soll, sein.

Aber wie gesagt,, alles nur Gerüchte.

Baggibox
26.05.2008, 23:46
Mit wieviel Frames würde Crysis damit laufen ?
Wenn ich mir schon die 9800GX2 anschaue, dann hauen die ganz schön rein.
Very High mit 50fps. ! (?)
Jetzt noch diese GT200er Karte..... Könnte man 16Q AntiAlaising dazu schalten und es immernoch flüssig spielen ?

borni
27.05.2008, 00:21
Im Moment sind auch Gerüchte im Umlauf, der GT200 sei in Wirklichkeit ein G90, der dann nicht veröffentlicht wurde, weil AMD zu der Zeit keine Konkurenz darstellte. Er sollte zum Q4 2007 rauskommen, weshalb sich auch erklären ließe, warum der GT200 kein DX10.1 unterstützen würde. Der GT100 soll dann der Nachfolger des GT200, der angeblich ein G90 sein soll, sein.

Aber wie gesagt,, alles nur Gerüchte.

Geruchte die in meinen Ohren sehr plausibel klingen...
Kannst du dich noch erinnern wie ich spekuliert habe das Nvidia da irgendwo einen G90 in der Hinterhand hat, damals als sie den G92 als 8800GT raus gebracht haben... Ich denke das ist mehr als nur ein Gerücht!

HunT
27.05.2008, 00:36
Geruchte die in meinen Ohren sehr plausibel klingen...
Kannst du dich noch erinnern wie ich spekuliert habe das Nvidia da irgendwo einen G90 in der Hinterhand hat, damals als sie den G92 als 8800GT raus gebracht haben... Ich denke das ist mehr als nur ein Gerücht!

Ne, kann mich leider nicht daran errinnern. Ist aber auch egal, ob nun G90 oder sonst was. Hauptsache die Leistung stimmt! Desweiteren habe ich erfahren, dass der GT200 einen ähnlichen Quantensprung erreichen soll wie der G80 zum G71.

http://benchmarkreviews.com/index.php?option=com_content&task=view&id=178&Itemid=1

Hier sind auch nochmal viele Informationen. (englisch)

Offenbar herrschen aktuell Streitigkeiten, welche Graka nun schneller sein wird. Der R700 oder der GT200?!

Angeblich soll die GTX 280 etwa 50% Mehrleistung gegenüber der 9800GX2 bieten, was bedeuten würde, dass man Crysis auf jeden Fall in Auflösungen wie 1920*1200 unter very high durchgehend flüssig spielen werden kann. Aufgrund der 512bit SI würde die Karte aber im Gegensatz zur 9800GX2 nicht so stark bei aktiviertem AA einbrechen.

Das wird ein heißer Tanz!

noxon
27.05.2008, 08:27
Ich hoffe, dass ATi leistungsmäßig mit nVidia mithalten kann, denn wenn die wirklich ihre Karten zu den "günstigen" Preisen anbieten wollen wie erwartet, dann muss nVidia auch ganz schnell die Preise senken.

Aber egal was letztendlich für Preise dabei herauskommen. Ich werde mir auf jeden Fall eine nVidia Karte kaufen. Ich erhoffe mir nämlich, dass in Zukunft mehr Anwendungen die Cuda API nutzen werden um ihre Berechnungen zu beschleunigen.

Photoshop (http://www.computerbase.de/news/software/bildbearbeitung/2008/mai/photoshop_cs4_gpu-beschleunigung/) macht's vor.

Für Spiele ist es meiner Meinung nach auch sehr wichtig, dass die PhysX Engine die nVidia GPU zur Berechnung heran zieht. Aus diesem Grund wird die Engine in Zukunft sehr viel Verbreitung finden.
Wann und ob ATi die Berechnungen der PhysX Engine auf der GPU durchführen wird ist indes noch völlig unbekannt.

Aus dem Grund werde ich mir also eine nVidia Karte holen, auch wenn sie kein SM4.1 unterstützt, aber das halte ich nicht für so wichtig. Meine einzige Hoffnung ist, dass ATi konkurrenzfähige Karten zu niedrigen Preisen anbietet und so die Preise von nVidia etwas drückt.

BF_C.R.Y.S.I.S
27.05.2008, 08:35
so, jetzt hab ich auch mal den ganzen thread durch! :blink:

ich werde das diesmal auch ganz entspannt angehen mit dem kauf... immerhin kann ich crysis jetzt auch auf very high mit mind. 8fach AA flüssig spielen und von dem her warte ich sicher mal, bis die ersten die neue gtx280 haben und man hört ob es sich lohnt oder nicht...

ausserdem braucht man ja wie schon öfter hier angemerkt die leistung noch bei den wenigsten games...

die nächsten "meilensteine" in der performance-frage werden sicher FC 2 und S.T.A.L.K.E.R. - clear sky...

und wenn die beiden games bei akzeptablen werten bei mir laufen, warte ich sicher noch so lange, bis ichs wieder nötig habe, eine bzw. wieder 2 neue grakas zu kaufen... ansonsten wird da die gtx280 auch schon so billig sein, dass man sie sich ohne schlechtes gewissen leisten kann... :)

HunT
27.05.2008, 10:15
GPU Leistung wird immer benötigt, als gibt sehr wohl eine Daseinsberechtigung der GTX 280. Vor allem für Leute ohne nForce Board und mindestens einem 22Zöller. Leute mit nem 30 Zöller werden sich über die GTX 280 freuen.

Die Karte würde auch nicht 600$ kosten, wenn sie nicht dementsprechend Leistung satt bieten würde. Noch herrscht ja kein Monopol, deshalb kann man von dieser Theorie ausgehen. Nur wenn ATI es sich selbst versaut, dann ist nur ein weiterer Schritt in die Geschichtsbücher für ATI.

Warfrog
27.05.2008, 10:48
Nachdem beim „Nvidia Editors Day“ in der letzten Woche alle Details zum Start der kommenden Grafikkarten ausgewählten Personen präsentiert wurden und der Inquirer einmal mehr nicht eingeladen war, veröffentlichen die Kollegen, die sich damit nicht an ein NDA halten müssen, alles zum Thema, was es aufzugreifen gibt.
Der letzte Streich von Charlie Demerjian ist die Veröffentlichung einer E-Mail von Philip Scholz, einem Marketing-Verantwortlichen von Nvidia. Dieser weißt die OEM-Partner, aber auch die Presse, auf das neue Erscheinungsdatum hin. Demnach startet die neue GeForce-Serie offiziell am 17. Juni um 15 Uhr deutscher Zeit durch, also genau einen Tag eher als bisher angenommen. Die Informationen aus der beim Inquirer gezeigten E-Mail weisen weiter darauf hin, dass es bereits seit dem 14. Mai offizielle Informationen und Material zu den Karten gibt und alle zuletzt getätigten Informationen durchaus der Wahrheit entsprechen dürften. Insbesondere die gestern veröffentlichten finalen Spezifikationen, sowie die Preise und die hohe TDP von über 200 Watt (http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2008/mai/finale_taktraten_geforce_gtx_280_gtx_260/) dürften als echt anzusehen sein. In genau drei Wochen werden wir wissen, wie es um die Leistung der neuen Grafikkarten bestellt ist.

Quelle: Computerbase

BF_C.R.Y.S.I.S
27.05.2008, 11:20
GPU Leistung wird immer benötigt, als gibt sehr wohl eine Daseinsberechtigung der GTX 280. Vor allem für Leute ohne nForce Board und mindestens einem 22Zöller. Leute mit nem 30 Zöller werden sich über die GTX 280 freuen.

Die Karte würde auch nicht 600$ kosten, wenn sie nicht dementsprechend Leistung satt bieten würde. Noch herrscht ja kein Monopol, deshalb kann man von dieser Theorie ausgehen. Nur wenn ATI es sich selbst versaut, dann ist nur ein weiterer Schritt in die Geschichtsbücher für ATI.


ja, da gebe ich dir schon recht...sie hat schon ihre daseinsberechtigung...

gerade für die leute, die kein sli bzw. cf nutzen ist die gtx280 sicherlich eine bereicherung!!! :)

aber ich habe ja von mir persönlich gesprochen! und da wäre ich dumm, wenn ich mir jetzt schon wieder eine neue graka kaufen würde...wenn, dann werde ich sie mir erst anfang nächsten jahres holen bzw. dann, wenn FC 2 rauskommt und ich nicht angemessen zocken kann --> aber bis dahin wird die gtx 280 sicher billiger werden! ;)

sry, aber für mich ist ATI bereits geschichte!!!

...und nvidia hat finde ich schon eine gewisse monopolstellung, da ATI schon lange nicht mehr mit nvidia mitkommt...(ati-nutzer bitte nicht beleidigt fühlen...ist nur MEINE meinung ;))

-THRiLLiAL-
27.05.2008, 11:30
Vor allem für Leute ohne nForce Board und mindestens einem 22Zöller. Leute mit nem 30 Zöller werden sich über die GTX 280 freuen.

genau. vor allem bin ich ma gespannt, wie sich die gtx280 dann im sli schlagen wird. hoffentlich kriegen sie den treiber gut hin. ich pers werde nach wie vor auf ne single card lösung setzen - solange es noch geht.

HunT
27.05.2008, 11:50
Nachdem beim „Nvidia Editors Day“ in der letzten Woche alle Details zum Start der kommenden Grafikkarten ausgewählten Personen präsentiert wurden und der Inquirer einmal mehr nicht eingeladen war, veröffentlichen die Kollegen, die sich damit nicht an ein NDA halten müssen, alles zum Thema, was es aufzugreifen gibt.
Der letzte Streich von Charlie Demerjian ist die Veröffentlichung einer E-Mail von Philip Scholz, einem Marketing-Verantwortlichen von Nvidia. Dieser weißt die OEM-Partner, aber auch die Presse, auf das neue Erscheinungsdatum hin. Demnach startet die neue GeForce-Serie offiziell am 17. Juni um 15 Uhr deutscher Zeit durch, also genau einen Tag eher als bisher angenommen. Die Informationen aus der beim Inquirer gezeigten E-Mail weisen weiter darauf hin, dass es bereits seit dem 14. Mai offizielle Informationen und Material zu den Karten gibt und alle zuletzt getätigten Informationen durchaus der Wahrheit entsprechen dürften. Insbesondere die gestern veröffentlichten finalen Spezifikationen, sowie die Preise und die hohe TDP von über 200 Watt (http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2008/mai/finale_taktraten_geforce_gtx_280_gtx_260/) dürften als echt anzusehen sein. In genau drei Wochen werden wir wissen, wie es um die Leistung der neuen Grafikkarten bestellt ist.

Quelle: Computerbase

Mich wundert es auch nicht, dass INQ nicht eingeladen wurde. Seit ihrem letzten Fanboyartikel, wo der Satz auftaucht, dass man nicht glaube, dass die GTX 280 gegen den R700 ankommen würde, ist ja mal...

Am schlimmsten finde ich sowieso Fu(R)zilla und INQ...alles ATI Fanboys die Redakteure.

noxon
27.05.2008, 12:57
Photoshop (http://www.computerbase.de/news/software/bildbearbeitung/2008/mai/photoshop_cs4_gpu-beschleunigung/) macht's vor.Hier ist schon die nächste CUDA Anwendung
SuperPI wird durch CUDA Nvidia-GPU-tauglich (http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2008/mai/superpi_cuda_nvidia-gpu-tauglich/)

So langsam wird das ja was.


//EDIT:
Und hier schon wieder: Football-Simulation „Backbreaker“ nutzt PhysX (http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2008/mai/football-simulation_backbreaker_physx/).
Finde ich echt gut, dass immer mehr Spiele davon Gebrauch machen und das jetzt sogar die Animationsengine, die auch bei GTA4 zum Einsatz kommt, die GPU zur Berechnung hinzu zieht.

HunT
29.05.2008, 11:04
Aus einer geheimen Quelle

GodssoN
29.05.2008, 11:15
Wenn die tabelle echt ist und die leistung tatsächlich so aussehen wird, dann kann AMD/ATI einpacken und wir werden übelste opfer von nVidias monopolstellung...
Na schönen dank auch.

LKrieger
29.05.2008, 12:34
Ich hoffe das NV noch mehr Leistung bei Spielen bringt. Denn die Ergebnisse sind ja auf dem Benchmark zurückzuführen. Ein Benchmark ist nicht gleich ein Spiel.

Mit viel Glück ist wirklich die Leistung dreier G80s mit einer Karte möglich. Denn mit SLI kann man ja auch nicht einfach 300% rechnen (3-way Sli G80) Unter SLI ist ja immer ein haufen Verlust zu rechnen und zu erwarten. Die Karten laden ja alle die gleichen Speicherinformationen rein und arbeiten dann mit modus afr oder spit frame rendering usw... Mit 2 Karten hat man zirka 80 Mehrleistung als zu einer Karte. Bei einer 3. Karte kann man nochmal mit so 30% rechnen.

Bei Spielen könnten wir dann tatsächlich mit einer GT200 3 G80 in SLI plätten. Wenn das so wäre wäre das der absolute durchbruch für nv - und wiedermal eine megamäßige High end Karte.

Vielleicht werden dann jetzt mal die arbeiten und die Speicherverwaltung unter SLI bei der neuen G200 Serie optimiert, sodass man tatsächlich immer mit 90-95% Mehrleistung für jede Karte rechnen kann.

@Godsson: ATI wird sich insovern wieder halten können, das sie günstiger Ihre Karten auf den Markt bringen werden. Somit wird man für NV einen Haufen mehr bezahlen müssen - aber wird auch einen größeren Leistungsschub erwarten können. ATI wird sich denk ich schon noch überwasser halten können. Da die Fangemeinde unter ATI schon noch seehr groß ist - und sich nicht jeder Nvs Topmodelle Leisten können und auch nicht wollen.

Mfg LKrieger

noxon
29.05.2008, 12:49
Also irgendwie kann ich das nicht ganz glauben. Eine HD4870 soll gerade mal so schnell sein, wie eine 8800 Ultra?
Das wäre wirklich etwas wenig und nicht besonders vorteilhaft für uns Kunden. Im High-End Sektor hätte nVidia dann erst einmal eine sichere Monopol-Stellung und wird wahrscheinlich keinen Grund sehen ihre Preise in nächster Zeit zu senken.

Ich hoffe, dass die Werte nciht ganz stimmen und ATi in der Realität besser ist, als in dem Benchmark.

HunT
29.05.2008, 15:11
Okay, ich gebs zu, ich hab euch verarscht...:aua:...selbstgemachte Benchmarls sind doch cool, oder? Muahaha

Und hier ein offizieller Verarsche Benchmark -> http://www.pcgameshardware.de/aid,645367/News/Angebliche_Leistungswerte_der_Geforce_GTX_280/260_sowie_Radeon_HD48x0_im_3DMark_Vantage_aufgetau cht/

Ich möchte euch dringend raten, gerade in den Tagen kurz vor Veröffentlichung der Karten sehr vorsichtig mit autauchende Benchmarks umzugehen, auch wenn sie noch so realistsich oder inrealistisch klingen.

EDIT: Bin ich besoffen?

DR.Kongo G80
29.05.2008, 15:19
Also ich kann nur sagen das die benchmarks die kurz vorm release des G80 raus kamen, eigentlich der wahrheit entsprachen.

Aber freuen tu ich mich jetzt schon wie sonst was. Nur stell ich mir dann die Frage für was ich die eigentlich benötige. Crysis ok, aber sonst sind wohl eher wenig Spiele vorhanden nah an die Qualitäten von Crysis herankommen. Aber auf diese CUDA Technologie bin ich ja mal gespannt. Wenn die auch in Spielen einsatz findet, wäre das ja mal nicht schlecht. :)

LKrieger
29.05.2008, 15:36
@DR. Kongo G80: Nunja - nichtnur CRYSIS hat solche krassen Ansprüche sondern auch der Kommende Shooter Far Cry2, sowie Battlefield 3 (wird sicher auch einiges fressen). Wer gerne das neue Need 4 Speed spielt hat auch einige Probleme selbst mit SLI ruckelt nämlich das Spiel teilweise. FEAR2, COD5 und weitere neue Spiele werden mit Sicherheit auch ähnliche Leistungsstarke Engines besitzen.

Wenn man alles auf max zocken möchte langt nunmal keine G80 mehr aus (oder hat noch nie ausgereicht bei CRYSIS). Wer AA einschaltet der kann CRYSIS auf max heutzutage nicht flüssig spielen. Selbst ich kann mit 3 Karten unter Vista mit ner Resi von 1920x1200 und allem auf max nicht richtig flüssig zocken. Mit AA wäre es wieder unspielbar! Wird Zeit das endlich mal was richtig gescheites kommt.

Glaube schon das wir früher oder später endlich mal richtig gescheite Karten benötigen (zumindest die Zocker ;)).

Mfg LKrieger

DualNuke
29.05.2008, 15:40
Ich finde diese beiden Sätze besonders interessant.

"Dabei zeichnet sich ein klares Bild ab, denn die Geforce GTX 280 und die Geforce GTX 260 würden mit einem kolportierten Ergebnis von rund 4100 bzw. 3800 Punkten deutlich vor der Radeon HD4870 (RV770XT) liegen. Angesichts des vermuteten Preises von 349 US-Dollar für die Radeon HD4870 könnte AMDs Zielgruppe das Mid-Range-Segment darstellen, während Nvidia wohl eher den High-End-Markt anpeilt"

Ich kann mir gut vorstellen das ATI sich erst mal auf das Mid-Range-Segment konzentriert und erst garnicht versucht NVidia im High-End-Markt zu "schlagen".

LKrieger
29.05.2008, 15:49
@DualNuke: Wäre durchaus möglich das ATI erstmal versucht sich mit günstigeren Midrange Karten wieder aufzupäppeln. Denn da hat ATI zurzeit noch super Vorteile und kann die Karten auch noch günstiger anbieten. Sollte NV allerdings noch weiter Profit schlagen - wird NV sich auch nicht davon scheuen die MidKarten günstiger anzubieten.

Allerdings jetzt mal wieder zurück zur GT 200.

Mfg LKrieger

CRYSISTENSE
29.05.2008, 15:58
Nochmal zum Thema MidKarten. Eine 8800GT 512MB für 126€ NEU! Ich finde damit deckt Nvidia auch diesen Bereich recht gut ab.

@Topic
Wenn es eine GTX 280 geben wird und der Chip GT 200 heißt, ist es doch durchaus möglich, dass es auch eine GT 280 geben wird, oder was meint ihr dazu? Wenn sie ein ähnliches Verhältnis wie die 8800GT hätte, wäre das der ultimative P/L-Killer:D

HunT
29.05.2008, 23:51
Es tummeln nun Gerüchte darüber, dass der GT200 nur eine kurze Lebensdauer haben wird. Nvidia scheint die Zeichen der Zeit erkannt zu haben und wird schnell nach dem Launch des GT200 in 65nm einen GT200b in 55nm vorstellen. Schon vielleicht im September! Erste Out Tapes sollen bereits gestern rausgegangen sein.

http://www.hardware-infos.com/news.php?news=2107

Verdammt! Ich habe schon zu lange gewartet! Ich weiß nicht, vielleicht stimmts ja und ich warte lieber noch ein wenig.

chicken
30.05.2008, 00:05
ihr braucht nicht immer gleich alles glauben was die Seiten schreiben,
Hardware-Info schreibt auch nur Mist:(

siLenz
30.05.2008, 01:54
naja ich hoffe sogar die haben recht, denn damit wird der chip hoechstwahrscheinlich kostenguenstiger an den mann gebracht. und fuer mich ganz wichtig weniger tdp --> leisere kuehlung und weniger stromverbrauch!!!

chaosprinz
30.05.2008, 03:09
Glauben sollte man da echt nix, aber spekulieren und hoffen darf man ja. Ich wart auf jeden Fall noch ab bis November oder Dezember. Meine 8800gts/g92 läuft ganz gut soweit.
Und mir wärs schon sehr lieb wenn sich am Stromverbrauch des gt200 was tun würd, i könnt ja schon heulen wenn i an mei letzte Stromnachzahlung denk.:cry:
Davon ab ists ja auch nicht unrealistisch, dass NV auch in 55nm-Zeitalter kommt. Bringt ja nur Vorteile, weil a)höhere Taktraten möglich und b)Stromverbrauch niedriger. Und niedriger Stromverbrauch is halt schon verdammt trendy und bei den Strompreisen heutzutage kriegt dieser ja auch immer mehr Gewicht.

noxon
30.05.2008, 04:17
ihr braucht nicht immer gleich alles glauben was die Seiten schreiben,
Hardware-Info schreibt auch nur Mist:(Grundsätzlich stimmt das natürlich. Man sollte immer vorsichtig sein, aber diesmal werden sie wohl damit recht haben.

Ursprünglich wurde ja überlegt, ob man nicht sofort in 55nm launcht, doch das war nVidia dann doch etwas zu gefährlich und sie setzten erst einmal auf altbewehrtes und wechseln erst etwas später den Fertigungsprozess, wenn er ausgereift genug ist.

In wie fern sich das Ganze auf den Kunden auswirkt, ist die Frage. Vorteile wird man durch einen 55nm Chip wahrscheinlich nicht unbedingt haben. Vielleicht sogar nachteile, was die Übertaktungsfreudigkeit angeht oder so. Das wird man sehn.

LKrieger
30.05.2008, 10:14
Hab die News auch gerade gelesen. War ja auch so ähnlich geplant. Man wird sehen was daraus wird.

Mfg LKrieger

Captain-S
30.05.2008, 11:42
Es tummeln nun Gerüchte darüber, dass der GT200 nur eine kurze Lebensdauer haben wird. Nvidia scheint die Zeichen der Zeit erkannt zu haben und wird schnell nach dem Launch des GT200 in 65nm einen GT200b in 55nm vorstellen. Schon vielleicht im September! Erste Out Tapes sollen bereits gestern rausgegangen sein.

http://www.hardware-infos.com/news.php?news=2107

Verdammt! Ich habe schon zu lange gewartet! Ich weiß nicht, vielleicht stimmts ja und ich warte lieber noch ein wenig.

Das ist nur das Geblubber vom Inquirer auf deutsch.
Link: http://www.theinquirer.net/gb/inquirer/news/2008/05/29/nvidia-gt200-sucessor-tapes

HunT
30.05.2008, 12:26
Ich weiß, dass das nur Gerüchte sind, aber diesmal erscheint mir dieses Gerücht schon realistisch. Wer weiß, vielleicht lohnt sich das Warten ja? Maybe weniger Stromverbrauch? 1000GFlops? Günstiger?

Jedenfalls will ich erstmal wissen, wie weit man den GT200 in 65nm übertakten kann. Aufgrund meiner Wakü kann ich es mir ja erlauben, so ein heißes Eisen noch heißer zu machen.

Servitor
30.05.2008, 13:13
Der GT200 ist doch n 65nm ?

Und die GT200b Version ist in 55nm ?

HunT
30.05.2008, 14:20
Der GT200 ist doch n 65nm ?

Und die GT200b Version ist in 55nm ?

So soll es sein...

Servitor
30.05.2008, 16:03
In was ist der RV770 und RV700 ?

was das jemand.

HunT
30.05.2008, 18:29
In was ist der RV770 und RV700 ?

was das jemand.

RV770 -> Radeon HD4870

R700 -> Radeon HD4870X2 bestehend aus 2x RV770 auf einem PCB

Servitor
30.05.2008, 19:40
RV770 -> Radeon HD4870

R700 -> Radeon HD4870X2 bestehend aus 2x RV770 auf einem PCB


JO thx, und auf welcher Bauweise ?

HunT
30.05.2008, 19:41
JO thx, und auf welcher Bauweise ?

Ich bin kein ATI Fan, sorry, ich weiß nicht, was sich ATI da ausdenken wird.

Servitor
30.05.2008, 19:50
ich dachte es wäre schon offiziel, aus welcher Bauweise (55 nm...) es besteht.

HunT
31.05.2008, 00:58
ich dachte es wäre schon offiziel, aus welcher Bauweise (55 nm...) es besteht.

Achso, du meinst Fertigung. Ja die ist bei 55nm.

Hab außerdem noch was gefunden:

Servitor
31.05.2008, 16:50
Werden die Geforce GT200b Karten, besser sein als die GT200 Karten ?

HunT
31.05.2008, 17:47
Werden die Geforce GT200b Karten, besser sein als die GT200 Karten ?

Dazu müsste ich meine Kristalkugel befragen... ;)

CRYSISTENSE
31.05.2008, 17:52
Werden die Geforce GT200b Karten, besser sein als die GT200 Karten ?

Ich kann mir nicht vorstellen, dass sie besser sein werden. Vielleicht auf dem gleichen Level mit weniger Stormverbrauch, aber sonst werden die sich nicht groß unterscheiden.

Könnte auch sein, dass sie um einiges besser werden, aber das glaub ich nicht. Einfach abwarten:)

-THRiLLiAL-
31.05.2008, 19:19
naja, was heisst "besser" .. ich erhoffe mir ehrlich gesagt noch nicht des gelbe vom ei - im mom ist's bei nvidia ein wenig ominös das ganze. am besten warten wir einfach ma ab, evtl. ist die b variante noch ein wenig höher getaktet ka. bleib jetzt erstma noch bei meiner xfx 8800gtx xXx

HunT
31.05.2008, 21:15
Ich warte mal ab, ob sich die voraussichtlichen 600€ für den GT200 lohnen. Dabei ist mir vor allem die Leistung ein wichtiges Kriterium. Erreicht die GTX 280 mindestens die Leistung von zwei 8800Ultras und lässt sich darüber hinaus noch gut OCen, so ist die Karte so gut wie gekauft.

Stimmt die Leistung nicht im Vergleich zu dem hohen Stromverbrauch, werd ich aller Wahrscheinlichkeit nach auf den GT200b warten und wenns selbst bis Weihnachten dauert. Denn soviel Geld habe ich nun auch wieder nicht, um mir jetzt nen GT200 zu holen und ein paar Monate später den GT200b.

-THRiLLiAL-
31.05.2008, 23:42
würde sich wohl aus finanzieller sicht zumindest alles andere als lohnen, vom gt200 auf den gt200b umzusteigen bei ner mehrleistung von lediglich paar prozent, wenn überhaupt ja .. schaun' wir ma was auf uns zukommt.

LKrieger
01.06.2008, 10:27
Sooo gibt wieder was neues/altes :D

Erstmal bestätigt sich das mit dem Preis was Noxon und ich gesagt haben.
http://www.fudzilla.com/index.php?option=com_content&task=view&id=7603&Itemid=34

Fundzilla meint auch das die 280 GTX für 550-600 Euronen zu beginn verkauft wird.


Als nächstes gibts wiedermal eine nette Grafik die die Leistung der beiden neuen Grafikkarten im vergleich zu einer ATI 3870 X2 zeigen soll. Dabei hat die ATI Karte immer den Faktor 1.

http://resources.vr-zone.com//newspics/May08/30/gtx200-series-performance.jpg

http://vr-zone.com/articles/GeForce_GTX_280_%26_GTX_260_Gaming_Performance/5817.html

Sollte die Leistung wirklich so enorm sein hat das Warten sein Ende.

Mfg LKrieger

CRYSISTENSE
01.06.2008, 10:57
Oh Wahnsinn, das sind ja brutale Werte. Ich finde auch, dass die 550-600€ durchaus realistisch sind und bei dieser Leistung auf jeden Fall gerechtfertigt.

noxon
01.06.2008, 13:08
Naja. So brutal sind die nicht. Man darf sich von der Grafik nicht täuschen lassen. nVidia macht das natürlich clever und startet die Skala erst bei 0,8 anstatt bei 0. Da kommen theoretisch also noch ein paar cm roter Balken unten drunter und dann sieht das nicht mehr ganz so umwerfend aus. Im Schnitt ist die 260 so ungefähr 50% schneller als eine 3870 X2. Crysis @ High Settings mit 1280x1024 4xAA/16xAF würde statt mit 23 fps nun mit 34 fps laufen. Man kann es also gerade einmal flüssig spielen.

Das ist zwar immer noch sehr gut, aber nicht so gut, wie es auf den ersten Blick auf die Grafik den Anschein hat.

Servitor
01.06.2008, 15:31
Weis einer von euch

Woher kommt die Mehrleistung (von dem 512Bit-Speicherinterface.....) ?

Captain-S
01.06.2008, 15:41
Weis einer von euch

Woher kommt die Mehrleistung (von dem 512Bit-Speicherinterface.....) ?
Und von den 240 SPs, beim G80 sind es max. 128, also fast das Doppelte.

Servitor
01.06.2008, 17:54
Hab da nochmal eine Frage zu der Serie von dem GT200b, unswar wird dann die Serie wenn eine kommt: 280b,240b,360b...... heißen ???

HunT
01.06.2008, 18:14
Hab da nochmal eine Frage zu der Serie von dem GT200b, unswar wird dann die Serie wenn eine kommt: 280b,240b,360b...... heißen ???

Sag mal, willst du uns hier veräppeln? Das weiß man alles noch nicht, höchstens NV selbst!

SashTheMash
01.06.2008, 18:19
man weiss noch fast garnichts, man kann nur spekulieren

und diese Fragerei nervt langsam, wir sind hier doch nicht im Kindergarten!

Servitor
01.06.2008, 19:52
man weiss noch fast garnichts, man kann nur spekulieren

und diese Fragerei nervt langsam, wir sind hier doch nicht im Kindergarten!



Sorry, ich wollte ja nur wissen, was ihr dazu meint.

borni
02.06.2008, 16:28
Naja. So brutal sind die nicht. Man darf sich von der Grafik nicht täuschen lassen. nVidia macht das natürlich clever und startet die Skala erst bei 0,8 anstatt bei 0. Da kommen theoretisch also noch ein paar cm roter Balken unten drunter und dann sieht das nicht mehr ganz so umwerfend aus. Im Schnitt ist die 260 so ungefähr 50% schneller als eine 3870 X2. Crysis @ High Settings mit 1280x1024 4xAA/16xAF würde statt mit 23 fps nun mit 34 fps laufen. Man kann es also gerade einmal flüssig spielen.

Das ist zwar immer noch sehr gut, aber nicht so gut, wie es auf den ersten Blick auf die Grafik den Anschein hat.

Bei Crysis ist die 260er doch bei Faktor 1.5 und die X2 auf 1.0
Das heißt doch, das sie exakt 50 % schneller ist...
Aber bei anderen Spielen ist sie teilweise bei 2.4!
Das bedeutet um bis du 140 % schneller!
Verbessert mich, wenn ich mich irre!
Und die 280 ist ja noch viel schneller...
Sicher ist die Folie etwas Nvidia freundlich aufgebaut...
Beeindruckend ist die Leistung aber trotzdem im vergleich zum nicht vorhandenen Mehrleistung der 9800er Serie... *lol*

noxon
02.06.2008, 16:33
Ist schon richtig, aber ich hab's nur mal grob gemittelt. Es sind ja auch Spiele wie F.E.A.R dabei, wo die 260 gerade mal 10% schneller ist.

Aber du hast schon recht. Etwas mehr als 50% werden es wohl sein, aber unter brutal verstehe ich noch etwas anderes. Da sollten im Durchschnitt wenigstens 100% drin sein.
Es ging mir ja eigentlich auch nur darum, dass die Grafik den Anschein erweckt, dass die nVidia Karten bis zu 5 mal schneller sind. Den Eindruck könte man bei der Skalierung ja bekommen.

HunT
02.06.2008, 16:54
Angeblich GTX 280 nur 30W im Idle!

http://www.hardware-infos.com/news.php?news=2113

Obs stimmt, bleibt eher abzwarten. Schön wäre es allemal.

HunT
02.06.2008, 19:17
http://img170.imageshack.us/img170/5765/gtx280powersj4pi7on1.jpg

Black_Death
02.06.2008, 19:50
Gehe davon aus, das die Grakas eine extra spar funktion haben. Vielleicht werden beim idle betrieb bestimmte bereiche so gut wie garnicht mit strom versorgt!

Killuminati91
02.06.2008, 19:50
1,5x so viel wie ne ati? Das soll viel sein? 50% Steigerung?

Sir_Nitro
02.06.2008, 20:02
600€ Sind die Wahnsinnig? Dafür bekomm ich ja 3x ne 3870X2 geht zwar nicht ist theorestisch aber schneller aber 2x X2's werden die Gt200 absägen da bin ich 100%sicher und ne 4870X2 gibts ja auch noch..

-THRiLLiAL-
02.06.2008, 20:13
ach wartet doch einfach ma ab, was bringt des ganze rumgedöns eig? bei der 9er reihe haben wir uns alle halb wahnsinnig gemacht und uns den kopf darüber zerbrochen .. für .. naja ..

HunT
03.06.2008, 02:07
Die ersten Verpackungsbilder?

http://www.hexus.net/content/item.php?item=13600

Offiziell doch kein DX10.1

young-trigger
03.06.2008, 10:52
mal ne frage....
mein pci express unterstütz nur 16x....werden die neuen karten da auf hochturen laufen oder brauch man pcie 2.0?

LKrieger
03.06.2008, 11:48
mal ne frage....
mein pci express unterstütz nur 16x....werden die neuen karten da auf hochturen laufen oder brauch man pcie 2.0?

Glaub das weiß man jetzt auch noch nicht so genau. PCI2.0 hat man bisher eigentlich nur wenig Gehrauch von gemacht. Kann schon sein das da das Interface mehr angesprochen wird. Aber Pflicht wirds denk ich nicht sein.

Mfg LKrieger

pilzbefall
03.06.2008, 12:09
Naja. So brutal sind die nicht. Man darf sich von der Grafik nicht täuschen lassen. nVidia macht das natürlich clever und startet die Skala erst bei 0,8 anstatt bei 0. Da kommen theoretisch also noch ein paar cm roter Balken unten drunter und dann sieht das nicht mehr ganz so umwerfend aus. Im Schnitt ist die 260 so ungefähr 50% schneller als eine 3870 X2. Crysis @ High Settings mit 1280x1024 4xAA/16xAF würde statt mit 23 fps nun mit 34 fps laufen. Man kann es also gerade einmal flüssig spielen.

Das ist zwar immer noch sehr gut, aber nicht so gut, wie es auf den ersten Blick auf die Grafik den Anschein hat.

ist schon ein ziemlich frisiertes Diagramm. In Crysis wäre dann die 280 so schnell wie die 9800X2. Denn die ist jedenfalls in 1650x1050 veryhigh 50% schneller als die 3780X2. Schon komisch, daß die 9800X2 in dem Diagramm nicht auftaucht.

chicken
03.06.2008, 12:11
ich habse:lol:

http://www.vr-zone.com/articles/Detailed_Geforce_GTX_280_Pictures/5826.html

LKrieger
03.06.2008, 12:18
Ah die Bilder wollte ich auch gerade Posten - Chicken war schneller^^:grin: Finde die Karte sieht saugeil aus. Will Benchergebnisse!!! :):):D

Dafür hab ich noch GPUZ Screen
http://www.partypicssaarland.de/include.php?path=galerie/pic.php&pid=291

Mfg LKrieger

young-trigger
03.06.2008, 12:25
interessant .... bei BUS-Interface steht :

PCI-E 2.0 x 16 @ 16 2.0

was heißt das?:grin:

Killuminati91
03.06.2008, 12:25
Finde die Karte sieht saugeil aus.

Sieht genauso aus wie die x2^^

(nur)602 clock speed? o.0

paraphonatic
03.06.2008, 12:40
Sieht genauso aus wie die x2



Nein sieht sie nicht, schau dir mal ne GX2 richtig an und nicht nur auf pics, sie ist um einiges dicker und hat zb auch keine wölbung :P


PS: Thx Mario ^^


-Para

LKrieger
03.06.2008, 13:11
interessant .... bei BUS-Interface steht :

PCI-E 2.0 x 16 @ 16 2.0

was heißt das?:grin:

Das sie da mit PCI 2.0 angebunden ist.


Nein sieht sie nicht, schau dir mal ne GX2 richtig an und nicht nur auf pics, sie ist um einiges dicker und hat zb auch keine wölbung :P


PS: Thx Mario ^^


-Para

Jup Para hat Recht - und bitteschön^^ ;)

noxon
03.06.2008, 13:58
Naja.
Wenn man weiterhin normgerecht arbeiten will, dann kann man die neuen Karten nur in einem PCIe 2.0 Slot verwenden. Nur dort sind Karten mit bis zu 300 Watt Leistungsaufnahme erlaubt. PCIe 1.1 erlaubt maximal 150 Watt.
Natürlich kann man da auch ruhig Karten rein stecken, die mehr fordern, aber man bewegt sich halt nciht mehr in der von der PCI-SIG festgelegten Spezifikation.



PCI-E 2.0 x 16 @ 16 2.0

was heißt das?:grin:Das bedeutet, dass dort ein PCIe 2.0 16x Slot drin ist, der auch elektrisch mit 16 2.0 Leitungen ausgestattet ist.
Es ist nämlich nicht immer so, dass ein 16x Slot auch 16 Leitungen hat. Du kannst auch einen 16'er Slot haben, der nur 4x angebunden ist.

Jake_Dunn
04.06.2008, 00:32
Wie war das? Der GT200 kann OpenGL 2.1 und der RV770 nicht? Hehe...

Hehe ja Lustig :roll:

http://www.forumdeluxx.de/forum/showpost.php?p=9208144&postcount=2127

HunT
04.06.2008, 01:05
Hehe ja Lustig :roll:

http://www.forumdeluxx.de/forum/showpost.php?p=9208144&postcount=2127

Bitte, dann eben nicht.

PIMP50
04.06.2008, 01:08
hmm der r700 kann dx10.1 und der gt200 nicht hehe...

aba is nen bisl ****** vergleich zwischen dx10/9 und opengl2.1 ...dx10/9 voll klein und schlecht aufgelöst und der o.gl 2.1 voll gut...!!!!

chicken
04.06.2008, 14:48
:d_biggrin:

http://www.hardware-infos.com/news.php?news=2118

http://www.abload.de/img/1axyvg.jpg (http://www.abload.de/image.php?img=1axyvg.jpg)

xeonsys
04.06.2008, 14:49
brüste alarm
:-D
GTX 280: Video zur Techdemo aufgetaucht?



video

http://www.pcgameshardware.de/aid,646144/News/GTX_280_Video_zur_Techdemo_aufgetaucht/

Baggibox
04.06.2008, 15:08
Boah, das ist ja voll das Killerding !!:aua:

Eins steht schon mal fest, man brauch sehr viel Platz und wenn ich sehr viel schreibe, dann meine ich auch sehr viel !
:hammer:

DualNuke
04.06.2008, 15:13
Ich hoffe die Karte ist wirklich nicht länger als 27cm. Meine jetzige ist 24cm lang und ich hab jetzt noch ca. 4-5 cm platz.

Wird verdammt knapp 8-)

paraphonatic
04.06.2008, 15:19
Kauft euch halt nen Big-Tower und flamt hier net so rum,
is ja schlimm ne Graka für 600 Euro Kaufen wollen aber keine 100 Euro für nen neues Gehäuse, sry sowas is Lächerlich o_O


-Para

Hamers
04.06.2008, 15:29
Also laut den Werten ist sie nicht wirklich 600€ wert! Naja mal sehen, was die Zukunft bringt;)

Mfg

HunT
04.06.2008, 16:41
Also laut den Werten ist sie nicht wirklich 600€ wert! Naja mal sehen, was die Zukunft bringt;)

Mfg

Die GTX 260 soll etwa 450 - 500€ kosten. Die GTX 280 um die 600€.

pilzbefall
05.06.2008, 00:32
Kauft euch halt nen Big-Tower und flamt hier net so rum,
is ja schlimm ne Graka für 600 Euro Kaufen wollen aber keine 100 Euro für nen neues Gehäuse, sry sowas is Lächerlich o_O


-Para

da bin ich mit meinem 10 Euro-Bigtower von ebay anno 2001 ja auf der sicheren Seite :aua: Mich würde mal interessieren, wie die Rams auf der Rückseite der GTX 280 gekühlt werden. Habe bisher keine Foto´s davon gefunden. Ich vermute mal, daß es ein Alu- oder Kupferprofil sein wird wie auch bei der 8800GT mit 1024MB.

LKrieger
05.06.2008, 20:42
Soo hab mein neues Büro eingerichtet :D:D:ugly:

http://www.xtremesystems.org/forums/attachment.php?attachmentid=79805&stc=1&d=1212689970

Quelle: http://www.xtremesystems.org/forums/showpost.php?p=3039297&postcount=1129

CRYSISTENSE
05.06.2008, 20:50
Also wenn ich mir überleg, dass mein gesamter PC gerade mal 500€ gekostet hat... Wer von euch kauft sich denn gleich eine?

paraphonatic
05.06.2008, 20:55
Wer von euch kauft sich denn gleich eine?


Hier ich, bin schon fleisig am sparen lol ^^

-Para

LKrieger
05.06.2008, 21:00
Wer von euch kauft sich denn gleich eine?


JAAA wie du siehst hab ich ja schon eine :aua::aua::aua::aua:
Nee aber es steht in Planung.

Mfg LKrieger

pilzbefall
05.06.2008, 21:55
ich hoffe mal daß bald die ersten detailierten Benchmarks auftauchen.

HunT
05.06.2008, 22:19
Also wenn ich mir überleg, dass mein gesamter PC gerade mal 500€ gekostet hat... Wer von euch kauft sich denn gleich eine?

Sofern die Benchmarks stimmen und es eine passenden Waküaufsatz gibt, bin ich dabei!

Warfrog
05.06.2008, 23:02
Gerade in das Postfach geschaut und ich sah was drinnen war.



http://www.noticias3d.com/imagenes/noticias/200806/100_4669.jpg

http://www.noticias3d.com/imagenes/noticias/200806/100_4672.jpg


Das war ein Scherz :D

chicken
05.06.2008, 23:37
lol sieht aus wie eine Verpackung:lol:

Black_Death
06.06.2008, 00:47
Also wenn ich mir überleg, dass mein gesamter PC gerade mal 500€ gekostet hat... Wer von euch kauft sich denn gleich eine?

Ich werd erst mal ein wenig warten, falls das gerücht stimmt, das die 280gtx noch auf 55mm gebaut wird, will ich erst sehen, welche von beiden schneller ist. Dann werde ich vielleicht sogar 2 holen ;=

Sir_Nitro
06.06.2008, 16:54
Ich warte einfach nur bis die alten Karten im Preis fallen und kauf mir eine 88gtx oder 98gtx und wenn die neue GTX billiger ist kauf ich mir eine.. Die alten GTXn reichen doch eh für jedes Spiel(außer Crysis) aber dafür bezahle ich gewiss keine 600€!

eFFeCTiVe
06.06.2008, 17:04
Naja, wenn die 280er wirklich so gut ist - ich meine, ich mit meiner 7950 GT hab da die freie Auswahl wenn ich ne neue GPU haben will: 8800 GTX oder Ultra, 9800 GTX oder Ultra oder die 280:aua:

Besser als die 7er sind se ja alle, von daher werd ich mir demnächst mal 'n paar Tipps einholen von Compi-Experten in meinem Bekanntenkreis; ausgeben würd ich schon so um die 500 €...

HunT
06.06.2008, 17:29
Ich warte einfach nur bis die alten Karten im Preis fallen und kauf mir eine 88gtx oder 98gtx und wenn die neue GTX billiger ist kauf ich mir eine.. Die alten GTXn reichen doch eh für jedes Spiel(außer Crysis) aber dafür bezahle ich gewiss keine 600€!

FarCry2, Clear Sky, Crysis Warhead...

Warfrog
06.06.2008, 20:57
http://www.pcgameshardware.de/aid,646493/News/Gainward_mit_eigenem_Geforce_GTX_280_Design_Update _OC-Variante_und_neue_Verpackung/

Mehr sag ich nicht :D

Sir_Nitro
06.06.2008, 21:24
Ich glaube nicht wirklich dass eines der genannten Spiele so eine Investition wert sind.

HunT
06.06.2008, 21:50
Ich glaube nicht wirklich dass eines der genannten Spiele so eine Investition wert sind.

Mit nem 24Zöller wohl eher schon!

Hier die ersten Pics einer "nackten" GTX 280

http://www.vr-zone.com/articles/GeForce_GTX_280_Card_Stripped_Naked/5856.html

CRYSISTENSE
06.06.2008, 21:53
Ich glaube nicht wirklich dass eines der genannten Spiele so eine Investition wert sind.

Das würde ich auch sagen. Wenn man diese Spiele nichtmal mit einer 8800GTX einigermaßen gut spielen kann, wer soll die Sachen dann überhaupt kaufen? Es haben doch höchstens 5-10% aller Spieler eine 8800GTX oder etwas besseres. Es muss ja nicht unbedingt auf einem 24"er sein;)

Killuminati91
06.06.2008, 22:41
tja gainwardhalt :)

ich hätte echt lust auf son ding... schade blos dass kein spiel außer crysis die leistung braucht.

LKrieger
06.06.2008, 23:31
Wie gesagt die Spiele kommen noch - FC2, CRYSIS, CRYSIS Warhead, Clear SKY, FEAR Projekt origin usw...

Übrigens - danke an Kolga für die Geile ani im Ava^^ mal bedanken an der Stelle ;)

Mfg LKrieger

Kolga
06.06.2008, 23:38
Übrigens - danke an Kolga für die Geile ani im Ava^^ mal bedanken an der Stelle ;)

Mfg LKrieger
JoJo musste ja nur nen bischen was rein schnippeln und animieren mehr nicht. War ja kein großer aufwand.
Ich habe jetzt mitlerweile seit Mittwoch jeden tach nen neues avatar xD ich bleibe aber erst mal bei meinem roten jetzt. (wenn mir nicht wieder ne neue Idee kommt;) ):-?

Naja BTT wieder :D
:b2t: