PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia Serie - Sammelthread



Seiten : [1] 2 3 4 5 6 7 8 9

LKrieger
07.10.2008, 18:10
So hier können wir mal alle bisherigen Spekulationen des neu kommenden GT300 Chips zusammentragen.

Soweit ich jetzt in Erfahrung gebracht habe - wird es also bald (Sommer/Herbst 09) eine GTX350 geben die auf den Codenamen GT300 hört. Diese soll im 55nm-Prozess gefertigt werden und mit den GDDR5-Speichern bestückt werden, der mit 815 MHz (effektiv: 3360 MHz) angesprochen wird.
Dem Chip sollen 2x 240 SPs, 2x 80 TMUs, 2x 32 ROPs und 2x 512 Bit-Speicherinterface zur Verfügung stehen.

Die Chiptaktfrequenz wird mit 830 MHz angegeben, die Shadertaktfrequenz mit 2075 MHz.


Bin mal gespannt ob wieder ein High-End Chip von NV kommt.

EDIT: Ich mach für euch mal so einen Spoiler - worin wir das mal alles zusammentragen können :).


Name: GTX350
Codename: GT300
Unified Shader: 2x240
TMU's: 2x80
Rop's: 2x32
Anbindung: 2x512
Core-Clock: 830 mhz
Shaderclock: 2075 mhz
Memclock: 815 mhz

DX11 + DX10.1 fähig


Mfg LKrieger

pcfreak60
07.10.2008, 18:14
So hier können wir mal alle bisherigen Spekulationen des neu kommenden GT300 Chips zusammentragen.



Soweit ich jetzt in Erfahrung gebracht habe - wird es also bald (Sommer/Herbst 09) eine GTX350 geben die auf den Codenamen GT300 hört. Diese soll im 55nm-Prozess gefertigt werden und mit den GDDR5-Speichern bestückt werden, der mit 815 MHz (effektiv: 3360 MHz) angesprochen wird.
Dem Chip sollen 2x 240 SPs, 2x 80 TMUs, 2x 32 ROPs und 2x 512 Bit-Speicherinterface zur Verfügung stehen.

Die Chiptaktfrequenz wird mit 830 MHz angegeben, die Shadertaktfrequenz mit 2075 MHz.


Bin mal gespannt ob wieder ein High-End Chip von NV kommt.



Mfg LKrieger

Und sie wird 2 GB Vram haben :cool:

eFFeCTiVe
07.10.2008, 18:19
Ist die also noch ne ganze Ecke besser als der GT200? Oder nur bissl?
Und DX11 soll der ja besitzen, da aber nich mal alle Spiele Dx10 als "Grundlage" haben, weiß ich nicht, ob das jetzt sinnvoll oder Schwachsinn ist - oder diente jetzt der DX10-Support bei den 8800ern und GT200ern nur als "Übergangslösung"?

LKrieger
07.10.2008, 18:21
Mit dem DX11 gabs ja viel hin und her. Habs jetzt so verstanden als würde DX11 mit den G80 Karten auch noch laufen, da es kein neues Shadermodell besitzt. Ob ich da schonwieder auf dem alten Stand bin - kann ich jetzt auch nicht sagen^^...

EDIT: Ergänze mal die Möglichkeiten der GT300 im ersten Post immerwieder^^...

Mfg LKrieger

HunT
07.10.2008, 18:23
Wohl eher 40nm und nicht 55nm...immerhin soll ein gewisser GT212 auch schon in 40nm gefertigt werden.

eFFeCTiVe
07.10.2008, 18:28
Nicht, dass es jetzt auf einmal erst auf DX10.1 hinausläuft:grin: Soweit ich richtig liege, unterstützten doch die Ati 3800er-Modelle als einzige Reihe DX10.1:) Bin mal gespannt, wie ATi's Antwort aussieht, dann geht der Kampf wieder los:lol:

Naja BTT: Wenn Nvidia das wirklich als neues HighEnd-Modell sieht und die den Spiele-Entwicklern Dampf unterm Hintern machen, müssen alle Hardcore-Zocker bald wieder aufrüsten:?

sic
07.10.2008, 18:29
wenn der rauskommt kauf ich mir 280 gtx ^^

PiTBull
07.10.2008, 18:31
Bin mal gespannt was nVidia da rausbringen würd.Wen das so würd wie bei den GT200 GPU"s naja.

fork
07.10.2008, 18:33
dx11? Wenn ich mir überlege, wie lange dx9 standard war, kommt mir das Kotzen, wenn ich jetzt sehe, dass dx10, kaum von einem Spiel unterstützt, schon wieder überholt sein soll. Tolle Sache das, wirklich! Kein Wunder, dass keine Spiele mehr für den PC erscheinen, und wenn doch, dass sie dann mit Krüppelsoftware wie SecuROM ausgestattet sind.

PiTBull
07.10.2008, 18:42
dx11? Wenn ich mir überlege, wie lange dx9 standard war, kommt mir das Kotzen, wenn ich jetzt sehe, dass dx10, kaum von einem Spiel unterstützt, schon wieder überholt sein soll. Tolle Sache das, wirklich! Kein Wunder, dass keine Spiele mehr für den PC erscheinen, und wenn doch, dass sie dann mit Krüppelsoftware wie SecuROM ausgestattet sind.


So ist das alles nun mal.Das beste Beispiel ist doch Vista.Nichtmal 2-3 Jahre auf dem Markt und schon kündigt Microsoft Windows 7 an und gibt es zu das Vista ein Tot Gebohrendes Kind ist.

Der Entbenutzer also wir sind wie immer die dummen.

Flying_Dragon
07.10.2008, 18:47
So ist das alles nun mal.Das beste Beispiel ist doch Vista.Nichtmal 2-3 Jahre auf dem Markt und schon kündigt Microsoft Windows 7 an und gibt es zu das Vista ein Tot Gebohrendes Kind ist.

Der Entbenutzer also wir sind wie immer du dummen.

1. OT
2. will windows ab jetzt alle 2 jahre ein neues OS raushauen... sind das alles totgeburten?! xD

BTT pls

eFFeCTiVe
07.10.2008, 18:49
Nunja, die PC-Welt dreht sich eben so schnell, dass man rennen muss um nicht zurückzufallen:)

Was heute angekündigt wird, muss ja morgen nicht zwangsläufig genauso sein (siehe Crysis;)) Vorankündigen können sies ja, aber obs dann tatsächlich zum angegebenen Zeitpunkt erscheint, is wieder die Frage:)

@ F_D: Wie, alle 2 Jahre ein neues OS? Wo steht dat?

LKrieger
07.10.2008, 18:58
Das bereden wir mal im Windows 7 Thread oder so... Hier gehts ausschließlich um den GT300 - alles andere wird ab hier gelöscht (will unnötigen Spam verhindern - sonst findet niemand mehr infos)!

Mfg LKrieger

eFFeCTiVe
07.10.2008, 19:05
Haste den ersten Post wohl eben erst geändert - weil da jetzt steht DirectX10.1+DirectX11? Wenn das nämlich SO wäre, wäre der GT300 ja quasi ne "Doppel-DX-GPU", da frag ich mich, wie das gehen soll?
(Oder ist das, weil nirgendwo eindeutige Berichte waren?)
Aber wäre auch "praktisch" - angenommen DX10.1 kommt doch noch vorher, und dann "irgendwann" DX11:smile:

LKrieger
07.10.2008, 19:12
Hmm - nya also das es ne DualGPU sache ist - scheint ja aus den Daten herauszugehen. Steht halt so in der Form nirgends.

Das mit DX10.1 hab ich noch hinzugefügt ja - date das ja alles up :).

Mfg LKrieger

eFFeCTiVe
07.10.2008, 19:15
Hmm - nya also das es ne DualGPU sache ist - scheint ja aus den Daten herauszugehen. Steht halt so in der Form nirgends.

Das mit DX10.1 hab ich noch hinzugefügt ja - date das ja alles up :).

Mfg LKrieger

Mit "Doppel-GPU" meinte ich jetzt, dass der GT300 vllt sowohl DX10 als auch DX11 supportet:D So hatte ich das jetzt interpretiert, ist nur die Frage, ob sowas technisch möglich ist, kA, bin ja net so der HW-Pro;)

Heinz_Baer
07.10.2008, 19:19
Wieviele nm sollen denn die beiden Chips haben? Soweit ich mitbekommen habe, wird der Chip GT200b (55nm) ausgelassen, um direkt auch 45nm umzusteigen. Laut diesem Artikel (http://www.pcgameshardware.de/aid,654085/News/TSMCs_40nm-GP_RV870_und_GT300_fast_viermal_so_schnell_wie_heu te/) (ist zwar schon etwas älter, aber trotzdem) geht man sogar direkt auf 40nm. Was ist am wahrscheinlichsten?


Je kleiner, desto billiger müsste der Chip noch auch sein und desto weniger Leistung verbrauchen, oder?


EDIT: Hier noch mal ne Meldung, die das unterstützen würde: Klick (http://www.hartware.de/news_44859.html)

LKrieger
07.10.2008, 19:23
@Heinz_Baer: Ja hab auch gelesen das die Karte erstmal im 55nm gefertigt wird (im ersten Post aktualisiere ich immer die Daten zur Karte die ungefähr real wären... ).

Mfg LKrieger

Shaddy
11.10.2008, 15:18
Mit dem DX11 gabs ja viel hin und her. Habs jetzt so verstanden als würde DX11 mit den G80 Karten auch noch laufen, da es kein neues Shadermodell besitzt. Ob ich da schonwieder auf dem alten Stand bin - kann ich jetzt auch nicht sagen^^...

EDIT: Ergänze mal die Möglichkeiten der GT300 im ersten Post immerwieder^^...

Mfg LKrieger


Lol na irgendwie nicht
1. is shader model ungleich DX11
2. kommen viele neue techniken hinzu, also nicht wie DX10=DX9 "blos angeblich schneller"

und 3. würde dann nicht erst beim GT300 DX11 stehen :lol:


EDIT: der GT200b (GT206) wird kommen in 55nm und unter GTX270 / GTX 290 laufen :>

tuete
12.10.2008, 09:16
kleinerer Chip =! billiger, denn wenn die Ausbeute kleiner ist, wird das ganze eher teurer, und seölbst wenn es theoretisch billiger werden würde, würde nVIDIA da wohl nur mehr Gewinn draus ziehen, da ne High-End Karte garantiert nicht zu nem Einsteigerpreis verkauft werden würde....

Und wenn die Karte DX11 kann, is se wohl automatisch abwärtskompatibel, oder hat deine Karte ne seperate unterstützung für DX9??? also meine nicht.:roll:

SwatCorp
12.10.2008, 09:44
Wieviel wird die Karte ungefähr kosten?

Werde mir eventuell eine anschaffen und später vielleicht noch eine zweite ;)

TheMegaMaster
12.10.2008, 10:13
Wofür braucht man so ein High-End Teil denn momentan? Ich hab Crysis und WH mit ner 8800GTX gespielt auf Very High etc und zwar flüssig und ein Spiel mit höheren Anforderungen gibts im Moment eh nicht.

SwatCorp
12.10.2008, 10:14
Dazu sage ich nur, schonmal für die Zukunft gerüstet :P

LKrieger
12.10.2008, 10:17
@megamaster: Außerdem gibts Leute die ne Auflösung von 1920x1200 haben (wie ich) die brauchen solche Karten um das flüssig zocken zu können... Wie gesagt 60 fps is für mich flüssig.

AABER: jetzt fangen wir hier nicht wieder mit der alten Masche an, sondern kommen zum eigentlichen zurück => GT300 (alles andere wird gelöscht)!

Mfg LKrieger

SwatCorp
12.10.2008, 10:20
Nochmal zum Preis, gibt es da schon irgendwelche angaben zu?

LKrieger
12.10.2008, 10:21
Nein nicht das ich wüsste. Müssen wir uns noch Gedulden würd ich sagen...

Mfg LKrieger

CRYSISTENSE
12.10.2008, 10:26
Sind die GT300er Chips alles Dualkarten, oder trifft das nur auf die, sagen wir mal GT350 zu? Bis jetzt lese ich immer nur 2x...

1337_alpha
12.10.2008, 10:29
Und wann sollen die ungefähr kommen?

SwatCorp
12.10.2008, 10:32
Und wann sollen die ungefähr kommen?

Sommer/Herbst 09 genaurer gehts glaub ich momentan noch nicht ^^

Shaddy
12.10.2008, 10:46
Samma leute denkt ihr wir sind hellseher?
Nervig
wie jedes jahr
Preis
Wann
Stromverbrauch
Woher soll man das als nicht nvidia arbeiter wissen!?

@ Topic
Wird wahrscheinlich auch in 40nm kommen, da Nvidia erfolgreich ein waffer bei TSMC lassen macht hä keine ahnung wie man das schreibt
das verfahren nennt sich 40G :>

Ich Kann kheut kein deutsch tut mir leid :neutral:

HunT
12.10.2008, 11:32
Wofür braucht man so ein High-End Teil denn momentan? Ich hab Crysis und WH mit ner 8800GTX gespielt auf Very High etc und zwar flüssig und ein Spiel mit höheren Anforderungen gibts im Moment eh nicht.

Klar, wenn man auf Mädchenauflösungen wie 1280*1024 oder gar 1024*768 spielt....

omega
12.10.2008, 11:57
Wenn man auch nicht mehr braucht?

Will auch nicht auf solch einer Auflösung zocken.

http://img87.imageshack.us/img87/8673/rzfxpft7cssxffwkn0.th.gif (http://www.bilder-space.de/upload/rZfxpFT7CSSXFFW.gif)

Klicken!

FLeshtized
12.10.2008, 12:19
Ich bin kurz davor meine 4870 1gb holen, aber wenn diese neuen draußen sind machen die doch wieder einen riesen sprung im preis oder?

HunT
12.10.2008, 13:29
Wenn man auch nicht mehr braucht?

Will auch nicht auf solch einer Auflösung zocken.

Wenn man einmal auf nem 22 oder gar 24 Zöller gezockt hat, dann will man in der Regel auch nicht wieder zurück.

SwatCorp
12.10.2008, 14:03
Wenn man einmal auf nem 22 oder gar 24 Zöller gezockt hat, dann will man in der Regel auch nicht wieder zurück.

Da muss ich dir total recht geben, deshalb lass ich ersmal die finger von sowas und wenn ich im geschäft bin und so nen monitor sehe, schau ich gleich weg sonst kauf ich mir ihn nämlich noch xD

Saltwater
12.10.2008, 14:10
dx11? Wenn ich mir überlege, wie lange dx9 standard war, kommt mir das Kotzen, wenn ich jetzt sehe, dass dx10, kaum von einem Spiel unterstützt, schon wieder überholt sein soll. Tolle Sache das, wirklich! Kein Wunder, dass keine Spiele mehr für den PC erscheinen, und wenn doch, dass sie dann mit Krüppelsoftware wie SecuROM ausgestattet sind.

Ganz genau ! Denn bei den Konsolen wechselt nicht ständig (sondern mit jeder neuen Generation) irgendein DirectX und so haben es die Entwickler leichter und gehen nicht im DX-Sumpf unter. Verkauen tun sich die Spiele ja trotzdem wie geschnitten Brot.

noxon
12.10.2008, 14:15
Haste den ersten Post wohl eben erst geändert - weil da jetzt steht DirectX10.1+DirectX11? Wenn das nämlich SO wäre, wäre der GT300 ja quasi ne "Doppel-DX-GPU", da frag ich mich, wie das gehen soll?GPUs haben nichts mit DirectX zu tun. Du kannst auf einem G300 Chip auch Spiele spielen, die DirectX7 verwenden.

Eine GPU bietet immer bestimmte Features und um die verwenden zu können benötigst du eine Softwareschnittstelle wie DirectX oder OpenGL. GPUs "supporten" keine spezielle API. Man muss das umgekehrt sehen. APIs "supporten" bestimmte GPUs.

Um alle Features der kommenden GPUs nutzen zu können brauchst du DirectX 11 als Schnittstele. DirectX 10 beherscht diverse Featrues wie zum Beispiel die Compute Shader nicht. Trotzdem kannst du DX10 Spiele wie Crysis natürlich auf der Karte spielen, da dies ja keine Verwendung für diese Shader hat.

Wenn irgendwann aber Spiele von diesen neuen Features der GPU gebrauch machen, dann müssen sie auch DirectX 11 oder eben eine aktuelle OpenGL Version verwenden, die das unterstützen.


@fork: Wieso ist DX10 überholt? Du siehst doch wie viele DX9 Spiele es jetzt noch gibt. DX10 wird es noch eine Weile geben und du kannst diese Spiele mit dem G300 genau so gut spielen wie DX11 Spiele. Die Spielehersteler werden so schnell keine DX11 Only Spiele herstellen, da sie sich ja den Kundkreis so weit wie möglich offen halten wollen. Crysis läuft ja auch unter DX9. Das wäre wirtschacftlich ja gar nicht rentabel, wenn es nur auf DX10 Karten laufen würde.

Irgendwann wird es aber so sein, dass Spiele mindestens DX10 vorraussetzen und teilweise DX11 Features verwenden, aber es wird keins geben, dass DX11 zwingend voraussetzt. Das dauert noch ein paar Jährchen und dann hast du eh wieder eine neue Graka.

Willy
12.10.2008, 14:20
Wenn man einmal auf nem 22 oder gar 24 Zöller gezockt hat, dann will man in der Regel auch nicht wieder zurück.

Es hat aber auch nicht jeder den Platz für so einen großen Monitor...:roll:

HunT
12.10.2008, 15:29
Es hat aber auch nicht jeder den Platz für so einen großen Monitor...:roll:

So ein 22 Zoller ist schon ein Monster Teil...:roll:

Robin
12.10.2008, 15:33
Samma leute denkt ihr wir sind hellseher?
Nervig
wie jedes jahr
Preis
Wann
Stromverbrauch
Woher soll man das als nicht nvidia arbeiter wissen!?

Exakt! Deshalb finde ich diese Spekulationen auch immer so unnötig.
Die Leut erzählen immer irgendwas was im Endeffekt dann doch ganz anders ist und dann heißts widda: "Aaach, ich dachte die soll so gut sein??!!!"

Klar kann man mal drüber spekulieren oder neue News bezüglich der Karte posten, aber im Endeffekt wird hier doch immer nur um den heißen Brei herum geredet. Im Übrigen dauert es noch (wenns stimmt) 1 Jahr bis die Karte erscheint... und dann kostet das Ding am Anfang wahrscheinlich eh widda hunderte von Euro. Bis sich die "Normalen" die Karte leisten können, gibts dann schon die G400 usw.!

Mir geht das mit den Grakas langsam eh alles viel zu schnell... :neutral: (und dann auch noch dafür, dass die bei jedem Schei* abkacken...)


Klar, wenn man auf Mädchenauflösungen wie 1280*1024 oder gar 1024*768 spielt....
@Siberian Tiger:
1280x1024 ist für dich also eine "Mädchenauflösung"... dazu sag ich mal nur, dass halt nicht alle das Geld für sauteure 22" oder gar 24"-Monitore haben! Sollte man vielleicht beachten wenn man hier solche Comments postet!

FLeshtized
12.10.2008, 15:37
Reichen 1 gb Videospeicher fuer den hier?:

http://www.alternate.de/html/product/TFT-Monitore_ab_24_Zoll/Samsung/SyncMaster_2443NW/293890/?tn=HARDWARE&l1=Monitore&l2=ab+24+Zoll

:ugly:

HunT
12.10.2008, 17:45
@Siberian Tiger:
1280x1024 ist für dich also eine "Mädchenauflösung"... dazu sag ich mal nur, dass halt nicht alle das Geld für sauteure 22" oder gar 24"-Monitore haben! Sollte man vielleicht beachten wenn man hier solche Comments postet!

Schonmal Preise für 22 Zoller gesehen? Ich denke nicht, sonst würdest du solche Comments nicht loslassen. Die Dinger sind kaum teuerer als ihre 19 Zoller Genossen. Außerdem darf ich wohl meine Meinung über solche Auflösungen abgeben oder ist freie Meinung in diesem Forum verboten?

Robin
12.10.2008, 17:53
Schonmal Preise für 22 Zoller gesehen? Ich denke nicht, sonst würdest du solche Comments nicht loslassen. Die Dinger sind kaum teuerer als ihre 19 Zoller Genossen. Außerdem darf ich wohl meine Meinung über solche Auflösungen abgeben oder ist freie Meinung in diesem Forum verboten?
Spätestens wenn man in einem Thread mitliest bekommt man sowas mit... ich verweise nur mal so:
http://crysis.4thdimension.info/forum/showpost.php?p=242245&postcount=41
Als Info: Das ist der Post über deinem.

Ich weiß durchaus wieviel die Teile kosten, und hier hat auch jeder Meinungsfreiheit!
Nur solche Kommentare wie "Mädchenauflösung" sind wirklich nicht toll! Du kannst von mir aus aufm 30"-Moni zocken, aber "beleidige" nicht andere User die auf 1280x1024 zocken mit solchen Kommentaren. Es gibt hier im Forum durchaus genug User, die "nur" auf 19" spielen... u.a. ich.

Oder soll ich eine 22" bzw. 24" Auflösung als "Bonzenauflösung" bezeichnen? Würde dir sicherlich auch nicht gefallen. Also bitte! ;)

HunT
12.10.2008, 17:58
Spätestens wenn man in einem Thread mitliest bekommt man sowas mit... ich verweise nur mal so:
http://crysis.4thdimension.info/forum/showpost.php?p=242245&postcount=41
Als Info: Das ist der Post über deinem.

Ich weiß durchaus wieviel die Teile kosten, und hier hat auch jeder Meinungsfreiheit!
Nur solche Kommentare wie "Mädchenauflösung" sind wirklich nicht toll! Du kannst von mir aus aufm 30"-Moni zocken, aber "beleidige" nicht andere User die auf 1280x1024 zocken mit solchen Kommentaren. Es gibt hier im Forum durchaus genug User, die "nur" auf 19" spielen... u.a. ich.

Oder soll ich eine 22" bzw. 24" Auflösung als "Bonzenauflösung" bezeichnen? Würde dir sicherlich auch nicht gefallen. Also bitte! ;)

Ich hätte absolut kein Problem damit, wenn du "Bonzenauflösung" verwenden würdest. Wäre auch nur deine Meinung und hätte auch nix mit Beledigung zu tun. ;-)

Und ich bin nicht blind und habe den Post über mir gesehen und ebenfalls auf den Link geklickt und sah mich bestätigt.

Edit by Robin: So einen Post hatte ich erwartet... ich glaubs dir nur nicht, dass es dir überhaupt nichts ausmachen würde ;)!
Jetzt aber BTT!

Edit by me: Tut es auch nicht, ob du es glaubst oder nicht.

noxon
12.10.2008, 18:04
Schonmal Preise für 22 Zoller gesehen? Ich denke nicht, sonst würdest du solche Comments nicht loslassen. Die Dinger sind kaum teuerer als ihre 19 Zoller Genossen. Außerdem darf ich wohl meine Meinung über solche Auflösungen abgeben oder ist freie Meinung in diesem Forum verboten?Naja. Einigen kommt es aber auch auf Qualität an und wenn die halbwegs gut sein soll, dann kommst du mit unter 500 EUR nicht hin.

Wie ich immer sage. Es kommt nicht so sehr auf die Größe an, sondern viel mehr auf die Technik. ;)

Was nutzt mir ein 24'' Monitor, wenn das Bild aussieht wie der letzte Müll? Dann lieber einen kleineren mit einer Mädchenauflösung, dafür aber in einer guten Qualität.

Willy
12.10.2008, 18:08
So ein 22 Zoller ist schon ein Monster Teil...:roll:

Glaub's mir oder glaub's mir nicht, aber ich würde im Moment keinen 22-Zoll-Monitor auf meinen improvisierten Schreibtisch bekommen.

Robin
12.10.2008, 18:12
Glaub's mir oder glaub's mir nicht, aber ich würde im Moment keinen 22-Zoll-Monitor auf meinen improvisierten Schreibtisch bekommen.
^^
Bei mir müssten die Boxen dafür herhalten :D :D

Ansonsten hätt ich auch keinen Platz für 22"...

@noxon:
Da stimm ich dir voll und ganz zu! Für unter 200€ (wortwörtlich wie ihre "19 Zoll Genossen" würdest du nur 22" Low-Quality Monis bekommen)
Aber nun wirklich :b2t:! ;)

HunT
12.10.2008, 18:26
Naja. Einigen kommt es aber auch auf Qualität an und wenn die halbwegs gut sein soll, dann kommst du mit unter 500 EUR nicht hin.

Wie ich immer sage. Es kommt nicht so sehr auf die Größe an, sondern viel mehr auf die Technik. ;)

Was nutzt mir ein 24'' Monitor, wenn das Bild aussieht wie der letzte Müll? Dann lieber einen kleineren mit einer Mädchenauflösung, dafür aber in einer guten Qualität.

So ein Käse. Mein 22 Zöller von Samsung hatte mich damals 350€ gekostet und hat viele Testsieger kassiert. Heute kostet das Ding glaube um die 250€. Da kannste dir zwei davon kaufen.

eFFeCTiVe
12.10.2008, 19:00
Klar, wenn man auf Mädchenauflösungen wie 1280*1024 oder gar 1024*768 spielt....

Da is man mal ein Wochenende außer Gefecht (Krankheit:-() und ließt direkt sowas, geil... Ich hab auch nen 19"er und spiel auf der "Mädchenauflösung" 1280*1024 so gut wie jedes Game;)

Hatte eig gedacht, hier jetzt was neues über Preise, Verbrauch oder was auch immer zu erfahren, aber wenn nix neues gibt, hmm...

TT: Hofffentlich fallen wenigstens wegen dem GT300 die Preise des 200er noch ein bisschen...

Steiner
12.10.2008, 19:16
Ich spiele auch 1280x1024 bzw. 1440x900? Und nun? tz...

Übrigens:

rotz der Tatsache, dass die Geforce GTX-Reihe inzwischen vier Monate am Markt ist, war man sich bis dato uneins darüber, wie kommende Nvidia-Produkte bezeichnet werden würden. Ob der anhaltenden Gerüchte rund um die Nachfolger der zwei präsenten Chips (GTX 260, GTX 280) fielen bereits Namen wie GTX 270 und GTX 290 (GX2) (http://hardware-infos.com/news.php?news=2443). Doch wo bleiben Nvidias Performance-, Mainstream- und Low-Cost-Karten? Mit der Umbenennung der bestehenden Geforce 9-Produkte in Geforce GT 120, GT 130, GT 140 und GT 150 wird es nicht getan sein.

Aus sicheren Quellen konnten wir nun Nvidias Namensschemata etwas genauer unter die Lupe nehmen. Die folgende listenartige Aufstellung zeigt, welche Produktbezeichnungen von den Geforce-Vätern in nächster Zeit zu erwarten sind:

Geforce GTX (260-290): High-End
Geforce GT (230-250): Performance
Geforce GS (210-220): Mainstream
Geforce G (200-209): Low-End
Demnach hält sich Nvidia die Endziffern 60 bis 90 für seine leistungsstärksten Modelle bereit. Vermutlich wird man auch weiter in Zehnerreihen springen - zumindest deuten dies die ersten Gerüchte um GTX 270 und GTX 290 an.
Unter der Marke GT sollen die Endziffern 30 bis 50 auf einen Performance-Chip hindeuten. Erste Chips wird es hier gerüchteweise erst mit der Umstellung auf 40 nm im zweiten Quartal nächsten Jahres geben.

Für das Mainstream-Segment ist die Bezeichnung GS mit den Endziffern 10 bis 20 reserviert. Konkrete Informationen zu derartigen Chips liegen noch nicht vor, so dass auch hier eine Veröffentlichung im Laufe des nächsten Jahres als wahrscheinlich erachtet werden kann.
Geforce G wird dann letztenendes mit den Endziffern 0 bis 9 für das Low-End-Segment ins Feld geführt. Verwechslungsgefahr zu laufenden Nvidia-Codenamen ist dabei nicht ausgeschlossen - man denke an eine in der Theorie mögliche Geforce G200 oder G206.




hardware-infos.com

eFFeCTiVe
12.10.2008, 19:26
Das schafft ja etwas Klarheit... Aber Preissegmente zu den ganzen Produktbezeichnungen (außer der GTX260 und280, die kennt man ja) sind nicht dabei? Weil so ne Mainstreamkarte werden sich dann sicher auch viele holen wollen, die nicht so viel Geld haben...

FLeshtized
12.10.2008, 19:32
Man:( wie jemand auf meinen Post verweist aber nich drauf antworten, also noch ma reichen 1 Gb Vram fuer ne aufloesung von 1920x1200
bei sagen wir mal Crysis vh:?:

dasill
12.10.2008, 19:43
Man:( wie jemand auf meinen Post verweist aber nich drauf antworten, also noch ma reichen 1 Gb Vram fuer ne aufloesung von 1920x1200
bei sagen wir mal Crysis vh:?:

vista oder XP?! DX9 oder DX10 ?????

FLeshtized
12.10.2008, 19:48
danke :D ok xp,also dx9

aber hat das damit was zu tun? ich mein ja den videospeicher der Graka:neutral:

Flying_Dragon
12.10.2008, 19:49
danke :D ok xp,also dx9

aber hat das damit was zu tun? ich mein ja den videospeicher der Graka:neutral:

denke wird reichen...

BTT aber jetzt

HunT
12.10.2008, 21:37
Man:( wie jemand auf meinen Post verweist aber nich drauf antworten, also noch ma reichen 1 Gb Vram fuer ne aufloesung von 1920x1200
bei sagen wir mal Crysis vh:?:

Unter XP haste kein VH. Aber trotzdem reichen die 1GB locker. Für VH in der Auflösung sind sowieso zwei GTX 280er gefragt.

Steiner
12.10.2008, 21:41
Man:( wie jemand auf meinen Post verweist aber nich drauf antworten, also noch ma reichen 1 Gb Vram fuer ne aufloesung von 1920x1200
bei sagen wir mal Crysis vh:?:
Ja, reicht.

Erst kürzlich war es AMD selbst, die Informationen zum kommenden Grafikchip RV870 (http://hardware-infos.com/news.php?news=2433) freimütig herausgaben. Festgehalten wurde, dass der für 2009 erwartete Performance-Chip bereits in 40 nm gefertigt würde und aller Voraussicht nach DirectX 11-kompatibel sein wird. ATI-Forum sind nun aus angeblich geheimen Quellen Informationen zum verwendeten Speicher des RV870 zugespielt worden.

Demnach wird die letzte R600-Ausbaustufe serienmäßig einen doppelt so großen Texturspeicher besitzen wie laufende RV770-Produkte, nämlich 1024 statt 512 MiB.
Angesichts dieses Gerüchts mag man ins Blaue spekulieren, dass AMD beim RV870 ein mit dem RV670 aufgegebenes 512 Bit-Speicherinterface zurückholt; die Angabe, dass weiterhin mit GDDR5-Speicher geplant wird, wie auch aus einem letzten AMD-Dokument hervorging, lässt allerdings ebenso gut vermuten, dass der Speicherbus bei 256 Bit verbleibt. Ein 384 oder 448 Bit-Speicherinterface sind jedenfalls ob der Speichergröße gänzlich auszuschließen.

Auf RV770-Produkten wie der HD 4850 und HD 4870 machte sich der doppelt so große Texturspeicher, den manche AMD-Partner schnürrten, erst ab einer Auflösung von 1920x1200 Bildpunkten bemerkbar und dann auch nur, wenn Anti-Aliasing und anisotropische Filterung aktiv waren.
In wegweisenden Spielen wie Crysis bewies sich aber bereits unter 1680x1050, 1xAA / 1xAF der doppelt so große Speicher als lohnenswerte Investition, so dass der Schritt, bei der nächsten Generation von vornherein auf 1024 MiB umzusatteln, nur allzu verständlich und nachvollziehbar ist.

Eine offizielle Bestätigung des Gerüchts steht noch aus.

Hardware-Infos.com

Nicht schlecht.^^

T-Rocc
20.01.2009, 16:01
Nvidia GT300 kommt mit DirectX 11 ab Q4/2009. :D


Aus der Spekulation ist nun Gewissheit geworden: Zumindest bestätigte eine
Nvidia-nahe Quelle uns gegenüber, dass der GT300 zum einen für das vierte Quartal
2009 weiter vorgesehen sei und zum anderen DirectX 11 unterstützen werde.


Quelle: Hardware-Infos (http://www.hardware-infos.com/news.php?news=2663)

Edit @ Mods: Kann der Thread net mal Sticky gemacht werden? Jetzt kommen bestimmt öfters mal Infos.

LKrieger
20.01.2009, 16:09
Nvidia GT300 kommt mit DirectX 11 ab Q4/2009. :D



Quelle: Hardware-Infos (http://www.hardware-infos.com/news.php?news=2663)

Lol hart mal gespannt auf die Leistung.

Mfg LKrieger

T-Rocc
20.01.2009, 16:11
Jo, bin auch gespannt, wie der abgehen wird. Hoffe ja mal das daß stimmt, das der, der echte Nachfolger der 8800 Serie ist.

EDIT by LKrieger: Hoffe nicht - hab nicht bock schonwieder umsteigen zu müssen :D:D:

Edit by Me: Wieso, mußt doch net. Zwingt dich ja niemand zu :wink: 8-)

eFFeCTiVe
20.01.2009, 16:14
Jo, bin auch gespannt, wie der abgehen wird. Hoffe ja mal das daß stimmt, das der, der echte Nachfolger der 8800 Serie ist.

EDIT by LKrieger: Hoffe nicht - hab nicht bock schonwieder umsteigen zu müssen :D:D:

Hoff ICH aber - bin immer noch Besitzer einer DX9-GPU... Von daher würd sichs für mich schon lohnen;-):)
Hol ich mir ne GT200-Karte, die werden dann hoffentlich mal billiger...
BTW: Danke, TobHH:)

T-Rocc
20.01.2009, 16:19
Hoff ICH aber - bin immer noch Besitzer einer DX9-GPU... Von daher würd sichs für mich schon lohnen;-):)
Hol ich mir ne GT200-Karte, die werden dann hoffentlich mal billiger...
BTW: Danke, TobHH:)

Jep, hab auch noch meine 8800 GTX im Rechner, wollte mir eigentlich die GTX285 SSC von EVGA holen, aber jetzt warte ich doch lieber.

TheMegaMaster
20.01.2009, 16:20
Jep, hab auch noch meine 8800 GTX im Rechner, wollte mir eigentlich die GTX285 SSC holen, aber jetzt warte ich doch lieber.

Und dann ists Ende 09 und sie kündigen eine neue Generation für Frühjahr 2010 an und du wirst dich wieder fragen ob nicht doch nochmal wartest. Um Grafikkarten zu kaufen gibts kaum einen "richtigen" Zeitpunkt da der Wertverfall enorm ist und es alle 2 Monate neue Ware auf dem Markt gibt. ;)

T-Rocc
20.01.2009, 16:23
Und dann ists Ende 09 und sie kündigen eine neue Generation für Frühjahr 2010 an und du wirst dich wieder fragen ob nicht doch nochmal wartest. Um Grafikkarten zu kaufen gibts kaum einen "richtigen" Zeitpunkt da der Wertverfall enorm ist und es alle 2 Monate neue Ware auf dem Markt gibt. ;)

Ja, da hast Du ja recht, vorallem was Grakas angeht, Aber ich denke, daß der GT300 ROCKT und danach erstmal nicht so schnell was besseres kommt.

Kolga
20.01.2009, 16:27
Ja, da hast Du ja recht, vorallem was Grakas angeht, Aber ich denke, daß der GT300 ROCKT und danach erstmal nicht so schnell was besseres kommt.
Naja was heißt so schnell?
mit GT300 kommt dann halt DX11 kompaktibele Grakas, so und dann wird die nächste generation einfach nochmal ne ecke schneller sein, so war es bei der 88er ja auch.

Also die ersten geben den Schub an und dann kommt nochmal nen geschwindigkeits und optimierungsschub..... ;)

Robin
20.01.2009, 16:34
D.h. für mich jetzt so viel wie, dass KEINE GTX260 / 280 mehr zugelegt wird. Rendiert sich ja fast schon wieder nicht mehr ^^

Warten wir lieber auf die GT300... die Leistung will ich echt mal sehen :shock:

Wenn der Performance Unterschied so riesig ist wie bei der 7-er zur 8-er Reihe... wow, dann lecks mich einer am Ars** :D:D

TheMegaMaster
20.01.2009, 16:37
D.h. für mich jetzt so viel wie, dass KEINE GTX260 / 280 mehr zugelegt wird. Rendiert sich ja fast schon wieder nicht mehr ^^

Warten wir lieber auf die GT300... die Leistung will ich echt mal sehen :shock:

Wenn der Performance Unterschied so riesig ist wie bei der 7-er zur 8-er Reihe... wow, dann lecks mich einer am Ars** :D:D

Rofl, das wurde sowohl bei der 9er Reihe, als auch bei der GT200 Reihe (die tatsächlich ja ne klasse Leistung hat), bis die ersten Benches released wurden gesagt. Eingetreten ists aber nie.

eFFeCTiVe
20.01.2009, 16:37
@ Kolga: Weiß man nicht - die 9000er-Karten waren auch nicht besser als die 8000er...

OK, wenn der GT300 dann DX11 voll unterstützt:)

@Robin: :lol:

E1ite-Marc0
20.01.2009, 16:39
Rofl, das wurde sowohl bei der 9er Reihe, als auch bei der GT200 Reihe (die tatsächlich ja ne klasse Leistung hat), bis die ersten Benches released wurden gesagt. Eingetreten ists aber nie.
Die 88er reihe war eine Klasse für sich. Sowass wie das kommt wohl nicht mehr so schnell.
MfG
Marc0

ZaCXeeD
20.01.2009, 16:42
hmm wollte eigentlich wieder am frühling wieder aufrüsten...naja jetzt wird halt dann am winter gemacht ;-)

mal schauen was alles dann die gt300 bieten wird...auf jedenfall wird die geholt :-D

E1ite-Marc0
20.01.2009, 16:46
hmm wollte eigentlich wieder am frühling wieder aufrüsten...naja jetzt wird halt dann am winter gemacht ;-)

mal schauen was alles dann die gt300 bieten wird...auf jedenfall wird die geholt :-D
Joah, ich werde Ende 2009 auch einen neuen PC hohlen. Hab das schon damals geplannt. Jetzt wo Windows 7 draußen sein wird, der GT300 kommen soll, Core i7 billiger wird inkl. Ram wird es nen geiler Rechner. Aber mal sehen was der GT300 erstmal wirklich bietet. :) Freue mich aber so oder so.
MfG
Marc0
*Es lebe Weihnachten am 24. Dezember (4.Q 2009 grob...) und mein Geburtstag kurz vor Weihnachten*

Kolga
20.01.2009, 16:51
Also bei mir steht fest, meine 8800GTS und mein C2D wird noch bis Ende diesen Jahres anfang nächsten Jahres drinne bleiben.
Ich warte noch etwas mit aufrüsten. Ich warte auf die GT300 und dann auf die Benchs ect.

Weiterhin will ich jetzt erst einmal sehen was sich am Prozi Markt noch so macht außer Intel i7. (Nein warte nicht auf AMD, will sehen was Intel an den Preisen usw. macht von den Quads und den i7 her! ;) )

Naja wie gesagt das wird aufjeden interessant was genau hinter der GT300 steckt. :twisted:

Link93
20.01.2009, 16:54
Ich kanns mir momentan nicht leisten umzusteigen wenn ich aber nen Job hab und immernoch bei Mutti leben kann sieht das schon etwas anders aus :lol:

Wollen wir ne runde Preise spekulieren?
Ich denke 300-600 Euro :lol:

Edit by Kolga: Das hätte ich dir auch so sagen können. Aber den ganz genauen Preis in Euro und Cent weiß zurzeit nur Uri Geller. xD

Edit by Link93: Hey übst du etwas Blasphemie aus :aua:
Du ich kann euch sagen Uri geller kann echt Zaubern.

/ironie off

ZaCXeeD
20.01.2009, 17:12
Wollen wir ne runde Preise spekulieren?
Ich denke 300-600 Euro :lol:

Mal angenommen die wird wie ein Komet auf einen Planeten einschlagen und der Planet wird richtig "gesprengt" davon...dann können wir uns alle auf ein hohes Preisniveau gefasst machen....

neue Technologien = hoher Preis

war doch bei der GT200 genauso...ich mach meine Taktik wie damals....hat mir eigentlich dann rein gar nichts gekostet...ich sag nur Export + große Bestellungen FTW^^

T-Rocc
20.01.2009, 17:14
Mal angenommen die wird wie ein Komet auf einen Planeten einschlagen und der Planet wird richtig "gesprengt" davon...dann können wir uns alle auf ein hohes Preisniveau gefasst machen....

neue Technologien = hoher Preis

war doch bei der GT200 genauso...ich mach meine Taktik wie damals....hat mir eigentlich dann rein gar nichts gekostet...ich sag nur Export + große Bestellungen FTW^^

Kannst Du für mich dann eine mitbestellen? :roll:

Komme dann auch bei dir vorbei und hole Sie persönlich ab. 8)

eFFeCTiVe
20.01.2009, 17:17
Wegen der Wirtschaftskrise können die sichs glaub ich net wirklich leisten, allzu hohe Preise zu verlangen... Auch wenns natürlich neue Ware ist.

Und 300 - 600 € is ein ziemlich breites Spektrum:wink: Mal sehen, was daraus wird...

ZaCXeeD
20.01.2009, 17:20
Wegen der Wirtschaftskrise können die sichs glaub ich net wirklich leisten, allzu hohe Preise zu verlangen... Auch wenns natürlich neue Ware ist.

Und 300 - 600 € is ein ziemlich breites Spektrum:wink: Mal sehen, was daraus wird...

Naja mal ganz ehrlich...wir haben ne Wirtschaftskrise, aber die Leute kaufen immernoch wie "verrückt"...ich merke es bei uns in der Firma...und wenn da fast nichts geht...dann siehts etwas ruhiger aus...^^

also von daher....wenns ist kauft man sich das ding...oder man wartet bis es wieder billiger wird...ganz einfach

Captain-S
20.01.2009, 17:40
Hab mir für Weihnachten 2009 schon mal folgendes vorgemerkt:

XFX GTX300 XXX + Crysis 2 :-D

ZaCXeeD
20.01.2009, 17:58
Crysis 2 :-D

nuja...wäre ja geil, aber ich glaube das dauert noh ein/zwei Jahre^^

und wenn, dann wird die GT300 die Mindestanforderung sein :-D so wie man halt es kennt^^

Servitor
20.01.2009, 18:11
Kaum war der GT 200 drausen schon kommt ein GT300.

Wenn es in dem Tempo weitergeht kommt es ja bis zu dem GT900/ 1000 und bis zur GT1000 Serie dann ist ja man wieder bei 88xxx serie angelangt.

lol.

Noname
20.01.2009, 20:42
Weiterhin will ich jetzt erst einmal sehen was sich am Prozi Markt noch so macht außer Intel i7. (Nein warte nicht auf AMD, will sehen was Intel an den Preisen usw. macht von den Quads und den i7 her! ;) )

Da kommt der Noname auch mal wieder aus seinem loch bringt einige Infos aus seinem Sortiment mit :D ;)

Also soweit ich das bis jetzt durch diverse Quellen weiß wird es auf dem Prozimarkt bis jetzt folgendes in diesem Jahr geben:

Intel

Core i5 (4kerner)
Core i2 (Havendale 2kerner)

Sockel 1166
Sockel 1266 (Angabe aber ohne Gewehr)


AMD

Phenom II X4 910-945(Deneb Kern, 4kerner)
Phenom II X4 810, 805(Deneb Kern, Quad)

Phenom II X3 720, 710 (Heka Kern, 3kerner)

AMD Athlon X4 600er serie (Propus Kern, 4kerner)
AMD Athlon X3 400er serie (Rana Kern, 3kerner)
AMD Athlon X2 200er serie (Regor Kern, 2kerner)

Sockel AMD 3


Aufjedenfall wird neben dem Nehalem Core i7 von Intel noch ein DualCore kommen Havendale und evtl.! "kleinere" Core i7s inform des Core i5. ;)

TheMegaMaster
20.01.2009, 22:01
Wofür, außer für Crysis (2,3...whatever) braucht man momentan so eine Über-Karte?
Höchstens noch für OPF2, das wohl hohe Anforderungen haben wird, aber ansonsten reicht eine 280GTX für alle Games locker aus...

alex9.3
20.01.2009, 22:03
Ist wie ein Sc*wanzvergleich glaube ich :D. Ich bin mit meiner 96gt zufrieden.
Oder heist sie jetzt nicht 130gtx?

Hepta
20.01.2009, 22:11
Ist wie ein Sc*wanzvergleich glaube ich :D. Ich bin mit meiner 96gt zufrieden.
Oder heist sie jetzt nicht 130gtx?
Der Chip heißt G130, die Karte immer noch gleich

alex9.3
20.01.2009, 22:17
Du wiedersprichst dir dann aber selber:



9600 GT = GT 130 (seit neuestem - wird übrigens als "Weltneuheit" propagiert... Kundenfang en mass)

Warfrog
22.01.2009, 22:11
Ich hoffe das die neue Grakas was werden. Ich sag nur NVIDIA

http://www.abload.de/img/nvidia04bu.jpg

Und hoffe es wird mal wieder ein Durchbruch.

RED
07.04.2009, 16:13
Interessante neue Spekulationen zum GT300.


http://www.pcgameshardware.de/aid,680889/Geforce-GTX-380-High-End-GT300-DirectX-11-und-40nm-noch-Ende-2009/Technologie/News/

pilzbefall
07.04.2009, 16:48
Wofür, außer für Crysis (2,3...whatever) braucht man momentan so eine Über-Karte?
Höchstens noch für OPF2, das wohl hohe Anforderungen haben wird, aber ansonsten reicht eine 280GTX für alle Games locker aus...
sehe ich genauso. Noch nie waren selbst Karten im Preissegment von 200 Euro (HD4890/GTX275) so overpowered in Spielen wie heute. Man kann natürlich jede Karte künstlich ausbremsen durch Fantasieauflösungen 24" plus und Fantasie-AA/AF-Modi.

Shaddy
09.04.2009, 22:03
sehe ich genauso. Noch nie waren selbst Karten im Preissegment von 200 Euro (HD4890/GTX275) so overpowered in Spielen wie heute. Man kann natürlich jede Karte künstlich ausbremsen durch Fantasieauflösungen 24" plus und Fantasie-AA/AF-Modi.


Fantasie auflösung? erst ab 22+ macht zockern spaß
und ohne AA geht sowieso nix außer man hat seibne brille nicht auf :neutral:

ZaCXeeD
09.04.2009, 22:18
Fantasie auflösung? erst ab 22+ macht zockern spaß
und ohne AA geht sowieso nix außer man hat seibne brille nicht auf :neutral:

Jeder hat seinen eigenen Geschmack...der andere mag lieber bei jedem Game AA, der andere ne höhere Auflösung...

Sollte man akzeptieren und nicht dagegen reden und das als besser betrachten...klar ist das für dich besser, aber wie gesagt -> jeder Mensch stellt sich sowas anders vor...klar gibt es Leute die evtl. die selbe Meinung vertreten....muss aber nicht heisen das dies dann gleich ist...jeder denkt anders...

Joa ich denke mal wieder :b2t:

Aerox
18.04.2009, 18:31
Laut The Inquierer soll GT300-Grafikchip Mitte Oktober an die Partner geliefert werden. Wenn jedoch NVidia Probleme haben wird, könnte es sogar bis Ende Januar 2010 dauern, während ATIs DX11 HighendKarte bereits August im Handel sein sollte.



Irgendwie erinnert mich die Information an die Situation von der HD2900XT. Sie kam ja 6 Monate später als Geforce 8800GTX/GTS, aber war nicht so schnell wie GTX...

Scaleo
23.04.2009, 13:29
Laut Hardware Infos wird der GT300, kein aufgebohrter GT200 Chip sein, sondern eine komplett neue Architektur, mehr Shader ( 512 statt den jetzigen 240 ) und neue Fähigkeiten besitzen.

Quelle
(http://www.hardware-infos.com/news.php?news=2904)
Mfg Scaleo

RED
23.04.2009, 13:43
Bin dann mal gespannt, was des Ding kosten wird.

Aerox
23.04.2009, 15:44
ich könnte es ´mir schon vorstellen, da 5870 im Juni erscheinen sollte und die GTX 380 Dezember oder vlt. Januar nächstes Jahres!

warpspeed
24.04.2009, 09:27
Hier mal interessantes von Heise.de...


Grafik-Gerüchte: Schafft Nvidias DirectX-11-Chip 3 TFlops?

Beeindruckende Zahlen schwirren derzeit durch die digitalen Sphären. Nvidias kommender DirectX-11-kompatibler Grafikchip GT300 soll eine flexiblere Shader-Architektur mitbringen und eventuell bis zu 3 Billionen Gleitkommaoperationen pro Sekunde (TFlops) erreichen, mutmaßt die Webseite BSN. Dafür soll der in der zweiten Jahreshälfte erwartete Grafikchip 512 Shader-Einheiten haben, die wohl in 16 Texture Processing Clusters zu je 4 Streaming-Multiprozessoren (SMP) angeordnet sind. Jeder dieser vier SMPs hätte dann wiederum 8 Shader-Einheiten. Der aktuelle High-End-Chip GT200(b) klassifiziert seine 240 Shader-Einheiten in 10 Gruppen Ã* 24 (3 × 8) Shader-Einheiten. Sollte Nvidia weiterhin acht Textureinheiten (TMUs) pro Textur-Cluster ankoppeln, stünden dem GT300 folglich 128 TMUs zur Verfügung.

Interessant ist vor allem die Behauptung, dass die SMPs beim GT300 keine SIMT-, sondern MIMD-ähnliche Einheiten sind. SIMT (Single Instruction, Multiple Thread) ist an SIMD (Single Instruction, Multiple Data) angelehnt und bedeutet, dass ein Rechenbefehl mehrfach parallel mit verschiedenen Daten ausgeführt wird. MIMD (Multiple Instruction, Multiple Data) würde beim GT300 bedeuten, dass unterschiedliche Shader-Programme auch innerhalb eines Textur-Clusters von verschiedenen Streaming-Multiprozessoren parallel abgearbeitet werden können. Falls sich die Gerüchte bewahrheiten, könnte Nvidia die Shader-Architektur unter anderem deshalb flexibilisieren, um die hohe Zahl von 512 Shader-Einheiten effizient auszulasten. Inwiefern Nvidia etwas an der internen Arbeitsweise der einzelnen Shader-Einheiten ändert, ist unklar.

Abzusehen ist, dass die Kalifornier wohl die unter anderem für wissenschaftliche Berechnungen auf dem Grafikchip relevante Dual-Precision-Rechenleistung deutlich erhöhen – BSN geht dabei von einer sechs- bis fünfzehnfachen Verbesserung im Vergleich zum GT200 (GeForce GTX 285: 89 GFlops) aus. Hinsichtlich der Single-Precision-Leistung spekuliert BSN sogar auf mögliche 3 Billionen Gleitkommaoperationen pro Sekunde (TFlops), sofern Nvidia die Shader-Einheiten tatsächlich mit 2 GHz betreibt und diese weiterhin bis zu 3 Operationen pro Takt ausführt. Selbst bei einer Taktfrequenz von 1,5 GHz wäre der GT300 in dieser spekulativen Konfiguration mit 2,3 TFlops noch mehr als doppelt so schnell wie ein einzelner GT200b-Chip.

Erste GT300-Grafikchips könnte Nvidia bereits im Oktober an die Boardpartner ausliefern, sofern bereits die ersten Testläufe mit dem A0-Silizium im Juni erfolgreich sind und man dem Inquirer Glauben schenkt. Dann dürften noch im November erste DirectX-11-Grafikkarten von Nvidia über die Ladentische gehen. Auch AMD plant offenbar erste DirectX-11-Chips in der zweiten Jahreshälfte auszuliefern – wahrscheinlich noch vor Nvidia.Quelle: Heise.de (http://www.heise.de/newsticker/Grafik-Geruechte-Schafft-Nvidias-DirectX-11-Chip-3-TFlops--/meldung/136687)

RED
17.05.2009, 13:08
Neues zum GT300


http://www.pcgameshardware.de/aid,684693/Nvidia-Tape-Out-des-G300-Chips-vollzogen/Grafikkarte/News/

twinTurbo
19.05.2009, 12:12
http://www.pcgameshardware.de/aid,684826/GT300-Erste-Details-zu-Takt-Speicherbandbreite-und-Shadereinheiten-der-Geforce-GTX-380/Grafikkarte/News/

Die Infos konkretisieren sich!

eFFeCTiVe
19.05.2009, 12:18
http://www.pcgameshardware.de/aid,684826/GT300-Erste-Details-zu-Takt-Speicherbandbreite-und-Shadereinheiten-der-Geforce-GTX-380/Grafikkarte/News/

Die Infos konkretisieren sich!

"163 % Leistungssteigerung" ggü. dem G200:shock: WTF?
Und mit Sicherheit DX11-fähig, was andres würd ja verwundern.

Wenn das stimmen sollte, bin ich mal auf die Preise von diesen Monstern gespannt... Vor allem, wenn dann die Konkurrenz nachzieht (es sei denn, AMD/Ati sind schneller mit der 5000er-Reihe, aber das isn andres Thema)...

ratze
19.05.2009, 12:36
Hmm,... löse ich jetzt schon meinen Bausparvertrag auf, oder warte ich doch erst noch bis zum Release der GT300?
Ich hoffe wirklich, das ATi etwas vergleichbares dagegenwirft, ansonsten müssen wir uns wohl doch noch einen Nebenjob suchen...

Scaleo
19.05.2009, 12:54
Na ja eigentlich sollte doch jedem klar sein, das die neuen Karten in einem sehr hohen Preissegement anzusiedeln sind, alles andere würde mich jetzt verwundern.
War eigentlich schon immer so.
Denke mal schon das das Flagschiff, wie es auch heißen mag, so um die 450 - 500 Euro kosten wird.

Mfg Scaleo

CRYSISTENSE
19.05.2009, 13:09
Dann kann der GT300 wohl doch die 2GB effektiv nutzen. Das wird ein echtes Monster und wohl nicht unter 500€ zu haben sein.

Ovomaltine
19.05.2009, 13:35
zwischen 500 und 600 euro wie eig jede neue grafikkarte, war schon imma so und wird sich auch nix dran ändern ;-)

Warte ich lieber auf ne PS4 hab ich mehr von als Nvidia und oder Ati die kohle in popo zu stecken, und dann 12 monate später wieder ne neue karte kommt! :-(

MFG
Ovo

Robin
19.05.2009, 13:46
Warte ich lieber auf ne PS4 hab ich mehr von als Nvidia und oder Ati die kohle in popo zu stecken, und dann 12 monate später wieder ne neue karte kommt! :-(


Naja, wirst du von NVidia bzw. ATI denn gezwungen diese Karten auch immer gleich zu kaufen? ;)

Oke, die richtig üblen PC-Fans kaufen sich die Dinger gleich fürn teuersten Preis, aber die meisten warten eigentlich erstmal ein paar Monate ab bis die Karten vom Preis gesunken sind. Auch dann zwingt dich noch niemand die Dinger zu kaufen ;).

Und dass so schnell so viele Games rauskommen, die eine GT300 als Voraussetzung stellen denke ich nicht ;). Da reicht eine GT200-Karte für nicht all zu hohe Auflösungen noch gut aus 8-)

RED
19.05.2009, 14:23
Das wird ein echtes Monster und wohl nicht unter 500€ zu haben sein.


Jo des wird ein fettes Teil, aber egal wie teuer, des Ding wird gekauft.

Is ja bald Weihnachten^^.

Cephei
19.05.2009, 14:27
Ich freue mich wenn ich Geld hab und meine gute G8800 GT ausgedient hat :).

doc
19.05.2009, 16:01
Hardware-info.com schätz die Rechenleistung der neuen Karten auf sage und schreibe 2.457 Gigaflops. Es handele sich dabei zwar nicht mehr um die klassischen SIMD-Einheiten, sondern um MIMD-ähnliche Einheiten, welche flexibler und effizienter arbeiten sollten - der rein quantitative Vergleich bescheinigt dem G300 eine 163 prozentige Leistungssteigerung gegenüber dem G200.

Auch die Speicherbandbreite lässt sich nun abschätzen. Bei einem realen Takt von 1.100 MHz (GDDR5) und einer 512 Bit breiten Anbindung sollten die G300-Karten rein rechnerisch über eine Bandbreite von 281,6 GiByte pro Sekunde ermöglichen - zum Vergleich kam eine GTX 280 auf 140,8 GiByte pro Sekunde. Ob Nvidia die Karten mit 1 oder 2 GiByte Speicher bestücken wird, war bisher noch nicht zu erfahren - wir vermuten aber, das es wie gewohnt mehrere Varianten geben wird.


na das ist doch mal was

1337_alpha
19.05.2009, 16:05
GTX395 *sabber* :D
Und das dann mit neuem Core i7 Sys

Baggibox
19.05.2009, 16:29
Mein Gott wie die Leistung/Technik boombt ! :eek:

Wenn das so weiter geht, dann können wir Rendergames die in ein paar Jahren kommen und in Echtzeit berechnet werden, noch früher anzocken.

Auf größere Bildschirm mit höhere Auflösungen ist es dann kein Problem mehr. Das wird alles zum Standard.

Heinz_Baer
19.05.2009, 16:59
Loool, soll ich diesen pseudo Wahrheiten wirklich Glauben schenken? Meines Wissens gab es noch NIE einen Grafikchip, der 163% mehr Leistung im Vergleich zum Vorgänger hatte. Das hat nichtmal die 8000er Reihe geschafft. Wenn ich überleg, wie lange Nvidia schon für die Teraflop Marke gebraucht hat, davon war ja schon beim G92 die Rede. Die erste Karte, die es dann geschafft hat, war die GTX 285 (wohlgemerkt NACH ATI). Und jetzt sollen gleich mal 3 Teraflops erreicht werden??? Mit einer sinlge GPU???

Und außerdem will man mir erzählen, dass die neue Karte 512 Bit Speicheranbindung UND DDR5 UND mindestens 1024 MB Ram verfügt?
Die HD 4890 hat mit 256 Bit und 512 MB DDR5 mit einer Nvidia Karte mit 512 Bit und 1024MB DDR3 gleichgezogen. Und der GT300 soll über den doppelten Ram, die doppelte Anbindung und den selben Speichertyp verfügen?

Falls die Karte wirklich so kommt (was ich kaum glaube), dann wird sie niemand kaufen, weil der Anschaffungspreis und die Stromkosten viel zu hoch sind. Das Preis-/Leistungsverhältnis wäre absolut grottig.

Sir.Simon
19.05.2009, 17:01
Die Karte wird bestimmt Zukunftsicher, kauft man es gleich am anfang, hält sie sicher 2 Jahre ohne probleme... kommende Spiele werden für die Grakka keine probleme darstellen, auch Hohe Auflösungen sowie AA und AF werden für die Graka keine Anforderung sein, für die Graka wird das Eierschauckeln sein.

Dank an die 512 Bit Bandbreite, 2 GB Grafikspeicher und und und...

Sobald die Grakka draußen ist kauf ich sie mir... takte meine CPU hoch, kaufe nochmal 4 gb Arbeitspeicher und und und und :D:D:D:

1337_alpha
19.05.2009, 17:02
163%


Was ist daran so unwahrscheinlich?

Und soweit ich mich erinnern kann hatte die 8800GTX sogar mehr als 63% Mehrleistung

Heinz_Baer
19.05.2009, 17:10
@alpha: Jo, haste Recht, im Vergleich zur 7900GTX war es ziemlich viel. Aber ich meine die schnellste Karte des Vorgängerchips im Vergleich zur Karte des Nachfolgechips. Ich denk, so ein Wunder wie diue 8800GTX werden wir nicht noch mal erleben.

Sir Lolz
19.05.2009, 19:16
Dank an die 512 Bit Bandbreite, 2 GB Grafikspeicher und und und...
Es gibt sehr bald schon Karten die das haben !

CRYSISTENSE
19.05.2009, 19:19
Welche denn?

twinTurbo
19.05.2009, 19:22
Die zum Bleistift: http://www.pcgameshardware.de/aid,684884/MSI-N285GTX-Superpipe-2G-OC-neu-im-Testlabor/Grafikkarte/News/

eVGA hat vor paar Tagen auch eine 2GB Version angekündigt.

CRYSISTENSE
19.05.2009, 19:27
Unter dem "und und und" verstehe ich auch DDR5 und diesen gibt es momentan eben nicht mit 512bit, weshalb die ganzen 2GB-Versionen vollkommen sinnlos sind.

twinTurbo
19.05.2009, 19:28
Unter dem "und und und" verstehe ich auch DDR5 und diesen gibt es momentan eben nicht mit 512bit, weshalb die ganzen 2GB-Versionen vollkommen sinnlos sind.

Das ist natürlich wahr! Aber das wird sich mit dem GT300 ja hoffentlich ändern.:wink:

Sir.Simon
19.05.2009, 21:01
Jungs, Ich würd noch warten, es sind alles noch spekulationen die vielleicht nicht stimmen, einfach bellzen .... (chillen) wartet einfach einige Monate noch und es kommen neue und richtige " WAHRE " Infos zur NEXT GENERATION GRAPHICCARDS

1337_alpha
19.05.2009, 21:45
Jungs, Ich würd noch warten, es sind alles noch spekulationen die vielleicht nicht stimmen, einfach bellzen .... (chillen) wartet einfach einige Monate noch und es kommen neue und richtige " WAHRE " Infos zur NEXT GENERATION GRAPHICCARDS

Für mich sieht das ganze bisher sehr offiziel aus

Scaleo
19.05.2009, 21:55
Für mich sieht das ganze bisher sehr offiziel aus

Ja, da es mehre Quellen bestätigen und diese Infos, in dieser Anzahl, nicht einfach aus der Luft gegriffen sind, wie ich denke.

Aber Sir.Simon hat schon recht, man sollte sich vielleicht nicht komplett auf diese Infos verlassen.

Mfg Scaleo

Kolga
19.05.2009, 21:58
Also wenn das mit den 163% stimmt, glaube ich, fall ich um. Wenn das nVidia pakt dann zücke ich den Hut. Ich kann mir immer noch nicht vorstellen das es diesmal schon solch einen ähnlichen Schub wie von 7er zur 8er Serie wird. Weiß aber auch nicht warum ich mir das net vorstellen kann....

Bin echt gespannt auf neue Infos. :) 8)

E1ite-Marc0
19.05.2009, 22:02
Also wenn das mit den 163% stimmt, glaube ich, fall ich um. Wenn das nVidia pakt dann zücke ich den Hut. Ich kann mir immer noch nicht vorstellen das es diesmal schon solch einen ähnlichen Schub wie von 7er zur 8er Serie wird. Weiß aber auch nicht warum ich mir das net vorstellen kann....

Bin echt gespannt auf neue Infos. :) 8)
GeForce 7 = DX9
GeForce 8 = DX10
Geforce "GT300" = DX11
Also wenn das vorrausgegeben ist, ist die wahrscheinlichkeit sehr hoch! (!!!!!!)
Bin aber auch mal gespannt... Will mit Win 7, DX11 und 6 Kernern i7 Ende dieses Jahres/Anfang nächsten Jahres einen komplett neuen PC mit dem feinsten bauen... Da wäre so eine Leistung Uber. :)
MfG
Marc0

Scaleo
19.05.2009, 22:07
[...]Will mit Win 7, DX11 und 6 Kernern i7 Ende dieses Jahres/Anfang nächsten Jahres einen komplett neuen PC mit dem feinsten bauen... Da wäre so eine Leistung Uber. :)
MfG
Marc0

Da darf das 1500 Watt Netzteil nicht fehlen :P

Aber kann mir des schon vorstellen, und das Tape Out scheint ja auch erfolgreich gewesen zu sein.

Mfg Scaleo

Kolga
19.05.2009, 22:12
Naja man kann aber auch nicht einfach davon aus gehen das:
Neues DX auch rießen Schub bedeutet. Aber denke DX11 und Win 7 wird der Graka mit nem anständigen Treiber die richtige Power geben.

Ich weiß nur das ich nicht zu beginn gleich eine kaufe, da sie zu teuer sind dann und weil noch keine anständigen Treiber vorhanden sind. Des weiteren will ich dann sowieso neues MB und neuen Prozi auch noch machen. Je nach dem dann, mal sehen was Anfang/Mitte 2010 die Preise so machen.... 8)

Aerox
19.05.2009, 22:52
hmm... ich werde mir eine 100% kaufen, wenn sie in DX10 Spielen wie Crysis mal richtig perfekt flüssig mit .... AA + FullHD Auflösung laufen würde... naja, aber ich glaube es ist möglich, da diese Karte in DX10 aufjedenfall der Oberburner sein wird und in DX11... abwarten und Tee trinken. Erstes DX11 Spiel wird BF BC2 sein, falls ich mich nicht täusche....
Aber hoffentlich reicht 550 W sehr gutes Netzteil für alles

Cephei
20.05.2009, 01:28
GeForce 7 = DX9
...

Wenn mich nicht alles täuscht hatte die Geforce 5X FX
schon DirectX 9 Unterstützung.

E1ite-Marc0
20.05.2009, 06:04
...
Ich weiß nur das ich nicht zu beginn gleich eine kaufe, da sie zu teuer sind dann und weil noch keine anständigen Treiber vorhanden sind. Des weiteren will ich dann sowieso neues MB und neuen Prozi auch noch machen. Je nach dem dann, mal sehen was Anfang/Mitte 2010 die Preise so machen.... 8)
Wenn ich gleich am Anfang kaufe für sagen wir mal 400 Euro, dann soll das so sein. ;) Weil wenn ich dann 4 Monate später für 380-390 Euro kaufe hab ich für den Preis weniger... (Wegen verlorener Zeit bis neue Generation kommt... xD)
So ähnlich finde ich dsa mit den Spielen: GTA IV oder solche Spiele jetzt noch für 50 Euro solange nach Release zu kaufen ist net praktisch, da bald die Preise ähh tiefer gehen...
Egal... BTT :)
MfG
Marc0

N1ce
20.05.2009, 07:14
Ich hole mir auch nen neues Sys.
Dann aber nen Hammer Ding mit der besten und neuesten Nvidia^^
Vermisse meinen PC :(

Hatte mir nen Notebook raus gesucht mit nen Geforce GTX 280M. Aber das würd sich nit so lohnen. Die ist nur so gut wie ne 9800 GTX.

Die neuen Grakas werden der Hammer^^

Scaleo
20.05.2009, 07:52
Hmm ich warte eigentlich nur noch auf eine Bestätigung seitens Nvidia.
Will endlich wissen was an den "noch" Gerüchten dran ist und hoffe natürlich auf eine bestätigung dieser.

Mfg Scaleo

T-Rocc
09.06.2009, 10:34
Hab da gerade was neues zum GT300 gefunden.

Demnach sollen Gerüchte die runde machen, daß Nvidias neuer chip erst im ersten halbjahr 2010 kommen soll.



Die „Next-Gen“-GPUs befinden sich derzeit noch in der Entwicklung (http://crysis.4thdimension.info/forum/#) und die beiden Chipspezialisten ATi sowie Nvidia scheinen derzeit unterschiedlich weit fortgeschritten zu sein. Denn während ATi
bereits auf der Computex den ersten Wafer mit lauffähigen DirectX-11-GPUs zeigte (http://crysis.4thdimension.info/news/hardware/grafikkarten/ati/2009/juni/amd_directx-11-grafikkarte/) (um welchen Chip es sich genau handelt, ist unbekannt) herrscht im Lager Nvidias noch eine große Stille.

Generell bedeutet dies nicht unbedingt etwas schlechtes, da Nvidia (http://crysis.4thdimension.info/forum/#) vor der offiziellen Vorstellung einer neuen GPU-Architektur nie über diese gesprochen hat. Jedoch vermehren sich aktuell die
Gerüchte, dass es anscheinend Schwierigkeiten mit der Fertigstellung für dieses Jahr gebe. Stattdessen soll es den GT300 beziehungsweise G300 (wie der Desktop-Chip genau heißen wird ist noch unbekannt)
erst im Jahre 2010 geben.

Quelle: ComputerBase (http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2009/juni/nvidia_gt300_halbjahr_2010/)

RED
09.06.2009, 11:35
Nvidias GT300 soll mit 225W auskommen

Quelle: PCGH (http://www.pcgameshardware.de/aid,686768/Nvidia-GT300-soll-angeblich-mit-225-Watt-TDP-auskommen/Grafikkarte/News/)

Aerox
09.06.2009, 12:46
225W ist doch ganz ok oder? Wie viel verbraucht die GTX280 und die Geforce 8800GTX?

Aerox
09.06.2009, 14:39
ich meine, wie viel Watt verbraucht die GTX280, 260, und G8800GTX unter Last?? Ich habe nicht nach Mindesanforderung gefragt

jupph
09.06.2009, 15:06
ich meine, wie viel Watt verbraucht die GTX280, 260, und G8800GTX unter Last?? Ich habe nicht nach Mindesanforderung gefragt

Guckst du hier (http://www.pcgameshardware.de/aid,676238/Reale-Leistungsaufnahme-von-10-Grafikkarten/Grafikkarte/Test/)

xeonsys
09.06.2009, 15:18
225W muss das sein.:shock::-(:-(:-(

HunT
09.06.2009, 15:22
225W muss das sein.:shock::-(:-(:-(

Angesichts der zu erwartenden Rechenpower (laut Gerüchte bis zu 2,5x so schnell wie der GT200 + GDDR5) ein durchaus aktzeptabler Wert. Der GT200 verbraucht ja nicht viel weniger...eher etwas mehr, u.a. aufgrund der 65nm Produktion.

xeonsys
09.06.2009, 15:24
Angesichts der zu erwartenden Rechenpower (laut Gerüchte bis zu 2,5x so schnell wie der GT200) ein durchaus aktzeptabler Wert. Der GT200 verbraucht ja nicht viel weniger...eher etwas mehr, u.a. aufgrund der 65nm Produktion.


hmm da warte ich wohl doch auf die evtl 32nm version ob die dann was bringt ist wieder eine andere sache.

HunT
09.06.2009, 15:26
hmm da warte ich wohl doch auf die evtl 32nm version ob die dann was bringt ist wieder eine andere sache.

Unwahrscheinlich, dass NV sofort auf den 32nm wechselt. Zumal der ja keinen großen Unterschied zu 40nm darstellt und zunächst auch alle auftretenden Probleme mit 40nm beseitigt werden sollten.

EDIT: Für mich persönlich eigentlich eine gute Sache, dass der GT300 erst 2010 kommt, denn so schnell wollt ich meine (noch) High End nicht zum alten Eisen erklären.

1337_alpha
09.06.2009, 15:33
Die G80-GPU benötigt unter Windows 217 Watt und die GTX 260 verbruacht Minimum 500 Watt

Woher hast du denn die schwachsinnige Info?

Also ich finde 225W hält sich für die Power noch im Rahmen
Mit einem 520W Marken NT sollte immer noch alles laufen
Und wenn nicht würden einen 600W auch nicht unbedingt umbringen
Da gibts Geräte die verbrauchen mehr

Fusion145
09.06.2009, 15:42
Unwahrscheinlich, dass NV sofort auf den 32nm wechselt. Zumal der ja keinen großen Unterschied zu 40nm darstellt und zunächst auch alle auftretenden Probleme mit 40nm beseitigt werden sollten.

Wieso kein großer Unterschied?
Wenn ich mich nicht verrechnet hab würde der wechsel von 40nm auf 32nm den Chip um 20% kleiner werden lassen (von 55nm auf 40nm sind es ca. 25% also nicht wirklich mehr)

Und ob das so stimmt mit der Leistungsaufnahme kann ich mir kaum vorstellen (wenn die Gerüchte über die Leistung wirklich stimmen, was ich mal sehr stark anzweifel), denn das man so ein gewaltigen Sprung in der Effizienz schafft in so kurzer Zeit ist eher unwahrscheinlich (auch mit Shrink) ;)

ZaCXeeD
09.06.2009, 15:48
also ich find die Watt jetzt schon in Ordnung...falls die Gerüchte stimmen sollte und die GT300 sowas von abrocken wird...im Vergleich dann zur GT200...

Nuja ich bin immernoch auf die Performance und die Produktion gespannt, wie es halt aussehen wird...kann ja sein das die erste Version total der reinfall wird und dann wieder nach paar MOnaten die bessere kommen wird...

HunT
09.06.2009, 18:08
Wieso kein großer Unterschied?
Wenn ich mich nicht verrechnet hab würde der wechsel von 40nm auf 32nm den Chip um 20% kleiner werden lassen (von 55nm auf 40nm sind es ca. 25% also nicht wirklich mehr)

Und ob das so stimmt mit der Leistungsaufnahme kann ich mir kaum vorstellen (wenn die Gerüchte über die Leistung wirklich stimmen, was ich mal sehr stark anzweifel), denn das man so ein gewaltigen Sprung in der Effizienz schafft in so kurzer Zeit ist eher unwahrscheinlich (auch mit Shrink) ;)

Nunja, letzlich hängt alles von der Chip-Architektur ab. Der GT300 soll angeblich so umgestaltet werden, dass man darin die alte Chip-Architektur kaum wiedererkennt. Eventuell ein effizienteres und somit leistungsfähigeres Design bei weniger Verbrauch. Unmöglich ist das nicht, zumal der GT300 nicht erst seit 1 Jahr entwickelt wird. Da wurden die Arbeiten angefangen, noch bevor der GT200 rauskam.

1337_alpha
09.06.2009, 18:13
Ich hatte mich verkuckt er meinte die GTX 280

Aber die GTX 260 verbruacht trotzdem minimum 500 W XD

Zeig mir bitte richtige Fakten dazu
Das ist totaler Schwachsinn dass eine Karte soviel verbraucht
Dann bräuchte man pro Rechner mindestens ein 800Watt Netzteil
Bevor man so einen Schwachsinn zum wiederholten male schreibt sollte man sich lieber informieren

Sir Lolz
09.06.2009, 18:25
Hatte mich völlig vertan sorry Leute kommt nichtmehr vor xD

LKrieger
09.06.2009, 18:48
NOIIIN - noch solange warten:???:. Nya muss wirklich erst noch ne GT200 her...

Mfg LKrieger

xeonsys
06.08.2009, 17:45
Nvidias GT300 soll noch 2009 kommen, danach vier Varianten

Angeblich vier Ableger von neuem Grafikprozessor vorgesehen


Die US-Site SemiAccurate (http://www.semiaccurate.com/2009/08/05/four-more-gt300-variants-tip/) will wieder einmal als erste erfahren haben, dass die GPU mit dem Codenamen "GT300" bereits in der vergangenen Woche ihr "tape out" erreicht hat. Damit ist ein Chip in der ersten produktionsfähigen Version fertiggestellt.

Das Die des GT300 soll nach den Informationen aus nicht genannten Quellen bei 40 Nanometern Strukturbreite rund 530 Quadratmillimeter groß sein. Das wäre nur wenig kleiner als die 576 Quadratmillimeter des ersten GT200 (http://www.golem.de/0809/62291.html), der mit 65-Nanometer-Strukturen gebaut wurde. Später wechselte Nvidia auf 55-Nanometer-Technik, was das Die auf rund 420 Quadratmillimeter schrumpfte. Die großen Chips brachten Nvidia vor allem von Analysten Kritik ein, weil sie die Produktionskosten in die Höhe treiben. Vom ersten GT200 passten nur rund 80 Exemplare auf einen 300-Millimeter-Wafer.

Mit dem neuen Design des GT300 fühlt sich Nvidia aber offenbar sehr wohl, denn auf Basis des ersten Chips sollen gleich vier Ableger erscheinen. Bisher stellte Nvidia maximal zwei der drei Varianten derselben GPU vor, wenn man von Klassifizierungen nach Taktfrequenzen absieht. Bei diesen Varianten wurde, beispielsweise bei der GTX-260 gegenüber der GTX-280 (http://www.golem.de/0806/60412.html), meist ein Teil der Stream-Prozessoren abgeschaltet. Zuerst erscheint traditionell das High-End-Modell.

SemiAccurate zufolge könnten die ersten GT300-Karten schon im Oktober 2009 erscheinen. Das gilt aber nur, wenn im Design keine schweren Bugs lauern und der Produktionsprozess mit 40-Nanometer-Technik bei TSMC endlich auf nennenswerte Stückzahlen kommt. Vielleicht hält sich Nvidia mit offiziellen Aussagen auch deshalb im Moment so zurück, weil man AMD auf der Zielgeraden noch abfangen will.
http://www.golem.de/0908/68887.html


8-) dann kann ich mir meine karte bald kaufen und die 7900gto in rente schicken.:smile:

eFFeCTiVe
06.08.2009, 17:49
Danke für den Link - was du vorhast, könnte dann auch für meine 7950GT gelten8)

Rick
06.08.2009, 18:03
Danke für den Link - was du vorhast, könnte dann auch für meine 7950GT gelten8)

Und für meine 8600 GT8)
...jedenfalls solange sie nicht zu teuer sind :-)

pcfreak60
06.08.2009, 18:11
Endlich kann ich dann meine lahme GTX260 ablösen :lol:

Cephei
06.08.2009, 19:33
Danke für den Link - was du vorhast, könnte dann auch für meine 7950GT gelten8)

Ich glaub du wirst dir so den Arm abfreuen :D !
Wenn ich Geld hab kauf ich mir evtl. auch eine.

LKrieger
06.08.2009, 19:45
Mal sehen wann die genau kommt und was die genau mehr bringt als der GT200. Hab etz erstmal 3-Way 280 Sl!. Das langt hoffentlich erstmal wnen morgen das x58 Board kommt...

Und wehe ich kann Crysis dann nochnicht Ruckelfrei spielen - G300!

Mfg LKrieger

HarryRulez
06.08.2009, 19:48
Ich denke , daß wir die nächste Zeit keine neue GPU brauchen werden @Mario!! Auch nicht für Crysis2^^
Werde erst mal so bleiben wie ich bin (DU DARFST:razz::razz:)

Flying_Dragon
06.08.2009, 19:55
Und wehe ich kann Crysis dann nochnicht Ruckelfrei spielen - G300!

Mfg LKrieger

Ich weiß nicht was du hast aber ich kann mit einer GTX280 Crysis auf Very High 1920x1080 0xAA mit 30-40FPS zocken (okay ich hab kein Eislevel getestet)

Crysis kann man schon vernünftig flüssig zocken! Auch mit einer GPU!

Rick
06.08.2009, 19:57
Ich weiß nicht was du hast aber ich kann mit einer GTX280 Crysis auf Very High 1920x1080 0xAA mit 30-40FPS zocken (okay ich hab kein Eislevel getestet)

Crysis kann man schon vernünftig flüssig zocken! Auch mit einer GPU!

Joa versteh ich auch gerade nicht?
Vielleicht zoggt er auf 24000 x 18000, dann könnte es vll. leicht ruckeln:lol:

Flying_Dragon
06.08.2009, 20:03
Joa versteh ich auch gerade nicht?
Vielleicht zoggt er auf 24000 x 18000, dann könnte es vll. leicht ruckeln:lol:

:D
Ja aber warscheinlich nur vielleicht xD

Okay BTT

xeonsys
06.08.2009, 20:06
Ich glaub du wirst dir so den Arm abfreuen :D !

100 pro und mein windows 7 für 40€ kommt ja auch bald.8-):smile:

LKrieger
06.08.2009, 20:13
Joa versteh ich auch gerade nicht?
Vielleicht zoggt er auf 24000 x 18000, dann könnte es vll. leicht ruckeln:lol:

Nope das Problem ist zurzeit mein Board (morgen hab ich ja anderes). Das begrenzt mein 3-Way SLI genauso wie der Ram und der Prozzi...

30 fps sind für mich halt auch nicht wirklich flüssig... 60 wären ideal!
Aber ich hab euch schon ne hübsche Benchmark-file angelegt. die Werde ich hier uppen. Da könnt ihr den Unterschied gerne mal sehen zwischen 2-way 3-way 780 und 3-way x58. Denke das da mind. 20 fps drin sind!

Mfg LKrieger

xeonsys
06.08.2009, 20:17
Nope das Problem ist zurzeit mein Board (morgen hab ich ja anderes). Das begrenzt mein 3-Way SLI genauso wie der Ram und der Prozzi...

30 fps sind für mich halt auch nicht wirklich flüssig... 60 wären ideal!
Aber ich hab euch schon ne hübsche Benchmark-file angelegt. die Werde ich hier uppen. Da könnt ihr den Unterschied gerne mal sehen zwischen 2-way 3-way 780 und 3-way x58. Denke das da mind. 20 fps drin sind!

Mfg LKrieger

und einer karte?

Rick
06.08.2009, 20:29
100 pro und mein windows 7 für 40€ kommt ja auch bald.8-):smile:

Meins auch8-):p

@Lkrieger: Das Benchmark File will ich sehen8-)
Aber dein MB ist ja auch mega Teuer:-o

HarryRulez
06.08.2009, 21:46
Nope das Problem ist zurzeit mein Board (morgen hab ich ja anderes). Das begrenzt mein 3-Way SLI genauso wie der Ram und der Prozzi...

30 fps sind für mich halt auch nicht wirklich flüssig... 60 wären ideal!
Aber ich hab euch schon ne hübsche Benchmark-file angelegt. die Werde ich hier uppen. Da könnt ihr den Unterschied gerne mal sehen zwischen 2-way 3-way 780 und 3-way x58. Denke das da mind. 20 fps drin sind!

Mfg LKrieger


Weiß garnicht was du hast , spiele crysis & warhead alles very high bis zum geht nicht mehr und spiele zwischen 40- 80 fps. besser gehts nicht.

Cephei
06.08.2009, 22:16
Auf deinem eineinhalb Meter Screen? :D

LKrieger
06.08.2009, 22:18
Ja Harry ich will anmerken das du das 790i Board hast - dazu DDR3 speicher. DAS ist bei mir hauptsächlich der Flaschenhals!

Übrigens - ich hab heute wiedermal die Erfahrung gemacht wie geil Alternate ist!
Und zwar hat doch Transoflex damals (vor 2 Tagen)einen Transportschade mit dem x58 Board gehabt. Hab natürlich direkt AT angerufen ob die das Board wieder zum versenden bestellen können (derzeit nicht lieferbar limited edition usw...). Bekommens leider nicht rein. Dann hab ich von der netten Dame am Telefon vermerken lassen - wenn die Ware defekt ist - soll sie mir wieder gutgeschrieben werden, ansonsten bitte ich um einen erneuten Versand der Ware.

Heute traf die Ware direkt bei AT ein und ich bekam folgende E-Mail:


Sehr geehrter Herr Kriegsmann,

hiermit möchten wir Ihnen mitteilen, dass eine erneute Lieferung
veranlasst wurde.
Das Mainboard incl. Zubehör sind völlig unbeschädigt, nur die Originalverpackung
ist an einer Ecke leicht geknittert.
Das Mainboard ist nochmal in einem dicken Schaumstoffrahmen darin eingepackt,
der den Stoß abgefangen hat.
Die leicht beschädigte Originalverpackung vermindert weder Ihr Rückgaberecht,
noch Ihre Garantie-/Gewährleistungsansprüche.

Der Versand wird heute erfolgen, so dass Sie mit der
Anlieferung in Kürze rechnen können.

* GTEZ03 EVGA X58 SLI Classified V
Ihr Zeichen (wenn angegeben):

Für diesen Zeitraum bitten wir um ein wenig Geduld und stehen
für weitere Fragen gerne zur Verfügung.



Mit freundlichen GrüßenALSO DAS!!! - ist Service! Genauso hat das zu sein. Bin echt absolut zufrieden mit der Firma - einfach geil. Lieferung unheimlich schnell (auch wenn Transoflex das einmal verbockt hat). Service der Hammer...
Wollte ich nur mal so anmerken. Wenn jemand Hardware bestellen möchte - AT - einfach geil!

Mfg LKrieger

HarryRulez
06.08.2009, 22:40
Nope das Problem ist zurzeit mein Board (morgen hab ich ja anderes). Das begrenzt mein 3-Way SLI genauso wie der Ram und der Prozzi...

30 fps sind für mich halt auch nicht wirklich flüssig... 60 wären ideal!
Aber ich hab euch schon ne hübsche Benchmark-file angelegt. die Werde ich hier uppen. Da könnt ihr den Unterschied gerne mal sehen zwischen 2-way 3-way 780 und 3-way x58. Denke das da mind. 20 fps drin sind!

Mfg LKrieger



Gib mal dein Benchmarke - File, da können wir mal vergleichen 8)8)8)8)

LKrieger
06.08.2009, 23:06
Gib mal dein Benchmarke - File, da können wir mal vergleichen 8)8)8)8)

Kommt morgen wenns File kmplett is ;). Den Crysis Bench bekommste schonmal:

Settings:
Server 2008, Treiber 190.56, 1920x1080, high settings, DX9 64 bit, GPU Benchmark 3. Durchlauf mit 3-Way SL!

Min: 27,5
Avg: 44,9
Max: 67,99

Nu sagmal deine Fps an. Hast warscheinlich bestimmt überall 10 mehr :d.

Mfg LKrieger

xeonsys
06.08.2009, 23:06
@LKrieger

was für ein board hast du bestellt?:-)

LKrieger
06.08.2009, 23:08
@LKrieger

was für ein board hast du bestellt?:-)

This http://www.alternate.de/html/product/Mainboards_Sockel_1366/EVGA/X58_SLI_Classified_V/353482/?
Ist das ohne NF200. Der NF 200 Chipsatz bringt zurzeit weniger als das ohne. Das Board gabs zuerst nämlich als "759"er Version MIT NF200 Chipsatz und jetzt als "760" ohne. Dadurch wirds zwischen 20-50 Euro günstiger. Laut angaben wäre das board mit nf200 wieder besser geeignet für zukünftige 3-Way Configs, aber bestätigt ist das nicht! Fakt ist, das das 760 derzeit besser ist. Mal gespannt obs wirklich was bringt wenn die neuen Karten da sind!

Mfg LKrieger

xeonsys
06.08.2009, 23:11
This http://www.alternate.de/html/product/Mainboards_Sockel_1366/EVGA/X58_SLI_Classified_V/353482/?

Mfg LKrieger

warum kostet das teil € 399,-€?

EDIT by LKrieger: Schau dir mal die Daten von dem Board an. Das Teil is der absolute Brecher... Schau dazu auch mal hierher http://www.evga.com/products/moreInfo.asp?pn=141-BL-E760-A1&family=Motherboard%20Family
DA steht wenigstens alles richtig ;).

1337_alpha
07.08.2009, 00:45
Naja das Board ist halt einfach nur High End
Der Preis rechtfertig sich nur daraus weil das Board ein Sammlerstück ist
Für 150€ weniger gibt es auch schon Boards die noch einen Ticken besser sind jedoch hat man dann halt kein Einzelstück

HarryRulez
07.08.2009, 07:26
Kommt morgen wenns File kmplett is ;). Den Crysis Bench bekommste schonmal:

Settings:
Server 2008, Treiber 190.56, 1920x1080, high settings, DX9 64 bit, GPU Benchmark 3. Durchlauf mit 3-Way SL!

Min: 27,5
Avg: 44,9
Max: 67,99

Nu sagmal deine Fps an. Hast warscheinlich bestimmt überall 10 mehr :d.

Mfg LKrieger

Hier der Run:
Vista 64bit Premium, Treiber 186.18, 1920x1080, high settings, DX9 64bit, GPU Bench 3, 3-way SLI

07.08.2009 08:10:57 - Vista 64
Beginning Run #1 on Map-island, Demo-benchmark_gpu
DX9 1920x1080, AA=No AA, Vsync=Disabled, 64 bit test, FullScreen
Demo Loops=3, Time Of Day= 9
Global Game Quality: High
================================================== ============
TimeDemo Play Started , (Total Frames: 2000, Recorded Time: 111.86s)
!TimeDemo Run 0 Finished.
Play Time: 41.72s, Average FPS: 47.94
Min FPS: 25.88 at frame 148, Max FPS: 71.11 at frame 1602
Average Tri/Sec: -28940738, Tri/Frame: -603671
Recorded/Played Tris ratio: -1.52
!TimeDemo Run 1 Finished.
Play Time: 36.56s, Average FPS: 54.70
Min FPS: 25.88 at frame 148, Max FPS: 81.07 at frame 112
Average Tri/Sec: -32823594, Tri/Frame: -600062
Recorded/Played Tris ratio: -1.53
!TimeDemo Run 2 Finished.
Play Time: 36.59s, Average FPS: 54.66
Min FPS: 25.88 at frame 148, Max FPS: 81.07 at frame 112
Average Tri/Sec: -32804222, Tri/Frame: -600135
Recorded/Played Tris ratio: -1.53
TimeDemo Play Ended, (3 Runs Performed)
================================================== ============

Completed All Tests

<><><><><><><><><><><><><>>--SUMMARY--<<><><><><><><><><><><><><>

07.08.2009 08:10:57 - Vista 64

Run #1- DX9 1920x1080 AA=No AA, 64 bit test, Quality: High ~~ Overall Average FPS: 5468


Hier der zweite auf Veryhigh:

07.08.2009 08:27:19 - Vista 64
Beginning Run #1 on Map-island, Demo-benchmark_gpu
DX9 1920x1080, AA=No AA, Vsync=Disabled, 64 bit test, FullScreen
Demo Loops=3, Time Of Day= 9
Global Game Quality: VeryHigh
================================================== ============
TimeDemo Play Started , (Total Frames: 2000, Recorded Time: 111.86s)
!TimeDemo Run 0 Finished.
Play Time: 39.47s, Average FPS: 50.68
Min FPS: 35.63 at frame 1970, Max FPS: 72.26 at frame 1593
Average Tri/Sec: -30580300, Tri/Frame: -603426
Recorded/Played Tris ratio: -1.52
!TimeDemo Run 1 Finished.
Play Time: 36.11s, Average FPS: 55.38
Min FPS: 35.63 at frame 1970, Max FPS: 82.03 at frame 110
Average Tri/Sec: -33262916, Tri/Frame: -600616
Recorded/Played Tris ratio: -1.53
!TimeDemo Run 2 Finished.
Play Time: 36.16s, Average FPS: 55.31
Min FPS: 35.63 at frame 1970, Max FPS: 82.03 at frame 110
Average Tri/Sec: -33188870, Tri/Frame: -600078
Recorded/Played Tris ratio: -1.53
TimeDemo Play Ended, (3 Runs Performed)
================================================== ============

Completed All Tests

<><><><><><><><><><><><><>>--SUMMARY--<<><><><><><><><><><><><><>

07.08.2009 08:27:19 - Vista 64

Run #1- DX9 1920x1080 AA=No AA, 64 bit test, Quality: VeryHigh ~~ Overall Average FPS: 5534,5


Veryhigh läuft sogar noch besser :D

LKrieger
07.08.2009, 08:31
Habs dir doch gesagt, das du 10 mehr hast - lol :D. Nya vor 5 Mins is gerade mein Board eingetroffen. Hab heute auch noch meinen freien Tag bei der Arbeit. Was kanns schöneres geben... BASTELN!! :)

http://www.abload.de/thumb/p1020839xntw.jpg (http://www.abload.de/image.php?img=p1020839xntw.jpg) http://www.abload.de/thumb/p1020837lntn.jpg (http://www.abload.de/image.php?img=p1020837lntn.jpg) http://www.abload.de/thumb/p10208358m2k.jpg (http://www.abload.de/image.php?img=p10208358m2k.jpg) http://www.abload.de/thumb/p10208331mh6.jpg (http://www.abload.de/image.php?img=p10208331mh6.jpg)

Mfg LKrieger

HarryRulez
07.08.2009, 08:35
So nun mein .cfg und alle Einstellungen unter dennen ich crysis zogge.
Ich finds geil 8-)8-)8-)8-)

07.08.2009 09:21:48 - Vista 64
Beginning Run #1 on Map-island, Demo-benchmark_gpu
DX9 1900x1200, AA=8x, Vsync=Disabled, 64 bit test, FullScreen
Demo Loops=3, Time Of Day= 9
cl_bob = 1
cl_controllersensitivity = 45
cl_invertController = 0
cl_invertMouse = 0
cl_sensitivity = 45
cl_voice_volume = 1
dt_enable = 0
g_blood = 1
g_buddyMessagesIngame = 1
g_displayIgnoreList = 1
g_enableAlternateIronSight = 0
g_PSTutorial_Enabled = 1
g_quickGame_map = "multiplayer/ia/armada"
g_quickGame_min_players = 1
g_quickGame_mode = "InstantAction"
g_quickGame_prefer_favorites = 1
g_quickGame_prefer_lan = 1
g_quickGame_prefer_mycountry = 1
g_startFirstTime = 0
hud_crosshair = 7
hud_showAllObjectives = 0
hud_subtitles = 0
i_forcefeedback = 1
i_mouse_smooth = 1
net_enable_voice_chat = 0
r_Brightness = 0.5
r_Contrast = 0.5
r_Fullscreen = 1
r_Gamma = 1
r_Height = 1200
r_MotionBlurShutterSpeed = 0.015
r_VSync = 0
r_Width = 1920
s_DialogVolume = 1
s_MusicVolume = 0.6
s_SFXVolume = 1
sys_spec_GameEffects = 5
sys_spec_MotionBlur = 5
sys_spec_ObjectDetail = 5
sys_spec_Particles = 5
sys_spec_Physics = 5
sys_spec_PostProcessing = 5
sys_spec_Shading = 5
sys_spec_Shadows = 5
sys_spec_Sound = 5
sys_spec_Texture = 5
sys_spec_VolumetricEffects = 5
sys_spec_Water = 5
r_displayinfo = 1

================================================== ============
TimeDemo Play Started , (Total Frames: 2000, Recorded Time: 111.86s)
!TimeDemo Run 0 Finished.
Play Time: 39.03s, Average FPS: 51.24
Min FPS: 34.46 at frame 1948, Max FPS: 70.19 at frame 1016
Average Tri/Sec: -33073922, Tri/Frame: -645412
Recorded/Played Tris ratio: -1.42
!TimeDemo Run 1 Finished.
Play Time: 37.12s, Average FPS: 53.89
Min FPS: 34.46 at frame 1948, Max FPS: 73.53 at frame 133
Average Tri/Sec: -34604008, Tri/Frame: -642175
Recorded/Played Tris ratio: -1.43
!TimeDemo Run 2 Finished.
Play Time: 37.36s, Average FPS: 53.53
Min FPS: 34.46 at frame 1948, Max FPS: 74.31 at frame 63
Average Tri/Sec: -34360952, Tri/Frame: -641869
Recorded/Played Tris ratio: -1.43
TimeDemo Play Ended, (3 Runs Performed)
================================================== ============

Completed All Tests

<><><><><><><><><><><><><>>--SUMMARY--<<><><><><><><><><><><><><>

07.08.2009 09:21:48 - Vista 64

Run #1- DX9 1900x1200 AA=8x, 64 bit test, Quality: ~~ Overall Average FPS: 5371


Einfach krank^^ :lol::lol::lol::lol::lol::lol::lol::lol::lol:

EDIT by LKrieger: Harry komm bitte skype ;)

xeonsys
07.08.2009, 08:43
Habs dir doch gesagt, das du 10 mehr hast - lol :D. Nya vor 5 Mins is gerade mein Board eingetroffen. Hab heute auch noch meinen freien Tag bei der Arbeit. Was kanns schöneres geben... BASTELN!! :)

http://www.abload.de/thumb/p1020839xntw.jpg (http://www.abload.de/image.php?img=p1020839xntw.jpg) http://www.abload.de/thumb/p1020837lntn.jpg (http://www.abload.de/image.php?img=p1020837lntn.jpg) http://www.abload.de/thumb/p10208358m2k.jpg (http://www.abload.de/image.php?img=p10208358m2k.jpg) http://www.abload.de/thumb/p10208331mh6.jpg (http://www.abload.de/image.php?img=p10208331mh6.jpg)

Mfg LKrieger


nice :smoke:

mal ne frage gibt es bei ansehen von hd videos zb bei gt unterschiede gegenüber einer 7900gto?
denke mal beim desktop bleibt alles wie es ist und beim den darstellungen div webseiten.
zb: gamezone.de das blau im HG.

xeonsys
11.08.2009, 10:09
Nvidia-Chef kündigt eine große Überraschung an


http://winfuture.de/news,48952.html (http://winfuture.de/news,48952.html/QUOTE%5D)

jupph
11.08.2009, 10:19
Nvidia-Chef kündigt eine große Überraschung an


mmmhh....hoffentlich betrifft das die Grafikkartensparte.
Seit dem Intel mit dem X58 Chipsatz SLI lizensiert hat, sind die Nvidiaboards
für mich überhaupt nicht mehr interessant...

Aerox
11.08.2009, 10:56
ach wie schoen kann urlaub + crysishqforum sein ;)...

Ich denke, es ist SLI-Support fuer P55Boards oder neue Infos zu GT300Chip...


P.S. Ich werd einer der ersten mit dem HighEnd-GT300-Karte sein >D!!


Naja leute bin gleich wieder weg! Adios!

1337_alpha
11.08.2009, 11:21
mmmhh....hoffentlich betrifft das die Grafikkartensparte.
Seit dem Intel mit dem X58 Chipsatz SLI lizensiert hat, sind die Nvidiaboards
für mich überhaupt nicht mehr interessant...

Es gibt doch gar keine Nvidia Boards mehr...

Ich glaube kaum dass diese Überraschung etwas mit "GPU" zu tun hat

Servitor
11.08.2009, 11:26
@ vll. ist das ja die große Überraschung.

Ich habe gerade das hier gefunden -> Nvidia SLI für Core i3, i5, i7 (http://www.gamestar.de/hardware/news/mainboards/1958116/nvidia.html)

xeonsys
11.08.2009, 12:17
evtl.das da?

Nvidia könnte beispielsweise eine Art Onboard-GPU (http://www.heise.de/glossar/entry/dfb01039887bb4b0) mit PCIe-Schnittstelle entwickeln, die aufwendige Grafikberechnungen übernimmt oder auch als GPGPU (http://www.heise.de/glossar/entry/3bc21fb90c6b240d)-Applikationsbeschleuniger dient.
http://www.heise.de/newsticker/Nvidia-Chef-Huang-kuendigt-grosse-Ueberraschung-an--/meldung/143311


Nvidias neuer Chief Scientist
Nvidias Chief Scientist Bill Dally über GPU-Technologie, DirectX 11 und Larrabee


http://www.pcgameshardware.de/aid,692194/Nvidias-Chief-Scientist-Bill-Dally-ueber-GPU-Technologie-DirectX-11-und-Larrabee/Grafikkarte/News/

xeonsys
29.08.2009, 07:03
Demos von NVIDIAs G(T)300 für späten September geplant



Der September scheint ein wirklich interessanter Monat für all diejenigen zu werden, die auf die neuen DirectX-11-GPUs von AMD und NVIDIA sehnsüchtig warten. Wie brightsideofnews.com berichtet, wird NVIDIA noch im September den kommenden G(T)300 seinen Partnern zu Vorführungs-Zwecken zur Verfügung stellen. Angeblich hätten die Add-In-Board-(AIB)-Partner der kalifornischen GPU-Schmiede bereits gewisse Termine zur Demonstration von Produkten mit dem neuen DirectX-11-Chip für ihre eigenen Partner und die Presse erhalten. Wie schon gesagt, sollen die ersten dieser Präsentations-Termine im September stattfinden, vermutlich um ein wenig vom voraussichtlichen Start der DirectX-11-Generation vom Konkurrenten AMD abzulenken.
Nach bisherigem Kenntnisstand wird AMD am 10. September seine ersten Evergreen-GPUs (HD-5800-Serie) vorstellen, allerdings vorerst wohl nur hinter verschlossenen Türen, wie die neuesten Gerüchte lauten. Der Öffentlichkeit soll die HD-5800-Serie demnach erst am 22. September präsentiert werden, dafür wird aber bereits mit einer gewissen Verfügbarkeit von ersten Grafikkarten gerechnet. Ob NVIDIA noch in diesem Jahr den G(T)300 auf den Markt bringen wird, ist jedoch leider noch unklar.
Man darf also sehr gespannt auf den kommenden Monat sein, wenn eine weitere Runde im ewigen Kampf der beiden großen GPU-Entwickler eingeläutet wird.

http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/12950-demos-von-nvidias-gt300-fuer-spaeten-september-geplant.html

Tig3r0023
30.08.2009, 18:40
Ich hab das mal gefunden und schreib es einfach mal hier rein.

GPU's in 6 Jahren bis zu 570 mal schneller!

http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2009/august/nvidia_gpu_jahren_570_mal/

LKrieger
30.08.2009, 18:44
Boa perv... "virtuelle Realität" Crysis 3 ich komme xD 8-)

Mfg LKrieger

Jaco_E
30.08.2009, 18:47
Und ich hab gerade wieder was über neues Namenswirrwar und Umbenennungen alter chips gelesen:
Quelle (http://www.gamestar.de/index.cfm?pid=398&pk=1958404&sortorder=asc&fp=3#liststart)

Da kann ich mich einen aus den Kommentaren nur anschließen:
Kundengespräch (http://www.youtube.com/watch?v=RL2N_Sx4PWk&hd=1)

LKrieger
30.08.2009, 18:53
Da kann ich mich einen aus den Kommentaren nur anschließen:
Kundengespräch (http://www.youtube.com/watch?v=RL2N_Sx4PWk&hd=1)

Aufhören - ich kann nimmer - das ja der OOOBERHAMMER. Hab mir das vorallem auch so gut vorstellen können - bin ja Verkäufer im Expert - was wäre wohl wenn ein Kunde zu mir kommt und mich nach soner Hardware fragt - Gott ich lieg am Boden :D:D:D :hammer::hammer:xD

Mfg LKrieger

Jaco_E
30.08.2009, 19:07
Ich hab's mir schon 4 mal angesehen http://www.web-smilie.de/smilies/ugly_smilies/ugly10.gif

Mittlerweile komm ich mir aber selbst so vor.
Ich verzweifel immer daran wenn ich Leuten erklären muss, dass eine 8800 GT besser ist als eine 9400 GT
Die wollen's mir nicht glauben - immerhin sei 9400 ja größer wie 8800 xD

LKrieger
30.08.2009, 19:13
Ich hab's mir schon 4 mal angesehen http://www.web-smilie.de/smilies/ugly_smilies/ugly10.gif

Mittlerweile komm ich mir aber selbst so vor.
Ich verzweifel immer daran wenn ich Leuten erklären muss, dass eine 8800 GT besser ist als eine 9400 GT
Die wollen's mir nicht glauben - immerhin sei 9400 ja größer wie 8800 xD

OK - manche Leute werden sich evtl daran aufhängen das eine 8800 GTX trotzdem schneller ist als eine 9400 gt und die Zahl trotzdem nieder is:roll:.

Aber hab mir halt echt gedacht ich steh im Expert und ein Kunde kommt und fragt mich aus heiterem Himmel nach soner Hardware - würde platzen vermutlich :-D:-D:-D

Mfg LKrieger

ZaCXeeD
31.08.2009, 19:27
DirectX-11-High-End Ende September?
Vorabpräsentation des GT300 durch Nvidia im September?


Will Nvidia möglicherweise AMD die Show stehlen und stellt in einer Vorabpräsentation den GT300 Ende September vor? (Thomas Kniess, 31.08.2009)

http://www.pcgameshardware.de/screenshots/250x375/2008/10/nvlogo.jpg





Während der RV870 bereits in den Startlöchern steht, hat Nvidia bis jetzt kaum Details des GT300 preisgegeben. Dies könnte sich bald ändern, denn ganz will man AMD das Feld der neuen GPUs wohl auch nicht überlassen. Laut brightsideofnews.com (http://www.brightsideofnews.com/news/2009/8/28/nvidia-plans-gt300-demos-for-late-september.aspx) soll Nvidia den GT300 Ende September einem kleinen ausgewählten Kreis (Grafikkartenherstellern und Presse) vorstellen.

Aufgrund der Tatsache, dass es sich bei dieser Vorstellung nur um eine Vorabpräsentation handeln dürfte, wird man auf die Verfügbarkeit (http://www.pcgameshardware.de/aid,693918/Vorabpraesentation-des-GT300-durch-Nvidia-im-September/Grafikkarte/News/#) des GT300 im Handel noch einige Zeit warten müssen.

Weitere Meldungen zum Thema:
• Nvidia und AMD: DirectX-11-fähige Dual-GPU-Grafikkarten in Planung? (http://www.pcgameshardware.de/aid,692777/Nvidia-und-AMD-DirectX-11-faehige-Dual-GPU-Grafikkarten-in-Planung/Grafikkarte/News/)
• Nvidia: GT300 soll angeblich mit 225 Watt TDP auskommen (http://www.pcgameshardware.de/aid,686768/Nvidia-GT300-soll-angeblich-mit-225-Watt-TDP-auskommen/Grafikkarte/News/)
• GT300: Erste Details zu Takt, Speicherbandbreite und Shadereinheiten der Geforce GTX 380 (http://www.pcgameshardware.de/aid,684826/GT300-Erste-Details-zu-Takt-Speicherbandbreite-und-Shadereinheiten-der-Geforce-GTX-380/Grafikkarte/News/)Quelle: http://www.pcgameshardware.de/aid,693918/Vorabpraesentation-des-GT300-durch-Nvidia-im-September/Grafikkarte/News/
(http://www.pcgameshardware.de/aid,693918/Vorabpraesentation-des-GT300-durch-Nvidia-im-September/Grafikkarte/News/)
Na da bin ich mal gespannt....

Black_Death
31.08.2009, 20:01
Ich denke mal Nvidia wusste schon lange im Vorraus das AMD die nächste Generation as erstes rasubringt. Dann haben sie einen guten Schachzug gemacht, in dem sie keine Details zu GT300 rausbrachten, um so kurz vor dem Erscheinen der AMD serie die Leute mit den Spezis des GT300 auf sich aufmerksam zu machen.

NAch dem Motto: "ui geil AMD 5870 is raus, kauf ich, halt ne das die Nvidia specs sind vieler geil, ich warte und spare für die.:-D"

xeonsys
31.08.2009, 20:04
mal sehen wie es mit dem strom wird weniger oder mehr?

Scaleo
31.08.2009, 20:07
Hmm schätze ma leicht erhöhter Stromverbrauch als die jetztige Generation..
Mehr Leistung = höhere Stromverbrauch, Kleinere Struktur = Weniger Stromverbrauch, deshalb denke ich das die Karten leicht mehr verbrauchen werden.

Mfg Scaleo

xeonsys
07.09.2009, 14:43
Neuer NVIDIA-Treiber gibt Auskunft über kommende Grafikkarten (http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/13005-neuer-nvidia-treiber-gibt-auskunft-ueber-kommende-grafikkarten.html)





Ob diese aber zu den DiretX-11-Karten zählen, ist nicht bekannt. Auch mögliche Spezifikationen fehlen bislang noch.
NVIDIA_DEV.0A29.01 = "NVIDIA GeForce (http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/13005-neuer-nvidia-treiber-gibt-auskunft-ueber-kommende-grafikkarten.html#) GT 330M"
NVIDIA_DEV.0A2B.01 = "NVIDIA (http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/13005-neuer-nvidia-treiber-gibt-auskunft-ueber-kommende-grafikkarten.html#) GeForce GT 330M"
NVIDIA_DEV.0A66.01 = "NVIDIA GeForce (http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/13005-neuer-nvidia-treiber-gibt-auskunft-ueber-kommende-grafikkarten.html#) 310"
NVIDIA_DEV.0A6E.01 = "NVIDIA GeForce 305M"
NVIDIA_DEV.0A75.01 = "NVIDIA GeForce 310M"
NVIDIA_DEV.0CAF.01 = "NVIDIA GeForce GT 335M"
NVIDIA_DEV.0CB0.01 = "NVIDIA GeForce GTS 350M"
NVIDIA_DEV.0CB1.01 = "NVIDIA GeForce GTS 360M"http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/13005-neuer-nvidia-treiber-gibt-auskunft-ueber-kommende-grafikkarten.html

Jaco_E
16.09.2009, 15:31
Mit der Ausbeute soll es ja nicht so dolle aussehen (http://www.gamestar.de/hardware/news/grafikkarten/1959028/nvidia.html).
Volle 1,7 %
Aber das fällt wohl eher unter Spekulation, denn unter Info.

CRYSISTENSE
16.09.2009, 16:10
Habe ich heute auch schon gelesen. Das ist wirklich etwas extrem, da wird AMD die Krone wohl etwas länger behalten können.

Baggibox
16.09.2009, 16:25
1,7% ?

Ich verstehe Bahnhof.

OWND
16.09.2009, 16:30
1,7% ?

Ich verstehe Bahnhof.

Die Verbesserung von DX10 auf DX11 denk ich mal.

Baggibox
16.09.2009, 16:33
Die Verbesserung von DX10 auf DX11 denk ich mal.

Ist das jetzt gut oder schlecht ? ^^

1337_alpha
16.09.2009, 16:35
Ist das jetzt gut oder schlecht ? ^^

Für NVidia schlecht

CRYSISTENSE
16.09.2009, 16:39
Moment, wir reden hier von der Ausbeute;) Das heißt: "Wie viele der hergestellten Chips laufen auch wirklich" Das sind momentan eben nur 1,7%. Die restlichen 98,3% sind Müll.


...Nvidia aus den ersten vier Wafern mit zusammen 416 Chips gerade einmal sieben brauchbare Exemplare enthalten haben.

Wenn das so bleiben würde, dürften wir wohl alleine für den Chip schon weit...weit weit mehr zahlen als z.B. für eine 5870x2. Das bedeutet im Endeffekt, dass wir länger auf die Karten warten müssen, da dieses Problem gelöst werden muss.

spYder
16.09.2009, 16:39
Die Leistungsverbesserung oder was.?

naja fast garnix ;)

Captain-S
16.09.2009, 16:45
Mit der Ausbeute soll es ja nicht so dolle aussehen (http://www.gamestar.de/hardware/news/grafikkarten/1959028/nvidia.html).
Volle 1,7 %
Aber das fällt wohl eher unter Spekulation, denn unter Info.

Gerüchte, Gerüchte,...
Immer das gleiche wenn eine neue High-End-GPU vor dem Launch steht.
Und wenn ich dann noch sehe dass der Artikel von Charlie Demerjian stammt, glaub ich erstmal garnichts.

1337_alpha
16.09.2009, 16:47
Gerüchte, Gerüchte,...
Immer das gleiche wenn eine neue High-End-GPU vor dem Launch steht.
Und wenn ich dann noch sehe dass der Artikel von Charlie Demerjian stammt, glaub ich erstmal garnichts.

Gerüchte? Das ist durchaus realistisch

Captain-S
16.09.2009, 17:04
Gerüchte? Das ist durchaus realistisch
Charlie Demerjian vom Inquirer berichtet grundsätzlich negativ über Nvidia.
Dies hängt damit zusammen, dass er von den meisten Nvidia-Events ausgeschlossen wurde.
Vielleicht war er ja bei TSMC und hat selbst nachgezählt... :grin:

Noname
17.09.2009, 10:17
Soviel zum "Verschleißgerücht"



Nvidia

DirectX-11-Chip mit Problemen? (Update)

http://www.gamestar.de/img/0.gif http://www.gamestar.de/img/0.gif http://images.idgentertainment.de/images/idgwpgsgp/bdb/99335/152x.jpg (javascript:MM_Image(10,99335,1959028,'',398);)

http://www.gamestar.de/img/gs/white/icon_lupe.gif (javascript:MM_Image(10,99335,1959028,'',398);) Nvidia http://www.gamestar.de/img/0.gif Wie SemiAccurate (http://www.semiaccurate.com/2009/09/15/nvidia-gt300-yeilds-under-2/) meldet, soll die Anzahl der tatsächlich brauchbaren GT300-Grafikchips, die Nvidia (http://www.gamestar.de/hardware/news/grafikkarten/1959028/nvidia.html#) bei der ersten Herstellung erhalten hat, selbst pessimistische Schätzungen noch unterbieten. Sind 20 Prozent Ausbeute bereits recht niedrig, aber noch im Rahmen, soll Nvidia aus den ersten vier Wafern mit zusammen 416 Chips gerade einmal sieben brauchbare Exemplare enthalten haben. Das sind weniger als 1,7 Prozent.

Laut SemiAccurate sei damit sogar in Frage gestellt, ob Nvidia mit so wenigen Chips überhaupt Tests und Fehlerbereinigungen im benötigten Umfang vornehmen kann. Damit könnte sich auch die Markteinführung der DirectX-11-Karten von Nvidia verzögern.

Update 17. September 2009

Wie Fudzilla (http://www.fudzilla.com/content/view/15535/1/) meldet, soll die Markteinführung des GT300 von Nvidia wohl nach wie vor im November stattfinden, was zu den webweiten Meldungen über eine extrem schlechte Ausbeute bei der Produktion aber nicht so recht passt. Auch andere Quellen mit eigenen, guten Beziehungen in der Branche, wie beispielsweise Kyle Bennett (http://www.hardforum.com/showthread.php?p=1034622662) von HardOCP, bestätigen die Produktionsprobleme von Nvidia.

Immerhin soll der GT300 laut Personen, die Leistungsdaten des neuen Chips gesehen haben, die Radeon (http://www.gamestar.de/hardware/news/grafikkarten/1959028/nvidia.html#) HD 5870 des Konkurrenten ATI sicher schlagen. Dies würde sich dann natürlich auch auf eine Dual-Karte mit zwei Grafikchips beziehen, die die geplante Radeon HD 5870 X2 übertreffen könnte.

Quelle (http://www.gamestar.de/hardware/news/grafikkarten/1959028/nvidia.html)



Gruß
Noname

Jaco_E
17.09.2009, 15:33
Gut dass du es nochmal hier rein kopierst, dann bekommen es auch die zu Gesicht, die nicht fähig sind einen Link zu klicken :p

Verschleiß ist das Abnutzen durch Gebrauch. Die hier sind noch nichtmal gebraucht worden, weil sie von vorn herein Mist waren
(gesetz dem Fall, dass die Gerüchte stimmen).

Allerdings heißt es ja auch: "[...] bei der ersten Herstellung erhalten hat [...]".
Kann sich ja geändert haben und wer weiß wann die erste Herstellung war :-|

HunT
19.09.2009, 00:09
Naja, die Chips werden in so einer Art "Testphase" hergestellt, da wird sich eh noch einiges tun (müssen). Das Problem dabei liegt einfach daran, dass man immer wieder versucht, möglichst viel Leistung auf möglichst wenig Fläche zu bekommen. Mit dem bisher verwendetem Material wird das allmählich immer schwieriger.

Nvidia bekommt das schon hin.

Desweiteren kann ich es IMMER WIEDER betonen: Meldungen vom INQ bezüglich Nvidia sind MÜLL, MÜLL und nochmals MÜLL, weil da alles Nvidia feindliche Redakteure hinter sitzen. ATI Fanboys, wenn man so will.

HarryRulez
25.09.2009, 14:17
Nvidia

DirectX-11-Chip mit Problemen? (Update2)

Update 25. September 2009

Wie Fudzilla (http://www.fudzilla.com/content/view/15689/1/) meldet, hat ein Senior Manager von Nvidia ihnen gegenüber ausgesagt, dass die Ausbeute bei der Herstellung in 40nm gut sei und die Gerüchte, die im Umlauf sind, jeder Grundlage entbehren würden.

Außerdem will man erfahren (http://www.fudzilla.com/content/view/15688/1/) haben, dass es für Nvidia kein Problem darstellen dürfte, Ende November oder zumindest im Dezember mit der Auslieferung der eigenen DirectX-11-Karten mit GT300-Grafikchip zu beginnen. Nvidia könnte die Karten sogar vorher vorführen, um Interessenten nicht ins ATI-Lager wechseln zu lassen.

Quelle: http://www.gamestar.de/index.cfm?pid=398&pk=1959028&sortorder=asc&fp=6#liststart

Möge der Kampf beginnen^^ :razz:

Blue Dragon
25.09.2009, 14:38
jear seh ich genau so
möge der kampf beginnen:twisted:
ich muss wegen meinem geld so oder so bis dezember warten und hab sowie so damit gerechnet das sie dann rauskommen8-)

ich hoffe doch noch für nvidia das sie ati weghauen:twisted::twisted::twisted:

jupph
26.09.2009, 19:25
Grad auf PCGH.de (http://www.pcgameshardware.de/aid,696035/Kommt-Nvidias-GT300-erst-im-Dezember-09/Grafikkarte/News/) gelesen:



Während die Verfügbarkeit von AMDs neuer Grafikkartengeneration zunehmend steigen sollte, steht der genaue Erscheinungstermin von Nvidias GT300 immer noch in den Sternen. So werden - laut vr-zone.com - Nvidias erste DirectX-11-Grafikchips gegen Ende dieses Jahres (genauer Dezember 2009) erwartet. Wie gewohnt sollen zu erst Enthusiasten mit einem High-End-Modell bedient werden, Mainstream- und Einsteiger-Karten sollen im zweiten Quartal 2010 folgen.

Ein weiteres Gerücht dreht sich um die angeblich schlechte Ausbeute der GT300-Chips - welches vermutlich auf eine übernommene Story von BSN (brightsideofnews.com) zurück zu führen ist, die ihrerseits auf einem Übersetzungsfehler aus dem Japanischen basieren soll (Monatszahlen wurden zu Prozentangaben uminterpretiert). Ein ungenannter Senior Manager soll nun zumindest diese Meldung dementiert haben. Laut vr-zone.com seien die Gerüchte als "haltlos" abgestempelt und mit den Worten "Our 40nm yields are fine" entkräftet worden.

Noname
26.09.2009, 20:58
Wie gewohnt sollen zu erst Enthusiasten mit einem High-End-Modell bedient werden, Mainstream- und Einsteiger-Karten sollen im zweiten Quartal 2010 folgen.


einfach nur >>


EPIC FAIL²²²²²²
Siehe oben.. Bin genauso so ein "NV Jünger" aber diesmal hat NV verrissen! Ich meine wenn man die höhsten Markanteile hat und Geld dazu.. dann sollte man sich nicht ausruhen-.- aber bitte.. es war prophezeit wurden...
ATI kam mit der HD4xxx Serie mehr als eindrucksvoll an NV ran... mit der HD5xxx gehen sie vorbei... und die Marktanteile werden den kommenden Monaten gute 20% sinken, denn wer die ersten Grakas einer neuen DX Generation ganz oben stehen hat, der beherrscht fast schon das aktuelle Geschehen.. siehe damals die 88GTX bis heute... ATI kam ran, aber nicht vorbei.....

Aber jetzt ist es vorbei.. erst hieß es die beiden kommen gleichzeitig auf den Markt, dann kommt der GT300 bis Weihnachten noch nichtmal sicher auf den Mark.. dann bietet ATI wieder ein P/L Verhältnis was NV niemals geben würde.


Und wenn ich dann von einem Release von 2.Quartal 2010 lese...
NV Geld reagiert die Welt. Aber nicht Geld geht über Alles, sondern Wissen (Klugheit / Dummheit). Das ganze Geld bringt GAR NICHTS.. wenn der Abstand ja so groß zu ATI war, dass man sich als NV mal eben nen Abstand von 6-8Monaten gönnen sollte!

Danke NV ich pfeif auf den GT300.. wird sowieso ne Lachnummer. Hol ich mir doch liebe ne HD5870 :roll: traurig. Aber so kann man auch seine Kunden verlieren. :(


Gruß
Noname

LKrieger
26.09.2009, 21:02
einfach nur >>



Und wenn ich dann von einem Release von 2.Quartal 2010 lese...
NV Geld reagiert die Welt. Aber nicht Geld geht über Alles, sondern Wissen (Klugheit / Dummheit). Das ganze Geld bringt GAR NICHTS.. wenn der Abstand ja so groß zu ATI war, dass man sich als NV mal eben nen Abstand von 6-8Monaten gönnen sollte!

Danke NV ich pfeif auf den GT300.. wird sowieso ne Lachnummer. Hol ich mir doch liebe ne HD5870 :roll: traurig. Aber so kann man auch seine Kunden verlieren. :(


Gruß
Noname

OK!? - wie du meinst - ich bleib bestehen :D
Lieber ein paar Monate Verspätung und dann was gescheites - als was unausgereiftes. Bin und bleibe einfach der Meinung. Wenns dafür was gescheites wird bin ich auch wieder gern bereit mehr dafür auszugeben...

Mfg LKrieger

Cephei
26.09.2009, 21:10
...

Gruß
Noname

Was redest du?

xeonsys
28.09.2009, 15:03
GT300 is codenamed Fermi
Named after a nuclear reactor



The chip that we ended up calling GT300 has internal codename Fermi. The name might suit it well as Enrico Fermi was the chap that came up with the first nuclear reactor.
The new Nvidia chip is taped out and running, and we know that Nvidia showed it to some important people. The chip should be ready for very late 2009 launch. This GPU will also heavily concentrate on parallel computing and it will have bit elements on chip adjusted for this task. Nvidia plans to earn a lot of money because of that.
The chip supports GDDR5 memory, has billions of transistors and it should be bigger and faster than Radeon HD 5870. The GX2 dual version of card is also in the pipes. It's well worth noting that this is the biggest architectural change since G80 times as Nvidia wanted to add a lot of instructions for better parallel computing.
The gaming part is also going to be fast but we won’t know who will end up faster in DirectX 11 games until we see the games. The clocks will be similar or very close to one we've seen at ATI's DirectX 11 card for both GPU and memory but we still don't know enough about shader count and internal structure to draw any performance conclusions.
Of course, the chip supports DirectX 11 and Open GL 3.1

http://www.fudzilla.com/content/view/15719/1/

1337_alpha
28.09.2009, 18:03
Oh oh

Named after a nuclear reactor
Das lässt hoffen... :D

Jodasalz
28.09.2009, 18:18
Oh oh

Named after a nuclear reactor
Das lässt hoffen... :D

Naja... auf was das hoffen lässt kann ich mir denken. Ich hoffe für NV user das es nicht heisst das man nen Reaktor braucht um das ding zu betreiben. Klar die ATI 5*** sind auch nicht unbedingt Spaarsam aber ich finde für die Leistung ist es erträglich.



OK!? - wie du meinst - ich bleib bestehen :D
Lieber ein paar Monate Verspätung und dann was gescheites - als was unausgereiftes. Bin und bleibe einfach der Meinung. Wenns dafür was gescheites wird bin ich auch wieder gern bereit mehr dafür auszugeben...

Mfg LKrieger

Das musst mir erklären oO
Was ist denn an der ATI 5*** reihe nicht gescheit? Eine Single GPU Karte hat fast die Leistung der besten NV Dual GPU Karte bei weit weiger Anschaffungskosten und weniger Stromverbrauch.


just my 2 cents

1337_alpha
28.09.2009, 18:20
Das musst mir erklären oO
Was ist denn an der ATI 5*** reihe nicht gescheit? Eine Single GPU Karte hat fast die Leistung der besten NV Dual GPU Karte bei weit weiger Anschaffungskosten und weniger Stromverbrauch.


just my 2 cents

Muss ich dir zustimmen
Ein wenig sachlich sollte man schon bleiben, denn ich wüsste nicht was an der ATI unausgereift ist ;)

LandsHeer
28.09.2009, 18:48
Die grafikkarten die im dezember kommen, das sind also die high-end modelle die ein wenig mehr kosten aber auch ordneltich power haben sollen richtig ?

Sind die denn ueberhaupt auch richtig ausgereift, denn wenn dann die low teile im 2. quartal kommen, dann muessten die ja ein wenig besser vom bau her sein oder ? :S

Black_Death
28.09.2009, 19:03
@LandsHeer: Ja die Karten die spekulationsmäßig im September erscheinenden Karten sind die High-end Modell, also auch spekulativ die GTX380 und GTX360.

Man weiß aber nicht ob Nvidia wieder wie beim G200 chip eine verbesserte Version ala GTX 285 und GTX275 rasu bringt. Deswegen warte ich eingie Zeitlang nach Realese. Eventeull steig ich auch auf ATi um.

All diese daten sind Spekulationen und wurden noch nicht richtig bestätigt.

LKrieger
29.09.2009, 07:51
Das musst mir erklären oO
Was ist denn an der ATI 5*** reihe nicht gescheit? Eine Single GPU Karte hat fast die Leistung der besten NV Dual GPU Karte bei weit weiger Anschaffungskosten und weniger Stromverbrauch.


just my 2 cents

NV stand ab dem G80 bisher einfach für mehr Qualität - ob man das jetzt warhaben will oder nicht. Ich merke es jedenfalls bei uns im Geschäft, bei mir selbst zu Hause und höre es überall. Kann mir also keiner ne andere Meinung einreden, der vllt gerademal 3 Karten von ATI hatte und damit bisher zufrieden war ;).

Egal BTT!

Bin jedenfalls mal sehr gespannt wann NV den release plant. Können sich derzeit sowieso noch Zeit lassen, habs noch nicht so eilig :lol::roll:.

Mfg LKrieger

HarryRulez
29.09.2009, 08:23
Egal BTT!

Bin jedenfalls mal sehr gespannt wann NV den release plant. Können sich derzeit sowieso noch Zeit lassen, habs noch nicht so eilig :lol::roll:.

Mfg LKrieger

Sehe ich mal genau so, mir kanns erstmal egal sein. Werde eh noch nicht umrüsten. Vielleicht in 2 Jahren, dann hat sich dx11 vielleicht durch gesetzt!!

Mellow
29.09.2009, 09:15
jear seh ich genau so
möge der kampf beginnen:twisted:
ich muss wegen meinem geld so oder so bis dezember warten und hab sowie so damit gerechnet das sie dann rauskommen8-)

ich hoffe doch noch für nvidia das sie ati weghauen:twisted::twisted::twisted:

ati hat den kampf doch schon gewonnen vorrausgesetzt die sorgen dafür das die neue hd5000 serie auch jetzt sprich die nächsten tage ohne engpässe lieferbar ist!
viele wie ich zb. haben noch eine 8800 gts 512 oder vergleichbares und sind nicht auf eine 260 gtx umgestiegen weil der leistungsschub zu gering ist.
aber jetzt wo ati hat die bombe platzen lassen und ich für lächerliche 293 euro eine hd5870 bekomme und zu gleich über 50% mehr leistung bekomme und dann sind die dinger auch noch besser für aa in vielen spielen, ist ati für mich der klare gewinner!
ich selbst hatte noch nie eine ati karte und war schon mit der geforce 4200 unterwegs und glücklich - das wird sich jetzt ändern ;)

greetz^^

Lobos
29.09.2009, 10:32
Naja das wichtigste für einen Grafikkarten Entwickler wie AMD und Nvidia ist, so viele Grafikkarten zu verkaufen wie es nur geht. Und wie macht man das am besten? Ganz klar mit den Einsteiger- und Mittelfeld-Karten. Der geringste Gewinn wird über die Hightech Karten gewonnen. AMD ist deshalb der klare Sieger und brauch sich vor Nvidia nicht wirklich verstecken, AMD haut seine zwei Karten raus und hat vor dem release der Nvidia noch die X2 Karte, welche ausreichend Leistung bringt. Sobald Nvidia ihre neuen Karten verkauft (zu beginn meist sehr teuer und wer weiß schon ob es NV schafft die Karten dieses Jahr noch zu liefern?!), kann AMD den Preis drücken und hält auf langer Sicht das beste Preis-Leistung-Verhältnis. Kontert Nvidia gegen die X2 von AMD, kann AMD vielleicht schon sehr kurz danach mit einer neuen Karte kontern. Die meisten Abverkäufe bleiben wohl oder übel bei AMD. Da interessiert es kaum noch jemanden ob Nvidia die schnellsten sind.

Viele Gamer springen vom dem Pc Segment ab und wechseln wegen des dauernden Aufrüsten zu den Konsolen wie Xbox360 oder Ps3. Der Trend wird immer deutlicher und da kann jeder sagen was er will es ist einfach Fakt! Die hohe Auflösung beim Pc mit AA und AF zieht einfach nicht mehr. Die Konsolen sind im Stande mit der Pc Grafik zu konkurrieren. Schaut euch mal die Texturen von Uncharted 2 an, oder die Grafik von GranTurismo, oder Heavy Rain. Das sind nur wenige Beispiele und die Liste ist noch lang. Dagegen wird die Pc Spiel Liste immer kleiner, was auch nicht ganz unschuldig sein dürfte ist das viele Entwickler wissen das sie mehr Umsatz mit Konsolen spielen machen

Wollte damit nur meine Sicht los werden, wobei es immer deutlicher wird das die wenigsten sich das leisten können ihren Pc alle 2 Jahre mit Power Komponenten aufzurüsten nur um in einem Spiel 30FPS+ mehr zu haben. Ich habe mir dieses Jahr nach dem Unfall meines Pc´s auch Gedanken darüber gemacht das es kaum noch Sinn macht immer das teuerste und neueste zu kaufen. Wenn ich spielen will dann auf Konsole und zum arbeiten reicht ein normaler Pc mit Dualcore und 4GB Ram mit einer 8800 oder 4650 voll aus.

HunT
29.09.2009, 10:56
einfach nur >>



Und wenn ich dann von einem Release von 2.Quartal 2010 lese...
NV Geld reagiert die Welt. Aber nicht Geld geht über Alles, sondern Wissen (Klugheit / Dummheit). Das ganze Geld bringt GAR NICHTS.. wenn der Abstand ja so groß zu ATI war, dass man sich als NV mal eben nen Abstand von 6-8Monaten gönnen sollte!

Danke NV ich pfeif auf den GT300.. wird sowieso ne Lachnummer. Hol ich mir doch liebe ne HD5870 :roll: traurig. Aber so kann man auch seine Kunden verlieren. :(


Gruß
Noname

Ungeduld wird meist nie belohnt. Schon alleine deswegen, dass der GT300 später rauskommt, muss er schneller sein als die Konkurenz, denn sonst schießt sich Nvidia ins eigene Knie und das wissen die auch. Naja, meine GTX 280 reicht mir derzeit, weshalb ich erstmal nichts von beiden brauche.

Aerox
29.09.2009, 11:35
hab grad auf pcgh.de ein neues Gerücht gelesen, dass die GT300 die 300W.Marke knacken wird...

Link: http://www.pcgameshardware.de/aid,696154/GT300-Neue-Geruechte-zu-Nvidias-DirectX-11-Chip-mit-Codenamen-Fermi/Grafikkarte/News/

Falls das stimmt, dann werd ich auf DX12 warten, wo eine GRAKA in IDLE weniger als 1 Watt verbraucht und unter Games nur 100W mit 50fachen SPeed als jetzt :D

spYder
29.09.2009, 11:44
oha ^^

schneller als die 5870 X2. ^^

Fusion145
29.09.2009, 18:39
Ungeduld wird meist nie belohnt. Schon alleine deswegen, dass der GT300 später rauskommt, muss er schneller sein als die Konkurenz, denn sonst schießt sich Nvidia ins eigene Knie und das wissen die auch. Naja, meine GTX 280 reicht mir derzeit, weshalb ich erstmal nichts von beiden brauche.

Problem ist nur das sie die genaue Geschwindigkeit der HD5xxx Serie nicht kannten, und jetzt wo sie bekannt ist können sie nicht mehr wirklich viel am GT300 ändern, etwa sie haben mit der Leistung der neuen ATis gerechnet oder sie haben halt Pech...

Das soll doch ein Witz sein das Nvidia für Qualität steht, oder?
Die haben selbst zu gegeben das sie ab den 200er qualitativ schlechtere Teile verbaut haben um die Karten rentabel zu machen. Und das merkt man den Karten auch an (jede 2 Karte fiept vor sich hin):roll:

Und nein ich bin kein ATi Fanboy ich sehe es einfach realistisch, wenn Nvidia eine Qualitativ/Leistungsstärkere Grafikkarte als ATi raus bringt und das auch noch zu einem annehmbaren Preis dann würde ich natürlich auch klar diese vorziehen...

Naja mal gucken was wie eine Grafikkarte Nvidia da auf den Markt bringt, viel bestätigtes ist ja noch nicht bekannt

JamDeluxe
29.09.2009, 18:56
Ihr macht es euch viel zu kompliziert. Kauft einfach jede Grafikkarte einmal und tauscht sie aus wenn ihr mal was neues wollt :ugly:

Naja, ich denke jetzt was richtiges zu schreiben würde nichts bringen denn das meiste ist schon gesagt. Wir können jetzt nurnoch abwarten was Nvidia da bringt.

Klar ist aufjedenfall jetzt schon:
Jede Karte wird ihre Vor- und Nachteile haben das ist auch schon bei Konsolen so das wird sich auch niemals ändern!

Hepta
29.09.2009, 18:56
Naja das wichtigste für einen Grafikkarten Entwickler wie AMD und Nvidia ist, so viele Grafikkarten zu verkaufen wie es nur geht. Und wie macht man das am besten? Ganz klar mit den Einsteiger- und Mittelfeld-Karten. Der geringste Gewinn wird über die Hightech Karten gewonnen. AMD ist deshalb der klare Sieger und brauch sich vor Nvidia nicht wirklich verstecken, AMD haut seine zwei Karten raus und hat vor dem release der Nvidia noch die X2 Karte, welche ausreichend Leistung bringt. Sobald Nvidia ihre neuen Karten verkauft (zu beginn meist sehr teuer und wer weiß schon ob es NV schafft die Karten dieses Jahr noch zu liefern?!), kann AMD den Preis drücken und hält auf langer Sicht das beste Preis-Leistung-Verhältnis. Kontert Nvidia gegen die X2 von AMD, kann AMD vielleicht schon sehr kurz danach mit einer neuen Karte kontern. Die meisten Abverkäufe bleiben wohl oder übel bei AMD. Da interessiert es kaum noch jemanden ob Nvidia die schnellsten sind.

Viele Gamer springen vom dem Pc Segment ab und wechseln wegen des dauernden Aufrüsten zu den Konsolen wie Xbox360 oder Ps3. Der Trend wird immer deutlicher und da kann jeder sagen was er will es ist einfach Fakt! Die hohe Auflösung beim Pc mit AA und AF zieht einfach nicht mehr. Die Konsolen sind im Stande mit der Pc Grafik zu konkurrieren. Schaut euch mal die Texturen von Uncharted 2 an, oder die Grafik von GranTurismo, oder Heavy Rain. Das sind nur wenige Beispiele und die Liste ist noch lang. Dagegen wird die Pc Spiel Liste immer kleiner, was auch nicht ganz unschuldig sein dürfte ist das viele Entwickler wissen das sie mehr Umsatz mit Konsolen spielen machen

Wollte damit nur meine Sicht los werden, wobei es immer deutlicher wird das die wenigsten sich das leisten können ihren Pc alle 2 Jahre mit Power Komponenten aufzurüsten nur um in einem Spiel 30FPS+ mehr zu haben. Ich habe mir dieses Jahr nach dem Unfall meines Pc´s auch Gedanken darüber gemacht das es kaum noch Sinn macht immer das teuerste und neueste zu kaufen. Wenn ich spielen will dann auf Konsole und zum arbeiten reicht ein normaler Pc mit Dualcore und 4GB Ram mit einer 8800 oder 4650 voll aus.
Du hast absolut recht.

Hinzu kommt leider auch noch, dass die Piraterie-Szene beim PC um Einiges stärker ist als auf den Konsolen (nicht zuletzt wegen der relativen Einfachheit). Piraterie ist ja eigentlich auch der einzige plausible Grund, weshalb Spiele für PCler nach hinten verschoben werden (wie Assassins Creed 2, von dem ich eigentlich seit September die Black-Edition vorbestellt habe aber jetzt ernsthaft mit dem Gedanken spiele, diese Bestellung zu stornieren - einfach deshalb, weil ich micht wirklich von Ubisoft [ein weiteres mal] verarscht fühle!).

Der PC ist, als Spieleplattform, dem Untergang geweiht - vorrausgesetzt, der momentane Trend wird weiter anhalten.

HunT
29.09.2009, 19:07
Das soll doch ein Witz sein das Nvidia für Qualität steht, oder?
Die haben selbst zu gegeben das sie ab den 200er qualitativ schlechtere Teile verbaut haben um die Karten rentabel zu machen. Und das merkt man den Karten auch an (jede 2 Karte fiept vor sich hin):roll:

Was hat das das Fiepen mit dem Chip an sich zu tun?

Hepta
29.09.2009, 19:12
Was hat das das Fiepen mit dem Chip an sich zu tun?
Naja das "nVidia steht für Qualität" war ja schließlich für die ganze Grafikkarte gedacht, würd ich mal sagen. Denn für die Qualität des Chips is immerhin größtenteils der Hersteller, TSMC, verantwortlich - wenn die pfuschen, is wieder im endeffekt die ganze Grafikkarte fürn Hugo.

Ich kann eigentlich der Aussage "nVidia steht für Qualität" auch nur beistimmen - die haben seit dem G80 wirklich die nase vorn.

Aber AMD is, wies auch schon gesagt wurde, P/L-Meister.

LKrieger
29.09.2009, 20:01
Meiner Meinung sind die nur "P" Meister ;) - weil Leistung bekomm ich mehr bei der Konkur (Rest erklär ich gerne in ICQ oder nach Absprache im Chat)... Aber jetzt mal Ruhe hier! Sonst geht das geflame der beiden Parteien wieder los! Bin eh am überlegen ob wir dazu lieber einen neuen Thread starten sollen - da das sonst wieder ausartet - die letzen beiden Seiten hab ich fast nurnoch ATI hier gelesen - und der Thread heißt ja NVidia GT300 infos/Spekulationen. Genauso möchte ich nicht das NV im ATI Thread steht! Als unwissender sucht man hier Infos und stößt nur auf flame bzw 2 Parteien die Probleme beim anderen suchen xD.

BTT also!

300 Watt is natürlich schon heftig unter Last. Bleibt die Frage offen wie es ausschaut wenn die Karte im Idle läuft. Ich meine Verbrauch darf ruhig hoch sein, wenn Leistung passt, dafür is es schließlich das High-End Modell von NV. Wenn man nicht sone hohe Stromrechnung haben will - wartet man halt auf die Mainstream Karten die dann angepasster sind. Abzuwarten ist, wie es da mit der Energie/Leistung ausschaut. Wie gesagt das wichtige ist Idle/Last.
Wenn die Karte allerdings 300 Watt verbraucht wird wohl wieder ein 6 und ein 8 pin PCIe Stromstecker fällig werden oder sogar 2x8 pin (Spekulation). Für das High-End Modell sollte man also wieder ein ordentliches Netzteil von mindestens 600 Watt einberechnen (kommt natürlich viel auf den restlichen Komponenten an).
Bin trotzdem SEHR gespannt was uns da NV dann auf den Tisch wirft. Ich werde aufjedenfall die Karte testen und direkt Bericht erstatten!

Mfg LKrieger

HarryRulez
30.09.2009, 17:14
DirectX 11 mit GF100 statt GT300?

Im Beyond3D-Forum (http://forum.beyond3d.com/showthread.php?p=1341596#post1341596) ist unscharf gemachtes Bild einer Nvidia-Präsentation aufgetaucht, das einen Grafikchip mit der Bezeichnung GF100 und dessen Aufbau zeigt. Die Spekulationen gegen davon aus, dass GF für Geforce (http://www.gamestar.de/hardware/news/grafikkarten/1959323/nvidia.html#) Fermi steht, ebenso wie GT Geforce Tesla bedeutet. Erst vor einigen Tagen war der Codename Fermi (http://www.gamestar.de/hardware/news/grafikkarten/1959279/nvidia.html) für den DirectX-11-Chip von Nvidia (http://www.gamestar.de/hardware/news/grafikkarten/1959323/nvidia.html#) bekannt geworden.

Die Nutzer von Beyond3D haben Vergleiche mit anderen Präsentationen herangezogen und versucht, den Text auf dem Bild zu analysieren und vermuten einen nei TSMC in 40 nm hergestellten Chip mit 3 Milliarden Transistoren, 512 Shadern und einem 384-Bit-Speicherinterface für GDDR5. Ob diese Spekulationen nah an der Wahrheit sind, ist natürlich noch unbekannt. Beyond3D ist jedoch für große Sachkenntnis in Sachen Grafik bekannt

GPU specifications
This is the meat part you always want to read fist. So, here it how it goes:
* 3.0 billion transistors
* 40nm TSMC
* 384-bit memory interface
* 512 shader cores
* 32 CUDA cores per Shader Cluster
* 1MB L1 cache memory
* 768KB L2 unified cache memory
* Up to 6GB GDDR5 memory
* Half Speed IEEE 754 Double Precision


Quelle:

http://www.gamestar.de/hardware/news/grafikkarten/1959323/nvidia.html

Dark9
30.09.2009, 17:28
Noch in diesem Jahr will Nvidia (http://winfuture.de/news,50284.html#) eine neue Grafikkarten-Generation in den Handel bringen. Sie hört auf den Codename "GT300". Jetzt tauchte ein verschleiertes Architektur-Diagramm im Forum von 'Beyond3d.com (http://forum.beyond3d.com/showpost.php?p=1341596&postcount=2552)' auf, das die Gerüchte ins Rollen brachte.

Offenbar will man sich leistungsmäßig deutlich von AMD absetzen. Dafür sollen mehr als drei Milliarden Transistoren sowie bis zu sechs Gigabyte (http://winfuture.de/news,50284.html#) GDDR5-Speicher sorgen. Dies ist dank der 40-Nanometer-Fertigung von TSMC möglich. Im alten Verfahren hätte dies zu einem riesigen Grafikchip mit einem sehr großen Energiehunger geführt.



http://o0.winfuture.de/www/delivery/lg.php?bannerid=483&campaignid=124&zoneid=99&loc=1&referer=http%3A%2F%2Fwinfuture.de%2Fnews%2C50284.h tml&cb=e5bb181256

Sechs 64Bit-Speichercontroller sollen ein 384 Bit breites Speicherinterface realisieren. Damit kann der GDDR5-Speicher angesteuert werden. Je nach Modell werden davon 1,5, 3,0 oder sogar 6,0 Gigabyte verbaut. Zudem hat Nvidia die Anzahl der Shader mit 512 Einheiten mehr als verdoppelt, verglichen mit den aktuellen Spitzenmodellen der 200er-Serie.

Ob diese Gerüchte der Wahrheit entsprechend, wird sich womöglich schon in Kürze herausstellen. Laut einem Bericht der Webseite 'Fudzilla (http://www.fudzilla.com/content/view/15741/1/)' will der Nvidia-Chef Jen-Hsun Huang bereits heute im Rahmen seiner Keynote auf der GPU Technology Conference die neue Grafikkarte (http://winfuture.de/news,50284.html#) vorführen.


http://winfuture.de/news,50284.html (http://winfuture.de/news,50284.html)

xeonsys
30.09.2009, 20:52
http://www.nvidia.com/object/gpu_technology_conference.html

Wednesday 9/30
1:00 PM PT

Opening Keynote with Jen-Hsun Huang
müsste allso bald losgehen,

Hepta
30.09.2009, 20:56
GPU specifications
This is the meat part you always want to read fist. So, here it how it goes:
* 3.0 billion transistors
* 40nm TSMC
* 384-bit memory interface
* 512 shader cores
* 32 CUDA cores per Shader Cluster
* 1MB L1 cache memory
* 768KB L2 unified cache memory
* Up to 6GB GDDR5 memory
* Half Speed IEEE 754 Double Precision
Die Info kommt von Fudzilla, sollte man dazu schreiben.

xeonsys
30.09.2009, 20:59
morgen wissen wir mehr.8)

Ovomaltine
30.09.2009, 21:01
6gb DDR5 speicher ?! lol wie gut das atm net mal nen unterschied zwischen 1024 und 2048 MB ram bei ner graka besteht, zumindest laut benches nicht ;-)
niemals stimmt das, wär schon nen bissle krank wenn nvidia einfach mal so von 1gb gleich auf 6gb speicher geht lol

Hepta
30.09.2009, 21:02
morgen wissen wir mehr.8)
Kann man nur hoffen:)

Aber im Ernst: Findet ihr nicht die "up to 6 GiB GDDR-5-RAM" ein bisserl heftig?

Für mich hört sich das nach ub0r-überdimensioniert an, ganz im Ernst.

xeonsys
30.09.2009, 21:18
mehr infos

http://www.pcgameshardware.de/aid,696334/G300-Fermi-Nvidia-fokussiert-GPU-Computing-mit-Next-Gen-Grafikkarte/Grafikkarte/News/

HunT
30.09.2009, 21:57
LOL, wenn das wahr sein sollte, erwartet uns ein echtes Leistungsmonster mit dem GT300, rein theorietisch 2,5 - 3fach so schnell wie der GT200...die 6GB Speicher sind ein bisschen viel für heutige Verhältnisse...ich rechne eher mit 2GB...aber mal abwarten.

Fusion145
30.09.2009, 22:04
Die meistens Infos wurden jetzt von Nvidia selbst bestätigt:
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2009/september/offiziell_fermi_gt300/

Und hier noch eine PDF zur "Fermi" Architektur:
http://www.nvidia.com/content/PDF/fermi_white_papers/NVIDIAFermiArchitectureWhitepaper.pdf

JamDeluxe
30.09.2009, 22:10
Klingt verdammt teuer und überdimensioniert von der Größe her.

E1ite-Marc0
30.09.2009, 22:55
Der GT300 wird ja ne richtige Penisvergrößerungsmaschine in Benches... :D
MfG
Marc0

HunT
30.09.2009, 23:01
Wenn ich das meinem Freundeskreis erzähle, werden die vergessen haben, dass es eine HD5870 gibt. :-D

LKrieger
30.09.2009, 23:19
Boa hätte schon gedacht das einige von den Spekulationen wahr werden - aber gleich alle xDDDDDDD

Karte/n sind zu 100% gekauft!

Mfg LKrieger

spYder
30.09.2009, 23:26
Das is uborgeil :D

Warfrog
01.10.2009, 00:05
http://www.pcgameshardware.de/screenshots/250x375/2009/09/Nvidia_Fermi_PCGH_7.JPG

Meine Fresse! Also die Specs. sind mal echt überausserirdisch.
Da kann ATi echt einpacken... Verdammt 512 Kerne OMG

Sensman
01.10.2009, 00:08
Hoffentlich passt die bei mir rein. :<

Black_Death
01.10.2009, 00:53
Großes BIld

http://www.pcgameshardware.de/screenshots/original/2009/09/Nvidia_Fermi_PCGH_7.JPG

CRYSISTENSE
01.10.2009, 06:27
Nur eine 8Pin-Buchse o.O

http://www.abload.de/img/2z6yrzn5zi0.jpg (http://www.abload.de/image.php?img=2z6yrzn5zi0.jpg)

Flying_Dragon
01.10.2009, 06:30
Lol? Nur eine 8Pin Buchse oO
Das ist echt übel... Kann ich mir allerdings nicht vorstellen.... Die Karte frisst ja schon 300Watt und ich denke nicht das die dann mit einem 8 Pin hinkommt

Lobos
01.10.2009, 06:52
http://www.pcgameshardware.de/screenshots/250x375/2009/09/Nvidia_Fermi_PCGH_7.JPG

Meine Fresse! Also die Specs. sind mal echt überausserirdisch.
Da kann ATi echt einpacken... Verdammt 512 Kerne OMG

So eine Aussage kann ja nur ein Nvidia Fanboy in die Runde werfen, wartet erstmal ab wie der Preis sein wird, bei den überdimensionierten Specs kann ich mir vorstellen das die Karte rund 600€ kosten wird. Es muss sich ja irgendwie refinanzieren für Nvidia und viele Leute werden sich solch ein High-End Gerät auch nicht kaufen zumindest nicht so viele wie die Einsteiger und Mittelfeld Karten und genau in diesem wird ATI gutes Geld verdienen bis irgendwann mal Nvidia günstiger wird^^. Vielleicht stellt Nvidia mit der neuen Karte auch ein neues Preis-Segment ein? 800€ für das High-End Stück!? Ohhweijjjjaaaaa