PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia GT200 Infos/Spekulationen



Seiten : 1 2 3 4 5 [6] 7

paraphonatic
10.10.2008, 10:33
Mal wieder aus für ATI ?! Denn die GX2 ist im anmarsch, vllt schon nächsten monat :D ;-)

Geforce GTX 270, GTX 290 und GX2 im nächsten Monat


Weiteres koennt ihr hier nachlesen!
Quelle: (http://www.pcgameshardware.de/aid,662991/News/Geforce_GTX_270_GTX_290_und_GX2_im_naechsten_Monat/)


-Para

masterkiller7
10.10.2008, 10:41
Mal wieder aus für ATI ?! Denn die GX2 ist im anmarsch, vllt schon nächsten monat :D ;-)

Geforce GTX 270, GTX 290 und GX2 im nächsten Monat


Weiteres koennt ihr hier nachlesen!
Quelle: (http://www.pcgameshardware.de/aid,662991/News/Geforce_GTX_270_GTX_290_und_GX2_im_naechsten_Monat/)


-Para

Nix aus für ati ich bin mir sicher das der Preis der neuen karte hoch sein wird.
Ati bleibt der P/l sieger.

paraphonatic
10.10.2008, 10:47
Nix aus für ati ich bin mir sicher das der Preis der neuen karte hoch sein wird.
Ati bleibt der P/l sieger.

Wayne Preis, ich will speed und kein P/L sieger haben ;-)


Aba warten wir mal ab :D



-Para

warpspeed
10.10.2008, 10:59
Oh man... jetzt nicht wieder ein "NVIDIA ist besser als ATI" geflame starten. Hier geht es um Infos und nicht darum welche Karte bzw. welcher Hersteller besser ist.

-THRiLLiAL-
10.10.2008, 11:00
joa, mit behauptungen würde ich atm auch noch übervorsichtig sein. dann ist ma wieder namenlernen angesagt zudem :(
was ich auch ein wenig seltsam finde ist, dass es eine gtx260 gx2 geben wird und (bis anhin) keine gtx 280 oder 290gx2.
ob diese ganze palette nur nen übergang ist wieder, wäre meiner meinung nach auch miteinzubeziehen. denke da an des
bevorstehende (vor)weihnachtsgeschäft .. schaun' wir ma ..

N1ce
10.10.2008, 11:08
Wayne Preis, ich will speed und kein P/L sieger haben ;-)


Aba warten wir mal ab :D



-Para

Ist klar das dich der Preis bei deinem System nicht kümmert...aber das Forum ist nicht nur für dich da. Deshalb war dein Post überflüssig. Genau wie meiner der dir aber nur sagen soll, dass es Menschen gibt die das interessiert!! Sowie mich, bin meinem Geld ja nicht böse! Ich weiss nit ob es gut war mir meine GTX 260 zu kaufen. Ob ich damit erstmal hin komme mit den Games die so anstehen?!

cry4me
10.10.2008, 11:29
Oh man... jetzt nicht wieder ein "NVIDIA ist besser als ATI" geflame starten. Hier geht es um Infos und nicht darum welche Karte bzw. welcher Hersteller besser ist.

rofl, lässt sich doch sowieso nicht vermeiden +g+
dafür gibts hier viel zu viele fanboys :)

ich für meinen teil kann mich da ausnehmen. ich hab bis vor etwa 2 monaten NUR Nvidia grafikkarten gehabt und bin jetzt zum ersten mal auf ati umgestiegen. Bin zwar ziemlich begeistert aber würd jetzt nicht sagen das ATI unbedingt das beste ist.

Nvidia und Ati haben beide ihr vor/nachteile
war klar das jetzt (wo die neuen Nvidias angekündigt wurden) gleich wieder "und wieder ein AUS für ATI" gesagt wird...
aber... dieses theoretische aus für ati wird sich Nvidia mal wieder sicher gut zahlen lassen... Was wird ne GX2 wohl kosten? vermutlich ein monatsgehalt von manchen...

Und auch wenn Nvidia wieder was vorlegt.. irgendwann wird auch Ati wieder was nachlegen.. und dann wieder nvidia.. dann wieder ati..
so gehts eben hin und her.. und das wird noch laaaaaaaaaaaaaaaaaaaaaaange so gehen +g+
und das is auch gut so

TheMegaMaster
10.10.2008, 11:32
Ist klar das dich der Preis bei deinem System nicht kümmert...aber das Forum ist nicht nur für dich da. Deshalb war dein Post überflüssig. Genau wie meiner der dir aber nur sagen soll, dass es Menschen gibt die das interessiert!!

+1

Guter Post!

1337_alpha
10.10.2008, 11:32
oh gott para -.-
Jetzt fängt das schon wieder an mit dem "ATI is kacke" :roll:
So ziemlich jeder schaut auf das P/L
Und nur weil du einer der wenigen bist deren die das nicht machen heißt es noch lange nicht dass ATI wegen dem abkackt
DIe meisten Käufer kaufen wegen gutem P/L

edit: Hab jetzt schon mein maximus 2 Formula bestellt und die GTX260@Wakü folgt bald :)
Edit by WarpSpeed: Keine Verkaufangebote -> Forumregeln beachten.
Nichtmal per PN? -.- Wann kommt denn dann endlich CryBay? *heul*
Edit by WarpSpeed: Zu CryBay, siehe hier -> Forum/Site Updates & Infos <- (http://crysis.4thdimension.info/forum/showthread.php?t=8241)

cry4me
10.10.2008, 11:47
jo,... das mit dem P/L war auch mein kaufgrund für die Ati 4870...

ich hatte die wahl
4870 ~196€ Brutto vs. GTX260 ~230€ Brutto
Sind zwar nur ca. 30€ unterschied, aber die 4870 is bekanntlich ja sogar schneller als die gtx260.. somit scheide die teure GTX260 schon mal aus.

dann
4870x2 ~402€
gtx280 ~380€

die 4870x2 ist schneller als die GTX280 (zumindest meistens. kommt auf den benchmark an lol)... klar gibts jetzt wieder die leute die sagen - kein wunder.. die 4870x2 hat ja auch 2 kerne..
interessiert mich das? nein, eiegntlich nicht. Tatsache ist das sie "kaum" mehr kostet aber trotzdem schneller ist.


Klar, wenn ich nicht aufs geld sehen muss nehm ich mir auch 3x GTX280... wieso auch nicht. Da weiss ich ja das ich keine probleme hab und trotzdem fette leistung bekommen. Aber so ist es nunmal nicht.. Wie "fast" jeder muss ich eben auch aufs geld sehen.. naja, müssen ist relativ.. immerhin hab ich mir nen mercedes gekauft *lol*...
trotzdem bin ich mir da zu geizig.. ich weiss ja sowieso das in 1-2 Monaten wieder ne neue grafikkarten generation kommt *g*
also warum soll ich jetzt TEUER das beste kaufen wenn ich in 1-2 monaten das selbe um die hälfte bekomme?
Und nur weil es dann nicht mehr das beste ist heisst es noch lange nicht das es zum alten eisen gehört...

daher - P/L ist den meisten wichtig!

so, nun wieder b2t

schön das Nvidia wieder was neues macht *G*
Ich hoffe mal das sie dieses mal nicht den GT200 so oft vergewaltigen wie den G92 und diesen dann ständig unter einem neuen namen verkaufen... natürlich mit "kaum" leistungszuwachs..

warpspeed
10.10.2008, 12:01
Schon "lustig" (oder eher traurig) aber da schreib ich, keine ATI vs. NVIDIA Posts mehr und trotzdem wird weitergmacht.

Ich will hier keine ATI vs. NVIDIA Diskussionen verbieten ABER dann bitte nicht im NVIDIA Infos/Spekulationen Thread. Ihr könnt gerne einen ATI vs. NVIDIA Thread erstellen (aber auch in einem solchen bitte sachlich bleiben!).

In diesem Sinn: :b2t:

1337_alpha
10.10.2008, 12:03
Schon "lustig" (oder eher traurig) aber da schreib ich, keine ATI vs. NVIDIA Posts mehr und trotzdem wird weitergmacht.

Ich will hier keine ATI vs. NVIDIA Diskussionen verbieten ABER dann bitte nicht im NVIDIA Infos/Spekulationen Thread. Ihr könnt gerne einen ATI vs. NVIDIA Thread erstellen (aber auch in einem solchen bitte sachlich bleiben!).

In diesem Sinn: :b2t:

Naja ähm ich glaub das lassen wir lieber da der Thread dann sowieso vollgespammt wird von Fanboys und das ist ja nicht Sinn und Zweck der Sache
Hab oben übrigens mal meinen Beitrag editiert ^^
Wäre schön wenn du ne antwort editieren könntest ^^
Edit by WarpSped: Habe ich gemacht :).

CRYSISTENSE
10.10.2008, 12:12
Ich bin ja gespannt, ob sich die neuen Karten von Nvidia gut verkaufen lassen. Mit einer GTX260 sollten eigentlich alle Spiele (inkl. FC2) gut laufen. Deswegen machen die neuen Karten NOCH keinen Sinn. Aber gut, dafür fallen die Preise:)

cry4me
10.10.2008, 12:16
ich bin mal gespannt wann es wirklich ne grafikkarte mit EINER GPU gibt wo Crysis 100% flüssig läuft :)
mit Flüssig mein ich AVG 60~80fps :)

paraphonatic
10.10.2008, 12:19
Leute das is doch wohl klar das im Nvidia Thread jeder gegen ATI ist, und halt im ATI Thread alle gegen NVidia zumindest einige, wo issn jetzt bitte das problem....




ich bin mal gespannt wann es wirklich ne grafikkarte mit EINER GPU gibt wo Crysis 100% flüssig läuft :)
mit Flüssig mein ich AVG 60~80fps :)


2010 / 2011 denke ich, liegt ja nicht nur an den karten wenn die optimierung vom game so grotte ist ;-)


-Para

cry4me
10.10.2008, 12:27
2010 / 2011 denke ich, liegt ja nicht nur an den karten wenn die optimierung vom game so grotte ist ;-)


-Para

true true..
und bei crysis kann man wirklich nicht behaupten das es sauber geschrieben wurde :)
mich würde interessieren ob Farcry2 da besser ist..

1337_alpha
10.10.2008, 12:31
Leute das is doch wohl klar das im Nvidia Thread jeder gegen ATI ist, und halt im ATI Thread alle gegen NVidia zumindest einige, wo issn jetzt bitte das problem....



sagte Para :roll:
Das ist eben gar nicht klar

Es gibt auch noch Menschen die sich in dem Thread tummeln und keine Fanboys sind wie zb ich
Punkt aus Ende


@Warp
Heißt das es wird niemals ein Marktplatz geben?
Im Forumdeluxx läuft das sehr sehr gut

Lobos
10.10.2008, 12:40
ich bin mal gespannt wann es wirklich ne grafikkarte mit EINER GPU gibt wo Crysis 100% flüssig läuft :)
mit Flüssig mein ich AVG 60~80fps :)


Ich denke in naher Zukunft wird es weniger einzelne GPUS auf einer Grafikkarte geben. Die Zukunft sieht nicht nur im Prozessor Bereich Dual oder mehr vor.!
Ich könnte wetten das es nächstes Jahr damit anfängt8-)

1337_alpha
10.10.2008, 12:44
Ich denke in naher Zukunft wird es weniger einzelne GPUS auf einer Grafikkarte geben. Die Zukunft sieht nicht nur im Prozessor Bereich Dual oder mehr vor.!
Ich könnte wetten das es nächstes Jahr damit anfängt8-)

Naja ich denke die " 2 Gpus auf einer Platine" Grakas werden aussterben
Es werden sicherlich bald mal Dual Core GPU's kommen

HunT
10.10.2008, 13:38
Naja ich denke die " 2 Gpus auf einer Platine" Grakas werden aussterben
Es werden sicherlich bald mal Dual Core GPU's kommen

Wenn du mir erklärst, wie du das machen willst, da eine GPU heutzutage schon mehr als nur zwei Kerne hat, aber egal...

Topic: Dass NV mit der GX2 wieder die Leistungskrone zurück erobern will, ist klar und ich denke, dass werden sie auch schaffen. Nichts desto trotz habe ich kein Interesse an "unreifen" Produkten mit all ihren Nachteilen, die die Vorteile klar überwiegen.

cry4me
10.10.2008, 13:49
Jap.
Ich denke auch das die GPUhersetller jetzt bald auf die Multicoreschiene aufspringen werden. Bei den CPU's hat es sich als extrem vorteilhaft erwiesen.
Natürlich auch nur wenn es von den Games supportet wird. Aber auch hier bin ich mir sicher das es bald "normal" ist das MulticoreGPU's supportet werden.

Trotzdem finde ich das sie langsam etwas aufpassen sollten.. Ich mein, die Ati4870x2 frisst bei Volllast satte ~250Watt... Und das ist doch wohl wirklich heftig oder? Soviel frisst bei einigen nichtmal der ganze PC..
Hier sollte man also wirklich etwas vordenken... immerhin wird auch der strom immer teurer :)
...

Sehr gespannt bin ich auch auf die Intel GPU die hoffentlich bald kommt... wenn intel so gut GPU's bauen kann wie CPU's - huiiiiiiiii!!! dann geht die post ab hehe

omega
10.10.2008, 13:52
Wenn du mir erklärst, wie du das machen willst, da eine GPU heutzutage schon mehr als nur zwei Kerne hat, aber egal...



Echt wusste nie, dass z.B eine 8800GT 2 Kerne hat...

... was du da fasselst ist kompletter schmarrn, GX2/X2 2 Kerne.

Nicht umsonst gibt es Single Grafikkarten á la 8800GT.

HunT
10.10.2008, 13:55
Oh man Leute, könnt ihr mir bitte erklären, wie ihr auf die Idee mit MultiCore GPU kommt? Habt ihr das aus dem CPU Lager entnommen? Wieso glauben einige hier, man könnte CPUs mit GPUs vergleichen? :roll:

@omega: Du hast dich offenbar nicht wirklich darüber informiert, dass auch die 8800GT aus 112 Kernen besteht. Shader Einheiten sind in diesem Falle die Kerne oder auch Prozessoren, wenn man so will.

M@rshall15
10.10.2008, 13:56
oh man soll ich jetz auf eine gtx270 warten oder doch lieber die hd4870? Verdammt :(
aber ersma gucken wie die Karten abgehn :D

cry4me
10.10.2008, 13:58
oh man soll ich jetz auf eine gtx270 warten oder doch lieber die hd4870? Verdammt :(
aber ersma gucken wie die Karten abgehn :D


rofl
also die gtx270 gibts noch nicht..
und auf die 4870 brauchst nicht warten - gibts ja schon *g*

und das mit dem warten isimmer so ne sache.. wenn du immer auf die neuere generation wartest wirst du in 10 jahren noch immer keine neue haben :)
kommt ja sowieos alle 2-3 monate ne neue generation oder ne verbesserung raus *g*

paraphonatic
10.10.2008, 13:59
Das is doch eh alles versückt, es gibt nichtmal spiele die die GTX 260 / 280 ausreitzen, wieso kommen jetzt schon iweder neue Karten ?! ich versteh die logik nicht so ganz, ich mein wer ne GTX280 hat wer kauft sich dann bitte eine GTX 290 ?! die vllt grad mal maximal 10 % schneller is wenn überhaupt..........


-Para

cry4me
10.10.2008, 14:01
Das is doch eh alles versückt, es gibt nichtmal spiele die die GTX 260 / 280 ausreitzen, wieso kommen jetzt schon iweder neue Karten ?! ich versteh die logik nicht so ganz, ich mein wer ne GTX280 hat wer kauft sich dann bitte eine GTX 290 ?! die vllt grad mal maximal 10 % schneller is wenn überhaupt..........


-Para

genau das meinte ich mit



schön das Nvidia wieder was neues macht *G*
Ich hoffe mal das sie dieses mal nicht den GT200 so oft vergewaltigen wie den G92 und diesen dann ständig unter einem neuen namen verkaufen... natürlich mit "kaum" leistungszuwachs..


aber das es kaum/keine spiele gibt die ne 260er oder 280er ausreizen stimmt nicht ganz.
Zum einen befinden wir uns hier in einem crysis forum +g+ - du weisst also was ich meine...
zum anderen.. derzeit sind die TFT's total am wachsen..
24"er kostetn nicht mehr viel.. um 250€ bekommst schon welche..
30"er und sogar 32"er sind im kommen und erfreuen sich natürlich zunehmender beliebtheit... und dafür braucht man dann eben ne 270er oder 290er *g*
oder 3x gtx290er ...wie man hald will...
die industrie lässt sich da schon immer wieder sachen einfallen damit man was neues "will"...

und den "penisfaktor" darfst du natürlich auch nicht vergessen

HunT
10.10.2008, 14:02
Das is doch eh alles versückt, es gibt nichtmal spiele die die GTX 260 / 280 ausreitzen, wieso kommen jetzt schon iweder neue Karten ?! ich versteh die logik nicht so ganz, ich mein wer ne GTX280 hat wer kauft sich dann bitte eine GTX 290 ?! die vllt grad mal maximal 10 % schneller is wenn überhaupt..........


-Para

Hier geht es einzig und alleine darum, die Produktionskosten zu senken, um nennenswerten Gewinn einzufahren. Und gerade zum Weihnachtsgeschäft, kann sich das sehr erfolgreich auf den Firmengeldbeutel auswirken.

Hepta
10.10.2008, 14:02
para provoziert doch nur... wie ein kleines, verspieltes Kind mit zu viel Geld (oder eben nicht zu viel, sondern nur falsch angelegt).

Zum Topic: Ich bin ebenfalls der Meinung, dass die "GX2" und "X2" und wie sie auch immer heißen mögen, aussterben werden. Funktioniert doch vorne und hinten nicht.

Und manchmal kommt es mir echt komisch vor:
Ich geb ja zu, dass ich nicht der Ultima-Nerd in sachen Hardware bin, aber wieso ist es so dass man (offenbar) in Zukunft die Grafik von CPUs (Larrabee) berechnen lässt (Raytracing - oder wie heißt das nochmal?) und die Dinge, die normalerweise CPUs berechnen jetzt auf einmal auf der Grafikkarte berechnet werden (Folding@Home etc.)?

Is doch echt paradox! Is ja so als ob ich mit nem Traktor auf der Autobahn fahre und mit nem Lamborghini Murciélago den Acker umackere!

M@rshall15
10.10.2008, 14:04
Das is doch eh alles versückt, es gibt nichtmal spiele die die GTX 260 / 280 ausreitzen, wieso kommen jetzt schon iweder neue Karten ?! ich versteh die logik nicht so ganz, ich mein wer ne GTX280 hat wer kauft sich dann bitte eine GTX 290 ?! die vllt grad mal maximal 10 % schneller is wenn überhaupt..........


-Para

Lol es gibt Leute die sich eine gtx290 und das in triple SLI kaufen werden obwohl sie schon 1-3 gtx280 haben^^

cry4me
10.10.2008, 14:06
Das is doch eh alles versückt, es gibt nichtmal spiele die die GTX 260 / 280 ausreitzen, wieso kommen jetzt schon iweder neue Karten ?!

-Para

Darum auch 2x :)




EVGA nForce 780i SLI FTW
-->EVGA GTX 280 SLI FTW<--
Intel® Core 2 Quad Q9550@3800MHZ
OCZ DIMM 8 GB DDR2 SLI Ready
HP W2228H


-Para


rofl ja :)

omega
10.10.2008, 14:14
@omega: Du hast dich offenbar nicht wirklich darüber informiert, dass auch die 8800GT aus 112 Kernen besteht. Shader Einheiten sind in diesem Falle die Kerne oder auch Prozessoren, wenn man so will.

Eben nicht, Shader einheiten sind Shadereinheiten und keine Kerne.

Und auf einer 8800GT gibt es nur einen Grafikprozessor, oder hast du auf einer 8800GT schoneinmal 112 Grafikchips gesehn?

HunT
10.10.2008, 14:33
Eben nicht, Shader einheiten sind Shadereinheiten und keine Kerne.

Und auf einer 8800GT gibt es nur einen Grafikprozessor, oder hast du auf einer 8800GT schoneinmal 112 Grafikchips gesehn?

Eben doch. Du verstehst da etwas vollkommen anderes unter "Kerne". Damit sind nicht die Chips gemeint, sondern die einzelnen Prozessoren in diesem Chip. Der GT200 hat beispielsweise 240 volle Kerne, die parrallel eine Aufgabe berechnen. Je nach dem, wie sie eingeteilt werden.

omega
10.10.2008, 14:36
Achso, dann entschuldige ich mich natürlich für meine vorherigen Posts.

Ich dachte das wäre das selbe wie mit den CPUs.

HunT
10.10.2008, 14:39
Achso, dann entschuldige ich mich natürlich für meine vorherigen Posts.

Ich dachte das wäre das selbe wie mit den CPUs.

Das denken viele, aber man kann ja nicht alles wissen. ;)

paraphonatic
10.10.2008, 14:58
Darum auch 2x :)




rofl ja :)


Schöner post, hätte ich nicht besser gestalten koennen ;-) :D


-Para

Lobos
10.10.2008, 15:15
para provoziert doch nur... wie ein kleines, verspieltes Kind mit zu viel Geld (oder eben nicht zu viel, sondern nur falsch angelegt).


Halt den Ball mal flach, du scheinst hier eher zu provozieren!


Das is doch eh alles versückt, es gibt nichtmal spiele die die GTX 260 / 280 ausreitzen, wieso kommen jetzt schon iweder neue Karten ?! ich versteh die logik nicht so ganz, ich mein wer ne GTX280 hat wer kauft sich dann bitte eine GTX 290 ?! die vllt grad mal maximal 10 % schneller is wenn überhaupt..........


-Para

na wer wohl, DU!!! Spaß:roll::D

cry4me
10.10.2008, 15:25
na wenigstens weiss para was ich mit meinem post sagen wollte *G*

war ja nicht gemeint gemeint.. aber is hald lustig wenn jemand (vermutlich hardware freak) mit einem total-highend-system meint das es voll fürn hugo is wieder neue grakas rauszubringen :)

noxon
13.10.2008, 13:16
Achso, dann entschuldige ich mich natürlich für meine vorherigen Posts.

Ich dachte das wäre das selbe wie mit den CPUs.Glaub nicht alles, was man dir erzählt. Es ist schon ein Unterschied zwischen Kernen und Streamprozessoren vorhanden.
Nach Siberian Tigers Logik sind CPUs auch schon seit Jahrzehnten Mehrkern CPUs. Alle arbeiten in einer gewissen weise parallel. Das heißt nicht, dass man es als Mehrkern Chip betrachten kann.

Genau so kann man eine GPU nicht als Mehrkern Chip betrachten, bloß weil er parallel arbeitende Recheneinheiten hat. Mehrkern heißt hier ganz speziell, dass mehrere voll funktionsfähige Recheneinheiten parallel laufen, die auch autonom funktionieren, ganz im Gegensatz zu den Streamprozessoren, ROPs, TMUs und was sonst noch alles in den GPUs ist. Die sind einzeln für sich nicht funktionsfähig.

Sie können auch nicht von dem Programmierer speziell angesprochen werden, während bei echten Mehrkern Chips der Zugriff auf spezielle Kerne möglich ist.

HunT
13.10.2008, 14:25
Nach deiner Erklärung müsste man dann aber fragen, warum die GPU Entwickler nicht schon lange MultiGPUs bauen, anstatt diese Dual GPU on PCB Lösung zu nehmen. Bei dir klingt das so ziemlich einfach, als könne man mit den GPUs dasselbe anstellen wie man es mit den CPUs schon gemacht hat, nur macht das keiner der beiden "Großen". Und nach meiner Logik sind GPUs schon seit Jahrzehnten Mehrkern Chips und nicht CPUs.

noxon
13.10.2008, 18:29
Wie gesagt. Als Kern wird für gewöhnlich ein autonom funktionierender Bestandteil eines Chips bezeichnet. Der mag sich vielleicht noch den Cache mit anderen Kernen teilen, aber grundsätzlich läuft er für sich gesehen auch einzeln.
GPUs sind so bisher nicht ausgelegt, was bei der hohen Transistoranzahl und der hohen Verlustwärme auch kein Wunder ist.

Es ist verdammt schwer die Wärme von einer GPU abzutransportieren, die 2 Milliarden oder mehr Transistoren hat. Bei den bisherigen Techniken sind die Leckströme viel zu hoch, als das man damit mehrere GPUs in ein Package packen könnte. Wir sind ja jetzt schon am Ende der Fahnenstange angekommen, was den Abtransport der Verlustwärme angeht.

Hauptsächlich wird es also fertigungstechnische Gründe haben, warum es bisher keine Multicore GPUs gegeben hat. Im CPU Bereich hingegen sieht es ja etwas anders aus. Die Strukturbreiten sind dort schon immer deutlich kleiner gewesen als bei den GPUs (meine 8800 GTS wurde noch in 90nm gefertigt, während mein gleichzeitig erworbener E6600 schon in 65 nm gefertigt wurde). CPUs waren immer schon deutlich besser zu kühlen, da sie auch nciht so komplex waren wie GPUs und dort war es auch kein Problem mehrere Kerne in ein Package oder auf ein Die zu packen.

GPUs haben erst in den letzten Jahren extrem aufgeholt, was geringere Strukturbreiten angeht und jetzt werden auch hier Multicore GPUs möglich sein.
Das ist jetzt mal meine Vermutung, warum es so lange gedauert hat, bis es echte Multicore GPUs gab und man bisher nur auf mehrere GPUs auf einem PCB gesetzt hat. Genau weiß ich es natürlich auch nicht, warum und wie sich die Hersteller entscheiden ihre Chips zu entwickeln.

Fusion145
14.10.2008, 20:50
280GTX für 258€:

http://web.hoh.de/hoh/(S(y31c4w550kkkiy45pib52355))/default.aspx?IT=74414&CT=6855&TY=2&ST=1 (http://web.hoh.de/hoh/%28S%28y31c4w550kkkiy45pib52355%29%29/default.aspx?IT=74414&CT=6855&TY=2&ST=1)

Wenn der Link nicht funktioniert einfach auf www.hoh.de (http://web.hoh.de/hoh/%28S%28lywx1areoudsnf45jdf1sj55%29%29/default.aspx) gehen und bei Produktsuche "Galaxy 280GTX" eingeben

paraphonatic
14.10.2008, 21:00
280GTX für 258€:

http://web.hoh.de/hoh/(S(y31c4w550kkkiy45pib52355))/default.aspx?IT=74414&CT=6855&TY=2&ST=1 (http://web.hoh.de/hoh/%28S%28y31c4w550kkkiy45pib52355%29%29/default.aspx?IT=74414&CT=6855&TY=2&ST=1)

Wenn der Link nicht funktioniert einfach auf www.hoh.de (http://web.hoh.de/hoh/%28S%28lywx1areoudsnf45jdf1sj55%29%29/default.aspx) gehen und bei Produktsuche "Galaxy 280GTX" eingeben


naja ob die so toll is lol, vorallem kostet die GTX 260 grad mal 20€ weniger ROFL :D



-Para

masterkiller7
14.10.2008, 21:36
Ich sag nur sogut wie gekauft :P

CRYSISTENSE
14.10.2008, 21:42
Ich hab mal eine bestellt. Der Shop ist sicher (laut den Testberichten). Könnte sich höchstens wieder um einen Tippfehler handeln, aber die Daten sind eigentlich mit einer "normalen" GTX280 völlig identisch.

Entweder die anderen Händler ziehen nach, oder die Karte ist sehr schnell ausverkauft^^

Trifft sich gut, gerade jetzt wo FC2 kommt *freu*

Steiner
14.10.2008, 21:55
Wie gesagt. Als Kern wird für gewöhnlich ein autonom funktionierender Bestandteil eines Chips bezeichnet. Der mag sich vielleicht noch den Cache mit anderen Kernen teilen, aber grundsätzlich läuft er für sich gesehen auch einzeln.
GPUs sind so bisher nicht ausgelegt, was bei der hohen Transistoranzahl und der hohen Verlustwärme auch kein Wunder ist.

Es ist verdammt schwer die Wärme von einer GPU abzutransportieren, die 2 Milliarden oder mehr Transistoren hat. Bei den bisherigen Techniken sind die Leckströme viel zu hoch, als das man damit mehrere GPUs in ein Package packen könnte. Wir sind ja jetzt schon am Ende der Fahnenstange angekommen, was den Abtransport der Verlustwärme angeht.

Hauptsächlich wird es also fertigungstechnische Gründe haben, warum es bisher keine Multicore GPUs gegeben hat. Im CPU Bereich hingegen sieht es ja etwas anders aus. Die Strukturbreiten sind dort schon immer deutlich kleiner gewesen als bei den GPUs (meine 8800 GTS wurde noch in 90nm gefertigt, während mein gleichzeitig erworbener E6600 schon in 65 nm gefertigt wurde). CPUs waren immer schon deutlich besser zu kühlen, da sie auch nciht so komplex waren wie GPUs und dort war es auch kein Problem mehrere Kerne in ein Package oder auf ein Die zu packen.

GPUs haben erst in den letzten Jahren extrem aufgeholt, was geringere Strukturbreiten angeht und jetzt werden auch hier Multicore GPUs möglich sein.
Das ist jetzt mal meine Vermutung, warum es so lange gedauert hat, bis es echte Multicore GPUs gab und man bisher nur auf mehrere GPUs auf einem PCB gesetzt hat. Genau weiß ich es natürlich auch nicht, warum und wie sich die Hersteller entscheiden ihre Chips zu entwickeln.
Das mit den CPU´s wird sicher aber auch bald ändern. Stichwort: Intel i7 und Intel P55.

CRYSISTENSE
15.10.2008, 16:43
"Leider gab es hierzu einen Preisfehler bei der Übermittlung der Daten in unser Shopsystem. Wir können die Grafikkarte leider nicht zum ursprünglich angegebenen Preis beziehen. Aus diesem Grund mussten wir den Auftrag stornieren.
Als kleine Entschädigung möchten wir Ihnen den Artikel aber anstelle des vollen Preises von 357,90 für 349,- anbieten"

Ich hoffe, dass noch niemand bestellt hat. Naja, damit musste man rechnen8)

1337_alpha
15.10.2008, 16:55
So und wieder mal ein kleines Hardware Update von meiner Seite aus
Ich bin jetzt stolzer Besitzer eine EVGA GTX 260
Ich denke am Freitag hab ich sie
Und dann fehlt nur noch der Aquagrafx :)
Der wird vernickelt

1337_alpha
17.10.2008, 13:55
Ey hau mich weg ^^
Gerade eben kam meine EVGA GTX260 soweit alles gut
Nur jetzt kommt der Knaller :D
Der Garantieaufkleber der eigentlich über der einten Schraube sein sollte sitzt ein Stück nebendran und so kann ich die Schrauben alle lösen ohne die garantie zu verlieren und somit den Aufkleber zu beschädigen ^^
Hammer :D
Mein Aquagrafx kann kommen :aua:

eFFeCTiVe
17.10.2008, 19:10
Ey hau mich weg ^^
Gerade eben kam meine EVGA GTX260 soweit alles gut
Nur jetzt kommt der Knaller :D
Der Garantieaufkleber der eigentlich über der einten Schraube sein sollte sitzt ein Stück nebendran und so kann ich die Schrauben alle lösen ohne die garantie zu verlieren und somit den Aufkleber zu beschädigen ^^
Hammer :D
Mein Aquagrafx kann kommen :aua:

:lol: Lustige Sache, machste dann auch noch Bilder vom PC wenn du die GraKa eingebaut hast?:smile:

Hepta
19.10.2008, 18:49
Kennt eigentlich jemand eine 216er GTX 260 die ab Werk höher taktet als die von XFX "Black Edition"?

Shaddy
28.10.2008, 15:13
übertakte sie doch selber? ist doch heutzutage eh nur abzocke und selbst wenn sie kaputt geht (WARUM AUCH IMMER) und du die zur reperatur schickst is da nix von taktveränderung zu sehen weil die (rivatuner) erstg unter windows abgeändert wird :)

Hepta
29.10.2008, 18:38
übertakte sie doch selber? ist doch heutzutage eh nur abzocke und selbst wenn sie kaputt geht (WARUM AUCH IMMER) und du die zur reperatur schickst is da nix von taktveränderung zu sehen weil die (rivatuner) erstg unter windows abgeändert wird :)
Mag schon sein, nur hätt ich halt gerne nen GT200 der die Übertaktung sicher mitmacht - und das ist bei jedem GT200er sicher nicht der Fall.

Darum bitte: Gewhönt euch dieses blöde "takte doch selber hoch"-Getue ab...

Einfach deshalb, weil keiner wirklich Lust drauf hat, sich eine Karte um € 250,- aufwärts zu kaufen und dann "Jolly-Joker" mit ihr zu spielen ob sie die Übertaktung nun mitmacht oder nicht.

Danke und: Ich hab mir bereits die von XFX genommen, da ich keine andere finden konnte, die ab Werk höher taktet. Also Frage ignorieren.

pilzbefall
29.10.2008, 18:54
bei Geizhals siehts wie folgt aus:
die xfx black dings 260 kostet ab 291 Euro
ne normale ab 219,
ne GTX 280 ab 350 Euro.
nach meinen Erfahrungen (jedenfalls in den einschlägigen Foren) macht wirklich jede GTX260 Mhz 660 Coretakt mit. Für sowenig o´clocking so einen saftigen Aufpreis zu verlangen....versteh´ich net.

Hepta
29.10.2008, 18:58
bei Geizhals siehts wie folgt aus:
die xfx black dings 260 kostet ab 291 Euro
ne normale ab 219,
ne GTX 280 ab 350 Euro.
nach meinen Erfahrungen (jedenfalls in den einschlägigen Foren) macht wirklich jede GTX260 Mhz 660 Coretakt mit. Für sowenig o´clocking so einen saftigen Aufpreis zu verlangen....versteh´ich net.
Niemand in den ganzen einschlägigen Foren würde wirklich dafür, was er schreibt, seine Hand ins Feuer legen. Genauso kann ich dir erzählen dass ich in wirklichkeit der Kaiser von China bin und euch alle garnicht leiden kann.

Was ist daran jetzt wahr und was nicht?

Der springende Punkt ist: Kaufst du dir ne ab-Werk-übertaktete, kannst du dir sicher sein, dass sie es mitmacht. Wenn du dir ne normalo-GT200 Karte kaufst, nicht. Und ich bin für diese "Versicherung" bereit einen Aufpreis zu bezahlen (obwohl der von € 60,- schon an Wucher grenzt und eine Frechheit ist).

pilzbefall
29.10.2008, 21:32
mein Argument mit den Forum-"Erfahrungen" ist in der Tat schwach :). Ich mache es grundsätzlich so, daß ich nach Release einer neuen Generation schön lange warte, um dann die günstigste zu nehmen. Bevor ich auf Wakü umstieg, habe ich immer, wenn eine Karte schlecht ging, einfach einen Lüfter vorgeschnallt, sodaß ich über die verbesserte Kühlung immer noch gute o´clocking-Werte erreichte. So hat man eine relative "Garantie" für Übertaktung.

noxon
30.10.2008, 07:51
Man darf auch nicht vergessen, das die von Haus aus übertakteten Karten auch immer noch etwas Spiel nach oben haben und sich auch noch übertakten lassen. Die Güte von diesen Chips ist schon recht hoch.

Meinen Core kann ich zum Beispiel auf 720 Mhz hochschrauben und das ist bei normalen Karten schon unwahrscheinlicher, dass das klappt.

Außerdem können ja auch noch andere Gründe eine Rolle spielen, warum man sich für ein übertaktetes Modell entscheidet. Zum Beispiel kann es ganz nützlich sein, wenn die Übertaktung nicht mehr per Software vorgenommen werden muss, sondern die Taktraten im Graka-BIOS festgelegt sind.
So ist die Karte auch in jedem Betiebssystem ohne Zusatzsoftware oder speziellen Treiber übertaktet.

Bei meiner Karte war trotz der Übertaktung außerdem noch der Kühler leiser und der Stromverbrauch geringer, als bei einer normalen 260, weil dort anscheinend auch noch die Spannung etwas gesenkt wurde.

Es kann also schon Sinn machen diesen geringen Aufpreis zu zahlen. Muss halt jeder für sich entscheiden, ob einem das Wert ist. Mir ging's hauptsächlich um die geringere Lautstärke und dafür zahle ich gerne etwas mehr.

jupph
30.10.2008, 09:05
Kann noxon nur zustimmen.
Natürlich kann es immer sein das man mit einer normalen 260er 720MHz erreicht.
Ordentlich durchgetestet sind die allerdings nur mit 575MHz.
Die übertakteten sind halt mit höheren Takt getestet. Und wenn der
läuft, ist es wahrscheinlich das sie auch noch höher gehen.
Natürlich kann man immer Pech haben und sie läuft mit 670Mhz nicht mehr.
So oder so ist es immer ein Glücksspiel was das Übertaktungspotential angeht.

Shaddy
30.10.2008, 11:54
Mag schon sein, nur hätt ich halt gerne nen GT200 der die Übertaktung sicher mitmacht - und das ist bei jedem GT200er sicher nicht der Fall.

Darum bitte: Gewhönt euch dieses blöde "takte doch selber hoch"-Getue ab...

Einfach deshalb, weil keiner wirklich Lust drauf hat, sich eine Karte um € 250,- aufwärts zu kaufen und dann "Jolly-Joker" mit ihr zu spielen ob sie die Übertaktung nun mitmacht oder nicht.

Danke und: Ich hab mir bereits die von XFX genommen, da ich keine andere finden konnte, die ab Werk höher taktet. Also Frage ignorieren.

Den Takt den die karten ab werk schaffen bei den OC edition kriehgst du 10000% auch mit nen nonOC karte hin, da sind och nur die selben chips drauf....


Bei ner durschnitts GTX260 schaffste 720mhz GPU und bei ner GTX280 720/höherer shader/höherer speicher
also minimum 720 schaffen die alle... (und wer die nich schafft möcht ich ma wissen wie der OCed.... und mit was testet >.> )
Und da gibts sicher KEINE Test welche GPU unter welche haube kommt, da wird mal tief in die tonne gegriffen und nen paar GPUs rausgenommen ums kurz zu sagen

Aber es gibt immer leute die sich nicht belehren lassen :lol:

noxon
30.10.2008, 12:49
Chip ist nicht gleich Chip. Die Chips die in der Mitte des Wavers liegen sind grundsäthlich von besserer Qualität als Chips in den Außenbereichen des Wavers. Jedes Die erhält beim belichten auch eine ID, die dessen Position auf dem Waver beinhaltet.
Die Hersteller wissen also ganz genau, welche von ihren Chips potenziell die bessere Qualität haben und welche eine schlechtere. Bevor die Karten dann wirklich auf den Markt kommen werden sie natürlich auch nochmal einer Qualitätsprüfung unterzogen und 720 MHz schaffen garantiert nicht alle Karten. Das schaffen ja noch nicht einmal alle handverlesenden Referenzkarten, die die Hardwae-Review-Seiten zugeschickt bekommen haben.

Und wie gesagt. Es geht nicht nur darum. Viele wollen ihre Karte auch per BIOS übertakten und nicht per Software und wenn man die Karten nicht selber flashen möchte, dann sind die Karten eine gute Wahl. Dann muss man auch nicht bei jedem neuen Treiber wieder auf eine Anpassung des Übertaktungstools warten. Das gilt besonders für Linux.

cry4me
30.10.2008, 13:15
Chip ist nicht gleich Chip. Die Chips die in der Mitte des Wavers liegen sind grundsäthlich von besserer Qualität als Chips in den Außenbereichen des Wavers. Jedes Die erhält beim belichten auch eine ID, die dessen Position auf dem Waver beinhaltet.
Die Hersteller wissen also ganz genau, welche von ihren Chips potenziell die bessere Qualität haben und welche eine schlechtere. Bevor die Karten dann wirklich auf den Markt kommen werden sie natürlich auch nochmal einer Qualitätsprüfung unterzogen und 720 MHz schaffen garantiert nicht alle Karten. Das schaffen ja noch nicht einmal alle handverlesenden Referenzkarten, die die Hardwae-Review-Seiten zugeschickt bekommen haben.




100000% korrekt!
Das gilt für alle möglichen arten von Chips... GPU's, CPU's...
beispiel.. ein freund von mir hat sich am selben tag 2x HD4870er gekauft.. (für CF)..
die eine kann er PROBLEMLOS auf 830/1190mhz laufen lassen... die andere geht maximal auf 780/1180...
Das selbe gilt bei CPU's und Mainboards..

Ich und ein freund haben genau das selbe board und den selben prozessor.. sogar die selben ram..
seine CPU (q6600) läuft bei 1,275vcore problemlos auf 4.1ghz! - mit luftkühlung
wenn ich das bei mir machen will muss ich schon mit 1,6 oder sogar 1,625vcore reinfahren... gelegentlich sogar noch mehr.. ohne wasserkühlung wäre das ein ding der unmöglichkeit!

Ich denke auch das die mittleren chips der Siliziumplatte (z.b.: von grafikherstellern) eher für "OC" versionen verwendet werden als die chips der äuseren ränder..

Shaddy
30.10.2008, 13:56
na wenn du meinst noxon, es kommt eher aufs charge an, aber egal :)

Ihr müsst es ja wissen :roll:

PS: es heißt waffer nicht waver...

noxon
30.10.2008, 15:12
PS: es heißt waffer nicht waver...
Wenn schon klugscheißen, dann bitte richtig.
Das wird mit einem f geschrieben.

pilzbefall
30.10.2008, 15:34
ist eigentlich etwas an dem Gerücht, daß bei weiteren Shrinks zwar die Taktraten weiter nach oben gehen und der Strombedarf weiter runter, aber auch die Lebensdauer sinkt?

Shaddy
30.10.2008, 15:56
Wieso sollte es? sid niedrigere spannungen mglich-> laengere lebensdauer
aber das is shitegal weil selbst mit standarttakt haelt das teil lang genug, das man sich eh nen neuen PC kauft bevors futsch is :D

... dann halt wafer :-|

noxon
30.10.2008, 22:20
Du stellst dir die Sachverhalte aber ziemlich einfach vor.

Eine niedrigere Spannung bedeutet doch nicht zwangsläufig, dass die Chips eine längere Lebensdauer haben. Schließlich ändern sich auch die elektrischen Eigenschaften des Materials. Wichtig ist es auch die Höhe der Leckströme zu reduzieren und dummerweise werden die umso höher, je kleiner die Strukturen werden.

Mittlerweile werden durch die Leckströme schon bis zu 50% der aufgenommenen Energie verschwendet ohne das damit ein einziger Transistor geschaltet wird.
Neben dem Shrink muss man also auch immer neue Fertigungstechniken finden um Transistoren mit niedrigeren Kapazitäten zu fertigen.

Wie sich das alles letztendlich auf die Lebensdauer auswirkt wissen wahrscheinlich noch nicht einmal die Hersteller genau. Aber du hast recht. So lange bis man sich einen Nachfolger holen muss halten die Karten auf jeden Fall. Wer hat denn heute noch eine Karte die älter als 2 oder 3 Jahre alt ist?

Shaddy
31.10.2008, 05:51
Ich, im keller :lol:

Ja das stimmt schon, aber die ham ja jetzt schon nen 22nm waf(!)er gebracht vpon daher denke ich das wenn das dann iwann kommt schon relativ gut läuft

Servitor
05.11.2008, 20:15
Marke "XpertVision" wird eingestellt

Palit verkauft unter eigenem Namen

Der Grafikkarten-Hersteller Palit wird seine Markte "XpertVision" einstellen und die Grafikkarten dieser Reihe in Zukunft unter dem eigenen Namen vermarkten. Die Grafikkarten von XpertVision waren in den letzten Jahren zumeist GeForce-Modelle von Nvidia. Die andere Marke von Palit, Gainward, ist von den Veränderungen nicht betroffen.


Also wenn ich dann in einen Pc Shop Laden gehe steht da nicht mehr Xpert Vision 8800 GT sondern Palit 8800 GT , hab ich das richtig verstanden ?

paraphonatic
10.12.2008, 14:38
Erstes Bild einer Geforce GTX 295 aufgetaucht


http://www.pcgameshardware.de/aid,669992/News/Erstes_Bild_einer_Geforce_GTX_295_aufgetaucht/

-Para

Sc@RFaC3
10.12.2008, 14:43
genial , ich bin gespannt wie teuer sie ist und hoffentlich wird die 280 GTX bald billiger. :lol:

T-Rocc
16.12.2008, 12:25
In den ersten Benchmarks, die die Seite it168.com veröffentlicht hat, steht die GTX 295 mitunter sehr deutlich in Front. Da jedoch die Testbedingungen nicht wirklich deklariert sind, und die Spieleauswahl auch von Nvidia getroffen wurde, sollten keine voreiligen Schlüsse gezogen werden. Erwartungsgemäß liegt die GTX 295 im PhysX-Test in Front. Dass man jedoch auch bei der Leistungsaufnahme vor dem Modell von ATi (http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2008/dezember/geforce_gtx_295_hd_4870_x2/#) liegt, überrascht ein wenig. Da jedoch der Verdacht besteht, dass die Daten wirklich aus einer Präsentation stammen könnten, müssen unabhängige Tests die Zahlen erst einmal bestätigen.

Quelle: ComputerBase (http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2008/dezember/geforce_gtx_295_hd_4870_x2/)

Ich find's richtig geil.

paraphonatic
16.12.2008, 12:49
Quelle: ComputerBase (http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2008/dezember/geforce_gtx_295_hd_4870_x2/)

Ich find's richtig geil.


Is das ne duel karte seh ich das richtig ?! also wie die X2 im prinzip oder ne single karte ?!


-Para

Nuttree
16.12.2008, 13:00
@paraphonatic

Zitat von Computerbase


Erstes Bild zur GeForce GTX 295 aufgetaucht


Wie die Kollegen von VR-Zone nun in Erfahrung gebracht haben wollen, soll sowohl die GeForce GTX 285 als auch die Dual-GPU-Karte GeForce GTX 295 zur CES-Computermesse Anfang nächsten Jahres erscheinen. Die CES startet am 8. Januar und schließt ihre Pforten wieder am 11. Januar. Die GeForce GTX 285 soll die GeForce GTX 280 ablösen und wird mit der im 55-nm-Prozess gefertigten GT200b-GPU (oder auch GT206 genannt) ausgestattet werden.
Es ist durchaus denkbar, das Nvidia gering an den Taktschrauben drehen wird, was aber noch offen ist. Darüber hinaus wird ebenfalls die GeForce GTX 260 mit 216 Shadereinheiten auf die kleinere GPU umgerüstet und die Hersteller scheinen erste eigene Designs auf den Markt bringen zu dürfen.
Von der GeForce GTX 295, die gleich zwei GT200b-Kerne tragen wird, konnten die Kollegen gar erstmals ein (wenn auch wenig aussagendes) Bild der Grafikkarte auftreiben. Darauf sieht man die zwei PCBs (http://www.computerbase.de/lexikon/Leiterplatte) (die jeweils einen Rechenkern und den Speicher tragen) mit insgesamt zwei Dual-Link-DVI (http://www.computerbase.de/lexikon/Digital_Visual_Interface)- sowie einen HDMI (http://www.computerbase.de/lexikon/High_Definition_Multimedia_Interface)-Ausgang. Einen S-Video (http://www.computerbase.de/lexikon/S-Video)-Anschluss gibt es nicht mehr. Die Platinen sind, wie schon bei der GeForce 9800 GX2, mit einer Kabelverbindung ausgestattet, die die SLI (http://www.computerbase.de/lexikon/Scalable_Link_Interface)-Brücken ersetzt.
Alles Klar:grin:

paraphonatic
16.12.2008, 13:10
Na dann, bleib ich noch bei meiner GTX 280 SLI, die werden wohl noch gut mithalten können mit der GTX 295 ;-) :D


-Para

M@rshall15
16.12.2008, 13:27
ich glaub kaum das die Karte so begehn wird. Die ist in manchen Sachen 5 mal besser als die hd4870x2. Kann der Sache sehr schlecht Glauben schenken

Dark9
18.12.2008, 18:48
Der Grafikkartenhersteller Nvidia (http://amazon.de/gp/product/B001B3YCBS?ie=UTF8&tag=winfudedasonl-21&link_code=em1&camp=2510&creative=9350&creativeASIN=B001B3YCBS&adid=2349e590-a89b-4bec-a791-0b2d3f7a28f1) hat heute sein neues Spitzenmodell vorgestellt, das auf den Namen "GeForce GTX 295" hört. Damit will man ATI vom Leistungsthron stoßen, was laut ersten Benchmarks auch gelingt.
Dazu setzt das Unternehmen (http://winfuture.de/news,44269.html#) aus Kalifornien auf zwei GT200-Grafikchips, wie ATI bei der Radeon HD 4870 X2 auch. Die neueGrafikkarte (http://winfuture.de/news,44269.html#) kann stolze 1,79 Billionen Gleitkommaoperationen pro Sekunde berechnen, doch die Rechenkraft ist nicht der einzige Leistungsfaktor. So besitzt die GeForce GTX 295 448 Datenleitungen, die die GPU mit dem 999 MHz schnellen GDDR3-Speicher verbinden, der zwei Mal 896 Megabyte fasst.
Da zwei Grafikchips zum Einsatz kommen, ist die Leistungsaufnahme entsprechend hoch. 289 Watt gibt Nvidia an. Um die Karte mit Strom zu versorgen, wird ein 6- sowie ein 8-poliger Stecker vom Netzteil benötigt. Die GeForce GTX 295 besitzt zwei DVI- und einen HDMI-Anschluss.

ImInternet (http://winfuture.de/news,44269.html#) sind inzwischen die ersten Benchmarks aufgetaucht, unter anderem bei den Kollegen von PC Games Hardware (http://www.pcgameshardware.de/aid,670858/Test/Benchmark/Geforce_GTX_295_-_Erster_Test_der_Nvidia-Dual-Grafikkarte/). So kann Nvidia das selbst gesteckte Ziel als erreicht markieren, denn in den Vergleichen gegen die Radeon HD 4870 X2 von ATI ist die GeForce GTX 295 überlegen. In Crysis (http://amazon.de/gp/product/B000FII8C4?ie=UTF8&tag=winfudedasonl-21&link_code=em1&camp=2510&creative=9350&creativeASIN=B000FII8C4&adid=105dd992-cfe7-4937-8f5a-be4e670c35ef) Warhead zum Beispiel kommt Nvidia durchschnittlich auf 38,6 Frames pro Sekunde, ATI dagegen "nur" auf 32,3.

Wer die neue "schnellste Grafikkarte der Welt" sein Eigen nennen will, kann ab dem 15. Januar zuschlagen. Allerdings verlangt Nvidia für die GeForce GTX 295 stolze 500 US-Dollar.

HunT
18.12.2008, 23:07
Allerdings verlangt Nvidia für die GeForce GTX 295 stolze 500 US-Dollar.

Immernoch weniger als die GTX 280 zu Anfang! -> 650$!!!

ZaCXeeD
18.12.2008, 23:40
Immernoch weniger als die GTX 280 zu Anfang! -> 650$!!!

Jop ein Tipp von mir, nehmt die Karten von EVGA falls die Karten wieder so schnell wieder mit Preissenkung anfangen, kriegt man was von EVGA wieder^^

Ich liebe diese Firma einfach^^

Joa und mal schauen ob ich mir die holen werde....mal schauen wie die sich so macht...

- Crysis2142

CRYSISTENSE
18.12.2008, 23:42
Naja, eine richtige Neuheit wird das Teil sicher nicht. Kommt ganz nach der 7900GX2 und 9800GX2. Den einzigen Vorteil dieser Karte sehe ich darin, dass die Preise der GTX280/60 und 4870 fallen werden, was die meisten hier ja wohl eher interessieren dürfte. Vielleicht schafft es Nvidia aber auch mit dieser Karte die letzten SLI-Probleme zu beseitigen, sofern bei dieser Kombo überhaupt welche vorhanden sind. Dann könnte man endlich mal über SLI nachdenken.

500$...Also ca. 400€ bei uns, oder was meint ihr dazu?

M@rshall15
19.12.2008, 13:11
eine bessere Alternative zu der hd4870x2. Die sieht ja ziehmlich alt gegen deises Monster aus :D

Dark9
19.12.2008, 13:24
eine bessere Alternative zu der hd4870x2. Die sieht ja ziehmlich alt gegen deises Monster aus :D
macht nichts, die bleibt nicht an oberster stelle,ati kommt ja 2009 mit einer neuen schnelleren generation,die ist auf jedenfall stromsparender.schau mal was die neue 9 er serie an strom verbraucht!
es bringt einfach nichts,fast alle 6 monate kommt von jeder firma was neues und die überholen sich gegenseitig,aber ich tippe mal,das jahr 2009 gehört ati.

M@rshall15
19.12.2008, 17:42
macht nichts, die bleibt nicht an oberster stelle,ati kommt ja 2009 mit einer neuen schnelleren generation,die ist auf jedenfall stromsparender.schau mal was die neue 9 er serie an strom verbraucht!
es bringt einfach nichts,fast alle 6 monate kommt von jeder firma was neues und die überholen sich gegenseitig,aber ich tippe mal,das jahr 2009 gehört ati.

hm ich glaub Nvidia vergesst nicht 2008 wo ATI mit der hd48xx Reihe alles wegbombte :D Nvidia wird wohl kräftig nachlegen. Ich hoffe das Nvidia und ATI sich dieses Jahr orgentlich bekriegen. Das ist nur besser für den Markt :D

Loco
19.12.2008, 17:49
ist doch völlig egal welche Firma die Nase vorn haben wird.
Hauptsache wir bekommen gute Karten angeboten. Ob da jetzt nvidia oder ATI draufsteht ist doch total egal!

-THRiLLiAL-
20.12.2008, 00:57
hier ein erster test sowie benches zur neuen gtx295 -> http://www.pcgameshardware.de/aid,670858/Test/Benchmark/Geforce_GTX_295_-_Erster_Test_der_Nvidia-Dual-Grafikkarte/

hiermit ergattert sich nvidia wieder die perf krone ;)

Black_Death
20.12.2008, 00:58
hier ein erster test sowie benches zur neuen gtx295 -> http://www.pcgameshardware.de/aid,670858/Test/Benchmark/Geforce_GTX_295_-_Erster_Test_der_Nvidia-Dual-Grafikkarte/

hiermit ergattert sich nvidia wieder die perf krone ;)

... und so sieht sie nackt aus.
http://www.pcgameshardware.de/aid,671151/News/Geforce_GTX_295_zerlegt_Bildergalerie/

ZaCXeeD
20.12.2008, 01:10
... und so sieht sie nackt aus.
http://www.pcgameshardware.de/aid,671151/News/Geforce_GTX_295_zerlegt_Bildergalerie/

Geile ******* sieht die geil aus :-D

Boah bin ich gespannt was bei den Benches dann rauskommen wird....

Sommer wird wieder aufgerüstet^^

- Crysis2142

1337_alpha
20.12.2008, 01:13
Geile ******* sieht die geil aus :-D

Boah bin ich gespannt was bei den Benches dann rauskommen wird....

Sommer wird wieder aufgerüstet^^

- Crysis2142

Die sieht genau so ******* aus wie die GX2
Ein Alptraum für alle Wasserkühler....

ZaCXeeD
20.12.2008, 01:35
Die sieht genau so ******* aus wie die GX2
Ein Alptraum für alle Wasserkühler....

joa wer die Wasserkühlen will schon...

aber für Leute die eher auf Luft stehen ist nach meiner Meinung dann eh wurscht, da dann nur auf die Leistung geschaut wird^^

ne ich finds recht nice, weil ich socleh Platinen und so recht immer interessant finde...

Auch die Entwicklung von den Karten ist einfach gigantisch....so ein Sprung gab es mittlerweile noch nie in der PC Branche;-)

- Crysis2142

-THRiLLiAL-
20.12.2008, 12:37
hier die gtx295 gegen die hd4870er x2 im benchmark-test mit 8x AA -> http://www.pcgameshardware.de/aid,671188/Test/Benchmark/Geforce_GTX_295_vs_Radeon_HD_4870_X2-_Benchmark-Test_mit_8x-Kantenglaettung/

die normalen benches sollen die lieber ma mit gta4 machen, allerdings nen bericht verfassen und nicht den gta4 bench durchlaufen. der ist ja sowieso nicht zu gebrauchen. am besten ma berichten mit 3 oder 4 verschiedenen qualitäts-settings .. naja ^^

ZaCXeeD
20.12.2008, 12:42
Joa also die Karte rennt schon gut....bringt doppelt soviel FPS wie in Warhead, aber das tut jetzt schon das normale SLi genauso^^ von daher ;-)

aber bei solchen Auflösungen zock ich eher ohne AA und vorallem bei Crysis, da mal kaum den Unterschied merkt....

mal weiterbeobachten....

- Crysis2142

HunT
21.12.2008, 00:47
macht nichts, die bleibt nicht an oberster stelle,ati kommt ja 2009 mit einer neuen schnelleren generation,die ist auf jedenfall stromsparender.schau mal was die neue 9 er serie an strom verbraucht!
es bringt einfach nichts,fast alle 6 monate kommt von jeder firma was neues und die überholen sich gegenseitig,aber ich tippe mal,das jahr 2009 gehört ati.

Du vergisst den GT300, der ja Q4 2009 released werden soll.

Außerdem ist es eben nicht egal, von welchem Hersteller eine Karte kommt. Ich kaufe deshalb Nvidia, weil ich die Treiber besser finde, PhysX und CUDA nutze.

Alienkopf
21.12.2008, 01:38
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2008/dezember/geforce_gtx_295_hd_4870_x2/

Was?! die verbraucht 400-450 Watt bei Crysis Warhead?!?!...Da würde dann wohl mein 600 Watt Netzetil nicht ausreichen -.-

ZaCXeeD
21.12.2008, 01:53
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2008/dezember/geforce_gtx_295_hd_4870_x2/

Was?! die verbraucht 400-450 Watt bei Crysis Warhead?!?!...Da würde dann wohl mein 600 Watt Netzetil nicht ausreichen -.-

das GANZE System braucht mit dieser Karte soviel Watt...

nicht nur die Karte...die Karte braucht ungefähr 290 Watt...

nur so als Information...

- Crysis2142

Cephei
21.12.2008, 02:18
Wobei 290 Watt auch nicht gerade wenig ist.

ZaCXeeD
21.12.2008, 02:33
Wobei 290 Watt auch nicht gerade wenig ist.

Nuja im vergleich zu einer 280 GTX ist das ein bisschen heftig....sind ja 2 Karten...also schon recht nice das Ding....

- Crysis2142

Black_Death
21.12.2008, 03:13
Prima dann schafft auch mein Netzteil die karte. Ich denke das ich mir die Besorgen werde. irgendwo muss das ganze Wheinachtsgeld ja hin ;P, und da ich eh kaum Leute beschenke, bleibt viel übrig :twisted:.

Dann hätten die aber auch dabei schreiben sollen, was das komplette Testsystem ist :roll:.

ZaCXeeD
21.12.2008, 03:27
Prima dann schafft auch mein Netzteil die karte. Ich denke das ich mir die Besorgen werde. irgendwo muss das ganze Wheinachtsgeld ja hin ;P, und da ich eh kaum Leute beschenke, bleibt viel übrig :twisted:.

Dann hätten die aber auch dabei schreiben sollen, was das komplette Testsystem ist :roll:.

Nuja das Bild wurde von einer chinesischen Seite entnommen und die Leute die die News verfasst haben konnten evtl nicht herauslesen, ob das nu der komplette Rechner ist oder net....

Wenn man aber die Tabelle mit den Vergleich zwischen den drei GT200 Karten, dass sieht man doch bei "Max Board Power (TDP)", dass da die Watt-Zahl bei den Karten steht....

- Crysis2142

Black_Death
21.12.2008, 03:31
Ja man wird später mehr sehen. So gute nacht morgen Arbeiten :shock:. Also heute praktisch^^.

AAh, merk gerade, man brauch einen 6er und einen 8er pci stromanschluss mist hab nur 2x 6er, koot. Naja neues netzteil ;=

ZaCXeeD
27.12.2008, 15:18
EVGA GTX 260 Core 216 55nm GPU ou now...

So Leute...bei EVGA gibbet nun eine aufgepimpte Version der 260....sollen richtig geile Spitzenwerte geben :-D als wie die normale 260....

Hier mal die Quelle:

http://www.evga.com/articles/00454/

- Crysis2142

Servitor
01.01.2009, 02:25
Hallo.

In einer News,
stand mal dirn wieso die jetzt die GeForce Karten nicht mehr 8000 oder 9000 Serie heißt sondern GT200 , GTX260 Serie .....

Leider finde ich diese News nicht mehr.


Wisst ihr wie die News hieß, oder wieso die Serien jetzt alle GT200.... heißen ?

RED
01.01.2009, 02:38
Eventuell hilft dir das weiter.

http://ht4u.net/news/2421_nvidia_aendert_namensgebung_ihrer_grafikkarte n/

Servitor
01.01.2009, 11:33
Die News müsste aber von GameStar sein.

Flying_Dragon
01.01.2009, 12:23
Die News müsste aber von GameStar sein.

lol ist doch egal von wo die news ist... hauptsache du hast die information oder nicht?

CRYSISTENSE
01.01.2009, 12:25
Wann soll jetzt eigentlich die GTX295 kommen? Noch im Januar?

RED
01.01.2009, 12:35
Am 15 Jaunuar soll sie erscheinen.

Servitor
01.01.2009, 13:07
lol ist doch egal von wo die news ist... hauptsache du hast die information oder nicht?

jop. Stimmt schon.

T-Rocc
02.01.2009, 11:21
Nvidia GeForce GTX 285 zeigt sich im Handel

In Hong Kong sind erste GeForce-GTX-285-Beschleuniger vom Hersteller Gigabyte (http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2009/januar/nvidia_geforce_gtx_285_handel/#) im Handel aufgetaucht, wie die Kollegen von HKEPC berichten. Der Preis der Karte liegt – je nach Händler – zwischen 3200 und 3400 Hong Kong Dollar, umgerechnet 296 Euro bzw. 314 Euro.

http://pics.computerbase.de/2/3/9/1/7/1_m.jpg (http://www.computerbase.de/bildstrecke/23917/1/)

Auch in Deutschland ist der erste Schritt des zukünftigen Single-GPU-Flaggschiffs in die Händlerregale getan. So preist der Online-Shop Neobuy.de die Karte seit gestern mit 389,90 Euro aus – eine für den deutschen Markt durchaus realistisch klingende Preisvorstellung. Die GeForce (http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2009/januar/nvidia_geforce_gtx_285_handel/#) GTX 280 ist derzeit ab 335 Euro zu haben. Lieferbar ist die GeForce GTX 285 jedoch noch nicht.

Quelle: Computerbase (http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2009/januar/nvidia_geforce_gtx_285_handel/)

Na, mal schauen ob ich mir die holen werde.

CRYSISTENSE
02.01.2009, 11:57
Die GTX285 wird ungefähr 10% schneller sein als eine GTX280. Damit dürfte eine GTX280 AMP oder EVGA superclocked wiederum schneller sein, als die 285. Da diese am Anfang 390,-- kosten soll, kann sich jeder selber ausrechnen ob sich das lohnt8-)

-THRiLLiAL-
02.01.2009, 12:23
alles geldmacherei, wartet ab und schiesst nicht unüberlegt rein. höchstens 10%, ne clocked karte vlt bis zu 15%, was immer noch viel zu wenig ist. zuschlagen kann man meiner meinung nach, wenn man ne durchschn. mehrleistung von etwa 30% unterm strich verbuchen kann oder mehr.

CRYSISTENSE
02.01.2009, 12:27
Genau so sehe ich das auch. Eine GT280 wäre ganz gut:)

T-Rocc
02.01.2009, 12:30
Also lieber 'ne GTX280 als Übergangslösung zulegen, bis der GT300 kommt?

Wann kommt der denn eigentlich?

Gibt's da schon was neues?

-THRiLLiAL-
02.01.2009, 12:31
Genau so sehe ich das auch.

und vor allem .. ne neue graka, für was? für GTAIV -> OK für Crysis/Warhead -> OK, aber was kommen schon in diesem jahr für weichflötengames raus. (wenn wir glück haben vlt alan wake als favorit des jahres .. od. colin mc rae dirt2. fear 2 mit ner angestaubten optik -super- spart euch lieber das geld, bis was richtiges kommt.

M@rshall15
02.01.2009, 23:02
HL2 Episode 3 kommt vielleicht :D
Aber dürfte auch nicht viel Peformance fressen.

JamDeluxe
02.01.2009, 23:09
Nicht vielleicht, es WIRD kommen. Aber immernoch auf der Source Engine ;)

Servitor
03.01.2009, 19:43
Weis jemand eigentlich wann die Nächste Grafikgeneration kommt, gibt es da eine Roadmap ?

ZaCXeeD
03.01.2009, 19:53
Weis jemand eigentlich wann die Nächste Grafikgeneration kommt, gibt es da eine Roadmap ?

Ende dieses Jahres oder vielleicht auch nächstes Jahr....

kA^^

Aber auf jeden Fall net früher...

- Crysis2142

eFFeCTiVe
03.01.2009, 20:03
Tjoa, bis dahin werd ich wohl auch noch warten... Denn ich freu mich wie n Schneekönig auf Aliens:Colonial Marines, das Game wird bestimmt der Oberburner:razz::razz::razz:

Und dafür werd ich mir dann nen neuen Rechner mit ner GTX 280 holen müssen...

Die Karten werden ja wohl hoffentlich dann nochn Stück billiger:)

Servitor
04.01.2009, 22:12
News:


http://www.gamestar.de/hardware/news/grafikkarten/1952486/media_markt_bestaetigt_nvidia_umbenennungen.html


Das ist aber Verwirrend.


Woher will man den jetzt wissen wenn man sich ein Komplett Pc kauft, und da steht dran z.B: G100 was ist dan das für ne Grafikkarte ?

steht das wo auf einer Seite ?

twinTurbo
04.01.2009, 22:22
GT120 --> 9500GT
GT130 --> 9600GSO (ex8800GS)
Für die Karte ist es also die zweite Umbenennung!

Sonst guckst du pcgh.de Habe im Moment keinen Link, da ich mit meinem iPod surfe ;-)

Robin
04.01.2009, 22:24
GT120 --> 9500GT
GT130 --> 9600GSO (ex8800GS)

:wall:
...also mehr Worte (Smileys) für diese Bezeichnung benötigt es nicht... :tock:

Warum benennen sie die GeForce 5200FX nicht auch noch in "GT010" um... *kopf schüttel*

CRYSISTENSE
04.01.2009, 22:52
Anscheinend bewahrheitet sich der, allgemein bekannte, Slogan von MM doch.

Eine Schande, dass es solche Ketten überhaupt gibt:roll:

M@rshall15
04.01.2009, 23:41
Einfach nur Geldmacherrei ist das. Damit der Kunde bloß denkt das eine gute Karte im PC drin steckt und den dann kauft. Ich finde das Nvidia sowas nicht nötig hat!

ZaCXeeD
05.01.2009, 00:34
Einfach nur Geldmacherrei ist das. Damit der Kunde bloß denkt das eine gute Karte im PC drin steckt und den dann kauft. Ich finde das Nvidia sowas nicht nötig hat!

Jop genauso sehe ich das auch...bei den beiden Karten versucht NVIDIA mal wieder die Produktionskosten aufzustocken....

Ich bleib bei meinen Karten...sind mir bisher "treu" gewesen :D

Außerdem...so geile Benches bringen die neuen Karten jetzt auch nicht...

Servitor
05.01.2009, 00:51
Anscheinend bewahrheitet sich der, allgemein bekannte, Slogan von MM doch.

Eine Schande, dass es solche Ketten überhaupt gibt:roll:


Wie heißt den der Slogan ?

Willy
05.01.2009, 01:07
Wie heißt den der Slogan ?

:roll:

Ich bin doch nicht blöd...

1337_alpha
05.01.2009, 23:35
T_T
Ist euch schonmal aufgefallen dass zurzeit überall die EVGA GTX260 nicht mehr verfügbar ist? -_-

masterkiller7
05.01.2009, 23:39
T_T
Ist euch schonmal aufgefallen dass zurzeit überall die EVGA GTX260 nicht mehr verfügbar ist? -_-

haha! is hallt so hammer karten hersteller meine nächste nviedia karte wird auch eine von EVGA sein zwar etwas teurer aber echt 1A!

ZaCXeeD
05.01.2009, 23:41
T_T
Ist euch schonmal aufgefallen dass zurzeit überall die EVGA GTX260 nicht mehr verfügbar ist? -_-

Denk mal nach...jetzt kommt ja die 55nm Version raus...deswegen wird die "alte" wahrscheinlich nicht mehr lieferbar sein ;-)

Ist auch denk ich mal sinnvoller zu warten...

1337_alpha
05.01.2009, 23:48
Denk mal nach...jetzt kommt ja die 55nm Version raus...deswegen wird die "alte" wahrscheinlich nicht mehr lieferbar sein ;-)

Ist auch denk ich mal sinnvoller zu warten...

Dennis ich hab doch aber ne Wakü T_T
Na hats klick gemacht ? :(

PiTBull
05.01.2009, 23:54
Denk mal nach...jetzt kommt ja die 55nm Version raus...deswegen wird die "alte" wahrscheinlich nicht mehr lieferbar sein ;-)

Ist auch denk ich mal sinnvoller zu warten...


Habe meine EVGA 260GTX SC 55nm bekommen und bis jetzt Rennt die Sau ohne Probleme.

Werde die Tage mal bis an ende von gut und Böse Testen mal schauen was kommt.:aua:

http://img3.imagebanana.com/img/71ew7ggj/thumb/IMAG0181.JPG (http://img3.imagebanana.com/view/71ew7ggj/IMAG0181.JPG)

ZaCXeeD
06.01.2009, 00:00
Dennis ich hab doch aber ne Wakü T_T
Na hats klick gemacht ? :(

Na dann sag ich klipp und klar...pech gehabt...sry wenn das so hart klingt, aber so ist das nun mal so in der heutigen Zeit ;-)

Aber solltest mal beim nächsten mal besser schaun...hier z.B. ist die noch lieferbar:

http://www.mzehn.de/eshop.php?action=article_detail&s_supplier_aid=965643&rid=googlebase

sollte helfen :-D

pilzbefall
06.01.2009, 00:03
Habe meine EVGA 260GTX SC 55nm bekommen und bis jetzt Rennt die Sau ohne Probleme.

Werde die Tage mal bis an ende von gut und Böse Testen mal schauen was kommt.:aua:

http://img3.imagebanana.com/img/71ew7ggj/thumb/IMAG0181.JPG (http://img3.imagebanana.com/view/71ew7ggj/IMAG0181.JPG)
bin auf dein o´clocking gespannt!

Sandbox_User
06.01.2009, 01:14
bin auf dein o´clocking gespannt!


is die better als die gtx280 ?

klärt mich mal auf bin nicht mehr auf dem aktuellen stand!

PiTBull
06.01.2009, 01:16
bin auf dein o´clocking gespannt!


Ich auch in anderen Foren ist man auch schon am testen.Werde morgen mal anfangen:D

@ Sandboy User

also bei Fudzilla haben sie es schon getestet und die EVGA SC 55nm hat die 280GTX geschlagen:D

http://www.fudzilla.com/index.php?option=com_content&task=view&id=11117&Itemid=40

Sandbox_User
06.01.2009, 01:23
hmmmmm, ja aber nur im 1-3 FPS so wie ich das sehe ne!

wie teuer ist die Karte denn?
wenn sie nicht wesetlich billiger wie die 280 ist, dann ist das aber hier mehr verrückt machen wie sonst was oder?

1337_alpha
06.01.2009, 01:29
Die kostet fast 150 euro weniger ^^

Servitor
06.01.2009, 11:05
Hier eine News zur High-End-GPU GT212

http://www.hardwareluxx.de/story.php?id=9047


http://www.hardware-infos.com/news.php?news=2629

(Bei der News hier sieht man sehr gut die Daten von der Graka in einer Tabellenübersicht.)


Könnt es ja euch mal Anschauen. :wink:

1337_alpha
06.01.2009, 15:04
http://www.kmelektronik.de/main_site/?SiteType=Shop&type=shop&ArtNr=348653&Ref=100&gp=1188&fd=372436

Puh....
Also ich hol meine Karte jetzt hier :)
Falls sie da nochmal kaputt geht kann ich auch einfach in die nächste Stadt (Karlsruhe) innen KM Laden fahrn

M@rshall15
06.01.2009, 21:03
64xQ-FSAA mit GTX-295-Quad-SLI
http://www.pcgameshardware.de/aid,672050/News/64xQ-FSAA_mit_GTX-295-Quad-SLI/

Servitor
08.01.2009, 16:06
Geforce GTX 295 im Performance-Test


Geforce GTX 295 - Test der finalen Nvidia-Dual-Grafikkarte

http://www.pcgameshardware.de/aid,671953/Test/Benchmark/Geforce_GTX_295_-_Test_der_finalen_Nvidia-Dual-Grafikkarte/

CRYSISTENSE
08.01.2009, 16:11
Ganz nett, aber mehr auch nicht. Zudem ist der Test auch noch von PCGH :aua: Warten wir mal lieber die ersten Tests der Luxxer ab.

Nixblicker
08.01.2009, 16:33
Und hier der Test von Computerbase ;)

http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_nvidia_geforce_gtx_295/

PS. Ich hab den Beitrag von Servitor gelesen ;)

Servitor
08.01.2009, 17:00
Treiber für GTX 285 und 295


Geforce 181.20 WHQL: neue Treiber für Geforce-Grafikkarten als Download


http://www.pcgameshardware.de/aid,672326/Download/Geforce_18120_WHQL-_neue_Treiber_fuer_Geforce-Grafikkarten_als_Download/


Wieso was ist mit Pcgh ?

1337_alpha
08.01.2009, 18:18
[B][SIZE=3][COLOR=red]
Wieso was ist mit Pcgh ?

Den Tests kann man oftmals nich so glauben schenken
Da warten einige lieber auf Test der Luxxer was auch verständlich ist

Servitor
08.01.2009, 18:22
Den Tests kann man oftmals nich so glauben schenken
Da warten einige lieber auf Test der Luxxer was auch verständlich ist



Mit Luxxer meinst du bestimmt Hardwareluxx :-)

HunT
08.01.2009, 18:22
Da unterscheiden sich die Tests von CB und PCGH mal wieder...wem soll man glauben? Keinem, auch nicht den Luxxern! Karte kaufen und selber testen!

Hepta
08.01.2009, 18:24
Da unterscheiden sich die Tests von CB und PCGH mal wieder...wem soll man glauben? Keinem, auch nicht den Luxxern! Karte kaufen und selber testen!
Wenn man schon so paranoid ist und glaubt, der eine lügt dem anderen was vor (etwas paranormales verhalten, aber was solls) dann ist das wohl das einzig richtige.

HunT
08.01.2009, 18:26
Wenn man schon so paranoid ist und glaubt, der eine lügt dem anderen was vor (etwas paranormales verhalten, aber was solls) dann ist das wohl das einzig richtige.

Sry, aber schau dir die Tests doch mal selber an und dass viele Luxxer Fanboys sind, brauche ich nicht zu erwähnen...

Hepta
08.01.2009, 18:29
Sry, aber schau dir die Tests doch mal selber an...
Ich bin mir sicher, die sind nicht irgendwie an den einen oder anderen Hersteller adaptiert. Es sind einfach nur die User, die glauben, sie sind obergscheit, weil sie halt jeden Tag ihre Nase so lange in Foren und Tests stecken, bis diese weiß und er selbst naseweiß wird. Die User vergessen dann auch sehr oft, was sie selbst doch so lautstark verbreiten: "Jeder Prozessor ist unterschiedlich... Wie die Menschen."

Nunja, ich bin der Auffassung, das das auch aufs gesamte System zutrifft.

Also hört doch auf mit diesem "die Benchmarks sind nicht echt" oder "der Test ist manipuliert".

HunT
08.01.2009, 18:34
Ich bin mir sicher, die sind nicht irgendwie an den einen oder anderen Hersteller adaptiert. Es sind einfach nur die User, die glauben, sie sind obergscheit, weil sie halt jeden Tag ihre Nase so lange in Foren und Tests stecken, bis diese weiß und er selbst naseweiß wird. Die User vergessen dann auch sehr oft, was sie selbst doch so lautstark verbreiten: "Jeder Prozessor ist unterschiedlich... Wie die Menschen."

Nunja, ich bin der Auffassung, das das auch aufs gesamte System zutrifft.

Also hört doch auf mit diesem "die Benchmarks sind nicht echt" oder "der Test ist manipuliert".

Müssen aber krasse Systemunterschiede sein...mir ist schon klar, dass es immer eine Abweichung gibt, aber bei weitem nicht so groß. Aber egal, soll jeder glauben, was er will...

1337_alpha
08.01.2009, 18:38
Da unterscheiden sich die Tests von CB und PCGH mal wieder...wem soll man glauben? Keinem, auch nicht den Luxxern! Karte kaufen und selber testen!

Ähh du weißt schon dass ich mit Luxx Tests User Tests meine?!
Auf die konnte man bisher immer vertrauen
Auf die Printed Tests geb ich mittlerweile auch nichmehr viel
Für die die es nicht wissen
Printed ist die Zeitschrift vom Hardwareluxx

masterserial2
08.01.2009, 18:38
um sich wirklcih ein urteil zu bilden müsst ihr auch die systeme vergleichen die einen machen die tests mit Intel Core 2 Duo E8500 (http://www.pcgameshardware.de/m,preisvergleich/a303350.html), OC @ 3.600 MHz (400x9) ,, und die anderen ... mit Intel Core 2 Extreme QX9770 (übertaktet per Multiplikator auf 4 GHz, Quad-Core)


alleine scho die verwendeten boards da liegen schon welten dazwischen .....



somit sind auch die unterschiede erklärt ... zumal man eine 4870x2 oder eine gtx295 mit einen c2d auch mit 4ghz ;) nicht ausreitzen kann ... :) dazu wird dann schon ehr sowas nötig sein ...: Intel Core 2 Extreme QX9770 (übertaktet per Multiplikator auf 4 GHz, Quad-Core)

1337_alpha
08.01.2009, 18:54
Kleines Update!
Sogar auf http://www.xtremesystems.org/forums/ werden die Tests von CB schon angezweifelt
Also wenn schon im größten Hardware- und OC-Forum der Welt schon Zweifel aufkommen dann weiß ich auch nich....

HunT
08.01.2009, 21:08
Kleines Update!
Sogar auf http://www.xtremesystems.org/forums/ werden die Tests von CB schon angezweifelt
Also wenn schon im größten Hardware- und OC-Forum der Welt schon Zweifel aufkommen dann weiß ich auch nich....

CB hat für mich schon immer "merkwürdige" Tests gehabt. Keine Ahnung, was die da machen, aber deren Tests sind oft nicht nachvollziehbar.

1337_alpha
08.01.2009, 21:26
CB hat für mich schon immer "merkwürdige" Tests gehabt. Keine Ahnung, was die da machen, aber deren Tests sind oft nicht nachvollziehbar.

Der erste Kühler ist auch schon in der Mache dafür :)
http://crysis.4thdimension.info/forum/showthread.php?p=282904#post282904

ZaCXeeD
08.01.2009, 22:56
Hier könnt ihr schonmal bei EVGA gucken, wie bei denen die GTX285 und GTX295 ausschauen wird:

GTX285

http://www.evga.com/articles/00445/

GTX295

http://www.evga.com/articles/00446/

Also ich persönlich find den Style nice...

Fusion145
08.01.2009, 23:01
Und hier könnt ihr sie sogar schon kaufen (zumindest die GTX295)^^:wink::

EVGA GTX295 (http://geizhals.at/deutschland/a394217.html)

T-Rocc
08.01.2009, 23:01
Hier könnt ihr schonmal bei EVGA gucken, wie bei denen die GTX285 und GTX295 ausschauen wird:

GTX285

http://www.evga.com/articles/00445/

GTX295

http://www.evga.com/articles/00446/

Also ich persönlich find den Style nice...

Also die GTX285 finde uch echt Hammer, die GTX295 ist irgendwie so Klobig. Naja, das sind ja aber auch 2 karten in einer, vielleicht ging das ja net besser.

Zur GTX285, mal schauen, wieviel die kosten wird. Werde mir die dann holen, auch wenn sie nicht viel schneller ist als die alte.

Edit: Die GTX285 hat aber keinen HDMI-Ausgang, oder? Sieht man auf dem Bild net.

Edit 2: Die GTX285 ist auch schon gelistet. EVGA GTX285 Superclocked (http://geizhals.at/deutschland/a394429.html)

LKrieger
08.01.2009, 23:17
Hier sind die Reviews von XFX - die 285er hat wieder son geilen Skin - der Wahnsinn... Sogar wieder ne Black Edition verfügbar...

http://xfxforce.com/de/products/graphiccards/200series.aspx

Wer will kann sich sogar schon ne EVGA 295er bei Alternate kaufen
http://www.alternate.de/html/product/Grafikkarten_NVIDIA_PCIe/EVGA/GTX295/316052/?tn=HARDWARE&l1=Grafik&l2=Karten+PCIe&l3=NVIDIA
Sogar lieferbar...

Jetzt sogar auf die XFX
http://www.alternate.de/html/product/Grafikkarten_NVIDIA_PCIe/XFX/GTX295/317154/?tn=HARDWARE&l1=Grafik&l2=Karten+PCIe&l3=NVIDIA
allerdings diese nicht lieferbar :D.

Mfg LKrieger

HarryRulez
08.01.2009, 23:23
Stellt sich gleich die frage 3x280 gtx oc verkaufen und 2x 295 holen ^^ Ne nur nen scherz8-)

LKrieger
08.01.2009, 23:36
Stellt sich gleich die frage 3x280 gtx oc verkaufen und 2x 295 holen ^^ Ne nur nen scherz8-)

Würd ich nicht machen (hab dein Scherz schon gelesen - jedoch gleich Begründung) - da eher 285er kaufen... die 295er steht in keinem Verhältnis...

Vorallem hab ich schonwieder viel über Microrucklern bei der Dualkarte gehört... Das hat NV anscheinend wieder ins Leben gerufen... Was auch negativ ist und mir gleich aufgefallen ist ist die Kühlung. Wenn man sich mal bei den Herstellern die mikrigen Aufkleber anschaut... Normal hat es beispielsweise XFX immer richtig damit übertrieben - jetzt muss da Platz sein für Lüftungslöcher... Das gibt mir schonwieder zu denken wie heiß die Karte wohl werden muss - wenn der heißgeliebte Aufkleber jetzt so klein ausfällt... :D

Nya ich werde aufjedenfall! bei meinen 280ern bleiben - sone Geldmachermethode zieht nicht - wenn GT 300 kommt kanns anders sein :D.
Für Neueinsteiger ist jedoch ne 285er was feines... eine 295er Würde ich hingegen niemanden aufs Erste empfehlen.
Was ich jetzt von mir gegeben habe ist natürlich nur eine Vermutung mit der Hitze usw... es gilt natürlich erstmal Userberichte zu überprüfen... Jedoch wäre ich mit einem Kauf erstmal sehr vorsichtig!

Mfg LKrieger

T-Rocc
08.01.2009, 23:46
Edit 2: Die GTX285 ist auch schon gelistet. EVGA GTX285 Superclocked (http://geizhals.at/deutschland/a394429.html)

Sorry, aber muß mich nun selber mal Zitieren.

Meint ihr, der angegebene Preis stimmt bei der Karte?

Wenn ja, dann ist die auf jeden fall sofort gekauft.

LKrieger
08.01.2009, 23:48
Geh se am besten gleich kaufen - sonst ändern sie vllt den Preis noch - wenn du die zu dem jetztigen Zeitpunkt Bestellst müssen sie dir die Karte auch für den Preis verkaufen :d.

Denke aber schon das die Karte für den Preis rausgeht...

Mfg LKrieger

T-Rocc
08.01.2009, 23:54
Sofort zuschlagen?

Würde ich gerne. :wink:

Muß mich aber noch 'ne Woche gedulden und warten bis mein Gehalt auf meinem Konto ist.

Fusion145
09.01.2009, 00:09
Vorallem hab ich schonwieder viel über Microrucklern bei der Dualkarte gehört... Das hat NV anscheinend wieder ins Leben gerufen...

Ähm, die Mikroruckler existieren schon die ganze Zeit, das Problem wurde auch bis jetzt noch nicht behoben.

NVidia hat es mit einem verbesserten Treiber (und der GTX295) sogar geschafft die Mikroruckler (teilweise) zu verringern.

http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_nvidia_geforce_gtx_295/21/#abschnitt_mikroruckler_auf_der_gtx_295

LKrieger
09.01.2009, 00:15
Ähm, die Mikroruckler existieren schon die ganze Zeit, das Problem wurde auch bis jetzt noch nicht behoben.

NVidia hat es mit einem verbesserten Treiber (und der GTX295) sogar geschafft die Mikroruckler zu verringern.

http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_nvidia_geforce_gtx_295/21/#abschnitt_mikroruckler_auf_der_gtx_295

Das die Exisitieren weiß ich auch. Jedoch war damals mit den G70 und den G80 Karten die Ruckler am schlimmsten, fortgeführt von der 9er Reihe. Die 280 GTX Reihe hat (wie ich selber feststellen kann) keine spürbaren MR's (Und was FPS angeht bin ich sehr empfindlich... 60 fps gaming usw...). Bei der 260 waren die noch an manchen Stellen ein bisschen zu spüren, jedoch auch nicht oft und stark. Selbst messen kann man die kaum mehr...

Daher meinte ich das die jetzt wieder "ins Leben" gerufen wurden...

Mfg LKrieger

ZaCXeeD
09.01.2009, 00:22
Also ich hab auch kaum bemerkbare Mikroruckler...eigentlich merk ich da nichts im Vergleich zur G80...

Naja ob es bei der neuen Karten auch so sein wird oder schlimmer...ich wart einfach ab...

Ich persönlich werde keine der Karten kaufen...einfach irgendwie für mich sinnlos und 2. ich wart auf die GT300 ab...

T-Rocc
13.01.2009, 16:01
Hi,

der Preis der GeForce GTX 295 sinkt auf 360 Euro.

Das wird ja immer besser. 8)

Quelle: Computerbase (http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2009/januar/geforce_gtx_295_360_euro/)

Servitor
29.01.2009, 21:32
Hab da mal kurz eine Frage in dem Flyer vom Media Markt gibt es ein Rechner -->

PDF -->
http://www.mediamarkt.de/multimedia-prospekt/kw05_computer_acer_aspire_6930g/flyer_kw05/pdf/prospekt.pdf

Flash -->
http://www.mediamarkt.de/multimedia-prospekt/kw05_computer_acer_aspire_6930g/flyer_kw05/html/

Was ist die Ge Force GTS 150 für ne Grafikkarte ?

Willy
29.01.2009, 21:35
Was ist die Ge Force GTS 150 für ne Grafikkarte ?

Schon mal danach gegoogelt? Offensichtlich nicht.

So schwer? (http://www.google.com/search?hl=de&client=opera&rls=de&hs=8qd&sa=X&oi=spell&resnum=0&ct=result&cd=1&q=Geforce+GTS+150)

Du bist jetzt schon fast ein Jahr hier angemeldet und hast es immer noch nicht verstanden.

Servitor
30.01.2009, 18:21
Schon mal danach gegoogelt? Offensichtlich nicht.

So schwer? (http://www.google.com/search?hl=de&client=opera&rls=de&hs=8qd&sa=X&oi=spell&resnum=0&ct=result&cd=1&q=Geforce+GTS+150)

Du bist jetzt schon fast ein Jahr hier angemeldet und hast es immer noch nicht verstanden.



jo :oops:

Danke aber für den Link.



http://www.tweakpc.de/news/14793/hinweise-auf-nvidia-gts-150-gt-130-und-gt-120/

da steht aber nur dran -->
NVIDIA_G92.DEV_0615.1 = "NVIDIA GeForce GTS 150aber woher eis man jetzt was ist das für eine ist ?

Counter233
30.01.2009, 18:36
Man google doch einfach...du brauchst da ne Minute für...

Ist das so schwer???

Soll ich dir den link von google geben??? ;)

http://www.gidf.de/ Präge dir die Seite genau ein ;)

Willy
30.01.2009, 19:07
Servitor.

Merke:
1. Google spuckt verschiedene Links aus.
2. Der erste ist nicht immer der beste.
3. Wenn man beim ersten nichts findet, klickt man einen anderen an.
4. Man kann direkt nach der Suche an den kleineren Linkunterschriften erkennen worum es geht.


















__________________________________________________ _____
(Platz zum Verstehen)

http://forum.chip.de/grafikkarten/geforce-gts-150-a-1127900.html

Wenn du das nicht gebacken kriegst, wird dir irgendwann keiner mehr helfen. Werde selbständiger.

Servitor
30.01.2009, 19:24
Servitor.


Merke:
1. Google spuckt verschiedene Links aus.

2. Der erste ist nicht immer der beste.
3. Wenn man beim ersten nichts findet, klickt man einen anderen an.
4. Man kann direkt nach der Suche an den kleineren Linkunterschriften erkennen worum es geht.



__________________________________________________ _____
(Platz zum Verstehen)


http://forum.chip.de/grafikkarten/geforce-gts-150-a-1127900.html



Wenn du das nicht gebacken kriegst, wird dir irgendwann keiner mehr helfen. Werde selbständiger.



jo, werde es mir gut merken.

Sir Lolz
30.01.2009, 19:26
@Servitor



Aus Geforce 9 wird Geforce G/GT/GTS/GTX-100 (http://www.hardware-infos.com/news.php?news=2555)

Ende September war auf TG-Daily zu lesen, dass Nvidia mit dem Gedanken spielt, seine Geforce-9-Reihe, die sowieso mehr oder minder nur ein Klon der achten Geforce-Generation ist, an das neue Namensschema der Geforce-GTX-200-Reihe anzupassen (http://www.hardware-infos.com/news.php?news=2419) - quasi eine doppelte Umbenennung. Ein Eintrag in einem aktuellen Nvidia-Treiber bestätigt nun diese Vermutung. Dadurch, dass den neuen Modellbezeichnungen auch Codenamen zugeordnet sind, lässt sich bereits jetzt eine recht griffige Tabelle auf Basis dieser Information erstellen.

[Tabelle auf der Seite]

Die vorliegende Tabelle erhebt noch keinen Anspruch auf vollständige Richtigkeit. Zwar lässt sich aus dem Treibereintrag beispielsweise mit großer Sicherheit herauslesen, dass mit dem Namen Geforce G100 die 8400 GS gemeint ist, weil diese als einzige auf dem G98-Chip basiert - Geforce 9300 GS und GE sind bis dato nicht im Handel erhältlich -, in den anderen Fällen kann man allerdings eher spekulieren und per Ausschlussverfahren zum möglichen Ergebnis kommen.

Die Bezeichnung Geforce GT 120 könnte beispielsweise ebenso gut einer 9400 GT wie einer 9500 GT angehören. Beide basieren auf dem G96-Chip und im Treiber gibt es nur einen Eintrag. Dasselbe ist im Falle des Namens Geforce GTS 160, Codename: G94b, zu beobachten. Sowohl die neue Geforce 9600 GSO 512 als auch die bereits länger erhältliche Geforce 9600 GT sind hier potentielle Kandidaten.

Besonders prikär ist die Lage im Performance-Segment. Es gibt lediglich einen Eintrag für den G92b-Chip (GTS 150), aber gleich drei potentielle Chips, nämlich Geforce 9600 GSO, 9800 GT und 9800 GTX+, wenn man die 9800 GTX gutmütig außen vor lässt.
Dadurch, dass es aber auch für die mobilen Chips Bezeichnungen im Treiber gibt, nämlich GTX 180M und GTX 170M, kann man jetzt vermuten, dass diese für die schnellsten Modelle, hier 9800 GTX+ und 9800 GT, vorgesehen sind. Somit bliebe für die 9600 GSO schlichtweg der Name GTS 150 übrig. Ist dies zutreffend, so erhöhen sich auch gleichzeitig die Chancen, dass sich hinter der Bezeichnung GTS 160 die 9600 GT und nicht die andere, neuere 9600 GSO 512 versteckt.

Sobald sich konkret abzeichnet, welcher Chip, welche Bezeichnung bekommt, werden wir Sie selbstverständlich informieren. Diese News zeigt den aktuellen Stand der Dinge auf und - das dürfte die wichtigste Neuigkeit sein - dass es jetzt aller Voraussicht nach zu dieser Umbenennung kommen wird. Diese sorgt zwar auf längere Sicht für mehr Transparenz, zunächst dürfte sie jedoch reichlich Verwirrung stiften, zumal Nvidia erst kürzlich eine Umbennung von Geforce 8 in 9 getätigt hat.
Damit dürfte alles gesagt sein

Quelle:http://www.hardware-infos.com/

ZaCXeeD
08.02.2009, 00:51
So hier mal für alle EVGA GT200 User...das GPU Voltage Tuner wurde released...



Exclusive EVGA GPU Voltage Tuner v.1.0

EVGA now gives you even more ways to maximize your EVGA card, with the exclusive EVGA GPU Voltage Tuner (GVT). This utility allows you to set a custom voltage level for your GTX 295, 280 or 260 graphics card. (see below for full supported list) Using this utility may allow you to increase your clockspeeds beyond what was capable before, and when coupled with the EVGA Precision Overclocking Utility, it is now easier than ever to get the most from your card. With these features and more it is clear why EVGA is the performance leader!


http://www.evga.com/articles/00462/images/egvt.jpg
Quelle: http://www.evga.com/articles/00462/

EDIT: Also bei mir bringt das Teil nichts :-D immernoch die selben Bilder und Stabilität^^ allerdings wenn ich es höher stelle geht es noch Stabil....

cry4me
08.02.2009, 02:36
So hier mal für alle EVGA GT200 User...das GPU Voltage Tuner wurde released...

Quelle: http://www.evga.com/articles/00462/

EDIT: Also bei mir bringt das Teil nichts :-D immernoch die selben Bilder und Stabilität^^ allerdings wenn ich es höher stelle geht es noch Stabil....

mal probiert ob du sie etwas höher takten kannst wenn du die voltage hochdrehst?
sollte ja eigentlich funktionieren .. bist e wassergekühlt ;)

ZaCXeeD
08.02.2009, 02:56
mal probiert ob du sie etwas höher takten kannst wenn du die voltage hochdrehst?
sollte ja eigentlich funktionieren .. bist e wassergekühlt ;)

ähm ich hab keine WaKü^^

und hab ja geschrieben, dass ich etwas höher komme und das stabil...aber so FPS mäßig bringt es in Crysis oder so net :-D

Ich lass meine so wie sie sind...net das die noch den Geist aufgibt^^

Servitor
09.02.2009, 21:11
NVidia: GTX260 mit neuem Design

http://zoomgamer.net/ZG2/news,id3887,nvidia_gtx260_neuem_design.html


Bin schon sehr gespannt wie das Neue Design aussieht.

RED
21.02.2009, 00:41
Von Msi kommt eine GTX260 mit 1.792 MB

Quelle PCGH:

http://www.pcgameshardware.de/aid,676697/MSI-Geforce-GTX-260-mit-1792-MiByte-VRAM/Grafikkarte/News/

CRYSISTENSE
21.02.2009, 00:46
Da Nvidia immernoch auf DDR3 setzt, ist diese 260 genau so sinnlos wie die 8800GT 1GB. Naja, es wird trotzdem wieder Leute geben, die sich diese Karte zulegen:roll:

RED
21.02.2009, 00:50
Da Nvidia immernoch auf DDR3 setzt, ist diese 260 genau so sinnlos wie die 8800GT 1GB. Naja, es wird trotzdem wieder Leute geben, die sich diese Karte zulegen:roll:


Da frag ich mich immer wieder, warum die sowas dann herstellen...eigentlich kann ichs mir schon denken.

cry4me
21.02.2009, 00:57
ich frag mich welches game ~1,7gb ram verwendet ;)

nichtmal crysis is so blöd *G*

aber es gibt genug spec geile leute die keinen tau haben...
mehr ram = besser
mehr mhz = besser

achja, und wenn ne hardware teuer is muss sie natürlich auch besser sein ;)

CRYSISTENSE
21.02.2009, 01:05
Minimale Fertigungskosten, bei maximaler Ausbeute. Nvidia zockt jeden ab, der sich nicht intensiv mit dem Thema beschäftigt und diese kleinen Tricks erkennt. Der Witz ist, dass es auch bei vielen Leuten hier im Forum funktioniert hat, bei denen man eigentlich annehmen dürfte, dass sie sich mit Hardware auskennen. Naja, schauen wir mal, wer seine 9600GT etc. gegen dieses neue Wunderwerk ersetzt:twisted:

LKrieger
21.02.2009, 01:06
Nya - ich sehe das eher als zusätzliche Hilfe! Betriffts AA oder Texturen (Rygels update). Da kann die Karte schone xtreme Punkte einfahren...
Warten wirs mal ab, wieviel sie in der Praxis bringt...

Ich werde jetzt dafür natürlich nicht mein Karten wechseln oder son quatsch :D:D - aber für Neueinsteiger ist das dann ne attraktive Karte...

EDIT: NV zockt nicht jeden ab! Das ist Geschäft wie würdest du handeln? Man kann wie gesagt eigentlich froh sein das es ATI/AMD und Intel/NV gibt. Würde ein Verbund zusammenbrechen - gäbe es einen alleinigen "Marktherrscher" der quasi die Preise bestimmen könnte. Heißt jetzt nicht das man fürne Karte 1000 Euro bezahlen muss, jedoch könnte der Hersteller seine Kosten massiv anheben, gibt ja weiter keinen...
Jetzt steht NV / Intel / Amd / Ati - zu einem guten Preisverhältnis - wie ich finde.

Mfg LKrieger

CRYSISTENSE
21.02.2009, 01:09
Wie soll die Karte denn besser sein? Wenn die Speicherbandbreite nicht erhöht wird, dann bringt das garnichts. Das ist so als würde man nur die halbe Autobahn asphaltieren. Klar, ein minimaler Liestungszuwachs ist sicher vorhanden, aber den bekomm ich mit einer normalen 260 auch durch das Übertakten und zwar für lau. Ich finde das nicht ok, wie die Leute dabei ver****** werden.

LKrieger
21.02.2009, 01:14
Wie soll die Karte denn besser sein? Wenn die Speicherbandbreite nicht erhöht wird, dann bringt das garnichts. Das ist so als würde man nur die halbe Autobahn asphaltieren. Klar, ein minimaler Liestungszuwachs ist sicher vorhanden, aber den bekomm ich mit einer normalen 260 auch durch das Übertakten und zwar für lau.

Ja das schon klar! Jedoch kannst du durch übertakten, den Ram nicht erhöhen :D:D. Den Takt kannste erhöhen! Bringen tuts dir indem fall etwas, das du eben mehr Texturen reinladen kannst, oder das die Karte mehr AA verträgt. Wobei das AA wie du schon sagst wieder leicht vom Ramspeed abhängt, da das Bild ja realtime in der Karte gewandelt werden muss. Bei schärferen Texturen oder mehr Objekt-Detailreichheit wirds denkich schon etwas bringen. - Abwarten ;).

Bei ATI bringts ja im Verhältnis jetzt auch nicth wirklich was. Wenn man mal die 295 und die 4870 x2 miteinander vergleicht - bringt DDR4 gegen DDR3 eig auch nix! Das liegt jetzt aber nicht am DDR4 - sondern weil die Karte allgemein langsamer ist - jedoch die neue Technologie schon verwendet wird...

Finde es eigentlich von ATI schon fast wieder überstürzt gehandelt, das sie jetzt schon anfangen wollen DDR5 zu verwenden... DDR4 scheint nichtmal richtig ausgenutzt...

Mfg LKrieger

CRYSISTENSE
21.02.2009, 01:21
Stimmt, die 295 ist trotzdem besser, deswegen frage ich mich auch immer, warum Nvidia nicht auf DDR5 umsteigt, denn das würde nochmal einen extremen Schub bringen. Damit wäre die neue 260 effizient, aber wahrscheinlich würde Nvidia dabei schon Verlust machen, schließlich muss der alte Speicher noch weg, bevor die neue Serie kommt^^

LKrieger
21.02.2009, 01:31
Stimmt, die 295 ist trotzdem besser, deswegen frage ich mich auch immer, warum Nvidia nicht auf DDR5 umsteigt, denn das würde nochmal einen extremen Schub bringen. Damit wäre die neue 260 effizient, aber wahrscheinlich würde Nvidia dabei schon Verlust machen, schließlich muss der alte Speicher noch weg, bevor die neue Serie kommt^^

Ja genau! Und vorallem - was machen wenn ATI aufeinmal ne Ultra-High end rausbringt? Man muss halt immer was in der Hinterhand haben... Denke ATI hat da aber auch etwas...

Mir egal - solange es beide Marken gibt - ist es für uns jedenfalls nicht schlecht :D.

Mfg LKrieger

CRYSISTENSE
21.02.2009, 01:36
Warten wir mal die neuen Karten ab. Hoffentlich sind beide auf dem gleichen Level, sonst können wir uns wieder Preise jenseits der 500€ anschauen:D

ZaCXeeD
21.02.2009, 02:25
Naja ich bin ebenfalls auch davon überzeugt, dass die GTX260 mit 1,7 GB VRAM net so der Hammer wird...

wird halt wieder so ein Produkt wo man denkt...was zur Hölle hat NV wieder für ein schmarn gemacht...

Aber danach kommt dann eine Grafikkarte von ATi raus, die alles wieder pwnen wird und daraufhin wird wieder NV antworten...so ist es atm^^

cry4me
21.02.2009, 02:32
Aber danach kommt dann eine Grafikkarte von ATi raus, die alles wieder pwnen wird und daraufhin wird wieder NV antworten...so ist es atm^^

genau so soll (und wird) es sein ;)

RED
24.02.2009, 14:37
So nun wird es bald auch eine GTX285 mit 2GB Speicher von Pallit geben.

Link zur Quelle:

http://www.pcgameshardware.de/aid,677069/Palit-stellt-Geforce-GTX-285-mit-2-GB-Speicher-vor/Grafikkarte/News/

Gruß

RED
26.02.2009, 12:16
Wie ich gerade auf PCGH (http://www.pcgameshardware.de/aid,677230/Gainward-stellt-Geforce-GTX-285-mit-2-GB-VRAM-vor/Grafikkarte/News/) erfahren habe, stellt auch Gainward eine GTX285 mit 2GB Vram her.
Da bin ich mal gespannt, welche Hersteller noch auf diesen Zug aufspringen.

Gruß

HunT
27.02.2009, 11:44
Mal gucken, was diese 2GB bringen...ich sage im Voraus schonmal: Garnichts! Hätten lieber 1GB GDDR5 draufpacken sollen. Aber wenn die Lager noch voll mit GDDR3 sind, wird das NV ja eher nicht machen.

ultimate288
27.02.2009, 12:02
naja kommt aufs spiel an
bei gta 4 bringts sicher etwas
und wenn man mit texurenpacks spielt nochmehr
was nv derzeit macht ist einfach *******
alte karten umbennen siehe GTS 240 oder 250
dagegen gibts die 260 jetzt mit b3 chip

ZaCXeeD
27.02.2009, 16:08
Mal gucken, was diese 2GB bringen...ich sage im Voraus schonmal: Garnichts! Hätten lieber 1GB GDDR5 draufpacken sollen. Aber wenn die Lager noch voll mit GDDR3 sind, wird das NV ja eher nicht machen.

Kann ich nur zustimmen...Nvidia macht derzeit nur mehr VRAM anstatt einfach mal ne neue DDR Reihe reinzupacken....

Damals war es echt noch geil...jetzt mittlerweile boomt die Produktion der selben Grafikkarte so stark, dass man die einfach so umbenennt oder ein paar andere Teile ändert...

Adenan
27.02.2009, 20:09
Könnte damit zusammenhängen das NVidia momentan auf ihren Karten sitzen bleibt.
Auf TomsHardware.de stand nen Artikel das NVidia auf 500k Karten sitzt weil die Hersteller nur sehr wenige Karten verkauft haben.
Wenn die die alten Karten nun einfach umbenennen erhoffen sie sich vieleicht bessere Verkäufe...?

LKrieger
03.03.2009, 20:08
Boaaa XFX mal wieder riiichtig reingehauen vom Design :asta::asta::asta:

http://www.xfxforce.com/ecms.ashx/GTS250GS250XYDFC2_web.jpghttp://www.xfxforce.com/ecms.ashx/ProductImages/GTS250_Card2.jpg http://www.xfxforce.com/ecms.ashx/ProductImages/GTS250Bracket.jpg

Man die Firma weiß wie man Graka gestalten muss! - Einfach GAIL



Quantum Engine: Embedded Physics features
3-Way SLI capable
Dual-link HDCP -capable, ready for viewing High Definition movie content
NVIDIA® Unified Architecture with GigaThread™ technology
Full Microsoft® DirectX® 10 Shadow Model 4.0 support
Lumenex™ engine
16x full-screen anti-aliasing
Built for Microsoft® Windows Vista® and Windows Media Center
NVIDIA® Quantum Effect™ physics processing technology
Two dual-link DVI outputs support two 2560x1600 resolution displays
PCI Express® 2.0 support
HDMI capable with the use of HDMI certified components
HDMI Certified
128-bit High Dynamic-Range Rendering
NVIDIA® PhysX™ Technology ready
NVIDIA® CUDA™ Technology readyhttp://www.abload.de/img/unbenannti710.jpg

Mfg LKrieger

1337_alpha
03.03.2009, 20:10
Ok sieht pornös aus O.o
Aber was isn das für eine Karte?

LKrieger
03.03.2009, 20:11
Is ne 250 GTS! Stellen sie offiziell auf der CEBIT vor...

Mfg LKrieger

Warfrog
03.03.2009, 20:14
Scho geil, bis auf die eckigen Lüfter, das geht ma garnicht.
Das Ding erinnert an das Auto von Zurück in die Zukunft meiner Fantasie nach :D
Is glaubich ne GT250 oder so ?

Sturmhase
03.03.2009, 21:04
Sagt mal bin ich steif oder steht dort Minimaler Strombedarf 450Watt O.o

Wollt ihr mich verarschen? Haben die neuen Karten alle so ein immenzen Stromhunger?

LKrieger
03.03.2009, 21:07
Sagt mal bin ich steif oder steht dort Minimaler Strombedarf 450Watt O.o

Wollt ihr mich verarschen? Haben die neuen Karten alle so ein immenzen Stromhunger?

Nya 450 find ich auch schon ziemlich heavy. Glaube das die wohl eher last meinen... Meine kompletter Rechner mit den beiden 280 GTXen und der Wakü und alles verbraucht max 812 Watt... Glaube kaum das die hier 450 im Idle verbraucht?!

Design is aber echt sooo geil - der Hammer!

Mfg LKrieger

1337_alpha
03.03.2009, 21:11
JUp aber wenn die 450 W schreiben darf man von 350 ausgehn...

LKrieger
03.03.2009, 21:15
JUp aber wenn die 450 W schreiben darf man von 350 ausgehn...

Wobei 350 Idle aber auch sehr krank ist! Da verbraucht mein kompletter PC im idle schon nur 350...

Aber das DESIGN ... :D:D - kann mich garnicht sattsehen...

Mfg LKrieger

Counter233
03.03.2009, 21:53
Also glaube kaum, dass das der wahre Stromverbrauch ist, das wäre ja echt crank...wenn man überlegt, dass ich mit meinem kompletten Laptop im Idle ca. 35 Watt verbrauche ;)

Fekl
03.03.2009, 22:09
Wobei 350 Idle aber auch sehr krank ist! Da verbraucht mein kompletter PC im idle schon nur 350...

Aber das DESIGN ... :D:D - kann mich garnicht sattsehen...

Mfg LKrieger


Krass, ihr seid doch alle krank. Mein Rechner schluckt keine 300W unter Last und Idle was um die 100W. Die GTS250 ist ne 9800GTX+ 1GB, mehr nicht. Und die Dinger sind sparsam, dank G92b (55nm) und 2D Modus. Die Angabe stimmen also nie im Leben und kann getrost als totaler Käse abgestempelt werden. Das soll wenn dann heißen, dass man min nen 450W NT haben sollte, weil die davon ausgehen, dass NTs in den Leistungsregionen genug Ampare auf der 12V Leitung haben. Das haben aber schon gute 350W NTs oder gar noch weniger...

ZaCXeeD
03.03.2009, 22:09
lol....die von XFX sieht mal echt geil aus im Vergleich zu EVGA....da kann man echt sagen, dass bei denen echt nur zählt was drinnen ist...

bei XFX ist es beim Design ;-)

Nuja mal schauen was für Benches kommen werden :D

Fusion145
03.03.2009, 22:11
Also laut Computerbase (http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_nvidia_geforce_gts_250/23/#abschnitt_leistungsaufnahme) verbraucht das System (http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_nvidia_geforce_gts_250/4/#abschnitt_testsystem) mit einer GTS250 Idle ca. 135 Watt und Last ca.275 Watt ;-)

1337_alpha
03.03.2009, 22:24
Wobei 350 Idle aber auch sehr krank ist! Da verbraucht mein kompletter PC im idle schon nur 350...

Aber das DESIGN ... :D:D - kann mich garnicht sattsehen...

Mfg LKrieger

Ich rede hier von Last aber wie Hitman schon sagte ist der Stromverbrauch 275 Watt
Selbst 350 im Last wäre für eine solche Karte noch viel zu viel gewesen

Fusion145
03.03.2009, 22:27
Ich rede hier von Last aber wie Hitman schon sagte ist der Stromverbrauch 275 Watt
Selbst 350 im Last wäre für eine solche Karte noch viel zu viel gewesen

Wohl bemerkt das gesamte System (http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_nvidia_geforce_gts_250/4/#abschnitt_testsystem) (mit einer GTS250) verbraucht unter Last ca. 275 Watt, also der Verbrauch der Karte liegt nochmal deutlich weiter unten :wink:

LKrieger
03.03.2009, 22:31
Wohl bemerkt das gesamte System (http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_nvidia_geforce_gts_250/4/#abschnitt_testsystem) (mit einer GTS250) verbraucht unter Last ca. 275 Watt, also der Verbrauch der Karte liegt nochmal deutlich weiter unten :wink:

Das stimmt eh nicht! Computerbase Tests vertau ich schon langenichtmehr - stimmen meißt eh nicht...
und 275 Watt ein Komplettsystem unter Last - niemals - das sind mehr!

Mfg LKrieger

pilzbefall
03.03.2009, 22:46
Boaaa XFX mal wieder riiichtig reingehauen vom Design :asta::asta::asta:

http://www.xfxforce.com/ecms.ashx/GTS250GS250XYDFC2_web.jpghttp://www.xfxforce.com/ecms.ashx/ProductImages/GTS250_Card2.jpg http://www.xfxforce.com/ecms.ashx/ProductImages/GTS250Bracket.jpg

Man die Firma weiß wie man Graka gestalten muss! - Einfach GAIL

http://www.abload.de/img/unbenannti710.jpg

Mfg LKrieger

sieht wie´n Ostblock-Rennwagen aus den 80ern aus :ugly: Der Stromverbrauch dürfte sehr gering sein, da sie ja von der Leistung her unterhalb einer GTX 260 angesiedelt ist.

Fekl
03.03.2009, 22:49
Das stimmt eh nicht! Computerbase Tests vertau ich schon langenichtmehr - stimmen meißt eh nicht...
und 275 Watt ein Komplettsystem unter Last - niemals - das sind mehr!

Mfg LKrieger

Wat bitte is an CB Tests schlecht? Die machen so ziemlich die umfangreichsten, obejektivsten und best dargestellten Tests. Und wie gesagt, mein Sys zieht keine 300W unter Vollast (Furmark und Prime) - beim Zocken sicher 50-80W weniger...

CRYSISTENSE
03.03.2009, 22:55
Für die meisten hier ist die Karte doch eh uninteressant. Seht euch doch mal die Daten an. Der Takt ist zwar etwas höher, aber mit 512MB macht sie wohl nur unter 22" wirklich Sinn und über die 1GB Variante brauchen wir bei 256bit ja nicht reden^^ Wird wohl keine Karte ala 8800GT werden, aber die haben wir ja eigentlich schon in der GTX260².

pilzbefall
03.03.2009, 23:04
laut Computerbase ist die GTS 250 ne umetikettierte 9800 GTX + mit abgeändertem Platinenlayout. Kleider machen Leute oder wie hieß das Ding von Gottfried Keller?

CRYSISTENSE
03.03.2009, 23:24
Das grenzt ja schon fast an Betrug. Naja, was red ich da, wir kennen das ja schon von älteren Karten:roll:

pilzbefall
03.03.2009, 23:41
demnach wäre dann die GTS250 sogar das dritte Etikett, da ja die 9800GTX ne neuetikettierte 8800GTS ist. Möglich, daß jeweils geshrinkt oder so wurde. Ist ja gewissermaßen ein IQ-Test im gewerblich nutzbaren Feldversuch. Je mehr Kaufreaktionen, desto doof :aua:

Eddy89
03.03.2009, 23:50
Finds total unmöglich das die 250er von XFX (siehe posts von LKrieger mit den Fotos)
kein HDMI-Eingang hat.... gehört meiner meinung nach zu jedem modernen System dazu !

ZaCXeeD
04.03.2009, 07:31
Finds total unmöglich das die 250er von XFX (siehe posts von LKrieger mit den Fotos)
kein HDMI-Eingang hat.... gehört meiner meinung nach zu jedem modernen System dazu !

nuja ich hb bei meien 24er noch nen VGA Kabel drann (LKrierger's Rat) und muss sagen, dass ich da irgendwie schärfer hab als wie mit DVI oder HDMI...

@Topic

das mit der 9800GTX ist denk ich nal eher unwahrscheinlicher. Es mag sein, dass VIELLEICHT die Leistung (wo noch keiner genau weis wie viel die karte leisten kann) bringt wie die 98GTX. Und nicht umsonst wird die 250 so genannt, die höchstwahrscheinlich zwischen der 260 und 98 stellen darf...aber genauso wie die 98, wie gesagt...für mich eher unglaubwürdig...

1337_alpha
04.03.2009, 15:31
275 Watt ein Komplettsystem unter Last - niemals - das sind mehr!



An was machst du diese Non Sense Aussage fest?!
DIe Karte dürfte weit unter dem Stromverbrauch einer GTX 260 liegen und ich hab mit GTX 260 und Quad Core unter Last maximal 350W

Dann sind 275W mit Dual Core bzw Quad (bei Quad wohl eher 300) und dieser Karte wohl doch mehr als realistisch

pilzbefall
04.03.2009, 22:43
das mit der 9800GTX ist denk ich nal eher unwahrscheinlicher. Es mag sein, dass VIELLEICHT die Leistung (wo noch keiner genau weis wie viel die karte leisten kann) bringt wie die 98GTX. Und nicht umsonst wird die 250 so genannt, die höchstwahrscheinlich zwischen der 260 und 98 stellen darf...aber genauso wie die 98, wie gesagt...für mich eher unglaubwürdig...

die GTS 250 unterscheidet sich von der GTX 9800+ durch einen hinzugefügten Stromsparmechanismus.......und einen anderen Namen. Daher identische Leistung, identischer Last-Stromverbrauch, geringerer Idle-Verbrauch. Is nu wirklich kein Geheimnis...

http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_nvidia_geforce_gts_250/2/#abschnitt_technische_daten

RED
05.03.2009, 00:12
Hab grad nen Video der MSI GTX260 Lightning auf PCGH (http://www.pcgameshardware.de/aid,677894/MSI-GTX-260-Lightning-Bilder-und-Video-der-Geforce-Karte-mit-1792-MiB/Grafikkarte/News/)entdeckt.

Eddy89
05.03.2009, 00:19
Hab grad nen Video der MSI GTX260 Lightning auf PCGH (http://www.pcgameshardware.de/aid,677894/MSI-GTX-260-Lightning-Bilder-und-Video-der-Geforce-Karte-mit-1792-MiB/Grafikkarte/News/)entdeckt.

Das is ma was geiles... naja, eigentlich nur für custom-pc-bauer und leute die
ne glaswand am PC-Tower haben.... für Leute mit Geschlossenem Tower ist das nix.

Aber sonst sehr geil ;)
Ich sehs schon kommen,... man hat ja schon CPU-Lüfter mit Temp/RPM anzeige, und
nun kommt das auch für Grakas xD, bald braucht man kein Überwachungsprogramm mehr
sondern kann alles sprichwörtlich IM pc ablesen :o

LKrieger
05.03.2009, 00:22
Hab grad nen Video der MSI GTX260 Lightning auf PCGH (http://www.pcgameshardware.de/aid,677894/MSI-GTX-260-Lightning-Bilder-und-Video-der-Geforce-Karte-mit-1792-MiB/Grafikkarte/News/)entdeckt.

Boa das Ding schaut echt bombig aus. Nya MSI muss sich auch mal was einfallen lassen:roll:.

@EDDY: Nya wenn man sich schon so nen PC zusammenbastelt - womöglich noch SLi - dann is son Case eig Pflicht (wenns nach mir ginge) :D:D.

Mfg LKrieger

RED
05.03.2009, 00:26
Boa das Ding schaut echt bombig aus. Nya MSI muss sich auch mal was einfallen lassen:roll:.
@EDDY: Nya wenn man sich schon so nen PC zusammenbastelt - womöglich noch SLi - dann is son Case eig Pflicht (wenns nach mir ginge) :D:D.



Jap is klar das des von dir kommt, also mit dem Case :lol:.

Und jap die Karte sieht schon recht nice aus....

1337_alpha
05.03.2009, 13:24
Naja bei normalen Towern würde man davon ja nich soviel sehen aber wenn man einen Inverted ATX Tower hätte wär das geil :D

XcorpioN
05.03.2009, 13:30
Welche ist jetzt eigentlich die Leistungstechnisch beste Karte (SLI - Ausgenommen)
Und welche ist von der Preisleisung sehr gut und noch erschwinglich?

RED
05.03.2009, 13:32
Die GTX285 ist die stärkste Single Karte ;-).
Vom Preis her noch die GTX280 und die 260.

Wenn man nicht so nen dicken Geldbeutel hat würde ich die GTX260 kaufen.

GTX260 (http://www.alternate.de/html/shop/productDetails.html?artno=JBXXP4&articleId=280191&baseId=254273)

GTX280 (http://shop.hoh.de/Hardware/Grafik-/Video-/TV-Karten/NVIDIA/PCIe/GTX-280/Zotac-280-GTX-1024MB-GDDR3-2xDVI-PCIe-20_i7218_62600.htm)

GTX285 (http://www.alternate.de/html/product/Grafikkarten_NVIDIA_PCIe/EVGA/GTX285/315964/?tn=HARDWARE&l1=Grafik&l2=Karten+PCIe&l3=NVIDIA)

1337_alpha
05.03.2009, 13:36
Welche ist jetzt eigentlich die Leistungstechnisch beste Karte (SLI - Ausgenommen)
Und welche ist von der Preisleisung sehr gut und noch erschwinglich?

Leistungstechnisch die GTX 285 wenn man mal die GTX295 außer Acht lässt
Vom P/L Verhältniss her ist ganz klar die ATI HD4870 die beste bzw. bei NVidia die GTX260

JamDeluxe
05.03.2009, 13:58
Hab grad ne 285 für 350€ gefunden.

http://www3.hardwareversand.de/articledetail.jsp?aid=25082&agid=707

Garnich so übel :)

€: http://www.alternate.de/html/shop/productDetails.html?artno=JBXXP4&articleId=280191&baseId=254273

jupph
05.03.2009, 14:31
Hab grad ne 285 für 350€ gefunden.
Garnich so übel :)



Einfach mal den Preisvergleich bei pcgh.de nutzen;)
http://www.pcgameshardware.de/m,preisvergleich/a394617.html

305€ für ne 285 ist echt super.

JamDeluxe
05.03.2009, 14:37
Naja, ich denke ZU billig sollte sie auch nich sein denn das geht meisten auf die Verarbeitung.

pilzbefall
05.03.2009, 14:45
Naja, ich denke ZU billig sollte sie auch nich sein denn das geht meisten auf die Verarbeitung.
die Verarbeitung ist bei allen identisch. Die Preisunterschiede kommen allein durch gegenseitiges Unterbieten der Händler zustande.

Tig3r0023
08.03.2009, 19:08
Ich weiß jetzt nicht genau wohin damit...
ich setze es mal hier rein.

http://www.pcgameshardware.de/aid,678223/Markt-fuer-Onboard-Grafikchips-verschwindet-bis-2012/Grafikkarte/News/

Onbard Grafikchips verschwinden bis 2012.

Lobos
08.03.2009, 20:56
halte ich mal wieder für eine reine Spekulation! Es wird Onboard Grafik geben solange es sich auch für die Hersteller rechnet. So richtig durchgesetzt haben sich Onboard Chips noch nie und geben tut es sie trotzdem schon eine lange Zeit. Deshalb kratzt es auch kaum jemanden ob es die Dinger gibt oder nicht.8)

1337_alpha
08.03.2009, 21:28
Ich weiß jetzt nicht genau wohin damit...
ich setze es mal hier rein.

http://www.pcgameshardware.de/aid,678223/Markt-fuer-Onboard-Grafikchips-verschwindet-bis-2012/Grafikkarte/News/

Onbard Grafikchips verschwinden bis 2012.

Ja ne is klar :rolleyes: und damit verschwinden dann auch alle HTPC's oder was? :lol:

RED
10.03.2009, 18:25
Anscheinend soll eine GTX275 auf den Markt kommen, dass hab ich soeben auf PCGH (http://www.pcgameshardware.de/aid,678466/Nvidia-Geforce-GTX-275-gegen-Ati-Radeon-HD-4890-geplant/Grafikkarte/News/)gelesen.
Diese soll gegen die ATI 4890 antreten und eine Mischung aus GTX280/285 und der GTX260(216) sein. Preis soll bei 229 bis 279 US-Dollar liegen.

Aber lest selbst.

Gruß

Tig3r0023
11.03.2009, 14:25
GTX285 mit 2GB Speicher.

http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2009/maerz/galaxy_geforce_gtx_285_2048_mb/

RED
11.03.2009, 14:44
@tig3r0023

Und der nächste Hersteller, der das macht...

Tig3r0023
12.03.2009, 13:54
@tig3r0023

Und der nächste Hersteller, der das macht...

Jap. Geldmacherei, die 2 Gig bringen eigentlich kaum etwas....nur bei GTA4


GT260 fällt unter 200 €:
http://www.pcgameshardware.de/aid,678582/Nvidia-senkt-die-Preise-der-Geforce-GTX-260-auf-unter-200-Euro/Grafikkarte/News/

Ovomaltine
14.03.2009, 17:27
Kann mir wer sagen was man noch für ne GTX280 nehmen kann, natürlich verpackt mit allem zubehör und vllt maximal 50 stunden in betrieb gewesen ?

OWND
14.03.2009, 17:46
Jap. Geldmacherei, die 2 Gig bringen eigentlich kaum etwas....nur bei GTA4


GT260 fällt unter 200 €:
http://www.pcgameshardware.de/aid,678582/Nvidia-senkt-die-Preise-der-Geforce-GTX-260-auf-unter-200-Euro/Grafikkarte/News/

GTA IV erkennt ja nicht mal die 2 Gb von der 4870 X2 :???:

Also glaub ich kaum, dass die 2 Gb von der GTX erkennen wird von GTA IV.

Tig3r0023
14.03.2009, 17:51
GTA IV erkennt ja nicht mal die 2 Gb von der 4870 X2 :???:

Also glaub ich kaum, dass die 2 Gb von der GTX erkennen wird von GTA IV.

Doch denke ich schon.
Aber ATI und GTA4? Ich erinner nur mal an die Startptrobleme aller ATI Karten beim Release.
Die Nvidia Karten laufen besser unter GTA4

Black_Death
14.03.2009, 17:57
GTA IV erkennt ja nicht mal die 2 Gb von der 4870 X2 :???:

Also glaub ich kaum, dass die 2 Gb von der GTX erkennen wird von GTA IV.

Das liegt denk ich mal am Crsoofire. Gta 4 lässt Multi gpu nicht zu, also auch nur den Ram von einer Karte. Ich denke Crysis 2124 kann das bestätigen.

ZaCXeeD
14.03.2009, 17:57
Doch denke ich schon.
Aber ATI und GTA4? Ich erinner nur mal an die Startptrobleme aller ATI Karten beim Release.
Die Nvidia Karten laufen besser unter GTA4

Eigentlich war es genauso umgekehrt....wir hatten immer das Memory Leak Prob...ab den 188.06 ist es endlich behoben wurden...da war ATI besser drann

@Black

SLi wird nur halb unterstützt...also ich kann es zocken....SLi wird in Gebäuden voll ausgelastet und sonst eigentlich nichts...^^

aber ich denke mal wir sollten :b2t: gehen und weiter beim GTA4 Thread disktutieren...

Warfrog
25.03.2009, 20:05
Boah Geil, guckt euch das mal an: http://www.pcgameshardware.de/aid,679854/Nvidia-APEX-fuer-bessere-Echtzeit-Physik-beeindruckende-Video-Demo/Technologie/News/

Wenn das fü CE3 wäre, OMG

HunT
27.03.2009, 11:57
GTX 295 mit zwei Chips auf EINEM PCB ab Mai...

http://www.gamestar.de/hardware/news/grafikkarten/1954874/neue_billigere_geforce_gtx_295_ab_mai.html

ZaCXeeD
27.03.2009, 19:39
Boah Geil, guckt euch das mal an: http://www.pcgameshardware.de/aid,679854/Nvidia-APEX-fuer-bessere-Echtzeit-Physik-beeindruckende-Video-Demo/Technologie/News/

Wenn das fü CE3 wäre, OMG

Also das ist ja mal richtig hart...aber ich denke mal das des erst 2010 so richtig damit angefangen wird sowas zu verwenden, vorallem bei Rennspielen...

Mal schauen...auf jeden fall wieder mal ein Punkt für die Nvidia Besitzer :D