Kennt eigentlich jemand eine 216er GTX 260 die ab Werk höher taktet als die von XFX "Black Edition"?
Druckbare Version
Kennt eigentlich jemand eine 216er GTX 260 die ab Werk höher taktet als die von XFX "Black Edition"?
übertakte sie doch selber? ist doch heutzutage eh nur abzocke und selbst wenn sie kaputt geht (WARUM AUCH IMMER) und du die zur reperatur schickst is da nix von taktveränderung zu sehen weil die (rivatuner) erstg unter windows abgeändert wird :)
Mag schon sein, nur hätt ich halt gerne nen GT200 der die Übertaktung sicher mitmacht - und das ist bei jedem GT200er sicher nicht der Fall.
Darum bitte: Gewhönt euch dieses blöde "takte doch selber hoch"-Getue ab...
Einfach deshalb, weil keiner wirklich Lust drauf hat, sich eine Karte um € 250,- aufwärts zu kaufen und dann "Jolly-Joker" mit ihr zu spielen ob sie die Übertaktung nun mitmacht oder nicht.
Danke und: Ich hab mir bereits die von XFX genommen, da ich keine andere finden konnte, die ab Werk höher taktet. Also Frage ignorieren.
bei Geizhals siehts wie folgt aus:
die xfx black dings 260 kostet ab 291 Euro
ne normale ab 219,
ne GTX 280 ab 350 Euro.
nach meinen Erfahrungen (jedenfalls in den einschlägigen Foren) macht wirklich jede GTX260 Mhz 660 Coretakt mit. Für sowenig o´clocking so einen saftigen Aufpreis zu verlangen....versteh´ich net.
Niemand in den ganzen einschlägigen Foren würde wirklich dafür, was er schreibt, seine Hand ins Feuer legen. Genauso kann ich dir erzählen dass ich in wirklichkeit der Kaiser von China bin und euch alle garnicht leiden kann.
Was ist daran jetzt wahr und was nicht?
Der springende Punkt ist: Kaufst du dir ne ab-Werk-übertaktete, kannst du dir sicher sein, dass sie es mitmacht. Wenn du dir ne normalo-GT200 Karte kaufst, nicht. Und ich bin für diese "Versicherung" bereit einen Aufpreis zu bezahlen (obwohl der von € 60,- schon an Wucher grenzt und eine Frechheit ist).
mein Argument mit den Forum-"Erfahrungen" ist in der Tat schwach :). Ich mache es grundsätzlich so, daß ich nach Release einer neuen Generation schön lange warte, um dann die günstigste zu nehmen. Bevor ich auf Wakü umstieg, habe ich immer, wenn eine Karte schlecht ging, einfach einen Lüfter vorgeschnallt, sodaß ich über die verbesserte Kühlung immer noch gute o´clocking-Werte erreichte. So hat man eine relative "Garantie" für Übertaktung.
Man darf auch nicht vergessen, das die von Haus aus übertakteten Karten auch immer noch etwas Spiel nach oben haben und sich auch noch übertakten lassen. Die Güte von diesen Chips ist schon recht hoch.
Meinen Core kann ich zum Beispiel auf 720 Mhz hochschrauben und das ist bei normalen Karten schon unwahrscheinlicher, dass das klappt.
Außerdem können ja auch noch andere Gründe eine Rolle spielen, warum man sich für ein übertaktetes Modell entscheidet. Zum Beispiel kann es ganz nützlich sein, wenn die Übertaktung nicht mehr per Software vorgenommen werden muss, sondern die Taktraten im Graka-BIOS festgelegt sind.
So ist die Karte auch in jedem Betiebssystem ohne Zusatzsoftware oder speziellen Treiber übertaktet.
Bei meiner Karte war trotz der Übertaktung außerdem noch der Kühler leiser und der Stromverbrauch geringer, als bei einer normalen 260, weil dort anscheinend auch noch die Spannung etwas gesenkt wurde.
Es kann also schon Sinn machen diesen geringen Aufpreis zu zahlen. Muss halt jeder für sich entscheiden, ob einem das Wert ist. Mir ging's hauptsächlich um die geringere Lautstärke und dafür zahle ich gerne etwas mehr.
Kann noxon nur zustimmen.
Natürlich kann es immer sein das man mit einer normalen 260er 720MHz erreicht.
Ordentlich durchgetestet sind die allerdings nur mit 575MHz.
Die übertakteten sind halt mit höheren Takt getestet. Und wenn der
läuft, ist es wahrscheinlich das sie auch noch höher gehen.
Natürlich kann man immer Pech haben und sie läuft mit 670Mhz nicht mehr.
So oder so ist es immer ein Glücksspiel was das Übertaktungspotential angeht.
Den Takt den die karten ab werk schaffen bei den OC edition kriehgst du 10000% auch mit nen nonOC karte hin, da sind och nur die selben chips drauf....
Bei ner durschnitts GTX260 schaffste 720mhz GPU und bei ner GTX280 720/höherer shader/höherer speicher
also minimum 720 schaffen die alle... (und wer die nich schafft möcht ich ma wissen wie der OCed.... und mit was testet >.> )
Und da gibts sicher KEINE Test welche GPU unter welche haube kommt, da wird mal tief in die tonne gegriffen und nen paar GPUs rausgenommen ums kurz zu sagen
Aber es gibt immer leute die sich nicht belehren lassen :lol:
Chip ist nicht gleich Chip. Die Chips die in der Mitte des Wavers liegen sind grundsäthlich von besserer Qualität als Chips in den Außenbereichen des Wavers. Jedes Die erhält beim belichten auch eine ID, die dessen Position auf dem Waver beinhaltet.
Die Hersteller wissen also ganz genau, welche von ihren Chips potenziell die bessere Qualität haben und welche eine schlechtere. Bevor die Karten dann wirklich auf den Markt kommen werden sie natürlich auch nochmal einer Qualitätsprüfung unterzogen und 720 MHz schaffen garantiert nicht alle Karten. Das schaffen ja noch nicht einmal alle handverlesenden Referenzkarten, die die Hardwae-Review-Seiten zugeschickt bekommen haben.
Und wie gesagt. Es geht nicht nur darum. Viele wollen ihre Karte auch per BIOS übertakten und nicht per Software und wenn man die Karten nicht selber flashen möchte, dann sind die Karten eine gute Wahl. Dann muss man auch nicht bei jedem neuen Treiber wieder auf eine Anpassung des Übertaktungstools warten. Das gilt besonders für Linux.
100000% korrekt!
Das gilt für alle möglichen arten von Chips... GPU's, CPU's...
beispiel.. ein freund von mir hat sich am selben tag 2x HD4870er gekauft.. (für CF)..
die eine kann er PROBLEMLOS auf 830/1190mhz laufen lassen... die andere geht maximal auf 780/1180...
Das selbe gilt bei CPU's und Mainboards..
Ich und ein freund haben genau das selbe board und den selben prozessor.. sogar die selben ram..
seine CPU (q6600) läuft bei 1,275vcore problemlos auf 4.1ghz! - mit luftkühlung
wenn ich das bei mir machen will muss ich schon mit 1,6 oder sogar 1,625vcore reinfahren... gelegentlich sogar noch mehr.. ohne wasserkühlung wäre das ein ding der unmöglichkeit!
Ich denke auch das die mittleren chips der Siliziumplatte (z.b.: von grafikherstellern) eher für "OC" versionen verwendet werden als die chips der äuseren ränder..
na wenn du meinst noxon, es kommt eher aufs charge an, aber egal :)
Ihr müsst es ja wissen :roll:
PS: es heißt waffer nicht waver...
ist eigentlich etwas an dem Gerücht, daß bei weiteren Shrinks zwar die Taktraten weiter nach oben gehen und der Strombedarf weiter runter, aber auch die Lebensdauer sinkt?
Wieso sollte es? sid niedrigere spannungen mglich-> laengere lebensdauer
aber das is shitegal weil selbst mit standarttakt haelt das teil lang genug, das man sich eh nen neuen PC kauft bevors futsch is :D
... dann halt wafer :-|
Du stellst dir die Sachverhalte aber ziemlich einfach vor.
Eine niedrigere Spannung bedeutet doch nicht zwangsläufig, dass die Chips eine längere Lebensdauer haben. Schließlich ändern sich auch die elektrischen Eigenschaften des Materials. Wichtig ist es auch die Höhe der Leckströme zu reduzieren und dummerweise werden die umso höher, je kleiner die Strukturen werden.
Mittlerweile werden durch die Leckströme schon bis zu 50% der aufgenommenen Energie verschwendet ohne das damit ein einziger Transistor geschaltet wird.
Neben dem Shrink muss man also auch immer neue Fertigungstechniken finden um Transistoren mit niedrigeren Kapazitäten zu fertigen.
Wie sich das alles letztendlich auf die Lebensdauer auswirkt wissen wahrscheinlich noch nicht einmal die Hersteller genau. Aber du hast recht. So lange bis man sich einen Nachfolger holen muss halten die Karten auf jeden Fall. Wer hat denn heute noch eine Karte die älter als 2 oder 3 Jahre alt ist?
Ich, im keller :lol:
Ja das stimmt schon, aber die ham ja jetzt schon nen 22nm waf(!)er gebracht vpon daher denke ich das wenn das dann iwann kommt schon relativ gut läuft
Also wenn ich dann in einen Pc Shop Laden gehe steht da nicht mehr Xpert Vision 8800 GT sondern Palit 8800 GT , hab ich das richtig verstanden ?Zitat:
Marke "XpertVision" wird eingestellt
Palit verkauft unter eigenem Namen
Der Grafikkarten-Hersteller Palit wird seine Markte "XpertVision" einstellen und die Grafikkarten dieser Reihe in Zukunft unter dem eigenen Namen vermarkten. Die Grafikkarten von XpertVision waren in den letzten Jahren zumeist GeForce-Modelle von Nvidia. Die andere Marke von Palit, Gainward, ist von den Veränderungen nicht betroffen.
Erstes Bild einer Geforce GTX 295 aufgetaucht
http://www.pcgameshardware.de/aid,66...5_aufgetaucht/
-Para
genial , ich bin gespannt wie teuer sie ist und hoffentlich wird die 280 GTX bald billiger. :lol:
Quelle: ComputerBaseZitat:
In den ersten Benchmarks, die die Seite it168.com veröffentlicht hat, steht die GTX 295 mitunter sehr deutlich in Front. Da jedoch die Testbedingungen nicht wirklich deklariert sind, und die Spieleauswahl auch von Nvidia getroffen wurde, sollten keine voreiligen Schlüsse gezogen werden. Erwartungsgemäß liegt die GTX 295 im PhysX-Test in Front. Dass man jedoch auch bei der Leistungsaufnahme vor dem Modell von ATi liegt, überrascht ein wenig. Da jedoch der Verdacht besteht, dass die Daten wirklich aus einer Präsentation stammen könnten, müssen unabhängige Tests die Zahlen erst einmal bestätigen.
Ich find's richtig geil.
@paraphonatic
Zitat von Computerbase
Alles Klar:grin:Zitat:
Erstes Bild zur GeForce GTX 295 aufgetaucht
Wie die Kollegen von VR-Zone nun in Erfahrung gebracht haben wollen, soll sowohl die GeForce GTX 285 als auch die Dual-GPU-Karte GeForce GTX 295 zur CES-Computermesse Anfang nächsten Jahres erscheinen. Die CES startet am 8. Januar und schließt ihre Pforten wieder am 11. Januar. Die GeForce GTX 285 soll die GeForce GTX 280 ablösen und wird mit der im 55-nm-Prozess gefertigten GT200b-GPU (oder auch GT206 genannt) ausgestattet werden.
Es ist durchaus denkbar, das Nvidia gering an den Taktschrauben drehen wird, was aber noch offen ist. Darüber hinaus wird ebenfalls die GeForce GTX 260 mit 216 Shadereinheiten auf die kleinere GPU umgerüstet und die Hersteller scheinen erste eigene Designs auf den Markt bringen zu dürfen.
Von der GeForce GTX 295, die gleich zwei GT200b-Kerne tragen wird, konnten die Kollegen gar erstmals ein (wenn auch wenig aussagendes) Bild der Grafikkarte auftreiben. Darauf sieht man die zwei PCBs (die jeweils einen Rechenkern und den Speicher tragen) mit insgesamt zwei Dual-Link-DVI- sowie einen HDMI-Ausgang. Einen S-Video-Anschluss gibt es nicht mehr. Die Platinen sind, wie schon bei der GeForce 9800 GX2, mit einer Kabelverbindung ausgestattet, die die SLI-Brücken ersetzt.
Na dann, bleib ich noch bei meiner GTX 280 SLI, die werden wohl noch gut mithalten können mit der GTX 295 ;-) :D
-Para
ich glaub kaum das die Karte so begehn wird. Die ist in manchen Sachen 5 mal besser als die hd4870x2. Kann der Sache sehr schlecht Glauben schenken
Der Grafikkartenhersteller Nvidia hat heute sein neues Spitzenmodell vorgestellt, das auf den Namen "GeForce GTX 295" hört. Damit will man ATI vom Leistungsthron stoßen, was laut ersten Benchmarks auch gelingt.
Dazu setzt das Unternehmen aus Kalifornien auf zwei GT200-Grafikchips, wie ATI bei der Radeon HD 4870 X2 auch. Die neueGrafikkarte kann stolze 1,79 Billionen Gleitkommaoperationen pro Sekunde berechnen, doch die Rechenkraft ist nicht der einzige Leistungsfaktor. So besitzt die GeForce GTX 295 448 Datenleitungen, die die GPU mit dem 999 MHz schnellen GDDR3-Speicher verbinden, der zwei Mal 896 Megabyte fasst.
Da zwei Grafikchips zum Einsatz kommen, ist die Leistungsaufnahme entsprechend hoch. 289 Watt gibt Nvidia an. Um die Karte mit Strom zu versorgen, wird ein 6- sowie ein 8-poliger Stecker vom Netzteil benötigt. Die GeForce GTX 295 besitzt zwei DVI- und einen HDMI-Anschluss.
ImInternet sind inzwischen die ersten Benchmarks aufgetaucht, unter anderem bei den Kollegen von PC Games Hardware. So kann Nvidia das selbst gesteckte Ziel als erreicht markieren, denn in den Vergleichen gegen die Radeon HD 4870 X2 von ATI ist die GeForce GTX 295 überlegen. In Crysis Warhead zum Beispiel kommt Nvidia durchschnittlich auf 38,6 Frames pro Sekunde, ATI dagegen "nur" auf 32,3.
Wer die neue "schnellste Grafikkarte der Welt" sein Eigen nennen will, kann ab dem 15. Januar zuschlagen. Allerdings verlangt Nvidia für die GeForce GTX 295 stolze 500 US-Dollar.
Jop ein Tipp von mir, nehmt die Karten von EVGA falls die Karten wieder so schnell wieder mit Preissenkung anfangen, kriegt man was von EVGA wieder^^
Ich liebe diese Firma einfach^^
Joa und mal schauen ob ich mir die holen werde....mal schauen wie die sich so macht...
- Crysis2142
Naja, eine richtige Neuheit wird das Teil sicher nicht. Kommt ganz nach der 7900GX2 und 9800GX2. Den einzigen Vorteil dieser Karte sehe ich darin, dass die Preise der GTX280/60 und 4870 fallen werden, was die meisten hier ja wohl eher interessieren dürfte. Vielleicht schafft es Nvidia aber auch mit dieser Karte die letzten SLI-Probleme zu beseitigen, sofern bei dieser Kombo überhaupt welche vorhanden sind. Dann könnte man endlich mal über SLI nachdenken.
500$...Also ca. 400€ bei uns, oder was meint ihr dazu?
eine bessere Alternative zu der hd4870x2. Die sieht ja ziehmlich alt gegen deises Monster aus :D
macht nichts, die bleibt nicht an oberster stelle,ati kommt ja 2009 mit einer neuen schnelleren generation,die ist auf jedenfall stromsparender.schau mal was die neue 9 er serie an strom verbraucht!
es bringt einfach nichts,fast alle 6 monate kommt von jeder firma was neues und die überholen sich gegenseitig,aber ich tippe mal,das jahr 2009 gehört ati.
ist doch völlig egal welche Firma die Nase vorn haben wird.
Hauptsache wir bekommen gute Karten angeboten. Ob da jetzt nvidia oder ATI draufsteht ist doch total egal!
hier ein erster test sowie benches zur neuen gtx295 -> http://www.pcgameshardware.de/aid,67...l-Grafikkarte/
hiermit ergattert sich nvidia wieder die perf krone ;)
... und so sieht sie nackt aus.
http://www.pcgameshardware.de/aid,67...Bildergalerie/
joa wer die Wasserkühlen will schon...
aber für Leute die eher auf Luft stehen ist nach meiner Meinung dann eh wurscht, da dann nur auf die Leistung geschaut wird^^
ne ich finds recht nice, weil ich socleh Platinen und so recht immer interessant finde...
Auch die Entwicklung von den Karten ist einfach gigantisch....so ein Sprung gab es mittlerweile noch nie in der PC Branche;-)
- Crysis2142
hier die gtx295 gegen die hd4870er x2 im benchmark-test mit 8x AA -> http://www.pcgameshardware.de/aid,67...ntenglaettung/
die normalen benches sollen die lieber ma mit gta4 machen, allerdings nen bericht verfassen und nicht den gta4 bench durchlaufen. der ist ja sowieso nicht zu gebrauchen. am besten ma berichten mit 3 oder 4 verschiedenen qualitäts-settings .. naja ^^
Joa also die Karte rennt schon gut....bringt doppelt soviel FPS wie in Warhead, aber das tut jetzt schon das normale SLi genauso^^ von daher ;-)
aber bei solchen Auflösungen zock ich eher ohne AA und vorallem bei Crysis, da mal kaum den Unterschied merkt....
mal weiterbeobachten....
- Crysis2142
http://www.computerbase.de/news/hard...95_hd_4870_x2/
Was?! die verbraucht 400-450 Watt bei Crysis Warhead?!?!...Da würde dann wohl mein 600 Watt Netzetil nicht ausreichen -.-
Wobei 290 Watt auch nicht gerade wenig ist.
Prima dann schafft auch mein Netzteil die karte. Ich denke das ich mir die Besorgen werde. irgendwo muss das ganze Wheinachtsgeld ja hin ;P, und da ich eh kaum Leute beschenke, bleibt viel übrig :twisted:.
Dann hätten die aber auch dabei schreiben sollen, was das komplette Testsystem ist :roll:.
Nuja das Bild wurde von einer chinesischen Seite entnommen und die Leute die die News verfasst haben konnten evtl nicht herauslesen, ob das nu der komplette Rechner ist oder net....
Wenn man aber die Tabelle mit den Vergleich zwischen den drei GT200 Karten, dass sieht man doch bei "Max Board Power (TDP)", dass da die Watt-Zahl bei den Karten steht....
- Crysis2142
Ja man wird später mehr sehen. So gute nacht morgen Arbeiten :shock:. Also heute praktisch^^.
AAh, merk gerade, man brauch einen 6er und einen 8er pci stromanschluss mist hab nur 2x 6er, koot. Naja neues netzteil ;=
EVGA GTX 260 Core 216 55nm GPU ou now...
So Leute...bei EVGA gibbet nun eine aufgepimpte Version der 260....sollen richtig geile Spitzenwerte geben :-D als wie die normale 260....
Hier mal die Quelle:
http://www.evga.com/articles/00454/
- Crysis2142
Hallo.
In einer News,
stand mal dirn wieso die jetzt die GeForce Karten nicht mehr 8000 oder 9000 Serie heißt sondern GT200 , GTX260 Serie .....
Leider finde ich diese News nicht mehr.
Wisst ihr wie die News hieß, oder wieso die Serien jetzt alle GT200.... heißen ?
Eventuell hilft dir das weiter.
http://ht4u.net/news/2421_nvidia_aen..._grafikkarten/
Die News müsste aber von GameStar sein.
Wann soll jetzt eigentlich die GTX295 kommen? Noch im Januar?
Am 15 Jaunuar soll sie erscheinen.
Quelle: ComputerbaseZitat:
Nvidia GeForce GTX 285 zeigt sich im Handel
In Hong Kong sind erste GeForce-GTX-285-Beschleuniger vom Hersteller Gigabyte im Handel aufgetaucht, wie die Kollegen von HKEPC berichten. Der Preis der Karte liegt – je nach Händler – zwischen 3200 und 3400 Hong Kong Dollar, umgerechnet 296 Euro bzw. 314 Euro.
Auch in Deutschland ist der erste Schritt des zukünftigen Single-GPU-Flaggschiffs in die Händlerregale getan. So preist der Online-Shop Neobuy.de die Karte seit gestern mit 389,90 Euro aus – eine für den deutschen Markt durchaus realistisch klingende Preisvorstellung. Die GeForce GTX 280 ist derzeit ab 335 Euro zu haben. Lieferbar ist die GeForce GTX 285 jedoch noch nicht.
Na, mal schauen ob ich mir die holen werde.
Die GTX285 wird ungefähr 10% schneller sein als eine GTX280. Damit dürfte eine GTX280 AMP oder EVGA superclocked wiederum schneller sein, als die 285. Da diese am Anfang 390,-- kosten soll, kann sich jeder selber ausrechnen ob sich das lohnt8-)
alles geldmacherei, wartet ab und schiesst nicht unüberlegt rein. höchstens 10%, ne clocked karte vlt bis zu 15%, was immer noch viel zu wenig ist. zuschlagen kann man meiner meinung nach, wenn man ne durchschn. mehrleistung von etwa 30% unterm strich verbuchen kann oder mehr.
Genau so sehe ich das auch. Eine GT280 wäre ganz gut:)
Also lieber 'ne GTX280 als Übergangslösung zulegen, bis der GT300 kommt?
Wann kommt der denn eigentlich?
Gibt's da schon was neues?
und vor allem .. ne neue graka, für was? für GTAIV -> OK für Crysis/Warhead -> OK, aber was kommen schon in diesem jahr für weichflötengames raus. (wenn wir glück haben vlt alan wake als favorit des jahres .. od. colin mc rae dirt2. fear 2 mit ner angestaubten optik -super- spart euch lieber das geld, bis was richtiges kommt.
HL2 Episode 3 kommt vielleicht :D
Aber dürfte auch nicht viel Peformance fressen.
Nicht vielleicht, es WIRD kommen. Aber immernoch auf der Source Engine ;)
Weis jemand eigentlich wann die Nächste Grafikgeneration kommt, gibt es da eine Roadmap ?
Tjoa, bis dahin werd ich wohl auch noch warten... Denn ich freu mich wie n Schneekönig auf Aliens:Colonial Marines, das Game wird bestimmt der Oberburner:razz::razz::razz:
Und dafür werd ich mir dann nen neuen Rechner mit ner GTX 280 holen müssen...
Die Karten werden ja wohl hoffentlich dann nochn Stück billiger:)
News:
http://www.gamestar.de/hardware/news...nennungen.html
Das ist aber Verwirrend.
Woher will man den jetzt wissen wenn man sich ein Komplett Pc kauft, und da steht dran z.B: G100 was ist dan das für ne Grafikkarte ?
steht das wo auf einer Seite ?
GT120 --> 9500GT
GT130 --> 9600GSO (ex8800GS)
Für die Karte ist es also die zweite Umbenennung!
Sonst guckst du pcgh.de Habe im Moment keinen Link, da ich mit meinem iPod surfe ;-)
Anscheinend bewahrheitet sich der, allgemein bekannte, Slogan von MM doch.
Eine Schande, dass es solche Ketten überhaupt gibt:roll:
Einfach nur Geldmacherrei ist das. Damit der Kunde bloß denkt das eine gute Karte im PC drin steckt und den dann kauft. Ich finde das Nvidia sowas nicht nötig hat!
T_T
Ist euch schonmal aufgefallen dass zurzeit überall die EVGA GTX260 nicht mehr verfügbar ist? -_-
Habe meine EVGA 260GTX SC 55nm bekommen und bis jetzt Rennt die Sau ohne Probleme.
Werde die Tage mal bis an ende von gut und Böse Testen mal schauen was kommt.:aua:
http://img3.imagebanana.com/img/71ew...b/IMAG0181.JPG
Na dann sag ich klipp und klar...pech gehabt...sry wenn das so hart klingt, aber so ist das nun mal so in der heutigen Zeit ;-)
Aber solltest mal beim nächsten mal besser schaun...hier z.B. ist die noch lieferbar:
http://www.mzehn.de/eshop.php?action...rid=googlebase
sollte helfen :-D
Ich auch in anderen Foren ist man auch schon am testen.Werde morgen mal anfangen:D
@ Sandboy User
also bei Fudzilla haben sie es schon getestet und die EVGA SC 55nm hat die 280GTX geschlagen:D
http://www.fudzilla.com/index.php?op...1117&Itemid=40
hmmmmm, ja aber nur im 1-3 FPS so wie ich das sehe ne!
wie teuer ist die Karte denn?
wenn sie nicht wesetlich billiger wie die 280 ist, dann ist das aber hier mehr verrückt machen wie sonst was oder?
Die kostet fast 150 euro weniger ^^
Hier eine News zur High-End-GPU GT212
http://www.hardwareluxx.de/story.php?id=9047
http://www.hardware-infos.com/news.php?news=2629
(Bei der News hier sieht man sehr gut die Daten von der Graka in einer Tabellenübersicht.)
Könnt es ja euch mal Anschauen. :wink:
http://www.kmelektronik.de/main_site...1188&fd=372436
Puh....
Also ich hol meine Karte jetzt hier :)
Falls sie da nochmal kaputt geht kann ich auch einfach in die nächste Stadt (Karlsruhe) innen KM Laden fahrn
64xQ-FSAA mit GTX-295-Quad-SLI
http://www.pcgameshardware.de/aid,67...-295-Quad-SLI/
Geforce GTX 295 im Performance-Test
Geforce GTX 295 - Test der finalen Nvidia-Dual-Grafikkarte
http://www.pcgameshardware.de/aid,67...l-Grafikkarte/
Ganz nett, aber mehr auch nicht. Zudem ist der Test auch noch von PCGH :aua: Warten wir mal lieber die ersten Tests der Luxxer ab.
Und hier der Test von Computerbase ;)
http://www.computerbase.de/artikel/h...force_gtx_295/
PS. Ich hab den Beitrag von Servitor gelesen ;)
Treiber für GTX 285 und 295
Geforce 181.20 WHQL: neue Treiber für Geforce-Grafikkarten als Download
http://www.pcgameshardware.de/aid,67..._als_Download/
Wieso was ist mit Pcgh ?
Da unterscheiden sich die Tests von CB und PCGH mal wieder...wem soll man glauben? Keinem, auch nicht den Luxxern! Karte kaufen und selber testen!
Ich bin mir sicher, die sind nicht irgendwie an den einen oder anderen Hersteller adaptiert. Es sind einfach nur die User, die glauben, sie sind obergscheit, weil sie halt jeden Tag ihre Nase so lange in Foren und Tests stecken, bis diese weiß und er selbst naseweiß wird. Die User vergessen dann auch sehr oft, was sie selbst doch so lautstark verbreiten: "Jeder Prozessor ist unterschiedlich... Wie die Menschen."
Nunja, ich bin der Auffassung, das das auch aufs gesamte System zutrifft.
Also hört doch auf mit diesem "die Benchmarks sind nicht echt" oder "der Test ist manipuliert".