Ähh du weißt schon dass ich mit Luxx Tests User Tests meine?!
Auf die konnte man bisher immer vertrauen
Auf die Printed Tests geb ich mittlerweile auch nichmehr viel
Für die die es nicht wissen
Printed ist die Zeitschrift vom Hardwareluxx
Druckbare Version
um sich wirklcih ein urteil zu bilden müsst ihr auch die systeme vergleichen die einen machen die tests mit Intel Core 2 Duo E8500, OC @ 3.600 MHz (400x9) ,, und die anderen ... mit Intel Core 2 Extreme QX9770 (übertaktet per Multiplikator auf 4 GHz, Quad-Core)
alleine scho die verwendeten boards da liegen schon welten dazwischen .....
somit sind auch die unterschiede erklärt ... zumal man eine 4870x2 oder eine gtx295 mit einen c2d auch mit 4ghz ;) nicht ausreitzen kann ... :) dazu wird dann schon ehr sowas nötig sein ...: Intel Core 2 Extreme QX9770 (übertaktet per Multiplikator auf 4 GHz, Quad-Core)
Kleines Update!
Sogar auf http://www.xtremesystems.org/forums/ werden die Tests von CB schon angezweifelt
Also wenn schon im größten Hardware- und OC-Forum der Welt schon Zweifel aufkommen dann weiß ich auch nich....
Der erste Kühler ist auch schon in der Mache dafür :)
http://crysis.4thdimension.info/foru...904#post282904
Hier könnt ihr schonmal bei EVGA gucken, wie bei denen die GTX285 und GTX295 ausschauen wird:
GTX285
http://www.evga.com/articles/00445/
GTX295
http://www.evga.com/articles/00446/
Also ich persönlich find den Style nice...
Und hier könnt ihr sie sogar schon kaufen (zumindest die GTX295)^^:wink::
EVGA GTX295
Also die GTX285 finde uch echt Hammer, die GTX295 ist irgendwie so Klobig. Naja, das sind ja aber auch 2 karten in einer, vielleicht ging das ja net besser.
Zur GTX285, mal schauen, wieviel die kosten wird. Werde mir die dann holen, auch wenn sie nicht viel schneller ist als die alte.
Edit: Die GTX285 hat aber keinen HDMI-Ausgang, oder? Sieht man auf dem Bild net.
Edit 2: Die GTX285 ist auch schon gelistet. EVGA GTX285 Superclocked
Hier sind die Reviews von XFX - die 285er hat wieder son geilen Skin - der Wahnsinn... Sogar wieder ne Black Edition verfügbar...
http://xfxforce.com/de/products/grap...200series.aspx
Wer will kann sich sogar schon ne EVGA 295er bei Alternate kaufen
http://www.alternate.de/html/product...PCIe&l3=NVIDIA
Sogar lieferbar...
Jetzt sogar auf die XFX
http://www.alternate.de/html/product...PCIe&l3=NVIDIA
allerdings diese nicht lieferbar :D.
Mfg LKrieger
Stellt sich gleich die frage 3x280 gtx oc verkaufen und 2x 295 holen ^^ Ne nur nen scherz8-)
Würd ich nicht machen (hab dein Scherz schon gelesen - jedoch gleich Begründung) - da eher 285er kaufen... die 295er steht in keinem Verhältnis...
Vorallem hab ich schonwieder viel über Microrucklern bei der Dualkarte gehört... Das hat NV anscheinend wieder ins Leben gerufen... Was auch negativ ist und mir gleich aufgefallen ist ist die Kühlung. Wenn man sich mal bei den Herstellern die mikrigen Aufkleber anschaut... Normal hat es beispielsweise XFX immer richtig damit übertrieben - jetzt muss da Platz sein für Lüftungslöcher... Das gibt mir schonwieder zu denken wie heiß die Karte wohl werden muss - wenn der heißgeliebte Aufkleber jetzt so klein ausfällt... :D
Nya ich werde aufjedenfall! bei meinen 280ern bleiben - sone Geldmachermethode zieht nicht - wenn GT 300 kommt kanns anders sein :D.
Für Neueinsteiger ist jedoch ne 285er was feines... eine 295er Würde ich hingegen niemanden aufs Erste empfehlen.
Was ich jetzt von mir gegeben habe ist natürlich nur eine Vermutung mit der Hitze usw... es gilt natürlich erstmal Userberichte zu überprüfen... Jedoch wäre ich mit einem Kauf erstmal sehr vorsichtig!
Mfg LKrieger
Geh se am besten gleich kaufen - sonst ändern sie vllt den Preis noch - wenn du die zu dem jetztigen Zeitpunkt Bestellst müssen sie dir die Karte auch für den Preis verkaufen :d.
Denke aber schon das die Karte für den Preis rausgeht...
Mfg LKrieger
Sofort zuschlagen?
Würde ich gerne. :wink:
Muß mich aber noch 'ne Woche gedulden und warten bis mein Gehalt auf meinem Konto ist.
Ähm, die Mikroruckler existieren schon die ganze Zeit, das Problem wurde auch bis jetzt noch nicht behoben.
NVidia hat es mit einem verbesserten Treiber (und der GTX295) sogar geschafft die Mikroruckler (teilweise) zu verringern.
http://www.computerbase.de/artikel/h...uf_der_gtx_295
Das die Exisitieren weiß ich auch. Jedoch war damals mit den G70 und den G80 Karten die Ruckler am schlimmsten, fortgeführt von der 9er Reihe. Die 280 GTX Reihe hat (wie ich selber feststellen kann) keine spürbaren MR's (Und was FPS angeht bin ich sehr empfindlich... 60 fps gaming usw...). Bei der 260 waren die noch an manchen Stellen ein bisschen zu spüren, jedoch auch nicht oft und stark. Selbst messen kann man die kaum mehr...
Daher meinte ich das die jetzt wieder "ins Leben" gerufen wurden...
Mfg LKrieger
Also ich hab auch kaum bemerkbare Mikroruckler...eigentlich merk ich da nichts im Vergleich zur G80...
Naja ob es bei der neuen Karten auch so sein wird oder schlimmer...ich wart einfach ab...
Ich persönlich werde keine der Karten kaufen...einfach irgendwie für mich sinnlos und 2. ich wart auf die GT300 ab...
Hi,
der Preis der GeForce GTX 295 sinkt auf 360 Euro.
Das wird ja immer besser. 8)
Quelle: Computerbase
Hab da mal kurz eine Frage in dem Flyer vom Media Markt gibt es ein Rechner -->
PDF -->
http://www.mediamarkt.de/multimedia-...f/prospekt.pdf
Flash -->
http://www.mediamarkt.de/multimedia-...yer_kw05/html/
Was ist die Ge Force GTS 150 für ne Grafikkarte ?
Schon mal danach gegoogelt? Offensichtlich nicht.
So schwer?
Du bist jetzt schon fast ein Jahr hier angemeldet und hast es immer noch nicht verstanden.
jo :oops:
Danke aber für den Link.
da steht aber nur dran -->
NVIDIA_G92.DEV_0615.1 = "NVIDIA GeForce GTS 150aber woher eis man jetzt was ist das für eine ist ?
Man google doch einfach...du brauchst da ne Minute für...
Ist das so schwer???
Soll ich dir den link von google geben??? ;)
http://www.gidf.de/ Präge dir die Seite genau ein ;)
Servitor.
Merke:1. Google spuckt verschiedene Links aus.
2. Der erste ist nicht immer der beste.
3. Wenn man beim ersten nichts findet, klickt man einen anderen an.
4. Man kann direkt nach der Suche an den kleineren Linkunterschriften erkennen worum es geht.
__________________________________________________ _____
(Platz zum Verstehen)
http://forum.chip.de/grafikkarten/ge...a-1127900.html
Wenn du das nicht gebacken kriegst, wird dir irgendwann keiner mehr helfen. Werde selbständiger.
@Servitor
Damit dürfte alles gesagt seinZitat:
Aus Geforce 9 wird Geforce G/GT/GTS/GTX-100
Ende September war auf TG-Daily zu lesen, dass Nvidia mit dem Gedanken spielt, seine Geforce-9-Reihe, die sowieso mehr oder minder nur ein Klon der achten Geforce-Generation ist, an das neue Namensschema der Geforce-GTX-200-Reihe anzupassen - quasi eine doppelte Umbenennung. Ein Eintrag in einem aktuellen Nvidia-Treiber bestätigt nun diese Vermutung. Dadurch, dass den neuen Modellbezeichnungen auch Codenamen zugeordnet sind, lässt sich bereits jetzt eine recht griffige Tabelle auf Basis dieser Information erstellen.
[Tabelle auf der Seite]
Die vorliegende Tabelle erhebt noch keinen Anspruch auf vollständige Richtigkeit. Zwar lässt sich aus dem Treibereintrag beispielsweise mit großer Sicherheit herauslesen, dass mit dem Namen Geforce G100 die 8400 GS gemeint ist, weil diese als einzige auf dem G98-Chip basiert - Geforce 9300 GS und GE sind bis dato nicht im Handel erhältlich -, in den anderen Fällen kann man allerdings eher spekulieren und per Ausschlussverfahren zum möglichen Ergebnis kommen.
Die Bezeichnung Geforce GT 120 könnte beispielsweise ebenso gut einer 9400 GT wie einer 9500 GT angehören. Beide basieren auf dem G96-Chip und im Treiber gibt es nur einen Eintrag. Dasselbe ist im Falle des Namens Geforce GTS 160, Codename: G94b, zu beobachten. Sowohl die neue Geforce 9600 GSO 512 als auch die bereits länger erhältliche Geforce 9600 GT sind hier potentielle Kandidaten.
Besonders prikär ist die Lage im Performance-Segment. Es gibt lediglich einen Eintrag für den G92b-Chip (GTS 150), aber gleich drei potentielle Chips, nämlich Geforce 9600 GSO, 9800 GT und 9800 GTX+, wenn man die 9800 GTX gutmütig außen vor lässt.
Dadurch, dass es aber auch für die mobilen Chips Bezeichnungen im Treiber gibt, nämlich GTX 180M und GTX 170M, kann man jetzt vermuten, dass diese für die schnellsten Modelle, hier 9800 GTX+ und 9800 GT, vorgesehen sind. Somit bliebe für die 9600 GSO schlichtweg der Name GTS 150 übrig. Ist dies zutreffend, so erhöhen sich auch gleichzeitig die Chancen, dass sich hinter der Bezeichnung GTS 160 die 9600 GT und nicht die andere, neuere 9600 GSO 512 versteckt.
Sobald sich konkret abzeichnet, welcher Chip, welche Bezeichnung bekommt, werden wir Sie selbstverständlich informieren. Diese News zeigt den aktuellen Stand der Dinge auf und - das dürfte die wichtigste Neuigkeit sein - dass es jetzt aller Voraussicht nach zu dieser Umbenennung kommen wird. Diese sorgt zwar auf längere Sicht für mehr Transparenz, zunächst dürfte sie jedoch reichlich Verwirrung stiften, zumal Nvidia erst kürzlich eine Umbennung von Geforce 8 in 9 getätigt hat.
Quelle:http://www.hardware-infos.com/
So hier mal für alle EVGA GT200 User...das GPU Voltage Tuner wurde released...
Quelle: http://www.evga.com/articles/00462/Zitat:
Exclusive EVGA GPU Voltage Tuner v.1.0
EVGA now gives you even more ways to maximize your EVGA card, with the exclusive EVGA GPU Voltage Tuner (GVT). This utility allows you to set a custom voltage level for your GTX 295, 280 or 260 graphics card. (see below for full supported list) Using this utility may allow you to increase your clockspeeds beyond what was capable before, and when coupled with the EVGA Precision Overclocking Utility, it is now easier than ever to get the most from your card. With these features and more it is clear why EVGA is the performance leader!
EDIT: Also bei mir bringt das Teil nichts :-D immernoch die selben Bilder und Stabilität^^ allerdings wenn ich es höher stelle geht es noch Stabil....
NVidia: GTX260 mit neuem Design
http://zoomgamer.net/ZG2/news,id3887...em_design.html
Bin schon sehr gespannt wie das Neue Design aussieht.
Von Msi kommt eine GTX260 mit 1.792 MB
Quelle PCGH:
http://www.pcgameshardware.de/aid,67...fikkarte/News/
Da Nvidia immernoch auf DDR3 setzt, ist diese 260 genau so sinnlos wie die 8800GT 1GB. Naja, es wird trotzdem wieder Leute geben, die sich diese Karte zulegen:roll:
ich frag mich welches game ~1,7gb ram verwendet ;)
nichtmal crysis is so blöd *G*
aber es gibt genug spec geile leute die keinen tau haben...
mehr ram = besser
mehr mhz = besser
achja, und wenn ne hardware teuer is muss sie natürlich auch besser sein ;)
Minimale Fertigungskosten, bei maximaler Ausbeute. Nvidia zockt jeden ab, der sich nicht intensiv mit dem Thema beschäftigt und diese kleinen Tricks erkennt. Der Witz ist, dass es auch bei vielen Leuten hier im Forum funktioniert hat, bei denen man eigentlich annehmen dürfte, dass sie sich mit Hardware auskennen. Naja, schauen wir mal, wer seine 9600GT etc. gegen dieses neue Wunderwerk ersetzt:twisted:
Nya - ich sehe das eher als zusätzliche Hilfe! Betriffts AA oder Texturen (Rygels update). Da kann die Karte schone xtreme Punkte einfahren...
Warten wirs mal ab, wieviel sie in der Praxis bringt...
Ich werde jetzt dafür natürlich nicht mein Karten wechseln oder son quatsch :D:D - aber für Neueinsteiger ist das dann ne attraktive Karte...
EDIT: NV zockt nicht jeden ab! Das ist Geschäft wie würdest du handeln? Man kann wie gesagt eigentlich froh sein das es ATI/AMD und Intel/NV gibt. Würde ein Verbund zusammenbrechen - gäbe es einen alleinigen "Marktherrscher" der quasi die Preise bestimmen könnte. Heißt jetzt nicht das man fürne Karte 1000 Euro bezahlen muss, jedoch könnte der Hersteller seine Kosten massiv anheben, gibt ja weiter keinen...
Jetzt steht NV / Intel / Amd / Ati - zu einem guten Preisverhältnis - wie ich finde.
Mfg LKrieger
Wie soll die Karte denn besser sein? Wenn die Speicherbandbreite nicht erhöht wird, dann bringt das garnichts. Das ist so als würde man nur die halbe Autobahn asphaltieren. Klar, ein minimaler Liestungszuwachs ist sicher vorhanden, aber den bekomm ich mit einer normalen 260 auch durch das Übertakten und zwar für lau. Ich finde das nicht ok, wie die Leute dabei ver****** werden.
Ja das schon klar! Jedoch kannst du durch übertakten, den Ram nicht erhöhen :D:D. Den Takt kannste erhöhen! Bringen tuts dir indem fall etwas, das du eben mehr Texturen reinladen kannst, oder das die Karte mehr AA verträgt. Wobei das AA wie du schon sagst wieder leicht vom Ramspeed abhängt, da das Bild ja realtime in der Karte gewandelt werden muss. Bei schärferen Texturen oder mehr Objekt-Detailreichheit wirds denkich schon etwas bringen. - Abwarten ;).
Bei ATI bringts ja im Verhältnis jetzt auch nicth wirklich was. Wenn man mal die 295 und die 4870 x2 miteinander vergleicht - bringt DDR4 gegen DDR3 eig auch nix! Das liegt jetzt aber nicht am DDR4 - sondern weil die Karte allgemein langsamer ist - jedoch die neue Technologie schon verwendet wird...
Finde es eigentlich von ATI schon fast wieder überstürzt gehandelt, das sie jetzt schon anfangen wollen DDR5 zu verwenden... DDR4 scheint nichtmal richtig ausgenutzt...
Mfg LKrieger
Stimmt, die 295 ist trotzdem besser, deswegen frage ich mich auch immer, warum Nvidia nicht auf DDR5 umsteigt, denn das würde nochmal einen extremen Schub bringen. Damit wäre die neue 260 effizient, aber wahrscheinlich würde Nvidia dabei schon Verlust machen, schließlich muss der alte Speicher noch weg, bevor die neue Serie kommt^^
Ja genau! Und vorallem - was machen wenn ATI aufeinmal ne Ultra-High end rausbringt? Man muss halt immer was in der Hinterhand haben... Denke ATI hat da aber auch etwas...
Mir egal - solange es beide Marken gibt - ist es für uns jedenfalls nicht schlecht :D.
Mfg LKrieger
Warten wir mal die neuen Karten ab. Hoffentlich sind beide auf dem gleichen Level, sonst können wir uns wieder Preise jenseits der 500€ anschauen:D
Naja ich bin ebenfalls auch davon überzeugt, dass die GTX260 mit 1,7 GB VRAM net so der Hammer wird...
wird halt wieder so ein Produkt wo man denkt...was zur Hölle hat NV wieder für ein schmarn gemacht...
Aber danach kommt dann eine Grafikkarte von ATi raus, die alles wieder pwnen wird und daraufhin wird wieder NV antworten...so ist es atm^^
So nun wird es bald auch eine GTX285 mit 2GB Speicher von Pallit geben.
Link zur Quelle:
http://www.pcgameshardware.de/aid,67...fikkarte/News/
Gruß
Wie ich gerade auf PCGH erfahren habe, stellt auch Gainward eine GTX285 mit 2GB Vram her.
Da bin ich mal gespannt, welche Hersteller noch auf diesen Zug aufspringen.
Gruß
Mal gucken, was diese 2GB bringen...ich sage im Voraus schonmal: Garnichts! Hätten lieber 1GB GDDR5 draufpacken sollen. Aber wenn die Lager noch voll mit GDDR3 sind, wird das NV ja eher nicht machen.
naja kommt aufs spiel an
bei gta 4 bringts sicher etwas
und wenn man mit texurenpacks spielt nochmehr
was nv derzeit macht ist einfach *******
alte karten umbennen siehe GTS 240 oder 250
dagegen gibts die 260 jetzt mit b3 chip
Kann ich nur zustimmen...Nvidia macht derzeit nur mehr VRAM anstatt einfach mal ne neue DDR Reihe reinzupacken....
Damals war es echt noch geil...jetzt mittlerweile boomt die Produktion der selben Grafikkarte so stark, dass man die einfach so umbenennt oder ein paar andere Teile ändert...
Könnte damit zusammenhängen das NVidia momentan auf ihren Karten sitzen bleibt.
Auf TomsHardware.de stand nen Artikel das NVidia auf 500k Karten sitzt weil die Hersteller nur sehr wenige Karten verkauft haben.
Wenn die die alten Karten nun einfach umbenennen erhoffen sie sich vieleicht bessere Verkäufe...?
Boaaa XFX mal wieder riiichtig reingehauen vom Design :asta::asta::asta:
http://www.xfxforce.com/ecms.ashx/GT...XYDFC2_web.jpghttp://www.xfxforce.com/ecms.ashx/Pr...S250_Card2.jpg http://www.xfxforce.com/ecms.ashx/Pr...250Bracket.jpg
Man die Firma weiß wie man Graka gestalten muss! - Einfach GAIL
http://www.abload.de/img/unbenannti710.jpgZitat:
- Quantum Engine: Embedded Physics features
- 3-Way SLI capable
- Dual-link HDCP -capable, ready for viewing High Definition movie content
- NVIDIA® Unified Architecture with GigaThread™ technology
- Full Microsoft® DirectX® 10 Shadow Model 4.0 support
- Lumenex™ engine
- 16x full-screen anti-aliasing
- Built for Microsoft® Windows Vista® and Windows Media Center
- NVIDIA® Quantum Effect™ physics processing technology
- Two dual-link DVI outputs support two 2560x1600 resolution displays
- PCI Express® 2.0 support
- HDMI capable with the use of HDMI certified components
- HDMI Certified
- 128-bit High Dynamic-Range Rendering
- NVIDIA® PhysX™ Technology ready
- NVIDIA® CUDA™ Technology ready
Mfg LKrieger
Ok sieht pornös aus O.o
Aber was isn das für eine Karte?
Is ne 250 GTS! Stellen sie offiziell auf der CEBIT vor...
Mfg LKrieger
Scho geil, bis auf die eckigen Lüfter, das geht ma garnicht.
Das Ding erinnert an das Auto von Zurück in die Zukunft meiner Fantasie nach :D
Is glaubich ne GT250 oder so ?
Sagt mal bin ich steif oder steht dort Minimaler Strombedarf 450Watt O.o
Wollt ihr mich verarschen? Haben die neuen Karten alle so ein immenzen Stromhunger?
Nya 450 find ich auch schon ziemlich heavy. Glaube das die wohl eher last meinen... Meine kompletter Rechner mit den beiden 280 GTXen und der Wakü und alles verbraucht max 812 Watt... Glaube kaum das die hier 450 im Idle verbraucht?!
Design is aber echt sooo geil - der Hammer!
Mfg LKrieger
JUp aber wenn die 450 W schreiben darf man von 350 ausgehn...
Also glaube kaum, dass das der wahre Stromverbrauch ist, das wäre ja echt crank...wenn man überlegt, dass ich mit meinem kompletten Laptop im Idle ca. 35 Watt verbrauche ;)
Krass, ihr seid doch alle krank. Mein Rechner schluckt keine 300W unter Last und Idle was um die 100W. Die GTS250 ist ne 9800GTX+ 1GB, mehr nicht. Und die Dinger sind sparsam, dank G92b (55nm) und 2D Modus. Die Angabe stimmen also nie im Leben und kann getrost als totaler Käse abgestempelt werden. Das soll wenn dann heißen, dass man min nen 450W NT haben sollte, weil die davon ausgehen, dass NTs in den Leistungsregionen genug Ampare auf der 12V Leitung haben. Das haben aber schon gute 350W NTs oder gar noch weniger...
lol....die von XFX sieht mal echt geil aus im Vergleich zu EVGA....da kann man echt sagen, dass bei denen echt nur zählt was drinnen ist...
bei XFX ist es beim Design ;-)
Nuja mal schauen was für Benches kommen werden :D
Also laut Computerbase verbraucht das System mit einer GTS250 Idle ca. 135 Watt und Last ca.275 Watt ;-)
Wohl bemerkt das gesamte System (mit einer GTS250) verbraucht unter Last ca. 275 Watt, also der Verbrauch der Karte liegt nochmal deutlich weiter unten :wink:
Für die meisten hier ist die Karte doch eh uninteressant. Seht euch doch mal die Daten an. Der Takt ist zwar etwas höher, aber mit 512MB macht sie wohl nur unter 22" wirklich Sinn und über die 1GB Variante brauchen wir bei 256bit ja nicht reden^^ Wird wohl keine Karte ala 8800GT werden, aber die haben wir ja eigentlich schon in der GTX260².
laut Computerbase ist die GTS 250 ne umetikettierte 9800 GTX + mit abgeändertem Platinenlayout. Kleider machen Leute oder wie hieß das Ding von Gottfried Keller?
Das grenzt ja schon fast an Betrug. Naja, was red ich da, wir kennen das ja schon von älteren Karten:roll:
demnach wäre dann die GTS250 sogar das dritte Etikett, da ja die 9800GTX ne neuetikettierte 8800GTS ist. Möglich, daß jeweils geshrinkt oder so wurde. Ist ja gewissermaßen ein IQ-Test im gewerblich nutzbaren Feldversuch. Je mehr Kaufreaktionen, desto doof :aua:
Finds total unmöglich das die 250er von XFX (siehe posts von LKrieger mit den Fotos)
kein HDMI-Eingang hat.... gehört meiner meinung nach zu jedem modernen System dazu !
nuja ich hb bei meien 24er noch nen VGA Kabel drann (LKrierger's Rat) und muss sagen, dass ich da irgendwie schärfer hab als wie mit DVI oder HDMI...
@Topic
das mit der 9800GTX ist denk ich nal eher unwahrscheinlicher. Es mag sein, dass VIELLEICHT die Leistung (wo noch keiner genau weis wie viel die karte leisten kann) bringt wie die 98GTX. Und nicht umsonst wird die 250 so genannt, die höchstwahrscheinlich zwischen der 260 und 98 stellen darf...aber genauso wie die 98, wie gesagt...für mich eher unglaubwürdig...
An was machst du diese Non Sense Aussage fest?!
DIe Karte dürfte weit unter dem Stromverbrauch einer GTX 260 liegen und ich hab mit GTX 260 und Quad Core unter Last maximal 350W
Dann sind 275W mit Dual Core bzw Quad (bei Quad wohl eher 300) und dieser Karte wohl doch mehr als realistisch
die GTS 250 unterscheidet sich von der GTX 9800+ durch einen hinzugefügten Stromsparmechanismus.......und einen anderen Namen. Daher identische Leistung, identischer Last-Stromverbrauch, geringerer Idle-Verbrauch. Is nu wirklich kein Geheimnis...
http://www.computerbase.de/artikel/h...chnische_daten
Hab grad nen Video der MSI GTX260 Lightning auf PCGH entdeckt.
Das is ma was geiles... naja, eigentlich nur für custom-pc-bauer und leute die
ne glaswand am PC-Tower haben.... für Leute mit Geschlossenem Tower ist das nix.
Aber sonst sehr geil ;)
Ich sehs schon kommen,... man hat ja schon CPU-Lüfter mit Temp/RPM anzeige, und
nun kommt das auch für Grakas xD, bald braucht man kein Überwachungsprogramm mehr
sondern kann alles sprichwörtlich IM pc ablesen :o
Naja bei normalen Towern würde man davon ja nich soviel sehen aber wenn man einen Inverted ATX Tower hätte wär das geil :D
Welche ist jetzt eigentlich die Leistungstechnisch beste Karte (SLI - Ausgenommen)
Und welche ist von der Preisleisung sehr gut und noch erschwinglich?
Hab grad ne 285 für 350€ gefunden.
http://www3.hardwareversand.de/artic...25082&agid=707
Garnich so übel :)
€: http://www.alternate.de/html/shop/pr...&baseId=254273
Einfach mal den Preisvergleich bei pcgh.de nutzen;)
http://www.pcgameshardware.de/m,prei...h/a394617.html
305€ für ne 285 ist echt super.
Naja, ich denke ZU billig sollte sie auch nich sein denn das geht meisten auf die Verarbeitung.
Ich weiß jetzt nicht genau wohin damit...
ich setze es mal hier rein.
http://www.pcgameshardware.de/aid,67...fikkarte/News/
Onbard Grafikchips verschwinden bis 2012.
halte ich mal wieder für eine reine Spekulation! Es wird Onboard Grafik geben solange es sich auch für die Hersteller rechnet. So richtig durchgesetzt haben sich Onboard Chips noch nie und geben tut es sie trotzdem schon eine lange Zeit. Deshalb kratzt es auch kaum jemanden ob es die Dinger gibt oder nicht.8)
Anscheinend soll eine GTX275 auf den Markt kommen, dass hab ich soeben auf PCGH gelesen.
Diese soll gegen die ATI 4890 antreten und eine Mischung aus GTX280/285 und der GTX260(216) sein. Preis soll bei 229 bis 279 US-Dollar liegen.
Aber lest selbst.
Gruß
GTX285 mit 2GB Speicher.
http://www.computerbase.de/news/hard...x_285_2048_mb/
@tig3r0023
Und der nächste Hersteller, der das macht...
Jap. Geldmacherei, die 2 Gig bringen eigentlich kaum etwas....nur bei GTA4
GT260 fällt unter 200 €:
http://www.pcgameshardware.de/aid,67...fikkarte/News/
Kann mir wer sagen was man noch für ne GTX280 nehmen kann, natürlich verpackt mit allem zubehör und vllt maximal 50 stunden in betrieb gewesen ?
Eigentlich war es genauso umgekehrt....wir hatten immer das Memory Leak Prob...ab den 188.06 ist es endlich behoben wurden...da war ATI besser drann
@Black
SLi wird nur halb unterstützt...also ich kann es zocken....SLi wird in Gebäuden voll ausgelastet und sonst eigentlich nichts...^^
aber ich denke mal wir sollten :b2t: gehen und weiter beim GTA4 Thread disktutieren...
Boah Geil, guckt euch das mal an: http://www.pcgameshardware.de/aid,67...hnologie/News/
Wenn das fü CE3 wäre, OMG
GTX 295 mit zwei Chips auf EINEM PCB ab Mai...
http://www.gamestar.de/hardware/news...95_ab_mai.html