verscheissert wären ja nur diejenigen, die nicht warten können ;). Allerdings bezweifle ich einen starken Preisverfall, ich schätze die Kurve ähnlich flach ein wie nach Release der 8800GTX. Natürlich nur sofern der Leistungssprung ordentlich ist.
Druckbare Version
verscheissert wären ja nur diejenigen, die nicht warten können ;). Allerdings bezweifle ich einen starken Preisverfall, ich schätze die Kurve ähnlich flach ein wie nach Release der 8800GTX. Natürlich nur sofern der Leistungssprung ordentlich ist.
Die benutzen aber auch nur ein 256 Bit Speicherinterface und der GT200 wird ein 512 Bit Interface besitzen.
Der GDDR3 Speicher mag dann zwar langsamer getaktet sein, aber durch die doppelt so hohe Busbreite macht der er zumindest einen Teil davon wieder gut.
Die Karte wird durch die Verwendung von GDDR3 Speicher sicherlich deutlich günstiger werden, als wenn sie mit GDDR5 Speicher bestückt würde. Besonders bei der 1 GB Version.
Trotzdem wird es sicherlich auch Karten mit GDDR5 Speicher geben, sobald die Speicherchips günstiger werden. Spätestens Ende des Jahres wird es meiner Meinung nach soweit sein. Ob das Ganze aber wirklich nötig ist, ist eine andere Frage.
Zitat:
Die benutzen aber auch nur ein 256 Bit Speicherinterface und der GT200 wird ein 512 Bit Interface besitzen.
Ist dann die Geforce GTX 280 noch nicht auf dem GT200 Chip. ?
Edit:
Wenn eine Neue Serie kommt heißen dann die Karten Geforce 300, 310 340 ...., oder wie ??
Wie lang wird den der GT200 erhalten bleiben ??
Doch. Ich hätte vielleicht GTX 280 schreiben sollen da der Chip ja nicht immer mit 512 Bit angebunden ist.
Das nehme ich doch mal an. Die Karten der nächsten Chipgeneration werden sicherlich auch GTX/GTS/GT 340/360/380 heißen oder sowas und Refreshchips werden ähnlich wie bisher GTX 390 heißen oder so.Zitat:
Wenn eine Neue Serie kommt heißen dann die Karten Geforce 300, 310 340 ...., oder wie ??
Naja. Aber wer weiß das schon. Eine richtig nachvollziehbare Logik steckte ja noch nie hinter der Namensgebung.
Da wird sich im Vergleich zur Vergangenheit sicherlich auch nicht viel ändern. 1 - 2 Jahre wird es dauern, bis die nächste Chip-Generation erscheint. Je nach dem, was man darunter versteht. Kleinere Refreshchips mit leichten Änderungen könnte es vorher geben, aber bis ein wirklich neuer Chip mit grundlegenden Änderungen ("Multicore on die" zum Beispiel) erscheint, kann es schon mal bis zu 2 Jahre dauern, denke ich.Zitat:
Wie lang wird den der GT200 erhalten bleiben ??
Multicore on Package wenn schon. Multicore on Die macht nicht viel Sinn und bringt keinen Leistungsvorteil, überleg mal warum. ;)
Desweiteren wüsste ich nicht, wozu man bei so einer Karte nen SLI System bräuchte? Ich habe mir deshalb auch nen Intel Chipsatz geholt, weil ich auf diesen SLI Mist keinen Bock mehr habe. Entweder Skalierungsprobleme oder Microruckler oder beides zusammen. Ne, tu ich mir nicht mehr an! Hatte damals schon 2x 8800GTS (G80) und will weder SLI noch CF.
Crysis on GeForce GTX 280 SLI:shock:
http://de.youtube.com/watch?v=KS2oPuQcQDM
Willst du uns veralbern??^^
@topic:
Ich vermute mal, dass sich die GTX 280 ca. 1-2 Jahre halten kann (so wie Noxon es schon sagte). Vielleicht werden sie einen refresh bringen, aber wahrscheinlich mit einer geringeren Speicheranbindung, damit die GTX 280 weiterhin an der Spitze bleibt (s. G80-G92)
Das kannte ich schon :-|
Voll behindert wie der typ isst. 8.44 minuten für ne eklige Wurst mit zeug
http://www.golem.de/0805/59871.htmlZitat:
Beide Unternehmen hatten in den vergangenen Monaten immer wieder angedeutet, mit ihren neuen GPU-Generationen gebe es eine Verdoppelung der Rechenleistung - so wie das lange Zeit im Grafikgeschäft jährlich der Fall war. Das würde jedoch bedeuten, dass die schnellste Grafikkarte mit einer GPU weiterhin von Nvidia kommt und sich am Leistungsverhältnis innerhalb der Klassen weiterhin nichts ändert. Das belegen die bereits durchgesickerten inoffiziellen Preise der AMD-Karten, die sich auch für das Topmodell HD 4870 deutlich unter 300,- US-Dollar bewegen sollen. Nvidias High-End-Karten liegen dagegen stets im Bereich um 500,- US-Dollar, die "Ultra"-Varianten auch darüber.
Hab eigentlich gedacht, dass ATI/AMD wieder Anschluss finden könnte, aber es sieht so aus, als ob sie sich vom richtigen Highendmarkt verabschieden:sad: Wenigstens ist dann die GTX 280 preisstabiler, solange kein refresh kommt.
Ich weiß schon was ich mir zu Weihnachten hol^^
Ne GTX 280 und nen passenden EK Kühler^^
So die Specs scheinen jetzt wirklich fest zu stehen.
http://www.hardware-infos.com/news.php?news=2090
Hoffe die werden so bleiben. Mit den Specs packt alles was wir bisher kannten ein!!!
Mfg LKrieger
könnten pics des gtx280 sein
http://img515.imageshack.us/img515/6...20087b0ou8.jpg
http://img267.imageshack.us/img267/8...iaeditozo6.jpg
Hört sich schon mal gut an...
Aus dem beyond3d Forum, Zitat:
"What do you think about this guys?http://forum.beyond3d.com/images/smilies/icon_wink.gif
"Just wait until June 17th when the GTX 200 series of GPU's launch, and you'll start asking yourself when you last witnessed such a dramatic technology improvement. If you thought the GeForce 8 series blew the 7-series out of the water, this is going to leave you in shock. That's not my own marketing spin... Benchmark Reviews is presently testing the new GeForce video card."
Does it mean we will see at least as big performance bump as we have seen with G80 against G71?http://forum.beyond3d.com/images/smilies/icon_smile.gif
I say it sounds very promising.
This is from Benchmarkreviews."
Link:
http://forum.beyond3d.com/showpost.p...postcount=1465
236 Watt is doch garnix heutzutage. Wenn du jetzt SLI mit 2 GTXen hast bist du schon bei 600 Watt. Mit 3 Karten habe ich Spizte 798,75 Watt schon ausgelesen. Finde den Verbrauch für die enorme Leistung (wenn die Specs passen) sehr gut.
Genau das was ich hoffe. Sollte das wirklich son Sprung werden - sind glaub ich alle CRYSISer und alle FC2 zocker glücklich. Denke das man schon mit einer Karte CRYSIS bis zu einer Auflösung von 1920x1200 auf Very high zocken kann mit Ultra. Mit 2 Karten warscheinilch schon FC2 auf Allerhöchste Stufe. Nya man weiß es nicht - jedoch weiß man das mal eine richtig gute Karte kommen muss. Denn der limitierende Faktor heißt zurzeit einfach GRAFIKKARTE!.
Mfg LKrieger
toll ihr habt wohl alle nen geldscheisser...fuer die 280 benoetigt man schon nen eigenes akw und das bei den steigenden strompreisen und dann gibts noch so psychopathen die sich damit ein sli oder sogar nen triple-sli-system zusammenbauen...
wenn ich das hoere, vonwegen angemessene leistung. ich wette crysis laeuft in very high immer noch nicht mit 100 fps durchgehend!!!
WTF mehr als 600$ für die Karte? Das ist ja lebensmüde. Der Wert wird vom Europreis kaum abweichen, wie das frühere Kostenvoranschläge gezeigt haben. Ich finde das schon extrem, so viel zu verlangen, Leistungsschub hin oder her.
Für mich gilt das gleiche. Ich warte schon lange auf eine richtig gute Karte. Ein paar Dinge muß ich aber noch wissen.
1. Wie schnell ist sie wirklich ? (3DMark und Spielebenchmarks)
2. Ist meine CPU schnell genug um die Karte auszureizen ?
3. Preis ( für 600 EUR würde ich sie nicht kaufen, maximal 500 EUR da ich noch 100 EUR für ein Netzteil ausgeben muss.
Die Fragen werden sich ja bald klären lassen :D
Sagt mal, habt ihr alle kein Gedächnis oder was? Und wie viel bitteschön hatte damals eine 8800GTX gekostet? Na? Klingelts?
Zudem wirds ja die kostengünstigere Variante ala GTX 260 geben. Soll angeblich 449$ kosten.
Also ich hole mit die GTX 280 aus dem Grund, damit ich nicht nach einem Jahr wieder ne Karte kaufen muss, weil eine GTX 260 zu schwach ist. Diesen Fehler habe ich mit der 8800GTS (G80) gemacht und kann Crysis jetzt nichtmal auf Hoch flüssig spielen, während Leute mit ner 8800GTX keine so großen Probleme haben.
600$/€ sind EIGENTLICH gerechtfertigt. Schließlich ist die Karte ca. so schnell wie 3 88er GTXen und die kosten auch ca. 600€. Allerdings sehe ich nicht ein 600€ für ein Stück Plastik zu zahlen, das nach ein paar Jahren noch 50-100€ kostet;) Nur damit man Crysis und FC2 ordentlich spielen kann?^^ Ich bin jedenfalls gespannt, wer sich die Karte kaufen wird.
Das geht mir genauso, ich dachte damals auch, dass ich jetzt erstmal für ne ganze Zeit vorgesorgt hätte DENKSTE!!!
(offtopic: ich finde es lässt sich mit der Karte aber schon sehr schön auf hoch spielen, wobei sich hier natürlich wieder die Frage stellt was denn flüssig ist, mir reicht das auf high mit OC schon (SP versteht sich ;-))
@ topic
Was für ein Netzteil brauch man denn für die neuen Grakas etwa, wenn man sonst nur einen Dual-core und sonst nichts besonderes hat??? Würde mein 450 Watt Be-quiet NT da ausreichen??
Auch Leute mit einer GTX haben Probleme. Außerdem ist es eine riesen Geldentwertung, wenn du dir jetzt eine Karte kaufst, die in 1 Jahr nur noch die Hälfte kostet. Also lieber zweimal ne Karte, die im Moment gut ist, als eine, die etwas länger gut ist. In einem Jahr gibt´s wieder bessere Karten, die die 280 schlagen werden und dann müsstest du dasselbe über die 280 sagen wie jetzt über deine 8800.
Ich muss langsam einigen zustimmen: Außer für Crysis braucht man für kein Spiel ne 8800GTX oder was höheres. Damit würde es sich lohnen, einfach zu warten, bis solche Spiele rauskommen, weil das am billigsten wäre. Deshalb werd ich mir lieber ne 260 kaufen, wenn überhaupt. Vielleicht ist es Zeit nochmal darüber nachzudenken, wenn Spiele wie CoD5, Stalker Clear Sky, FarCry 2 oder Battlefield 3 rausgekommen sind, bis dahin fallen die Preise.
Ich hab auch damals schon die hohen Preise für die 8800 verurteilt, Karten sind nach dem Release immer total überteuert (8800GT war ne Ausnahme). Für 600 Dollar bekommt man zum Releasezeitpunkt wahrscheinlich 3 GTS (G92), die sicher mindestens genauso schnell wie die 280 sein werden. Wo bleibt der revolutionäre Schritt, wenn der Preis/Frame nicht sinkt?
EDIT:@Jannez: 450 Watt reichen wahrscheinlich nicht aus. Ich hab 470 Watt und würde nach meiner Rechnung schon ab 220 Watt für eine Graka extreme Probleme bekommen. Ist bloß die Frage, inwiefern Rechnung und Wirklichkeit übereinstimmen.
Ähm, du weißt, dass SLI für manche absolut keine Alternative darstellt? Und so gerne wie ich Crysis spiele, brauche ich so ein "Monster". Bald kommen ja auch noch FC2 und Clear Sky. Und warum sollte ich ein Jahr warten? Dann kommt ja doch eh ne neue Gen raus und die will man dann auch haben. Ich bin in gewisser Hinsicht Enthusiast und hole mir fast immer das Neuste
Nur weil du so ne Leistung nicht brauchst, heißt das nicht, dass diese Leistung andere auch nicht brauchen.
joa also mit solchen grafikkrachern kannst die hardware wenigstens ausnützen - anders würde es ausschaun, wenn man sich bloss die neueste holt, um "reserven" zu haben. ich denke, es ist besser, halt mehr hinzublättern, somit sofort spass zu haben und später beim verkauf auch noch was dafür zu bekommen. besser, als sich 2 oder 3x was günstigeres zu kaufen (in dieser sektion wohl verstanden)
450 Watt reichen wirklich nicht. Nach Abzug der Verlustleistung und das sich die Leistung auf die verschiedenen Anschlüsse verteilt hast du für die 12 V nur 300 Watt wenn es hoch kommt.
Ich müsste mir auch wegen den paar Euro Strom extra im Monat wegen der neunen GraKa keine (finanziellen) Gedanken machen. Aber trotzdem finde ich es nicht verantwortlich von den Herstellern einen solchen Stromfresser herzustellen da die große Masse zu einem deutlichen Strom Mehrbedarf führt. Und ich muss die Spiele auch nicht auf meinem LCD Fernseher in HD spielen können da der auch das 4 fache meines Monitors verbraucht.
Ob du den Wertverlust in kauf nimmst oder nicht bleibt dir überlassen. Die Hersteller verdienen sich halt an den First Buyer eine goldene Nase.
Ihr denkt zu kurzfristig!
Es kann nicht schaden ein wenig Leistungsreserven zu haben. Zudem kommt noch hinzu, dass ich auf meinen Grakas Waküblocks draufpacke. Für mich ist es lohnender wenn ich mir gleich das High End Modell für etwa 2 Jahre kaufe, als innerhalb von 2 Jahren 2 oder 3mal die Graka wechsel, weil man für jede Graka einen dafür gebauten Kühlblock braucht und dieser wiederum kostet bekanntlich ja auch was.
So die letzten 14 Seiten sind durch :D
Eine Frage hat das Nonam´chen dann auch mal.
Was haltet ihr davon das die beiden Graka "so billig" sein sollen/ werden ?
260: ca. 310€
280: ca. 420€
Ich meine wenn ich sehe, das die GX2 ca. 430€ kostet frage ich mich schon wo da die relation ist, denn die 280 wird definitv die GX2 zerstören ohne dabei jemals zu schwitzen. Tests zeigen es mir, und wenn die ersten Benchs in wenigen Tagen kommen, dann wird man es noch deutlicher sehen :D
Nur muss ich sagen, mein neues System ist fertig, Geld hab ich auch, nur zur Freundin will ich in den Sommerferien, und deshalb warte ich noch bis ca. August. Und naja der Punkt: momentan XFX 98GTX 760M BlackEdition für 260 Euronen und naja die GTX260 mit ihren süßen 50 € stören mich dann auch nicht mehr :D nur halt 2 Wochen mehr arbeiten.
Sry fürs OT nur brennt mir das auf der Seele! :oops:
naja ich glaub schonn dass man die Dollarpreise nicht 1 zu 1 übernehmen kann, denn der Dollar steht ja nun wirklich schlecht zur Zeit
meine Schätzung:
GTX 280: ca. 500-550€
GTX 260: ca. 400€
so, mal meine Meinung^^
EDIT:
Prognose 1 Monat nach Einführung:
GTX 280: ca. 400-450€
GTX 260: ca. 300€
xD
Schätzungen sind eh nur Humbug :p
Was fakt ist, die GTX260 wurde mit 449$ bestätigt!!!!! Und dass sind bei aktuellem Kurs ~310 Euro :!::!: 8)
Der Dollarkurs kann nicht direkt umgerechnet werden da dieser in der Regel OHNE Mehrwertsteuer ist! Allerdings hält der empfohlene Verkaufspreis wahrscheinlich eh nur ein paar Wochen.
600$ sind gerade 409.27694406548€
+ Einfuhrsteuer = 500 EUR
+ Zusatzkosten = 500-600 EUR
Es lässt sich also quasi 1:1 umrechnen.
Ich hoffe aber, dass die Karten zumindest zu Weihnachten oder anfang nächsten Jahres ihre erste deutliche Preissenkung hinter sich haben. Dann werd ich mir wohl eine 280'er zulegen
1:1 oh oh oh
Erzähl das nur Niemanden, für solche Aussagen wurde man früher geköpft.
Und sicher kann man den normal Umrechnen, gut die MwSt wie süß, ansonsten ist alles egal, oder warum denkt ihr alle fahren ca. 30% der Deutschen 2008 in die Staaten um dort einzukaufen, bestimmt nicht weil man dort nicht auf die Mehrwertsteuer achten muss :arofl:
300! max. 350 das wäre dann auch die Relation der damaligen 88GTS !!!!!! nichtmehr, ihr werde sehen!!
Nene ich muss da Noxon recht geben. Es ist ja nicht nur die Mehrwertsteuer und die Einfuhrkosten, sondern schlagen die verschiedenen Marken wie Leadtek, XFX usw bestimmt auch noch was drauf. Umsonst geben sie Ihre Produkte jedenfalls nicht Preis. Und eine Karte direkt von NV bekommt man nicht!
Mfg LKrieger
Die Spekulationen über die finalen Taktraten hatte LKrieger zwar schon mal erwähnt, hier aber noch mal der Artikel von computerbase:
klick
oh mann noname wie dumm muss man denn sein^^
man kann die $-Preise nicht mit dem Wechselkurs in Euro umrechnen, da kommen ja noch jede Menge kosten drauf
aba andererseits kann ich mir auchnich vorstellen, dass die $-Preise 1 zu 1 übernehmbar sind
wie gesagt, ich sag ma so ~50€ unter dem jeweiligen $-Preis^^
also ich bin ma sehr gespannt ob des stimmt http://www.pcgameshardware.de/aid,64...X_260_und_280/ .. verwundern würde es mich auf jeden fall ;)
Hast richtig verstanden, aber mach dir mal keine Sorgen, solche Aussagen basieren auf Unwissenheit über die Funktionalität solcher Technologie. Naja, ATI Fans müssen doch auch mal Hoffnung bekommen, sonst werden sie depressiv.
Ich habe in nem englischem Forum gelesen, dass der R700 also die HD4870X2 die GTX 280 nicht schlagen wird. Inwiefern das wahr ist, weiß ich nicht. ATI ist schon erbärmlich, wenn sie zwei Chips einsetzen, um an die Leistung eines Single Chips von NV ranzukommen.
also des 512-bit speicherinterface bei der gtx280er soll immer noch der wahrheit entsprechen.
(joa und zudem bleibt für amd noch zu hoffen, dass diese den treiber dann so gut hinbekommen wie momentan der 8.5er @vista unter dx10)
Im Moment sind auch Gerüchte im Umlauf, der GT200 sei in Wirklichkeit ein G90, der dann nicht veröffentlicht wurde, weil AMD zu der Zeit keine Konkurenz darstellte. Er sollte zum Q4 2007 rauskommen, weshalb sich auch erklären ließe, warum der GT200 kein DX10.1 unterstützen würde. Der GT100 soll dann der Nachfolger des GT200, der angeblich ein G90 sein soll, sein.
Aber wie gesagt,, alles nur Gerüchte.
Mit wieviel Frames würde Crysis damit laufen ?
Wenn ich mir schon die 9800GX2 anschaue, dann hauen die ganz schön rein.
Very High mit 50fps. ! (?)
Jetzt noch diese GT200er Karte..... Könnte man 16Q AntiAlaising dazu schalten und es immernoch flüssig spielen ?
Ne, kann mich leider nicht daran errinnern. Ist aber auch egal, ob nun G90 oder sonst was. Hauptsache die Leistung stimmt! Desweiteren habe ich erfahren, dass der GT200 einen ähnlichen Quantensprung erreichen soll wie der G80 zum G71.
http://benchmarkreviews.com/index.ph...d=178&Itemid=1
Hier sind auch nochmal viele Informationen. (englisch)
Offenbar herrschen aktuell Streitigkeiten, welche Graka nun schneller sein wird. Der R700 oder der GT200?!
Angeblich soll die GTX 280 etwa 50% Mehrleistung gegenüber der 9800GX2 bieten, was bedeuten würde, dass man Crysis auf jeden Fall in Auflösungen wie 1920*1200 unter very high durchgehend flüssig spielen werden kann. Aufgrund der 512bit SI würde die Karte aber im Gegensatz zur 9800GX2 nicht so stark bei aktiviertem AA einbrechen.
Das wird ein heißer Tanz!
Ich hoffe, dass ATi leistungsmäßig mit nVidia mithalten kann, denn wenn die wirklich ihre Karten zu den "günstigen" Preisen anbieten wollen wie erwartet, dann muss nVidia auch ganz schnell die Preise senken.
Aber egal was letztendlich für Preise dabei herauskommen. Ich werde mir auf jeden Fall eine nVidia Karte kaufen. Ich erhoffe mir nämlich, dass in Zukunft mehr Anwendungen die Cuda API nutzen werden um ihre Berechnungen zu beschleunigen.
Photoshop macht's vor.
Für Spiele ist es meiner Meinung nach auch sehr wichtig, dass die PhysX Engine die nVidia GPU zur Berechnung heran zieht. Aus diesem Grund wird die Engine in Zukunft sehr viel Verbreitung finden.
Wann und ob ATi die Berechnungen der PhysX Engine auf der GPU durchführen wird ist indes noch völlig unbekannt.
Aus dem Grund werde ich mir also eine nVidia Karte holen, auch wenn sie kein SM4.1 unterstützt, aber das halte ich nicht für so wichtig. Meine einzige Hoffnung ist, dass ATi konkurrenzfähige Karten zu niedrigen Preisen anbietet und so die Preise von nVidia etwas drückt.
so, jetzt hab ich auch mal den ganzen thread durch! :blink:
ich werde das diesmal auch ganz entspannt angehen mit dem kauf... immerhin kann ich crysis jetzt auch auf very high mit mind. 8fach AA flüssig spielen und von dem her warte ich sicher mal, bis die ersten die neue gtx280 haben und man hört ob es sich lohnt oder nicht...
ausserdem braucht man ja wie schon öfter hier angemerkt die leistung noch bei den wenigsten games...
die nächsten "meilensteine" in der performance-frage werden sicher FC 2 und S.T.A.L.K.E.R. - clear sky...
und wenn die beiden games bei akzeptablen werten bei mir laufen, warte ich sicher noch so lange, bis ichs wieder nötig habe, eine bzw. wieder 2 neue grakas zu kaufen... ansonsten wird da die gtx280 auch schon so billig sein, dass man sie sich ohne schlechtes gewissen leisten kann... :)
GPU Leistung wird immer benötigt, als gibt sehr wohl eine Daseinsberechtigung der GTX 280. Vor allem für Leute ohne nForce Board und mindestens einem 22Zöller. Leute mit nem 30 Zöller werden sich über die GTX 280 freuen.
Die Karte würde auch nicht 600$ kosten, wenn sie nicht dementsprechend Leistung satt bieten würde. Noch herrscht ja kein Monopol, deshalb kann man von dieser Theorie ausgehen. Nur wenn ATI es sich selbst versaut, dann ist nur ein weiterer Schritt in die Geschichtsbücher für ATI.
Nachdem beim „Nvidia Editors Day“ in der letzten Woche alle Details zum Start der kommenden Grafikkarten ausgewählten Personen präsentiert wurden und der Inquirer einmal mehr nicht eingeladen war, veröffentlichen die Kollegen, die sich damit nicht an ein NDA halten müssen, alles zum Thema, was es aufzugreifen gibt.
Der letzte Streich von Charlie Demerjian ist die Veröffentlichung einer E-Mail von Philip Scholz, einem Marketing-Verantwortlichen von Nvidia. Dieser weißt die OEM-Partner, aber auch die Presse, auf das neue Erscheinungsdatum hin. Demnach startet die neue GeForce-Serie offiziell am 17. Juni um 15 Uhr deutscher Zeit durch, also genau einen Tag eher als bisher angenommen. Die Informationen aus der beim Inquirer gezeigten E-Mail weisen weiter darauf hin, dass es bereits seit dem 14. Mai offizielle Informationen und Material zu den Karten gibt und alle zuletzt getätigten Informationen durchaus der Wahrheit entsprechen dürften. Insbesondere die gestern veröffentlichten finalen Spezifikationen, sowie die Preise und die hohe TDP von über 200 Watt dürften als echt anzusehen sein. In genau drei Wochen werden wir wissen, wie es um die Leistung der neuen Grafikkarten bestellt ist.
Quelle: Computerbase
ja, da gebe ich dir schon recht...sie hat schon ihre daseinsberechtigung...
gerade für die leute, die kein sli bzw. cf nutzen ist die gtx280 sicherlich eine bereicherung!!! :)
aber ich habe ja von mir persönlich gesprochen! und da wäre ich dumm, wenn ich mir jetzt schon wieder eine neue graka kaufen würde...wenn, dann werde ich sie mir erst anfang nächsten jahres holen bzw. dann, wenn FC 2 rauskommt und ich nicht angemessen zocken kann --> aber bis dahin wird die gtx 280 sicher billiger werden! ;)
sry, aber für mich ist ATI bereits geschichte!!!
...und nvidia hat finde ich schon eine gewisse monopolstellung, da ATI schon lange nicht mehr mit nvidia mitkommt...(ati-nutzer bitte nicht beleidigt fühlen...ist nur MEINE meinung ;))
Mich wundert es auch nicht, dass INQ nicht eingeladen wurde. Seit ihrem letzten Fanboyartikel, wo der Satz auftaucht, dass man nicht glaube, dass die GTX 280 gegen den R700 ankommen würde, ist ja mal...
Am schlimmsten finde ich sowieso Fu(R)zilla und INQ...alles ATI Fanboys die Redakteure.
Hier ist schon die nächste CUDA Anwendung
SuperPI wird durch CUDA Nvidia-GPU-tauglich
So langsam wird das ja was.
//EDIT:
Und hier schon wieder: Football-Simulation „Backbreaker“ nutzt PhysX.
Finde ich echt gut, dass immer mehr Spiele davon Gebrauch machen und das jetzt sogar die Animationsengine, die auch bei GTA4 zum Einsatz kommt, die GPU zur Berechnung hinzu zieht.
Aus einer geheimen Quelle
Wenn die tabelle echt ist und die leistung tatsächlich so aussehen wird, dann kann AMD/ATI einpacken und wir werden übelste opfer von nVidias monopolstellung...
Na schönen dank auch.
Ich hoffe das NV noch mehr Leistung bei Spielen bringt. Denn die Ergebnisse sind ja auf dem Benchmark zurückzuführen. Ein Benchmark ist nicht gleich ein Spiel.
Mit viel Glück ist wirklich die Leistung dreier G80s mit einer Karte möglich. Denn mit SLI kann man ja auch nicht einfach 300% rechnen (3-way Sli G80) Unter SLI ist ja immer ein haufen Verlust zu rechnen und zu erwarten. Die Karten laden ja alle die gleichen Speicherinformationen rein und arbeiten dann mit modus afr oder spit frame rendering usw... Mit 2 Karten hat man zirka 80 Mehrleistung als zu einer Karte. Bei einer 3. Karte kann man nochmal mit so 30% rechnen.
Bei Spielen könnten wir dann tatsächlich mit einer GT200 3 G80 in SLI plätten. Wenn das so wäre wäre das der absolute durchbruch für nv - und wiedermal eine megamäßige High end Karte.
Vielleicht werden dann jetzt mal die arbeiten und die Speicherverwaltung unter SLI bei der neuen G200 Serie optimiert, sodass man tatsächlich immer mit 90-95% Mehrleistung für jede Karte rechnen kann.
@Godsson: ATI wird sich insovern wieder halten können, das sie günstiger Ihre Karten auf den Markt bringen werden. Somit wird man für NV einen Haufen mehr bezahlen müssen - aber wird auch einen größeren Leistungsschub erwarten können. ATI wird sich denk ich schon noch überwasser halten können. Da die Fangemeinde unter ATI schon noch seehr groß ist - und sich nicht jeder Nvs Topmodelle Leisten können und auch nicht wollen.
Mfg LKrieger
Also irgendwie kann ich das nicht ganz glauben. Eine HD4870 soll gerade mal so schnell sein, wie eine 8800 Ultra?
Das wäre wirklich etwas wenig und nicht besonders vorteilhaft für uns Kunden. Im High-End Sektor hätte nVidia dann erst einmal eine sichere Monopol-Stellung und wird wahrscheinlich keinen Grund sehen ihre Preise in nächster Zeit zu senken.
Ich hoffe, dass die Werte nciht ganz stimmen und ATi in der Realität besser ist, als in dem Benchmark.
Okay, ich gebs zu, ich hab euch verarscht...:aua:...selbstgemachte Benchmarls sind doch cool, oder? Muahaha
Und hier ein offizieller Verarsche Benchmark -> http://www.pcgameshardware.de/aid,64...e_aufgetaucht/
Ich möchte euch dringend raten, gerade in den Tagen kurz vor Veröffentlichung der Karten sehr vorsichtig mit autauchende Benchmarks umzugehen, auch wenn sie noch so realistsich oder inrealistisch klingen.
EDIT: Bin ich besoffen?
Also ich kann nur sagen das die benchmarks die kurz vorm release des G80 raus kamen, eigentlich der wahrheit entsprachen.
Aber freuen tu ich mich jetzt schon wie sonst was. Nur stell ich mir dann die Frage für was ich die eigentlich benötige. Crysis ok, aber sonst sind wohl eher wenig Spiele vorhanden nah an die Qualitäten von Crysis herankommen. Aber auf diese CUDA Technologie bin ich ja mal gespannt. Wenn die auch in Spielen einsatz findet, wäre das ja mal nicht schlecht. :)
@DR. Kongo G80: Nunja - nichtnur CRYSIS hat solche krassen Ansprüche sondern auch der Kommende Shooter Far Cry2, sowie Battlefield 3 (wird sicher auch einiges fressen). Wer gerne das neue Need 4 Speed spielt hat auch einige Probleme selbst mit SLI ruckelt nämlich das Spiel teilweise. FEAR2, COD5 und weitere neue Spiele werden mit Sicherheit auch ähnliche Leistungsstarke Engines besitzen.
Wenn man alles auf max zocken möchte langt nunmal keine G80 mehr aus (oder hat noch nie ausgereicht bei CRYSIS). Wer AA einschaltet der kann CRYSIS auf max heutzutage nicht flüssig spielen. Selbst ich kann mit 3 Karten unter Vista mit ner Resi von 1920x1200 und allem auf max nicht richtig flüssig zocken. Mit AA wäre es wieder unspielbar! Wird Zeit das endlich mal was richtig gescheites kommt.
Glaube schon das wir früher oder später endlich mal richtig gescheite Karten benötigen (zumindest die Zocker ;)).
Mfg LKrieger
Ich finde diese beiden Sätze besonders interessant.
"Dabei zeichnet sich ein klares Bild ab, denn die Geforce GTX 280 und die Geforce GTX 260 würden mit einem kolportierten Ergebnis von rund 4100 bzw. 3800 Punkten deutlich vor der Radeon HD4870 (RV770XT) liegen. Angesichts des vermuteten Preises von 349 US-Dollar für die Radeon HD4870 könnte AMDs Zielgruppe das Mid-Range-Segment darstellen, während Nvidia wohl eher den High-End-Markt anpeilt"
Ich kann mir gut vorstellen das ATI sich erst mal auf das Mid-Range-Segment konzentriert und erst garnicht versucht NVidia im High-End-Markt zu "schlagen".
@DualNuke: Wäre durchaus möglich das ATI erstmal versucht sich mit günstigeren Midrange Karten wieder aufzupäppeln. Denn da hat ATI zurzeit noch super Vorteile und kann die Karten auch noch günstiger anbieten. Sollte NV allerdings noch weiter Profit schlagen - wird NV sich auch nicht davon scheuen die MidKarten günstiger anzubieten.
Allerdings jetzt mal wieder zurück zur GT 200.
Mfg LKrieger
Nochmal zum Thema MidKarten. Eine 8800GT 512MB für 126€ NEU! Ich finde damit deckt Nvidia auch diesen Bereich recht gut ab.
@Topic
Wenn es eine GTX 280 geben wird und der Chip GT 200 heißt, ist es doch durchaus möglich, dass es auch eine GT 280 geben wird, oder was meint ihr dazu? Wenn sie ein ähnliches Verhältnis wie die 8800GT hätte, wäre das der ultimative P/L-Killer:D
Es tummeln nun Gerüchte darüber, dass der GT200 nur eine kurze Lebensdauer haben wird. Nvidia scheint die Zeichen der Zeit erkannt zu haben und wird schnell nach dem Launch des GT200 in 65nm einen GT200b in 55nm vorstellen. Schon vielleicht im September! Erste Out Tapes sollen bereits gestern rausgegangen sein.
http://www.hardware-infos.com/news.php?news=2107
Verdammt! Ich habe schon zu lange gewartet! Ich weiß nicht, vielleicht stimmts ja und ich warte lieber noch ein wenig.
ihr braucht nicht immer gleich alles glauben was die Seiten schreiben,
Hardware-Info schreibt auch nur Mist:(
naja ich hoffe sogar die haben recht, denn damit wird der chip hoechstwahrscheinlich kostenguenstiger an den mann gebracht. und fuer mich ganz wichtig weniger tdp --> leisere kuehlung und weniger stromverbrauch!!!
Glauben sollte man da echt nix, aber spekulieren und hoffen darf man ja. Ich wart auf jeden Fall noch ab bis November oder Dezember. Meine 8800gts/g92 läuft ganz gut soweit.
Und mir wärs schon sehr lieb wenn sich am Stromverbrauch des gt200 was tun würd, i könnt ja schon heulen wenn i an mei letzte Stromnachzahlung denk.:cry:
Davon ab ists ja auch nicht unrealistisch, dass NV auch in 55nm-Zeitalter kommt. Bringt ja nur Vorteile, weil a)höhere Taktraten möglich und b)Stromverbrauch niedriger. Und niedriger Stromverbrauch is halt schon verdammt trendy und bei den Strompreisen heutzutage kriegt dieser ja auch immer mehr Gewicht.
Grundsätzlich stimmt das natürlich. Man sollte immer vorsichtig sein, aber diesmal werden sie wohl damit recht haben.
Ursprünglich wurde ja überlegt, ob man nicht sofort in 55nm launcht, doch das war nVidia dann doch etwas zu gefährlich und sie setzten erst einmal auf altbewehrtes und wechseln erst etwas später den Fertigungsprozess, wenn er ausgereift genug ist.
In wie fern sich das Ganze auf den Kunden auswirkt, ist die Frage. Vorteile wird man durch einen 55nm Chip wahrscheinlich nicht unbedingt haben. Vielleicht sogar nachteile, was die Übertaktungsfreudigkeit angeht oder so. Das wird man sehn.
Hab die News auch gerade gelesen. War ja auch so ähnlich geplant. Man wird sehen was daraus wird.
Mfg LKrieger
Das ist nur das Geblubber vom Inquirer auf deutsch.
Link: http://www.theinquirer.net/gb/inquir...sucessor-tapes
Ich weiß, dass das nur Gerüchte sind, aber diesmal erscheint mir dieses Gerücht schon realistisch. Wer weiß, vielleicht lohnt sich das Warten ja? Maybe weniger Stromverbrauch? 1000GFlops? Günstiger?
Jedenfalls will ich erstmal wissen, wie weit man den GT200 in 65nm übertakten kann. Aufgrund meiner Wakü kann ich es mir ja erlauben, so ein heißes Eisen noch heißer zu machen.
Der GT200 ist doch n 65nm ?
Und die GT200b Version ist in 55nm ?
In was ist der RV770 und RV700 ?
was das jemand.
Zitat:
RV770 -> Radeon HD4870
R700 -> Radeon HD4870X2 bestehend aus 2x RV770 auf einem PCB
JO thx, und auf welcher Bauweise ?
ich dachte es wäre schon offiziel, aus welcher Bauweise (55 nm...) es besteht.
Werden die Geforce GT200b Karten, besser sein als die GT200 Karten ?
naja, was heisst "besser" .. ich erhoffe mir ehrlich gesagt noch nicht des gelbe vom ei - im mom ist's bei nvidia ein wenig ominös das ganze. am besten warten wir einfach ma ab, evtl. ist die b variante noch ein wenig höher getaktet ka. bleib jetzt erstma noch bei meiner xfx 8800gtx xXx
Ich warte mal ab, ob sich die voraussichtlichen 600€ für den GT200 lohnen. Dabei ist mir vor allem die Leistung ein wichtiges Kriterium. Erreicht die GTX 280 mindestens die Leistung von zwei 8800Ultras und lässt sich darüber hinaus noch gut OCen, so ist die Karte so gut wie gekauft.
Stimmt die Leistung nicht im Vergleich zu dem hohen Stromverbrauch, werd ich aller Wahrscheinlichkeit nach auf den GT200b warten und wenns selbst bis Weihnachten dauert. Denn soviel Geld habe ich nun auch wieder nicht, um mir jetzt nen GT200 zu holen und ein paar Monate später den GT200b.
würde sich wohl aus finanzieller sicht zumindest alles andere als lohnen, vom gt200 auf den gt200b umzusteigen bei ner mehrleistung von lediglich paar prozent, wenn überhaupt ja .. schaun' wir ma was auf uns zukommt.
Sooo gibt wieder was neues/altes :D
Erstmal bestätigt sich das mit dem Preis was Noxon und ich gesagt haben.
http://www.fudzilla.com/index.php?op...7603&Itemid=34
Fundzilla meint auch das die 280 GTX für 550-600 Euronen zu beginn verkauft wird.
Als nächstes gibts wiedermal eine nette Grafik die die Leistung der beiden neuen Grafikkarten im vergleich zu einer ATI 3870 X2 zeigen soll. Dabei hat die ATI Karte immer den Faktor 1.
http://vr-zone.com/articles/GeForce_...ance/5817.html
Sollte die Leistung wirklich so enorm sein hat das Warten sein Ende.
Mfg LKrieger
Oh Wahnsinn, das sind ja brutale Werte. Ich finde auch, dass die 550-600€ durchaus realistisch sind und bei dieser Leistung auf jeden Fall gerechtfertigt.
Naja. So brutal sind die nicht. Man darf sich von der Grafik nicht täuschen lassen. nVidia macht das natürlich clever und startet die Skala erst bei 0,8 anstatt bei 0. Da kommen theoretisch also noch ein paar cm roter Balken unten drunter und dann sieht das nicht mehr ganz so umwerfend aus. Im Schnitt ist die 260 so ungefähr 50% schneller als eine 3870 X2. Crysis @ High Settings mit 1280x1024 4xAA/16xAF würde statt mit 23 fps nun mit 34 fps laufen. Man kann es also gerade einmal flüssig spielen.
Das ist zwar immer noch sehr gut, aber nicht so gut, wie es auf den ersten Blick auf die Grafik den Anschein hat.
Weis einer von euch
Woher kommt die Mehrleistung (von dem 512Bit-Speicherinterface.....) ?
Hab da nochmal eine Frage zu der Serie von dem GT200b, unswar wird dann die Serie wenn eine kommt: 280b,240b,360b...... heißen ???
man weiss noch fast garnichts, man kann nur spekulieren
und diese Fragerei nervt langsam, wir sind hier doch nicht im Kindergarten!