Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia GTX 500 Grafikserie Infos
da es ja bald soweit ist die erste news dazu.:-)
Geforce GTX 580: Mutmaßliche Bilder plus Einschätzung der Leistung - Update
Erste Benchmark-Werte bei 772/2.204 MHz (Chip/Speicher; GTX 480 = 700/1.848 MHz) sprechen von leicht über X12700 Punkten im 3DMark Vantage, der P-Score soll bei rund 23300 liegen. Mit Übertaktung auf 850 MHz Chiptakt sollen erst gar Richtung P25500 sein. Das wäre auf Höhe einer Radeon HD (http://www.pcgameshardware.de/aid,796262/Geforce-GTX-580-Mutmassliche-Bilder-plus-Einschaetzung-der-Leistung-Update/Grafikkarte/News/#) 5970 - aber eben mit nur einer GPU. Weitere Bilder aus dem Chiphell-Forum zeigen zudem die Platinenrückseite und die Anschlüsse genauer. Bleibt die Frage, ob diese Karte tatsächlich in Bälde erscheint oder eben nicht - zumindest sprudeln in den letzten Stunden die Informationen geradezu.
http://www.pcgameshardware.de/aid,796262/Geforce-GTX-580-Mutmassliche-Bilder-plus-Einschaetzung-der-Leistung-Update/Grafikkarte/News/
update: in 1-2 wochen gibt es mehr
http://www.hardwareluxx.de/community/15579310-post45.html
Sommermn
28.10.2010, 21:15
...Das wäre auf Höhe einer Radeon HD 5970 - aber eben mit nur einer GPU...
Ich weiß, das sollte nicht gleich beim zweiten Post im Thread in irgendwas anderes ausarten, aber PCGH haben's echt mal so garnich drauf :lol:
Dass die 5970 eben auch nur eine GPU haben soll haben die auch noch nicht so ganz gerafft - zumindest aus dem Kontext hört es sich so an. :roll:
Naja, bin mal gespannt was die 500er Serie so mehr können wird. Fest steht ( natürlich ) - ich bleib erstmal die nächsten Jahre bei der 470 :)
Nightspider
28.10.2010, 22:15
Ich weiß, das sollte nicht gleich beim zweiten Post im Thread in irgendwas anderes ausarten, aber PCGH haben's echt mal so garnich drauf :lol:
Dass die 5970 eben auch nur eine GPU haben soll haben die auch noch nicht so ganz gerafft - zumindest aus dem Kontext hört es sich so an. :roll:
Naja, bin mal gespannt was die 500er Serie so mehr können wird. Fest steht ( natürlich ) - ich bleib erstmal die nächsten Jahre bei der 470 :)
Vielleicht hast du auch einfach den Wortlaut der PCGH gerafft, kann das sein?
Die haben es aber auf jeden Fall mal mehr drauf als du, also würd ich mal schön ruhig bleiben und woanders flamen, wenn man schon nicht in der Lage ist, den Wortlaut eines Redakteurs zu verstehen. :roll:
Vielleicht war es von ihm nicht super formuliert aber man weiß trotzdem was gemeint ist.
http://www.hardwareluxx.de/ox/www/delivery/lg.php?bannerid=47&campaignid=5&zoneid=1&loc=http%3A%2F%2Fwww.hardwareluxx.de%2Findex.php%2 Fnews%2Fhardware%2Fgrafikkarten%2F16889-finale-spezifikationen-der-geforce-gtx-580-durchgesickert.html&referer=http%3A%2F%2Fwww.hardwareluxx.de%2Findex.p hp%2Fnews.html&cb=a8dae9127d
Finale Spezifikationen der GeForce GTX 580 durchgesickert (http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/16889-finale-spezifikationen-der-geforce-gtx-580-durchgesickert.html)
Nun scheinen aus diversen Quellen die echten Taktraten durchzusickern. Mit 772 MHz taktet die GF110-GPU immerhin 72 MHz schneller als die GF100 der GeForce GTX 480. Die Anzahl der Shader-Prozessoren wird mit 512 angegeben. Die zusätzlichen 32 Shader sowie der um 10% höhere Takt dürfte für das Performance-Plus von vermuteten 15-20% verantwortlich sein. Die Shader-Prozessoren sollen zusätzlich nicht nur mit 1401 MHz, sondern 1544 MHz laufen. Der 1,5 GB große GDDR5-Speicher ist weiterhin über ein 384 Bit breites Speicherinterface angebunden. Die Speicherchips sollen mit 2004 anstatt 1848 MHz arbeiten. Dadurch steigt die theoretische Speicherbandbreite von 177,4 auf 192,4 GBit/s.
Doch nicht nur durch diese offensichtlichen Erweiterungen der Architektur und die Erhöhung des Taktes soll die Performance gesteigert werden. Gemutmaßt wird auch über eine Verdopplung der Textureinheiten auf 128 an der Zahl nachgedacht. Wie bereits in den ersten Gerüchten erwähnt soll die GeForce GTX 580 weniger verbrauchen als der Vorgänger GTX 480, was zu begrüßen wäre.
http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/16889-finale-spezifikationen-der-geforce-gtx-580-durchgesickert.html
release 9. November oder so
http://www.gnd-tech.com/main/content/409-NVIDIA-GeForce-GTX-580-Full-Specs-and-Release-Date
lol xD
kauft man sich paar Wochen vorher 2 480er und jetzt les ich schon von der 500er fail inc xD
neja mal schauen wie das Ganze sich auf die Games auswirken wird :P
Ovomaltine
31.10.2010, 10:28
lol xD
kauft man sich paar Wochen vorher 2 480er und jetzt les ich schon von der 500er fail inc xD
neja mal schauen wie das Ganze sich auf die Games auswirken wird :P
Jupp das ist echt übel, aba ich denke der performance sprung wird nun nicht so der überbringer sein und für die games die es atm gibt wird es eh überflüssig sein.
Ich mein ob nun 200 oder 230 fps das fällt nun nicht so sehr ins gewicht ;-)
MFG
Ovo
Jupp das ist echt übel, aba ich denke der performance sprung wird nun nicht so der überbringer sein und für die games die es atm gibt wird es eh überflüssig sein.
Ich mein ob nun 200 oder 230 fps das fällt nun nicht so sehr ins gewicht ;-)
MFG
Ovo
Denke ich auch, vor allem das ja a keine neuen so Games rauskommen die aktiv die Leistung brauchen und b einfach derzeit bei NV nur ein e-Penis Vergleich gegenüber ATI machen wollen...meine Ansicht :P
Shooter0175
31.10.2010, 11:26
Denke ich auch, vor allem das ja a keine neuen so Games rauskommen die aktiv die Leistung brauchen und b einfach derzeit bei NV nur ein e-Penis Vergleich gegenüber ATI machen wollen...meine Ansicht :P
Naja, wenn ein Konkurrent bessere Produkte herausbringt, darf man eben nicht tatenlos zusehen, da man sonst seine Kunden verlieren würde. So läuft das nun mal, ob man die Karten nun braucht oder nicht spielt hier keine Rolle ..
Naja, wenn ein Konkurrent bessere Produkte herausbringt, darf man eben nicht tatenlos zusehen, da man sonst seine Kunden verlieren würde. So läuft das nun mal, ob man die Karten nun braucht oder nicht spielt hier keine Rolle ..
Mittlerweile ist es doch in der Gaming Szene sowas von abgefuckt shice egal wer was rausbringt...zu 90% kaufen doch die meisten die Fanboys Artikel oder schließen sich einfach der Mehrheit zusammen die sagt das des besser ist ;)
Kaum einer kauft heutzutage nur was was er für sich selbst besser findet, sondern macht sich abhängig von der Meinung anderer und das schlimme ist das man von Berichten der Zeitschriften dann noch ein Urteil bildet.
Das ist genau wie beim Schuhkauf...die einen mögen Allstars Chuks, die anderen Springerstiefel...warum? Weil einfach der Typ in ner anderen Welt lebt (hart gesagt^^)
LandsHeer
31.10.2010, 11:33
Wollte mir in den naechste Monaten nen neuen PC holen und hatter erst geplant 2 GTX 460 zu nehmen, aber wenn jetzt die 500er kommen, dann warte ich bis was aehnliches wie ne gtx 460 kommt.
Wollte mir in den naechste Monaten nen neuen PC holen und hatter erst geplant 2 GTX 460 zu nehmen, aber wenn jetzt die 500er kommen, dann warte ich bis was aehnliches wie ne gtx 460 kommt.
Ich würd sogar abwarten...was bedeutet neue Grafikkarten bei NV bzw. du solltest dich folgendes Fragen:
- Wirken sich die 500er Serien so aktiv auf die Games aus (auf die Dauer gesehen)
- in welchen Unterschied wirken sich die 500er gegenüber die 400er aus (auch auf die Dauer her gesehen)
- wie sieht die aktuelle Engine Situation aus - werden so viele Spiele mit einer neuen High End Engine rauskommen
Wenn du dir darüber Gedanken gemacht hast und weist wie sich das alles auswirkt, dann kannste dir mal ansetzen eine zu kaufen bzw. die Preise der 400er werden bestimmt dann auch niedriger und joa...
An deiner Stelle würd ich erstmal schön chillen und Kaffee trinken, abwarten wie die Meinung hier so von Usern ist die dann ne 500er haben...hat denk ich ma noch Zeit so ne Karte zu holen^^
Shooter0175
31.10.2010, 11:49
Mittlerweile ist es doch in der Gaming Szene sowas von abgefuckt shice egal wer was rausbringt...zu 90% kaufen doch die meisten die Fanboys Artikel oder schließen sich einfach der Mehrheit zusammen die sagt das des besser ist ;)
Kaum einer kauft heutzutage nur was was er für sich selbst besser findet, sondern macht sich abhängig von der Meinung anderer und das schlimme ist das man von Berichten der Zeitschriften dann noch ein Urteil bildet.
Das ist genau wie beim Schuhkauf...die einen mögen Allstars Chuks, die anderen Springerstiefel...warum? Weil einfach der Typ in ner anderen Welt lebt (hart gesagt^^)
Nein, eben nicht. Wenn nVidia jetzt keine Karten herausbringen würde, dann kann AMD die Preise ihrer neuen Karten (hauptsächlich die der kommenden High-End Karten) relativ frei bestimmen und da jedes Unternehmen auf Gewinn aus ist, würden die nicht gerade gut für den Kunden ausfallen.
Außerdem entwickelt niemand neue Produkte, wenn es keine Konkurrenz gibt, was bedeutet, dass bei der Technik alles beim alten bleibt, auch wenn das beim Grafikkartengeschäft nicht wirklich zählt, da hier die Konsolen ohnehin eine wirkliche Weiterentwicklung verhindern.
Nein, eben nicht. Wenn nVidia jetzt keine Karten herausbringen würde, dann kann AMD die Preise ihrer neuen Karten (hauptsächlich die der kommenden High-End Karten) relativ frei bestimmen und da jedes Unternehmen auf Gewinn aus ist, würden die nicht gerade gut für den Kunden ausfallen.
Außerdem entwickelt niemand neue Produkte, wenn es keine Konkurrenz gibt, was bedeutet, dass bei der Technik alles beim alten bleibt, auch wenn das beim Grafikkartengeschäft nicht wirklich zählt, da hier die Konsolen ohnehin eine wirkliche Weiterentwicklung verhindern.
haha xD
Hab ich ein Wort geschrieben das NV die Produktion einstellen sollte aufgrund das eh fast nur Fanboys immer die selbe Marken kaufen? Glaub kaum
Meine Erklärung sollte nur verdeutlichen das egal was die beiden Grafikkartenhersteller machen die meisten eh immer bei dem selben Hersteller bleiben, aufgrund dessen das sie dieser ihr Vertrauen schenken.
Klar ist es Fakt das wenn der andere nicht die Stirn bietet das die andere Marke den Markt komplett bestimmt. Außerdem ist nicht nur der ePenis Vergleich eine Rolle, sondern wie die aktuelle Situation bei den Games, Programierungssoftwaren etc. ist.
Deswegen sag ich nur das die 500er nur dazu wahrscheinlich gemacht wird um ATI mal wieder auszugrenzen...vor allem man hyped die 400er so hoch und paar Monate später liest man das ne neue Generation mittlerweile in Planung ist. Wenn man sich an damals erinnert wie lang die ganzen 4 - 8 Series überlebt haben...schon ein Unterschied :D
Shooter0175
31.10.2010, 12:19
haha xD
Hab ich ein Wort geschrieben das NV die Produktion einstellen sollte aufgrund das eh fast nur Fanboys immer die selbe Marken kaufen? Glaub kaum
Ich habe nie von einem Produktionsstopp gesprochen, ich meinte lediglich die derzeitige Situation.
Wie auch immer, mag ja sein, dass viele immer bei einer Marke bleiben, aber diese Fanboys machen garantiert nicht 90% aus, so groß sind die nVidia und AMD Lager nun auch wieder nicht. Es gibt noch genug Leute da draußen, die sich wirklich überlegen, was sie kaufen und ihre Entscheidung nicht von einem Markennamen abhängig machen ..
LandsHeer
31.10.2010, 12:36
Jo, so hatte ich das vor, denn wenn die 500er 20% mehr leistung hat gegenueber der 400er aber auch 100 euro mehr kostet, dann bleib ich bei den wahrscheinlich billiger werden 400er :)
Nvidia Geforce GTX 580 - Launch am 8. November ohne Produkt?
Nach den Informationen von SemiAccurate wird die neue Geforce GTX 580 allerdings nicht in der Lage sein, die ATI Radeon HD 5970 (http://www.gamestar.de/hardware/tests/grafikkarten/pcie/2310622/radeon_hd_5970_im_test.html) zu schlagen
:cafe:
und werde dann von den neuen AMD-Grafikkarten mit Cayman- und Antilles-Grafikchips sogar »abgeschlachtet«.
http://www.gamestar.de/hardware/news/grafikkarten/2318929/nvidia_geforce_gtx_580.html
:asia:
na mal sehen was geht?:roll:
http://www.abload.de/img/13ct7.jpg (http://www.abload.de/image.php?img=13ct7.jpg)
http://itbbs.pconline.com.cn/diy/12066926.html
wird ein heißer Tag werden :wink:
Nvidia Geforce GTX 580 - Launch am 8. November ohne Produkt?
:cafe:
:asia:
na mal sehen was geht?:roll:
SemiAccurate und Charlie Demerjian .. das sagt doch schon alles.. :lol:
haha xD
Hab ich ein Wort geschrieben das NV die Produktion einstellen sollte aufgrund das eh fast nur Fanboys immer die selbe Marken kaufen? Glaub kaum
Was für Fanboys? Wer hat das bitte in die Welt gesetzt?
Die meisten kaufen nach Preisleistung und orientieren sich an Tests, welches Produkt am besten zu ihnen passt.
Wenn die neue 580er von Nvidia deutlich langsamer als die 59xx wird dann schlage ich ja wohl bei Ati zu.
Nicht weil Ati drauf steht sondern weil das Produkt einfach besser in mein Einsatzgebiet passt.
Ich kann diese extrem blöde Wort "Fanboy" in den Hardware Foren echt nicht mehr lesen.
Ovomaltine
01.11.2010, 18:16
Was für Fanboys? Wer hat das bitte in die Welt gesetzt?
Die meisten kaufen nach Preisleistung und orientieren sich an Tests, welches Produkt am besten zu ihnen passt.
Wenn die neue 580er von Nvidia deutlich langsamer als die 59xx wird dann schlage ich ja wohl bei Ati zu.
Nicht weil Ati drauf steht sondern weil das Produkt einfach besser in mein Einsatzgebiet passt.
Ich kann diese extrem blöde Wort "Fanboy" in den Hardware Foren echt nicht mehr lesen.
Naja deine ansicht, viele andere hier haben eine andere.
Es regen sich auch imma leute über den stromverbrauch von aktuellen Highend Grafikarten auf oder über die lautstärke was ich imma und imma wieder nicht verstehen kann, denn wie schon bestümmt 100x gesagt
"Wer leistung will muss auch zahlen" So einfach is das und mehr als gerechtfertigt.
Ein Porsche mit 300 PS verbraucht auch sein sprit, und heult da jemand rum ?! Nö net wirklich so extrem wie es bei der Hardware der fall ist.
Wie gesagt Highend wer sich Highend Hardware kauft sollte sich echt mal zurückhalten was nebenkosten angeht und evlt einfach auf mittelrange karten switchen, so einfach is das.
Und zum thema ATI, selbst wenn die neue Karte 100% schneller ist als die GTX 580 würde ich die GTX 580 kaufen, warum ?! Nicht weil ich ein fanboy bin sondern weil ich mit ATI einfach nur sau schlechte erfahrungen die letzen 12 jahre gemacht habe, Treiber support fürn ***** und dann sind mir 3 Karten abgeraucht einfach mal so, es hat halt schon jeder seine Gründe wieso ich den crap net mehr kaufe.
okay kann evlt bei Nvidia auch passieren, ist es aba net also Nvidia FTW :-P
PS: Damit bist jetzt net du gemeint also büüddee net falsch verstehen, das bezieht sich hier auf die allgemeinheit die imma rumflamen.
MFG
Ovo
Sommermn
01.11.2010, 20:22
Die haben es aber auf jeden Fall mal mehr drauf als du, also würd ich mal schön ruhig bleiben und woanders flamen, wenn man schon nicht in der Lage ist, den Wortlaut eines Redakteurs zu verstehen. :roll:
Was soll dass denn jetzt bitte heißen? O_o Ich hab nirgends geflamed. Alles was ich gesagt habe, ist dass sie es so ausgedrückt haben, als würde die 5970 2 GPU's besitzen und das ist vollkommener Schwachsinn. ( bzw. nicht direkter Schwachsinn, da umbennenung für Verwirrung sorgen kann )
Naja, ich will ja jetzt keinen Flame anfangen, also lassen wir das ;)
Ganz ehrlich, die ersten Spezifikationen mögen jetzt da sein, aber letztendlich... Wer weiß ob das Zeug echt ist? Grade das Diagramm sieht mir irgendwie etwas merkwürdig aus... Naja. Mal sehn, was so wirklich an Performance kommt und vorallem wie NVidia jetzt die Preise staffelt :?
SemiAccurate und Charlie Demerjian .. das sagt doch schon alles.. :lol:Ist halt "halb richtig". Trotzdem hatte er bei Fermi 100% Recht, Monate bevor irgendwer sonst was berichtete.
Die meisten kaufen nach Preisleistung und orientieren sich an Tests, welches Produkt am besten zu ihnen passt.
Wenn die neue 580er von Nvidia deutlich langsamer als die 59xx wird dann schlage ich ja wohl bei Ati zu.
Nicht weil Ati drauf steht sondern weil das Produkt einfach besser in mein Einsatzgebiet passt.Unterschreib. Lass die Kinder doch verbockt ihre eine Marke kaufen (egal auf welche sie geprägt sind). Über sowas kann ich nur noch schmunzeln.
Naja deine ansicht, viele andere hier haben eine andere.
....
Und zum thema ATI, selbst wenn die neue Karte 100% schneller ist als die GTX 580 würde ich die GTX 580 kaufen, warum ?! Nicht weil ich ein fanboy bin sondern weil ich mit ATI einfach nur sau schlechte erfahrungen die letzen 12 jahre gemacht habe..na dann mach das. Da sich die Supports und auch die Treiber (seit Jahren) nichts geben bist du ein sehr einseitiges Exemplar welches entweder die Tatsachen nicht akzeptieren will oder einfach nur Glück/Pech hatte. Rational begründbar ist so eine Aussage wie "ich kaufe Produkt 2 auch wenn Produkt 1 doppelt so gut ist" jedenfalls nicht, das ist eigentlich die Definition von Fanboy!
Sommermn
02.11.2010, 11:12
na dann mach das. Da sich die Supports und auch die Treiber (seit Jahren) nichts geben bist du ein sehr einseitiges Exemplar welches entweder die Tatsachen nicht akzeptieren will oder einfach nur Glück/Pech hatte. Rational begründbar ist so eine Aussage wie "ich kaufe Produkt 2 auch wenn Produkt 1 doppelt so gut ist" jedenfalls nicht, das ist eigentlich die Definition von Fanboy!
Mit dem letzten Statement muss ich dir auf jeden Fall Recht geben ( mal abgesehn davon, das mit dem Support. [ Mir ist eine HD3450 durchgebrannt und niemand wollte ersetzen .___.' ] ist ja auch wurst jetzt... :D )
Aber ich bitte euch, könnten wir dieses Mal in den Threads 5xxer und 6xxx Serie das mit dem 'Fanboy!' getue mal lassen? Einfach komplett? Ich bin's Leid mich durch 20 Seiten flaming und gegenflaming lesen zu müssen, obwohl ich eigentlich in den Info bzw. Diskussionsthread geschaut habe. Macht von mir aus einen NVidia vs AMD Thread auf ( falls es den nicht schon gibt ) und flamed da. Ist garnicht mal unbedingt nur auf dich bezogen, aber es fällt mir hald mal auf, denn auf 3 Seiten in diesem Thread sind grade mal 5 Posts mit Info's ( bzw. vermeintlichen Info's ) bestückt und im AMD 6xxxer Thread passiert grade wieder dasselbe.
Hoffe mal ihr nehmt das nicht als Angriff sondern euch zu Herzen ;)
Bilder
http://www.xtremesystems.org/forums/showpost.php?p=4610587&postcount=572
update
Geforce GTX 580 nackt
http://www.pcgameshardware.de/aid,796731/Geforce-GTX-580-128-TMUs-und-244-Watt-TDP-kolportiert-Benchmarks-gesichtet-Update-2/Grafikkarte/News/bildergalerie/?iid=1455222&vollbild
http://www.abload.de/img/geforce_gtx_580_nackttuvq.jpg
Bei Asus China findet sich eine Produktübersicht mit einer Geforce GTX 580. Die unten genannten Daten werden hier bestätigt: 772 MHz Chiptakt, 384 Bit Speicherinterface, 2.004 MHz GDDR-5-RAM, 1.536 MiB RAM.
http://www.pcgameshardware.de/aid,796731/Geforce-GTX-580-128-TMUs-und-244-Watt-TDP-kolportiert-Benchmarks-gesichtet-Update-2/Grafikkarte/News/
http://www.asus.com.cn/ContentPage.aspx?Content_Type=staticwebpage&Content_Id=3985http://www.hardwareluxx.de/ox/www/delivery/lg.php?bannerid=47&campaignid=5&zoneid=1&loc=http%3A%2F%2Fwww.hardwareluxx.de%2Findex.php%2 Fnews%2Fhardware%2Fgrafikkarten%2F16925-inno3d-geforce-gtx-580-gesichtet.html&referer=http%3A%2F%2Fwww.hardwareluxx.de%2Findex.p hp%2Fnews.html&cb=2d10f20fe9
Inno3D GeForce GTX 580 gesichtet (http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/16925-inno3d-geforce-gtx-580-gesichtet.html)
http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/16925-inno3d-geforce-gtx-580-gesichtet.htmlNvidia has 28nm sample chips
http://www.fudzilla.com/graphics/item/20742-nvidia-has-28nm-sample-chips
VR-Zone berichtet (http://vr-zone.com/articles/nvidia-geforce-gtx-580-priced-at-us-599-to-be-available-november-9th/10222.html) zu später Stunde, dass die neuen GeForce GTX 580 von Nvidias Boardpartnern bereits weltweit auf den Weg zu den Händlern seien. Demnach sei der Start mit Grafikkarten direkt im Endkundengeschäft für den 9. November geplant, als Preis soll sich ein Betrag um die 600 US-Dollar manifestieren. Bleibt daher nur zu hoffen, dass die zum Start neuer Produkte gern gehandhabte 1:1-Umrechnung von US-Dollar zu Euro nicht greift.
computerbase.de (http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2010/november/weitere-bilder-und-erste-preise-zur-geforce-gtx-580/)
Wenn das stimmt dann Respekt! Es vor AMD zu schaffen und ihnen damit womöglich die Show der "schnellsten Single-GPU-Karte" zu stehlen, nicht schlecht. Aber abwarten, ich könnte mir auch vorstellen, dass NVIDIA etwas weiß, was wir nicht wissen und daher möglichst schnell rauskommen musste! ;)
Zu den Preisen (600U$ bzw. gar 460€) können sie das Ding aber selber kaufen!
Zu den Preisen (600U$ bzw. gar 460€) können sie das Ding aber selber kaufen!
Ich wette die sparen sich die umrechnung von Dollar in Euro :)
Mfg Scaleo
Nightspider
05.11.2010, 01:39
Crysis 2 being re-designed for GTX580? Expect delays (http://www.kitguru.net/components/graphic-cards/faith/crysis-2-being-re-designed-for-gtx580-expect-delays/)
http://www.kitguru.net/components/graphic-cards/faith/crysis-2-being-re-designed-for-gtx580-expect-delays/
Crysis 2 being re-designed for GTX580? Expect delays (http://www.kitguru.net/components/graphic-cards/faith/crysis-2-being-re-designed-for-gtx580-expect-delays/)
http://www.kitguru.net/components/graphic-cards/faith/crysis-2-being-re-designed-for-gtx580-expect-delays/
was soll das?:smile:
Sir.Simon
05.11.2010, 09:35
Oha !! Vor 2-3 Monaten habe ich mir die GTX 460 geholt und jetzt kommen neue Flagschiffe .... Wie schnell das geht, jetzt fehlt nur noch das die Autoindustrie wie BMW oder AUDI alle 3 Monate neue MODELLE entwickeln und veröffentlichen.
du, das ist doch kein wirklich neues Modell... der Chip ist ein Facelift des 400er chips. Die normale Praxis, dass alle 12-18 Monate eine neue Architektur rauskommt ist in der Chip Industrie allerdings weit verbreitet. Wer sich darüber aufregt darf garnichts kaufen :)
... ist ja auch ein kleines Bisschen weniger aufwendig als ein neues Automodell zu generieren :D
was soll das?:smile:
Das soll garnix. Für meinen Geschmack ist das Dummgelaber. Ich kann mir nicht vorstellen, dass EA es Crytek erlauben würde wegen Nvidia den release NOCHMALS signifikant zu verschieben. Ich kann mir allerdings gut vorstellen, dass Nvidia genau das versuchen würde. Dass da einiges "Unsauberes" läuft, was man schon fast als Schmiergeld bezeichnen könnte, davon bin ich sowieso schon länger überzeugt!
Trotzdem, ich bin mir weiterhin nicht sicher, ob der März Termin auch wirklich realisiert wird. Ich rechne bei den Aussagen der Firmen dahingehend ja mitlerweile immer mit rund zwei Hauptverschiebungen.
Falls es verschoben wird, dann bitte auf Winter 2011, wer spielt denn bitte gern im Sommer?
Oha !! Vor 2-3 Monaten habe ich mir die GTX 460 geholt und jetzt kommen neue Flagschiffe .... Wie schnell das geht, jetzt fehlt nur noch ...
Bleib ruhig, solange hält Deine Karte nicht mehr durch. :-D
Bei mir/uns ist gerade die letzte (von dreien) 8800GTS abgeraucht - halten max. 2-3 Jahre.
Morgen kommt 'ne aktuelle ATI rein - mal sehen, wie stabil die dann ist.
11/03/2010: NVIDIA is Headed to PDX LAN 16.5! (http://blogs.nvidia.com/ntersect/2010/11/nvidia-is-headed-to-pdx-lan-165.html)
Join us Saturday, 11/6/2010, at 7 P.M. on the main stage for a special presentation that will make your inner nerd quiver with excitement!
http://blogs.nvidia.com/ntersect/2010/11/nvidia-is-headed-to-pdx-lan-165.html
update
NVIDIA Endless City: GTX 580 DX11 Tech-Demo
http://www.geeks3d.com/20101106/test-nvidia-endless-city-gtx-580-dx11-tech-demo/
NVIDIA zeigte GeForce GTX 580 auf der PDXLAN (http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/16948-nvidia-zeigte-geforce-gtx-580-auf-der-pdxlan.html)
http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/16948-nvidia-zeigte-geforce-gtx-580-auf-der-pdxlan.html
http://www.youtube.com/watch?v=oCPMHIDpT88
Mmmh ob das nicht nur so etwas wie bei der 300er Serie wird... :?
Endless City -Demo download
http://http.download.nvidia.com/downloads/GeForcecom/techdemos/SetupEndlessCity.exe
GTX 580 kühlt mit Dampf
Bei diesem als „schnellste DX11-GPU der Welt“ dürfte es sich zweifelsohne um die GTX 580 handeln. Um einen möglichst leisen Betrieb zu ermöglichen, verfügt die Karte über einen Kühler mit einer unter Vakuum stehenden Dampfkammer, wie man es beispielsweise schon von Sapphires „Vapor-X (http://www.computerbase.de/suche/?bereich=&q=Vapor-X)“-Kühlern kennt. Durch das Verdampfen von Flüssigkeit im Inneren können im Vergleich zu einem reinen Luftkühler höhere Wärmemengen abgeführt werden. Dadurch sollen sowohl eine niedrige GPU-Temperatur als auch ein relativ leiser Betrieb resultieren.
Laut Nvidia erreicht der Kühler bei Crysis Warhead in einer Auflösung von 1.920 × 1.200 Pixel eine Lautstärke von 47 Dezibel.
Quelle: http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2010/november/gtx-580-kuehlt-mit-dampf-2-neue-tech-demos/
Wenn das stimmt mit der Lautstärke und die Leistung stimmt überlege ich mir das gute Stück zu kaufen ;)
hört sich alles nach großem Marketing-Tam-Tam an... mal sehen was bei rumkommt.
Affenzahn375
07.11.2010, 15:28
tut mir leid, wenn das jetzt eine dumme frage ist, aber wann erscheint die karte ungefähr auf dem markt?
Der Paper-Launch ist am 9. November. Zum kauf bereit wahrscheinlich ende November dann ;)
Dienstag, 15 Uhr
http://twitter.com/PCGH_Redaktion
Dienstag, 15 Uhr
http://twitter.com/PCGH_Redaktion
so ist das bei Nvidia.
uhrzeit passt genau.:)
Nightspider
07.11.2010, 19:20
Das soll garnix. Für meinen Geschmack ist das Dummgelaber. Ich kann mir nicht vorstellen, dass EA es Crytek erlauben würde wegen Nvidia den release NOCHMALS signifikant zu verschieben. Ich kann mir allerdings gut vorstellen, dass Nvidia genau das versuchen würde. Dass da einiges "Unsauberes" läuft, was man schon fast als Schmiergeld bezeichnen könnte, davon bin ich sowieso schon länger überzeugt!
Trotzdem, ich bin mir weiterhin nicht sicher, ob der März Termin auch wirklich realisiert wird. Ich rechne bei den Aussagen der Firmen dahingehend ja mitlerweile immer mit rund zwei Hauptverschiebungen.
Falls es verschoben wird, dann bitte auf Winter 2011, wer spielt denn bitte gern im Sommer?
Wie kommst du auf due Idee, dass das Spiel verschoben wird, nur weil Nvidia die Grafik gut für NV-Karten optimieren lässt?
Das Geld hätte genauso gut schon vor einem Jahr fließen können. Vielleicht sind die Optimierungen schon weit fortgeschritten oder fertig! Du weißt gar nix! Ich weiß gar nix! Also Informationen aufnehmen und still sein.
Das fertige Produkt wird uns schon zeigen, was in ihm steckt. Und Nvidia hat früher auch schon eine Menge Geld für Optimierungen auf die eigenen Karten bezahlt. Siehe Batman PhysX, Mirror's Edge (ebenfalls von EA) und sehr sehr viele andere Titel die direkt bei der Entwicklung von Nvidia-Mitarbeitern untertützt wurden.
Wenn ich mich richtig erinnere wurde CryTek schon bei der Entwicklung von Crysis 1 durch Nvidia Mitarbeiter direkt unterstützt.
Das Nvidia ne Menge Geld an CryTek überweist bedeutet nicht, das ATI Karten absichtlich langsamer gemacht werden, sondern das die Entwickler sich mehr Zeit nehmen, mehr Leistung aus NV-Karten zu holen.
Sommermn
07.11.2010, 19:34
Wenn ich mich richtig erinnere wurde CryTek schon bei der Entwicklung von Crysis 1 durch CryTek Mitarbeiter direkt unterstützt.
Das Nvidia ne Menge Geld an CryTek überweist bedeutet nicht, das ATI Karten absichtlich schneller gemacht werden, sondern das die Entwickler sich mehr Zeit nehmen, mehr Leistung aus NV-Karten zu holen.
Da hast du jetzt beim schreiben ein bisschen was vertauscht ;) Warscheinlich meintest du dass
- 'Crytek bei der Entwicklung von Crysis 1 durch NVidia Mitarbeiter unterstützt wurde'
- '...dass ATI ( bzw AMD ;) ) Karten absichtlich langsamer gemacht werden, sondern...'
Da die meisten sich das aber warscheinlich gedacht haben, habe ich das jetzt nur mal schnell zu verbesserung geschrieben :)
Nightspider
07.11.2010, 19:59
Da hast du jetzt beim schreiben ein bisschen was vertauscht ;) Warscheinlich meintest du dass
- 'Crytek bei der Entwicklung von Crysis 1 durch NVidia Mitarbeiter unterstützt wurde'
- '...dass ATI ( bzw AMD ;) ) Karten absichtlich langsamer gemacht werden, sondern...'
Da die meisten sich das aber warscheinlich gedacht haben, habe ich das jetzt nur mal schnell zu verbesserung geschrieben :)
Jepp. Danke. War wohl woanders mit meinen Gedanken, beim Schreiben des Textes. :)
Das Nvidia ne Menge Geld an CryTek überweist bedeutet nicht, das ATI Karten absichtlich langsamer gemacht werden, sondern das die Entwickler sich mehr Zeit nehmen, mehr Leistung aus NV-Karten zu holen.
Läuft Crysis nicht aktuell besser unter ATI Karten als unter NVIDIA Karten? :???:
Potenzielle Benchmarks zur NVIDIA Geforce GTX 580, AMD Radeon HD 6970 und HD 6950 aufgetaucht (http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/16954-potenzielle-benchmarks-zur-nvidia-geforce-gtx-580-amd-radeon-hd-6970-und-hd-6950-aufgetaucht.html)
http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/16954-potenzielle-benchmarks-zur-nvidia-geforce-gtx-580-amd-radeon-hd-6970-und-hd-6950-aufgetaucht.html
Nightspider
07.11.2010, 21:36
Läuft Crysis nicht aktuell besser unter ATI Karten als unter NVIDIA Karten? :???:
Naja...es ist ein hartes Kopf an Kopfrennen wo teils sogar die HD5870 vorne lage. Aber mit aktuellen Treibern war letzten Endes die GTX480 minimalst schneller. Wobei den ATI Karten natürlich die etwas schlechtere Bildqualität beachtet werden muss.
Sommermn
07.11.2010, 22:34
Läuft Crysis nicht aktuell besser unter ATI Karten als unter NVIDIA Karten? :???:
Zudem was Nightspider gesagt hat muss noch hinzugefügt werden, dass Crytek nicht extra einen Patch für die aktuellen Generationen von NVidia herausbringen wird um diese wieder in Vorsprung in Crysis zu bringen ;) Ein Spiel kann immer nur auf eine Generation bzw. eine Serie von solchen ( G80 - G200 beispielsweise wenn ich mich nicht irre hatte dieselbe Architektur und deshalb auch immer ähnlich Eigenschaften denke ich ) optimiert werden und ab einer bestimmten Framerate sind die Unterschiede auch nicht mehr so groß. Worauf ich eigentlich hinaus will hat Nightspider im Prinzip schon gesagt, das verändert sich mit den Generationen ;)
BTT jetzt aber :)
Ich halte das Testdiagramm von Gamezone für einen Fake, da ich mir gut vorstellen kann, dass die 580 doch ein Stückchen vor der 6970 liegt. Jetzt wird natürlich die Frage aufkommen warum. Wie bei allem was jetzt an Info's kommt ist das mein Bauchgefühl^^
gigabyte
http://www.xtremesystems.org/forums/showpost.php?p=4618076&postcount=949
galaxy gtx 580
http://coolaler.com/showthread.php?t=253137
http://www.chiphell.com/thread-136542-1-1.html
http://h-4.abload.de/img/photo2a7rob.jpg
Nightspider
08.11.2010, 23:34
Erster Test ist geleakt!
http://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_580/10.html
In Crysis rund 15-20% vor der GTX480. Dabei leiser und geringerer Stromverbrauch.
http://tpucdn.com/reviews/NVIDIA/GeForce_GTX_580/images/crysis_1920_1200.gif
Idle Verbrauch von 54W (GTX480) auf 33W (GTX580)
AVG Verbrauch von 223W (GTX480) auf 197W (GTX580)
Peak Verbrauch von 257W (GTX480) auf 226W (GTX580)
Und Lautstärke von 50 auf 41 dbA.
also wenn das da stimmt würde ich fast wetten, dass die AMD 69x0 Karten klar schneller sind, zumindest in diesem Test. Ich verstehe einfach nicht, warum diese 20% einer "refresh Karte" WIEDER eine neue Modellreihe als Namen verpasst bekommen (580 vs. 480). Bisher konnte man immer gut 50% oder mehr zulegen beim Sprung von einer Serie zur nächsten, ebenso AMD.
Schade, dass wir auf die Konkurrenz noch etwas warten müssen, aber ich denke AMD wird wieder vorne liegen was solche tests angeht. Denke Nvidia riecht das und baut daher so massiv auf das Marketing von Tesselation, wo sie halt klar führend sind. Nur ist das (noch) nicht besonders praxisnah und ich sehe auch nicht, wie es das schnell wird eben weil es dermaßen viel performance frisst (und weil die Konsolen es eh nicht können).
Man darf aber auf den Preis gespannt sein, spätestens wenn alle Karten auf dem Tisch liegen :P Wenn AMD schneller ist wirds besonders interessant.
noch ein test
http://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_580/10.html
NVIDIA GeForce GTX 580 SLI
http://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_580_SLI/27.html
ach man.... 15Uhr... dachte 13:00, hätte so schön in die Mittagspause gepasst :P Obwohl ich mir eh außer 20% Plus, was ich ziemlich mager fände für eine neue Nummer (480->580) nichts erwarte. Aber bei 450€+ kann ich eh lachen, denn sowas kauf ich nicht.
Ovomaltine
09.11.2010, 13:29
Alternate hat die EVGA GTX 580 Schon auf Lager ;-) Hrrr
Obwohl ich mir eh außer 20% Plus, was ich ziemlich mager fände für eine neue Nummer (480->580) nichts erwarte. Aber bei 450€+ kann ich eh lachen, denn sowas kauf ich nicht.
Ja wir wissen es ja nun alle, dann geh ATI kaufen und hör bitte auf hier rumzuflamen :p
Bin gespannt, was da kommt Nvidia soll lieber fix neue treiber rausbringen für COD und Two Worlds ;-)
MFG
Ovo
GTX580 nun offiziell vorgestellt:
Computerbase.de (http://www.computerbase.de/artikel/grafikkarten/2010/test-nvidia-geforce-gtx-580/)
test online
http://www.pcgameshardware.de/aid,798165/Geforce-GTX-580-im-Test-Die-bessere-Geforce-GTX-480/Grafikkarte/Test/
http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/16922-test-nvidia-geforce-gtx-580.html
http://www.gamestar.de/hardware/tests/grafikkarten/pcie/2319126/nvidia_geforce_gtx_580_p5.html#EL_1289304629657642 4876157
Path0g3n
09.11.2010, 15:45
http://www.youtube.com/watch?v=CKoOh9zru4c&feature=sub
Die von EVGA sind schon ein bisschen komisch :D
und xeon, abwarten, nicht wahr 8-)
bei unserer geliebten CryEngine ist die Karte 24% schneller als eine 5870 und "nur" 12% flotter als die GTX480. Finde das nicht berauschend, auch wenn Crysis Warhead sicher nicht besonders optimiert ist.
Anders siehts da aber schon bei den Minimum-FPS aus, ganze 66% vor der 5870.
Ich bin hochgespannt auf die 6900er Serie. Mein Tip: Es wird knapp :)
http://images.anandtech.com/graphs/graph4008/33813.png
http://images.anandtech.com/graphs/graph4008/33816.png
Quelle:Anandtech.com (http://www.anandtech.com/show/4008/nvidias-geforce-gtx-580/6)
Ovomaltine
09.11.2010, 17:37
Puuuh der Preis, alter.
Der Preis ist mehr als ok, hab vor gut 6 Wochen für meine EVGA GTX 480 ebenfalls pro stück 499€ gezahlt :D
Bin auch grade am überlegen ob ich die aktion von EVGA nehme und meine 3xGTX 480 gegen 3xGTX 580 gegen einen kleinen aufpreis eintauschen soll ;-)
PS: So hab grade mal nachgeschaut, ich würde die GTX 580 für 170€ von EVGA bekommen :D
MFG
Ovo
Der Preis ist mehr als ok, hab vor gut 6 Wochen für meine EVGA GTX 480 ebenfalls pro stück 499€ gezahlt :D
Bin auch grade am überlegen ob ich die aktion von EVGA nehme und meine 3xGTX 480 gegen 3xGTX 580 gegen einen kleinen aufpreis eintauschen soll ;-)
MFG
Ovo
WTF...
alle karten
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2010/november/evga-wassergekuehlte-gtx-580-im-single-slot-design/
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2010/november/uebertaktete-gtx-580-golden-sample-von-gainward/
Shooter0175
09.11.2010, 18:20
Der Preis ist mehr als ok, hab vor gut 6 Wochen für meine EVGA GTX 480 ebenfalls pro stück 499€ gezahlt :D
Bin auch grade am überlegen ob ich die aktion von EVGA nehme und meine 3xGTX 480 gegen 3xGTX 580 gegen einen kleinen aufpreis eintauschen soll ;-)
PS: So hab grade mal nachgeschaut, ich würde die GTX 580 für 170€ von EVGA bekommen :D
MFG
Ovo
Und nur weil du für die "Vorgänger-Grafikkarte" 500€ bezahlst soll der Preis okay sein? Sogar 400€ wären noch zu viel für so eine Karte, auch mit der derzeitigen Marksituation .. das sind schlicht und einfach lächerliche Preise.
HarryRulez
09.11.2010, 18:31
Der Preis ist mehr als ok, hab vor gut 6 Wochen für meine EVGA GTX 480 ebenfalls pro stück 499€ gezahlt :D
Bin auch grade am überlegen ob ich die aktion von EVGA nehme und meine 3xGTX 480 gegen 3xGTX 580 gegen einen kleinen aufpreis eintauschen soll ;-)
PS: So hab grade mal nachgeschaut, ich würde die GTX 580 für 170€ von EVGA bekommen :D
MFG
Ovo
Wo steht das bitte mit dieser Aktion?
Der Preis ist mehr als ok, hab vor gut 6 Wochen für meine EVGA GTX 480 ebenfalls pro stück 499€ gezahlt :D
Bin auch grade am überlegen ob ich die aktion von EVGA nehme und meine 3xGTX 480 gegen 3xGTX 580 gegen einen kleinen aufpreis eintauschen soll ;-)
PS: So hab grade mal nachgeschaut, ich würde die GTX 580 für 170€ von EVGA bekommen :D
MFG
Ovo
Über so Leute wie dich freuen sich die Firmen.
Könnten dir über einen so kurzen Zeitraum insgesamt 669 Euro für so ne Karte abziehen und das mal drei.
Wenn's schön macht :lol:
ich würde diese Preise auch nie für Grafikkarten zahlen, was nicht heißt, dass ich es nicht könnte, finds und fand es auch schon immer übertrieben, diese 400€+ Karten!
Die Marktsituation ist nach Release der 6800er von AMD wirklich super, die Preise für Performance-Regionen welche bis vor Kurzem noch Highend waren haben sich fast halbiert. Nvidia musste mit den 460ern nachziehen und wird, meiner Meinung nach auch die 470 und 480 demnächst ordentlich anpassen (müssen!).
Wer absolutes Highend will der muss aber seit einigen Jahren 400€+ zahlen. Die GTX580 wird (mindestens) bis zum Erscheinen der 6900er Serie von AMD auf Rang 2 des Highend Segment sitzen. Die 5970 ist schließlich noch bei den meisten Spielen schneller.
Insgesamt denke ich aber es ist gut, dass Nvidia jetzt auch schnell (sogar vor AMD) noch einen drauflegen konnte, bevor AMD wieder ein halbes Jahr ganz allein das Feld dominiert... auch wenn die GTX580 nur ein kleines Update ist, Cayman aber sicher mehr.
Insgesamt denke ich aber es ist gut, dass Nvidia jetzt auch schnell (sogar vor AMD) noch einen drauflegen konnte, bevor AMD wieder ein halbes Jahr ganz allein das Feld dominiert... auch wenn die GTX580 nur ein kleines Update ist, Cayman aber sicher mehr.
so sehe ich das auch.:smile:
Ovomaltine
10.11.2010, 13:03
Wo steht das bitte mit dieser Aktion?
Step-Up Information:
The EVGA Step-Up allows you to upgrade your product within 90 days of your original purchase date. For details, look over our Step-Up (http://www.evga.com/stepup/) section under Support.
Start a new Step-Up. Days Left 14
www.evga.com (http://www.evga.com)
Und nur weil du für die "Vorgänger-Grafikkarte" 500€ bezahlst soll der Preis okay sein? Sogar 400€ wären noch zu viel für so eine Karte, auch mit der derzeitigen Marksituation .. das sind schlicht und einfach lächerliche Preise.
High-End karten haben schon imma 500/600€ gekostet selbst die GTX 8800 sowie die GTX 280 zu anfang ;-)
MFG
Ovo
High-End karten haben schon imma 500/600€ gekostet selbst die GTX 8800 sowie die GTX 280 zu anfang ;-)
klar, die haben "schon immer" 1200DM gekostet :roll:
... besonders alt bist du nicht, oder? Darüber hinaus fällt dir auch nicht auf, dass fast ALLE Komponenten im Laufe der Zeit günstiger wurden BIS auf Grafikkarten, die wurden teurer (wenn man sich z.B. bei Allem ein Teil mit 80% der aktuellen Highend-Performance anschaut, die 80% Marke ist eigentlich immer ein gutes Maß).
Geforce GTX 570 kommt
http://www.fudzilla.com/graphics/item/20814-geforce-gtx-570-comes-soon
damit hat die 480 nach einem halben Jahr schon keine Daseinsberechtigung mehr.
masterkiller7
10.11.2010, 16:06
hmm, neue hardware zukaufen scheint echt ne verschwendung zu sein... zumindestens bei Grafikkarten.
klar, die haben "schon immer" 1200DM gekostet :roll:
Im Jahre 2001 kam die Geforce 2 Ultra schon an die 1200 Mark-Grenze.
Aber das war ja auch der gleiche Verein ;)
Ovomaltine
10.11.2010, 16:24
Im Jahre 2001 kam die Geforce 2 Ultra schon an die 1200 Mark-Grenze.
Aber das war ja auch der gleiche Verein ;)
Jupp, und wie gesagt die GTX 8800 hat auch 600€ gekostet ebenso die GTX 280 sind ebenso 1200DM ;-)
Das die karten billiger werden ist wohl klar, aber beim erscheinen kosten High-End karten die letzen jahre schon imma 500€ bis 600€ zumindest bei Nvidia :-P
MFG
Ovo
Path0g3n
10.11.2010, 16:36
http://www.youtube.com/watch?v=LI_PFVB64dg&feature=sub
echt so fail -.-
keine Ahnung warum, aber naja...sag mal nichts zu.
Ich seh es schon nach nem Jahr kommen, bald werden ab 1% Performancesteigerung ne komplett neue Grafikkartenserie kommen :D
na ja nächstes Jahr wieder da gibts dann ne neue Architektur :)
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=492112
für euch Hardcore Aufrüster isses vllt entäuschend aber wer gewartet hat ist jetzt der lachende^^
Tig3r0023
11.11.2010, 15:43
Techdemo
http://www.pcgameshardware.de/aid,798699/Endless-City-Beeindruckende-DirectX-11-Techdemo-fuer-Geforce-GTX-580/Grafikkarte/Download/
Ovomaltine
11.11.2010, 16:18
So habe mir nun 2x EVGA GTX 580 bestellt, werde diese dann gegen meine 3x EVGA GTX 480 austauschen, die leistung werd wohl nur ca 20% bis 30% mehr betragen dafür aber weniger strom und hitze verbrauchen und natürlich um einiges leiser sein.
Dank EVGA muss ich nur 109€ drauf zahlen für die beiden karten ;-)
MFG
Ovo
Jack3443
11.11.2010, 16:32
So habe mir nun 2x EVGA GTX 580 bestellt, werde diese dann gegen meine 3x EVGA GTX 480 austauschen, die leistung werd wohl nur ca 20% bis 30% mehr betragen dafür aber weniger strom und hitze verbrauchen und natürlich um einiges leiser sein.
Dank EVGA muss ich nur 109€ drauf zahlen für die beiden karten ;-)
MFG
Ovo
Du hast 3 Grafikkarten gegen 2 ausgetauscht und musst 109€ zahlen? Versteh mich nicht falsch aber das ist irgendwie unfair. Immerhin hast du mit 3 gtx 480 sicher mehr leistung als mit 2 580 und mehr wert sind sie auch.... oder hab ich da was falsch verstanden?
Ovomaltine
11.11.2010, 16:41
Du hast 3 Grafikkarten gegen 2 ausgetauscht und musst 109€ zahlen? Versteh mich nicht falsch aber das ist irgendwie unfair. Immerhin hast du mit 3 gtx 480 sicher mehr leistung als mit 2 580 und mehr wert sind sie auch.... oder hab ich da was falsch verstanden?
Nö, so siehts aus!
Naja du kannst gebrauchte karten auch nicht mit neuen vergleichen, das da ein wenig minus bei rauskommt ist klar.
Wenn du mal rechnest eine GTX 480 bekommst du schon für 350€
Das macht dann ca 1050€ im vergelich zahlst du für eine GTX 580 zurzeit ca 500€
Mußt natürlich noch geld von den GTX 480 abziehen weil sie gebraucht sind.
Also der deal ist schon mehr als fair, und die gesagt die leistung wird ca gleich bleiben aba mein Rechner wird um einiges weniger an strom verbrauchen und leiser sein.
MFG
Ovo
Du hast 3 Grafikkarten gegen 2 ausgetauscht und musst 109€ zahlen?
so siehts aus!
super deal! :shock:
naja, jedem das Seine!
Tig3r0023
11.11.2010, 16:47
super deal! :shock:
naja, jedem das Seine!
Ja vorallem weil er die Karten ja grade 2-3 Monate villt noch was länger hat. Manche Leute sind nicht zu verstehen ob ich jetzt 300 oder 250 Fps hab ist doch völlig wurscht.
lasst ihn doch, als hartzer muss man halt schaun wie man sein hart erschnorrtes geld los wird :cafe:
Tig3r0023
11.11.2010, 17:26
Ob Harzer hin oder her ,das ist in meinen Augen schwachsinning.Aber nun gut.
Ovomaltine
11.11.2010, 18:05
Ob Harzer hin oder her ,das ist in meinen Augen schwachsinning.Aber nun gut.
So siehts aus, zudem gehts niemanden was an was ich mit meiner Harz kohle mache.
Naja ich seh es ein wenig anders, so bin ich für einen kleinen aufpreiß wenigstens weiterhin aktuell highend, und muss nicht in ein paar jahren ziech von euros aufeinmal zahlen für ein neues Sli system.
MFG
Ovo
Fusion145
11.11.2010, 18:32
Aber von der Leistung her müssten doch 3xGTX480 immer noch schneller sein als 2xGTX580, oder skaliert 3way SLi nicht so gut?
Ovomaltine
11.11.2010, 18:34
Von der Leistung her müssten doch 3xGTX480 schneller sein als 2xGTX580, oder skaliert 3way SLi nicht so gut?
Ähm, ich würde sagen ca gleichschnell evlt ein tick langsamer aba es geht auch um den stromverbrauch und die lautstärke.
Da punken die GTX 580 in jeder hinsicht.
MFG
Ovo
Der Deal ist doch super, was wollt ihr denn?! Die neue Karte ist so sparsam, da würde ich auf jeden Fall auch umtauschen! Rechnen wir doch mal
======
Gewisse Leute haben job-bedingt viel Zeit, also spielen diejenigen darunter, die gern Zocken und von Steuergeld Nvidia fördern, sagen wir 8 Stunden am Tag! 8h/d=1/3d
Da eine Grafikkarte nicht fürs Zockerhobby reicht, werden gleich drei angeschafft.
3*Grafikkarten(GTX480)
Da wir im Schland jede Menge cooler Leute haben, die auf die Idee kamen den durchschnittlen Steuerzahler auch beim EEG abzuziehen indem sie unsinnige Solarzellen auf ihr verregnetes Dach klatschen rechnen wir der Einfachheit halber mit Stromkosten von 25ct/kWh.
Da die Grafikkarten auch eine Daseinsberechtigung haben müssen gehen wir von einer fetten Leistungsaufnahme aus, für die GTX480 von 260W aus und 235W für die GTX580.
http://idisk.me.com/randfee/Public/temp/GTX-Berechnung_latex-image.png
Also ist klar, das sich sein Deal in einem halben Jahr amortisiert hat, auch für uns Steuerzahler! Hurray... party!
Black_Death
11.11.2010, 19:12
Bitte BTT! Egal woher unsere User das Geld für ihre Hardware beziehen.
aber das zeigt doch klar wieviel man mit der neuen Karte gegenüber den alten allein an Strom sparen kann, das ist doch on topic, oder nicht?
Edit von Black: Du warst nicht gemeint ;)
Ovomaltine
11.11.2010, 19:15
aber das zeigt doch klar wieviel man mit der neuen Karte gegenüber den alten allein an Strom sparen kann?
Ich sag doch die Karte ist super, sind 4 spiele mehr im jahr ;-)
PS: Er meinte auch nicht dich, sondern die spammer xD
PPS: Danke für die nette Rechnung, gibt ja doch ab und an noch situationen wo du mir ganz sympatisch bist :-P
MFG
Ovo
Hi,
da meine GraKa immer noch defekt ist und ich mich noch immer nicht für eine neue entschieden habe und jetzt die 580er erhältlich sind, möchte ich gerne mal wissen, ob mein NT noch ausreicht.
Habe das Enermax Modu 82+ 600W und die GF GTX580 von EVGA braucht minimum 600W.
Wird das funktionieren?
Von den Stromanschlüssen her, hat das NT ja alle benötigten.
Greetz
Ovomaltine
11.11.2010, 21:33
Hi,
da meine GraKa immer noch defekt ist und ich mich noch immer nicht für eine neue entschieden habe und jetzt die 580er erhältlich sind, möchte ich gerne mal wissen, ob mein NT noch ausreicht.
Habe das Enermax Modu 82+ 600W und die GF GTX580 von EVGA braucht minimum 600W.
Wird das funktionieren?
Von den Stromanschlüssen her, hat das NT ja alle benötigten.
Greetz
Sicher reicht dicke, grade ein Enermax packt das locker und ohne bedenken!
MFG
Ovo
Shooter0175
11.11.2010, 21:35
Hi,
da meine GraKa immer noch defekt ist und ich mich noch immer nicht für eine neue entschieden habe und jetzt die 580er erhältlich sind, möchte ich gerne mal wissen, ob mein NT noch ausreicht.
Habe das Enermax Modu 82+ 600W und die GF GTX580 von EVGA braucht minimum 600W.
Wird das funktionieren?
Von den Stromanschlüssen her, hat das NT ja alle benötigten.
Greetz
Dein Netzteil hat definitiv genug Power, selbst ein 550W Netzteil würde keine Probleme haben ;)
Sicher reicht dicke, grade ein Enermax packt das locker und ohne bedenken!
MFG
Ovo
Dein Netzteil hat definitiv genug Power, selbst ein 550W Netzteil würde keine Probleme haben ;)
Na dann weiß ich ja nun, welche Karte ich mir holen werde.
Muß ich halt nur noch 'nen monat länger sparen.
Also kommt se erst kurz vor Weihnachten, aber das macht nichts, habe immo eh nicht die Zeit zum Zocken und lange am PC hängen.
Nightspider
11.11.2010, 21:58
Ähm, ich würde sagen ca gleichschnell evlt ein tick langsamer aba es geht auch um den stromverbrauch und die lautstärke.
Da punken die GTX 580 in jeder hinsicht.
MFG
Ovo
Hast du die nicht wassergekühlt? Das ist ja selbst mit 2*GTX580 Selbstmord und Ruhestörung im Quadrat.
Bei mir kommt keine Grafikkarte mehr ohne Wasserkühler ins Gehäuse. Wakü macht die Karten lautlos, bei OC ~20% schneller und senkt den Stromverbrauch, bei gleichem Takt.
Der Deal ist doch super, was wollt ihr denn?!!
Ähm. Eine GTX 480 hätte er noch für ~300 Euro losbekommen.
3*300= 900
2*GTX580= 860 Euro. Da hätte er nicht nur die 109 Euro gespart, sondern vielleicht noch Geld gut gemacht.
Ich hätte nie zu diesem Kurs getauscht.
Shooter0175
11.11.2010, 22:27
Ähm. Eine GTX 480 hätte er noch für ~300 Euro losbekommen.
3*300= 900
2*GTX580= 860 Euro. Da hätte er nicht nur die 109 Euro gespart, sondern vielleicht noch Geld gut gemacht.
Ich hätte nie zu diesem Kurs getauscht.
Das ist jetzt nicht dein Ernst, oder?
Nightspider
11.11.2010, 23:15
Das ist jetzt nicht dein Ernst, oder?
Was genau meinst du?
Die günstigste GTX580 kostet ~430-440 Euro.
Die günstigste GTX480 kostet 355 Euro.
Selbst wenn er nur 290 Euro oder gar nur 280 Euro für die GTX480 bekommen hätte, hätte er deutlich Geld gespart.
Was ich erst recht nicht verstehe:
Eine GTX480 kann man für 30 Euro mit Wasser kühlen und behält bei den EVGA Karten sogar die Garantie.
Du hättest für wenig Aufpreis deutlich mehr Leistung mit deinen 3 alten Karten bekommen können, bei ähnlichem Stromverbrauch pro Leistung oder durch übertakten +20% pro Karte. Und das wäre sogar noch deutlich leiser gewesen als die zwei neuen GTX580 Karten.
Aber okay...manche wissen, wie man Geld zum Fenster rauswirft. :roll:
Muss er ja selbst wissen, will ihm da nicht reinreden.
Shooter0175
11.11.2010, 23:23
randfee's posts waren nicht ernst gemeint ..
Jack3443
11.11.2010, 23:54
Für micht würde sich dieser Austausch dennoch erst sehr spät auszahlen, da ich nur am Wochenende spielen kann und dann auch nur 3 Stunden am Tag. Bei meinen Chemie Studium bleibt leider nicht viel Zeit. Und ehrlich gesagt finde ich die GTX 480 wirklich nicht schlecht. Klar wird da mehr in wärme umgesetzt als gut wäre... aber ist das nicht bei allem so....:grin: Nja wie auch immer effizienter könnte die schon sein. Das Step-up ist meiner Meinung nach einfach nicht wirklich fair.
Ovomaltine
12.11.2010, 00:10
Was genau meinst du?
Die günstigste GTX580 kostet ~430-440 Euro.
Die günstigste GTX480 kostet 355 Euro.
Selbst wenn er nur 290 Euro oder gar nur 280 Euro für die GTX480 bekommen hätte, hätte er deutlich Geld gespart.
Was ich erst recht nicht verstehe:
Eine GTX480 kann man für 30 Euro mit Wasser kühlen und behält bei den EVGA Karten sogar die Garantie.
Du hättest für wenig Aufpreis deutlich mehr Leistung mit deinen 3 alten Karten bekommen können, bei ähnlichem Stromverbrauch pro Leistung oder durch übertakten +20% pro Karte. Und das wäre sogar noch deutlich leiser gewesen als die zwei neuen GTX580 Karten.
Aber okay...manche wissen, wie man Geld zum Fenster rauswirft. :roll:
Muss er ja selbst wissen, will ihm da nicht reinreden.
Die günstigsten vllt, ich kaufe aba nix anderes als EVGA ;-)
Ähm, Wasser kommt bei mir nicht mehr in den PC, habe meine gründe dafür und da ich so oder so immer mit headset spiele stören mich 50/60 DB nicht ;-)
MFG
Ovo
Nightspider
12.11.2010, 00:25
Die günstigsten vllt, ich kaufe aba nix anderes als EVGA ;-)
Ähm, Wasser kommt bei mir nicht mehr in den PC, habe meine gründe dafür und da ich so oder so immer mit headset spiele stören mich 50/60 DB nicht ;-)
MFG
Ovo
EVGA wayne? Wenn bei den GTX480 EVGA drauf steht bekommst du beim Verkauf auch mehr. Also kommst du aufs gleiche hinaus. Zumal die EVGA 580 nur 20 Euro teurer ist.
Und beim Surfen und Film schauen hast du auch ein Headset auf? Mir wäre es auch so oder so zu laut.
Gegen Wasserkühlung spricht nicht viel. Erst recht nicht der Preis, wenn man nem Hersteller ey schon 109 Euro in den Rachen wirft. ;)
Alien vs Triangles Tessellation and PhysX Demo
Download.
http://us.download.nvidia.com/downloads/cool_stuff/demos/SetupAlienVsTriangles.exe
Nvidia Geforce GTX 570: 690/1.380/1.900 MHz, Release am 08. Dezember?
http://www.pcgameshardware.de/aid,799492/Nvidia-Geforce-GTX-570-690/1380/1900-MHz-Release-am-08-Dezember/Grafikkarte/News/
Geforce GTX 590: Doppelter GF110 tritt gegen Antilles alias HD 6990 an
http://www.pcgameshardware.de/aid,799711/Geforce-GTX-590-Doppelter-GF110-tritt-gegen-Antilles-alias-HD-6990-an/Grafikkarte/News/
das wird ja was?:roll:
Tig3r0023
22.11.2010, 13:22
Gibt ne neue Seite von Nvidia
http://www.geforce.com
schick, sowas ist auch schon sehr lange überfällig, wobei sie sich den Flash-Mist hätten sparen können und statt dessen einfach Übersichtlich support/forendiskussion oder dergleichen einbauen sollten.
4x GeForce GTX 580 = 73524 Punkte im 3DMark Vantage (http://www.hardwareluxx.de/index.php/news/software/benchmarks/17089-4x-geforce-gtx-580-73524-im-3dmark-vantage.html)
Es war nur eine Frage der Zeit, bis der Launch der NVIDIA GeForce GTX 580 auch für neue Rekorde bei den Benchmarks sorgen wird. Vince "k|ngp|n" Lucido schnappte sich vier GeForce GTX 580 von EVGA und setze diese auf ein EVGA Classified SR-2. Zwar wird 4-Way-SLI offiziell von NVIDIA nicht unterstützt, dennoch funktioniert dieser SLI-Modus auch direkt mit dem NVIDIA-GeForce-Treiber. Als Prozessor kam ein IntelXeon (http://www.hardwareluxx.de/index.php/news/software/benchmarks/17089-4x-geforce-gtx-580-73524-im-3dmark-vantage.html#) X5680 zum Einsatz. Alle Komponenten wurden mit flüssigem Stickstoff gekühlt. Die CPU erreichte dabei einen Takt von 5291 MHz. In einem Setup mit vier Grafikkarten aber wesentlich interessanter ist die Übertaktung dieser Karten. Von 772 MHz Standard-Takt konnten die vier GPUs auf 1070 MHz übertaktet werden. Beim Speicher ging es von 1000 MHz auf 1153
http://www.hardwareluxx.de/index.php/news/software/benchmarks/17089-4x-geforce-gtx-580-73524-im-3dmark-vantage.html
GTX 570 Kommt am 7.12.10
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2010/november/nvidia-geforce-gtx-570-kommt-am-7.-dezember/
mal sehen wie die sich macht?:-)
die GTX 570 ist schon bei HW da.
http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/17157-weitere-bilder-einer-geforce-gtx-570-release-in-wenigen-tagen.html
test zur GTX 570 morgen 15 uhr online:)
test gtx 570
http://www.computerbase.de/artikel/grafikkarten/2010/test-nvidia-geforce-gtx-570/
Leistungsaufnahme
Unter Windows zieht die GeForce GTX 570 173 Watt aus der Steckdose (gemeint ist der gesamte PC), was eine Verbesserung gegenüber der gleich schnellen GeForce GTX 480 darstellt, die 188 Watt benötigt. Dennoch zeigt AMD weiterhin, wohin die Leistungsaufnahme im 2D-Modus gehen sollte und ist Nvidia leicht voraus.
Auch unter Last gibt es eine Besserung: Mit 387 Watt ist die GeForce GTX 570 um satte 61 Watt sparsamer als die GeForce GTX 480 und benötigt in etwa gleich viel Strom wie die spürbar langsamere GeForce GTX 470. Damit macht die GeForce GTX 570 wie der größere Bruder einen kleinen Schritt in die richtige Richtung, ohne am Ziel angekommen zu sein.
http://www.computerbase.de/artikel/grafikkarten/2010/test-nvidia-geforce-gtx-570/24/#abschnitt_leistungsaufnahme
Temperatur
Unter Windows halten wir auf der GeForce GTX 570 eine GPU-Temperatur von 41 Grad Celsius fest, was absolut im grünen Bereich liegt. Dasselbe gilt für die Messergebnisse im Last-Szenario, die bei 83 Grad liegen. Auf der Kartenrückseite messen wir maximal 67 Grad Celsius.
http://www.computerbase.de/artikel/grafikkarten/2010/test-nvidia-geforce-gtx-570/23/#abschnitt_temperatur
Lautstärke
Nach der nur als katastrophal zu bezeichnenden Lautstärke der GeForce GTX 470 und vor allem der GeForce GTX 480 hat es die GeForce GTX 580 geschafft, in dieser Disziplin positiv zu überraschen. Wirklich leise ist die Grafikkarte dabei nicht (wie für eine High-End-Karte üblich), aber durchaus erträglich.
Da die GeForce GTX 570 auf dasselbe Kühlsystem setzt, haben wir dort ebenso gute Ergebnisse erwartet. Und unter Windows treten diese durchaus ein, denn mit 42 Dezibel ist die Grafikkarte nicht von den restlichen Komponenten zu unterscheiden.
Unter Last enttäuscht die GeForce GTX 570 dann aber etwas, denn mit 57 Dezibel wird der 3D-Beschleuniger 1,5 Dezibel lauter als die GeForce GTX 580. Auffallend ist vor allem eine sich oft ändernde Drehzahl des Lüfters, die ohne Weiteres zu hören ist. Wir klären derzeit mit Nvidia, ob es sich nicht um einen Defekt der Lüftersteuerung handelt – denn die GeForce GTX 580 hat gezeigt, dass es besser geht. Damit ist die GeForce GTX 570 hörbar und recht laut, aber gerade noch nicht störend.
http://www.computerbase.de/artikel/grafikkarten/2010/test-nvidia-geforce-gtx-570/22/#abschnitt_lautstaerke
OC
Unser Exemplar der GeForce GTX 570 lässt sich nur bedingt übertakten. Mehr als ein Plus von 49 MHz bei der TMU-Domäne (781 MHz) und 98 MHz bei den Shadereinheiten (1.562 MHz) sind nicht möglich, da ansonsten erste Abstürze auftreten. Ähnlich problematisch zeigt sich der Speicher, der einen Mehrtakt von 150 MHz zulässt, was in 2.050 MHz resultiert. Je nach Applikation steigt die Geschwindigkeit so um fünf bis sieben Prozent.
http://www.computerbase.de/artikel/grafikkarten/2010/test-nvidia-geforce-gtx-570/26/#abschnitt_uebertaktbarkeit
Positive Eigenschaften
Schnell genug für 1920x1200 und teilweise mehr
Durchgängig AA/AF möglich
Sehr schnelles DirectX 11
SSAA in allen APIs möglich
CUDA/PhysX
Leise unter WindowsNegative Eigenschaften
Sehr hohe Leistungsaufnahme unter Last
Relativ laut unter Lasthttp://www.computerbase.de/artikel/grafikkarten/2010/test-nvidia-geforce-gtx-570/28/#abschnitt_fazit
http://www.pcgameshardware.de/aid,802725/Nvidia-Geforce-GTX-570-fuer-350-Euro-im-Test-Grafikqualitaet-mit-Leistung-ueber-GTX-480-Niveau/Grafikkarte/Test/
http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/17116-test-nvidia-geforce-gtx-570.html
Positive Aspekte der NVIDIA GeForce GTX 570:
sehr gute Kühlung (in Temperatur und Lautstärke)
gute Verbrauchswerte (sowohl im Idle- wie auch Last-Betrieb)
alle Spiele auch in höchsten Auflösungen problemlos spielbarNegative Aspekte der NVIDIA GeForce GTX 570:
nur zwei Monitore pro Karte ansteuerbarhttp://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/17116-test-nvidia-geforce-gtx-570.html?start=24
gamestar gibt 90%
http://www.gamestar.de/hardware/tests/grafikkarten/pcie/2319765/nvidia_geforce_gtx_570.html
Path0g3n
07.12.2010, 15:33
http://www.youtube.com/watch?v=7lkWiSGiGrw&feature=sub
Schöne Graka die GTX570 SC.
Habe gerade meine Bestellung los geschickt.
Leider ist aus der GTX580 nichts draus geworden :-( und noch länger kann ich net warten, aber die wird es hoffentlich auch tun.
Naja, mal schauen wann Sie eintrifft.
Greetz
hallo
frage zur evga gtx 580
die seit etwas mehr als einer woche in meinem rechner ihren dienst tut
soweit bin ich sehr zu frieden
echt ein sauberes bild
jedoch hab ich einen mangel bzw ein problem
ich hab mit der karte two world´s 2, fallout 3 las vegas und mirror´s edge auf höchster deteilstufe durchgezockt ohne probleme wahr regelrecht begeistert von dem was die karte so mir auf den bildschirm zaubert
jedoch kackt mein rechner in warhead und im crysis editor ab
mir werden lauter kleine gelbe vierecke gezeigt danach ist das bild eingefrohren
das war´s
ok treiber sind noch recht jung da kann noch viel paßieren
jedoch meine frage was ich beim treiber selber abschalten sollte das zumindestens der editor fehlerfrei läuft
So, heute ist meine neue Graka angekommen.
Habe Sie natürlich gleich eingebaut und Und mal 'ne Runde Warhead gespielt und muß zugeben,
ich bin richtig begeistert von meiner neuen Freundin (EVGA GeForce GTX570 SC) :D.
Die Performance kann sich wirklich sehen lassen im gegensatz zu meiner alten 8800GTX.
Habe ja gedacht, daß mein Prozessor die Karte ausbremsen wird, aber das schein net der Fall zu sein.
Werde nun aber erst mal weiter testen.
Greetz
Edit: Um diese 10 Jahres Garantie von EVGA zu bekommen, genügt es, die Grafikkarte einfach innerhalb von 30 Tagen zu Registrieren oder muß man dort noch was anderes machen?
ja du mußt eine kopie von deiner rechnug mit hochschicken
Hey, Danke.
Dann weiß ich bescheid.
Aber mal kurz 'ne andere Frage.
Habe mir gerade ein Mini-HDMI auf HDMI Kabel gekauft und angeschlossen, nun höre ich über die Boxen von meinem Monitor aber keinen Sound.
Wird der über Mini-HDMI nicht mit übertragen?
hast du ein 1.4a hdmi kabel gekauft
ich geh jetzt einfach mal davon aus
bei etwas älteren grafikkarten wurde mit einem beigelegten kabel
der sound von der soundkarte mit der grafikkarte verbunden
wie das jetzt jedoch bei 1.4a geht weiß ich nicht
das wird anderes gelöst sein und kann dann nur ein treiber oder einstellungsproblem sein
ok wenn es auch nicht hilft ich hab die erfahrung gemacht das der sound über lichtleiter am besten rüber kommt
bei hdmi finde ich wird zu viel verschluckt und der sound klingt nicht mehr gar so kräftig und klar
Hi doc,
habe ein 1.3 Kabel gekauft. Habe es nun aber auch hinbekommen, nachdem ich die Treiber nochmal neu installiert habe und meinen Monitor als Ausgabegerät eingestellt habe.
Die boxen hören sich allerdings so ziemlich besch.... eiden an, so daß ich den Sound doch wieder über meine Anlage laufen lasse.
Greetz
alles klar
zur info 1.4 wird benötigt um 3d verarbeiten zu können
alles klar
zur info 1.4 wird benötigt um 3d verarbeiten zu können
Klares Marketinggebrubel! HDMI mit dem Standard 1.3 schafft ohne Probleme 3D! Immerhin liegt bei HDMI 1.3 und 1.4 kein Unterschied in der Datenübertragung ( ca. ~8GBit/s ) einzig der 1.4 Standard ermöglicht neben neuen Farbräumen, dem Side-by-Side Horizontal und dem Top-and-Bottom auch die 4K Auflösung, wann man diese braucht weiß kein Mensch. Auch wenn Avatar der erste Film ist der in dieser Auflösung gefilmt wurde gibt es bis dato noch keine Disk die solch Auflösungen fassen kann und kein Player der diese Auflösung wiedergeben kann!
Vielleicht in 10 Jahren!? Freuen würde ich mich ja....:lol:
1.3 unterstütz zwar 3d aber nur bis 1080i
1.4a 1080p
zudem steigt das video bildformat von 1440p auf 2160p
ein 1.3 kabel liegt bei grob 9,99 €
und das 1.4a kabel auch
wenn ich noch gar keines haben sollte dann lieber gleich das 1.4a kabel kaufen
den wenn ich es doch mal brauchen sollte habe ich zumindest nicht zwei mal geld ausgegeben
Nachdem ich meine neue graka nun seit über einer Woche im Einsatz habe bin ich wirklich begeister von ihr.
Habe sie heute mal übertaktet, um zu sehen wie weit ich gehen kann, ohne mein System zu crashen. und ich muß sagen, das Ergebnis kann sich echt sehen lassen.
MSI Afterburner - Overclock Settings
http://www.abload.de/thumb/msiafterburner-overclojz9v.jpg (http://www.abload.de/image.php?img=msiafterburner-overclojz9v.jpg)
With these Settings I run the EVGA OC Scanner stress test over 90 Minutes without any Artifacts or crashes in Fullscreen Mode @ 1920 x 1200
and than I started 3DMark 11 Advanced Edition in Extreme default Settings.
3DMark 11 - Results
http://www.abload.de/thumb/3dmark11scorextky.jpg (http://www.abload.de/image.php?img=3dmark11scorextky.jpg)
Here are the detailed Results (http://3dmark.com/3dm11/288352)
O.k. my results are not really good because my CPU is to old I think but I wanted to see if my System runs stable and that does it.
My highest temps were @ 74°C
Greetz
P.s.
Nicht wundern, daß ich plötzlich in englisch angefangen habe zu schreiben.
Habe den Text und die Bilder aus meinem Originalpost im EVGA-Forum kopiert, da ich keine Lust hatte, nochmal alles zu schreiben. :roll:
Hier (http://www.evga.com/forums/fb.ashx?m=758875), der Link zum Original.
livestream von der ces 2011
http://livesmooth.istreamplanet.com/nvidia110105/
Gigabyte GTX560 Ti OC and SOC
SOC: 1000/2000/1145MHz
OC: 900/1800/1000MHz
http://www.abload.de/img/13ayw.jpg (http://www.abload.de/image.php?img=13ayw.jpg)
http://translate.google.de/translate?u=http%3A%2F%2Fwww.chiphell.com%2Fthread-156557-1-1.html&sl=zh-CN&tl=en&hl=&ie=UTF-8
http://www.tcmagazine.com/tcm/news/hardware/34575/900mhz-clocked-gigabyte-geforce-gtx-560-ti-gets-listed?utm_source=feedburner&utm_medium=feed&utm_campaign=Feed%3A+tcmagazine+%28Techconnect+Mag azine%29
um die 220€ soll die OC kosten :)
standart sind 823 MHz
http://www.abload.de/img/1uzw4.jpg (http://www.abload.de/image.php?img=1uzw4.jpg)
hm, ich warte noch auf mehr Benchmarks ab.... mein vater hat sich gestern für Arbeit neue Hardwarekomponenten bestellt:
- 2600K
- ASUS P8P67
- Corsair DIMM 8GB DDR3-1333 Quad-Kit (mit dem Kühler etc)
- glaub noch die : OCZ RevoDrive PCIe SSD 80GB oder eine andere sehr schnelle SSD
- Seagate ST32000641AS 2TB (Sata 600, Barracuda XT)
und nun warten wir noch auf die GTX560... wenn sie schneller sein wird als die 6950, wird sie gekauft.. wenn langsamer kommt die ATI rein... außerdem muss man schauen, welche Anwendungen (Berechnen etc) besser mit Nvidia oder ATI laufen...
Ein herrlich Beispiel dafür, dass SLI und Crossfire beide auf gut Deutsch gesagt: SCHEI SSE sind!
http://www.computerbase.de/artikel/grafikkarten/2011/test-radeon-hd-6900-cf-vs.-geforce-gtx-500-sli/20/#abschnitt_das_problem_mikroruckler
Ich sags ja immer wieder, lasst die Finger davon ;), es sei denn ihr wollt euer 30" Screen mit Stereobildern betreiben.
wenn ich mir das schon anschaue, wie häufig waren die Mikrorückler bei den vorherigen Generationen oO z.B. bei 2x 8800GTX oder HD3870X2 oO ...
GTX 560 TI test online
http://www.computerbase.de/artikel/grafikkarten/2011/test-nvidia-geforce-gtx-560-ti-sli/
Damit platziert sich die GeForce GTX 560 Ti schlussendlich zwischen Radeon HD 6870 und Radeon HD 6950. Und mit einem offiziellen Preis von 229 Euro kostet der Nvidia-Spross leicht weniger als eine Radeon HD 6950, wobei diese aber einen doppelt so großen Speicher hat. Zumal AMD noch Spielraum im Preis der Radeon HD 6950 mit 1.024 MB haben dürfte. Der AMD-Proband ist schlussendlich eben doch schneller, wobei diese mit einer höheren Lautstärke, einer nicht ganz so guten Bildqualität und einer höheren Leistungsaufnahme (abgesehen von 3D) zu kämpfen hat.
http://www.computerbase.de/artikel/grafikkarten/2011/test-nvidia-geforce-gtx-560-ti-sli/31/#abschnitt_fazit
pcgh test
http://www.pcgameshardware.de/aid,808742/Geforce-GTX-560-Ti-im-Test-Besser-als-AMDs-Radeon-HD-6950/Grafikkarte/Test/
Für einen von Nvidia vorgesehenen Verkaufspreis von 239 Euro macht die Geforce GTX 560 Ti nichts wirklich falsch, aber dafür viel richtig: Die Leistungsaufnahme bewegt sich im Leerlauf auf einem sehr geringem Niveau, das Übertaktungspotenzial ist hoch und die Lautheit unter Last ist mit nur 1,1 Sone aus 50 Zentimetern exzellent für eine derart flotte Karte - kein anderer Pixelbeschleuniger dieser Klasse erreicht im Referenzdesign eine solche Laufruhe. In unseren Benchmarks sortiert sich die Geforce GTX 560 Ti im Mittel zwischen der Radeon HD 6870 und der Radeon HD 6950 mit 2 GiByte ein (selbst wenn Tessellation im Spiel ist und auch mit Q-Filterung seit dem Catalyst 11.1a (http://www.pcgameshardware.de/aid,808746/Radeon-HD-6000/5000-Catalyst-111a-Hotfix-mit-modifiziertem-AF/Grafikkarte/Test/)). Erst GTX-560-OC-Versionen der Nvidia-Partner werden zur HD 6950 aufschließen können - die ersten 900-MHz-Karten von Palit und Gainward sind bereits im PCGH-Testlabor eingetroffen.
http://www.pcgameshardware.de/aid,808742/Geforce-GTX-560-Ti-im-Test-Besser-als-AMDs-Radeon-HD-6950/Grafikkarte/Test/?page=13
92% von der gamestar
http://www.gamestar.de/hardware/tests/grafikkarten/pcie/2320460/nvidia_geforce_gtx_560_ti_p5.html#EL_1295879171960 5005023344
Affenzahn375
25.01.2011, 17:06
soo, frage jetzt:
sofort kaufen und damit ne karte aus der ersten ladung kriegen, oder warten auf weiteretests?
gibt es denn irgendwelche bedenken, dass was nicht in ordnung sein könnte?
So gut wie gekauft, das scheint mir endlich mal wieder ne überzeugende Karte zu sein.
auch 2 gb versionen
http://www.pcgameshardware.de/aid,808891/Geforce-GTX-560-Ti-Boardpartner-stellen-ihre-Modelle-vor-Update-Auch-mit-2-GiByte-VRAM/Grafikkarte/News/
so nach den Tests würde ich den meisten empfehlenen, sich eine 6950 zu kaufne und diese auf 6970 aufzurüsten... man zahlt fast gleiches Geld, aber dafür bekommt man einfach deutlich mehr leistung (z.B. an Metro, Crysis Benchmark denken)
naja, dafür lässt die Nvidia Karte in anderen Bereichen die 69x0 wie eine ältere Generation aussehen.
Trotzdem geb ich dir Recht, die 6950 ist mit Abstand das beste Angebot, aufgrund der Unlockbarkeit!
Palit Geforce GTX 580 test
Was bringen 3 GiByte RAM?
http://www.pcgameshardware.de/aid,809415/Palit-Geforce-GTX-580-im-Hands-on-Test-Was-bringen-3-GiByte-RAM/Grafikkarte/Test/
war ja schon klar das es nicht's bringt.:smile:
Ovomaltine
28.01.2011, 14:35
Nvidia Geforce GTX 590 - Dual-GPU-Grafikkarte im Februar?
Laut Gerüchten plant Nvidia für Februar die Vorstellung einer Dual-GPU-Grafikkarte.
http://www.gamestar.de/hardware/news/grafikkarten/2320665/nvidia_geforce_gtx_590.html
Wie erwartet, nice und Tschöö ATI :-D:twisted:
MFG
Ovo
die 560ti eben getestet.... sehr fein!
Für 200€ ist das definitiv derzeit meine Preis/Leistungs Empfehlung für Auflösungen bis HD.
LandsHeer
06.02.2011, 09:38
kannst du mir mal einen bench von crysis und bc2 reinstellen randfee ? denn den i5-2500k und die 560 wollte ich mir auch holen :)
hehe... nee, kann ich nicht. Ich habe eine 5850 (und Intel 2500K @ 4,7GHz), die 560ti sah ich in einem anderen Rechner. Einschlägige Tests finden sich aber überall im Netz.
kannst du mir mal einen bench von crysis und bc2 reinstellen randfee ? denn den i5-2500k und die 560 wollte ich mir auch holen :)
ich habe gestern die msi 560ti + 2600k @3,2 - 4,5 ghz (autom. übertaktungsmodus) bei Crysis, Warhead und Wars mit akteullen Patches auf max. Grafik + AA + 22 Zoll Auflösung probiert und sage dir eindeutig, dass es mehr als flüssig war.... ich finds nur schade, dass man nicht so eine gute Hardware mit so viel Leistung für das selbe Geld vor 3 Jahren kaufen konnte.... dann hätte Crysis auf jeden Fall 10x größere Community gehabt
du machst mit einem 2500k + gtx 560 nichts falsch. Allerdings weiß ich bloß von Benches, dass die 6950 bei Crysis stück schneller ist, während in anderen Spielen langsamer. Dennoch kann man die 560 sehr gut hochtakten, was auch ziemlich nützlich sei
.... ich finds nur schade, dass man nicht so eine gute Hardware mit so viel Leistung
für das selbe Geld vor 3 Jahren kaufen konnte.... dann hätte Crysis auf jeden Fall 10x größere Community gehabt
da war die Entwicklung noch nich so weit, kleinere Chip-größe = billiger erzustellen,
weniger Wärme und man kann mehr Transistoren verbauen für mehr Leistung .
die Community ist trotzdem ziemlich gross find ich, fehlen nur die Modder die was aufn Kasten haben :p
test GTX 550 Ti
http://www.computerbase.de/artikel/grafikkarten/2011/test-3x-nvidia-geforce-gtx-550-ti-sli/
http://www.pcgameshardware.de/aid,815809/Geforce-GTX-550-Ti-im-Test-Die-bessere-Radeon-HD-5770/Grafikkarte/Test/
http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/18069-test-4x-nvidia-geforce-gtx-550-ti.html
gamestar gibt 63%
http://www.gamestar.de/hardware/tests/grafikkarten/pcie/2321583/nvidia_geforce_gtx_550_ti.html
viel zu langsam die 550, dachte das wird der Ersatz für die 8800gt :cry:
Preis sollte auch 20€ runter gehen, sonst kaufts keiner .
http://www.youtube.com/watch?v=rzmvmUPsrEM&
neue graka? Crysis 2 is im hintergrund! ;)
test am 24.3.11 14 uhr mez.
EVGA GeForce GTX 560Ti Maximum Graphics Edition im Crysis 2 Bundle
Hoffe, das steht hier noch nirgends.
GTX 560Ti Maximum Grafics Edition (http://www.evga.com/articles/00622/)
Ovomaltine
23.03.2011, 16:12
EVGA GeForce GTX 560Ti Maximum Graphics Edition im Crysis 2 Bundle
Hoffe, das steht hier noch nirgends.
GTX 560Ti Maximum Grafics Edition (http://www.evga.com/articles/00622/)
Schau mal in den Fucking Crysis Info Thread ;-)
MFG
Ovo
http://www.youtube.com/watch?v=rzmvmUPsrEM&
neue graka? Crysis 2 is im hintergrund! ;)
kann ich mir nicht vorstellen, welche Karte sollte denn in diesen Karton passen - bestimmt nicht ihr perverses 400W Dual-Gerät :P
Vielleicht mal zur Abwechslung: Strom und demnach auch Größe "halbiert" UND Leistung verdoppelt ^^. nee... wohl nicht vor TSMC's nächstem shrink.
bilder von der asus gtx590
http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/18153-nvidia-geforce-gtx-590-fotos-praesentationsfolien-samt-benchmarks-und-gpu-z-screenshot-aufgetaucht-update-2.html
Schau mal in den Fucking Crysis Info Thread ;-)
MFG
Ovo
Oops, den habe ich mir vorher garnicht angeschaut. :roll:
HarryRulez
23.03.2011, 16:14
Nvidia Geforce GTX 590 - Neue Bilder und 24. März offiziell bestätigt
http://www.gamestar.de/hardware/news/grafikkarten/2321780/nvidia_geforce_gtx_590.html
error:
Diese Karte (590 "ultra-long/powerhungry" etc) ist auf keinem Fall in dessen "Top Secret" Karton. Außerdem hat das ja nichts mit "Next Gen" Grafikkarte zu tun. Die 590 hat "alte" chips und "altes Konzept" (Dualkarte)...
Ovomaltine
23.03.2011, 16:19
error:
Diese Karte (590 "ultra-long/powerhungry" etc) ist auf keinem Fall in dessen "Top Secret" Karton. Außerdem hat das ja nichts mit "Next Gen" Grafikkarte zu tun. Die 590 hat "alte" chips und "altes Konzept" (Dualkarte)...
Und wird atm trotzdem die schnellste Garafikkarte der Welt sein, über strom und co mal abgesehen wie schon gesagt gehts hier um Leistung und nicht um Stromsparen ;-)
MFG
Ovo
und trotzdem ist das sicher nicht die GTX590, die der Kerl da in seinem Karton hat! Die passt da nämlich kaum rein..
PS:
Es sei denn die hat der da ohne Dämmaterial drin, wäre aber ziemlich "schädlich"
Ovomaltine
23.03.2011, 16:22
und trotzdem ist das sicher nicht die GTX590, die der Kerl da in seinem Karton hat! Die passt da nämlich nicht rein!
Vllt ist sie ja faltbar bzw man muss sie auseinanderklappen vor der ersten benutzung dann hättest du deine "Next-Gen" :razz::lol: ROFL
MFG
Ovo
test gtx 590
http://www.computerbase.de/artikel/grafikkarten/2011/test-nvidia-geforce-gtx-590/
Unter Windows erreicht die GeForce GTX 590 einen neuen „Spitzenwert“ in der Disziplin der Leistungsaufnahme und belegt mit 205 Watt (gemeint ist der gesamte PC) den letzten Platz in unserem Testfeld. AMDs Radeon HD 6990 ist mit 194 Watt etwas sparsamer, die GeForce GTX 580 benötigt 181 Watt.
Unter Last muss sich die neue Nvidia-Grafikkarte dann ebenso mit dem letzten Platz zufrieden geben. Mit 633 Watt ist der 3D-Beschleuniger extrem stromhungrig und zieht nochmals 66 Watt mehr aus der Steckdose als die Radeon HD 6990
http://www.computerbase.de/artikel/grafikkarten/2011/test-nvidia-geforce-gtx-590/9/#abschnitt_leistungsaufnahme
Unter Windows scheinen es die aktuellen Multi-GPU-Karten nicht so ernst mit der Lautstärke zu nehmen, denn auch die GeForce GTX 590 ist im 2D-Modus nicht gerade leise und kommt auf 47,5 Dezibel – der letzte Platz im Testfeld. Der Lüfter lässt sich ohne weiteres aus einem geschlossenen Gehäuse heraushören, was heutzutage eigentlich nicht mehr sein muss. Immerhin ist es kein störendes Geräusch.
Unter Last erreicht der 3D-Beschleuniger dann 62,5 Dezibel, was ohne Zweifel sehr laut ist und einzig von der Radeon HD 6990 noch klar geschlagen wird. Allerdings gibt es ein großes aber: Denn dank des Axiallüfters gibt die GeForce GTX 590 zwar ein lautes, aber ebenso ein verhältnismäßig angenehmes Geräusch von sich, da es sich nicht um einen schreienden Radiallüfter handelt. Der Axiallüfter erzeugt eher ein tiefes Brummen, was deutlich angenehmer ist.
Damit ist die GeForce GTX 590 zwar messtechnisch ein gutes Stück lauter als die GeForce GTX 580, in der Praxis liegen die beiden Karten aber deutlich näher als man auf den ersten Blick denken würde. Der Geräuschpegel ist nicht zu vergleichen mit dem einer Radeon HD 6990.
Unter Windows sind die Temperaturen der GeForce GTX 590 mit den gemessenen 39 Grad Celsius durchaus als niedrig zu bezeichnen. Unter Last erreicht die Multi-GPU-Karte dann runde 90 Grad, was zwar sehr hoch, aber nicht mit Problemen verbunden ist. Auf eine gute Gehäusekühlung sollte aber schon geachtet werden. Auf der Chiprückseite messen wir Temperaturen von bis zu 86 Grad Celsius.
http://www.computerbase.de/artikel/grafikkarten/2011/test-nvidia-geforce-gtx-590/8/#abschnitt_kuehlung
Nvidia GeForce GTX 590 Positive Eigenschaften
Schnell genug für 2560x1600
Durchgängig AA/AF möglich
Sehr schnelles DirectX 11
SSAA in allen APIs möglich
CUDA/PhysX
Für 3D Vision Surround keine zweite Grafikkarte nötig
Minderung der Mikroruckler durch Treiber Negative Eigenschaften
Hörbar unter Windows
Sehr laut unter Last, aber kein unangenehmes Geräusch
Hohe Leistungsaufnahme unter Windows
Extrem hohe Leistungsaufnahme unter Last
Multi-GPU-Probleme wie Mikrorucklerhttp://www.computerbase.de/artikel/grafikkarten/2011/test-nvidia-geforce-gtx-590/12/#abschnitt_fazit
http://www.pcgameshardware.de/aid,817166/Geforce-GTX-590-im-Test-Triumphiert-der-doppelte-Fermi-ueber-die-Radeon-HD-6990/Grafikkarte/Test/
Geforce GTX 590 im Test (3) [Quelle: siehe Bildergalerie] Geforce GTX 590 im Test: Fazit
Aufgrund geringer Taktraten muss die Geforce GTX 590 die Radeon HD 6990 (PCGH-Test (http://www.pcgameshardware.de/aid,814660/Radeon-HD-6990-im-Test-Antilles-Mit-375-Watt-zu-neuen-Benchmark-Rekorden/Grafikkarte/Test/)) in den meisten Spielen in einer Auflösung von 2.560 x 1.600 Pixeln ziehen lassen - darunter reichen selbst eine Geforce GTX 580 oder Radeon HD 6970 oft für Supersampling-AA und flüssige Bildraten. Was am Ende bleibt, ist ein sehr hoher Aufwand seitens Nvidia, um an Ende doch am Fps-Balken der Radeon HD 6990 zu scheitern. Je mehr Pixel und je höher die Qualität der Kantenglättung, desto weiter setzt sich die Radeon HD 6990 von der Geforce GTX 590 ab. Letztere zeigt darüber hinaus stellenweise einen Totalausfall wie in Grand Theft Auto 4, wo sie deutlich langsamer rechnet als die Geforce GTX 570. Hier versagt schlicht SLI - vermutlich aufgrund ähnlicher Probleme stellte Nvidia bis zum heutigen Tage keinen Treiber für Quad-SLI zur Verfügung. Ein anderer Grund könnte die wie zu erwarten immense Leistungsaufnahme der Geforce GTX 590 sein: Trotz nur 608 MHz Chiptakt und unter 1,0 Volt GPU-Spannung zieht der doppelte Fermi im Leerlauf wie unter Last noch mehr Strom als die Radeon HD 6990; nur wenn die AMD-Karte mit dem OC-BIOS arbeitet, ist sie noch stromhungriger.
Für ihre Leistung aber ist die Geforce GTX 590 überraschend leise, mit 3,7 Sone in Bad Company 2 liegt sie weit unter der Radeon HD 6970. Dafür leidet die Geforce unter bestimmten Voraussetzungen an Problemen, unser Exemplar zeigte trotz nur 86 Grad Celsius Bildfehler beim Betrieb mit Supersampling-AA in Call of Duty Modern Warfare 2. Andere Tester mussten im Betrieb im Overcklocking durch unglückliche Umstände gar einen Defekt erleben. Einen positiven Aspekt bietet die Geforce GTX 590 aber noch: Die Ausprägung der Mikroruckler ist bei Nvidia wie gehabt im Mittel geringer, je nach Titel und Bildrate stören diese aber genauso wie bei AMDs Radeon HD 6990 (mehr zu diesem Thema in der PCGH 05/2011). Gesetzt den Fall, Sie setzen die Geforce unter Wasser, sollte diese ein enorm hohes Übertaktungspotenzial bieten und die Radeon HD 6990 knacken - sofern denn Ihre Kühlung und Ihr Netzteil diese Beanspruchung überhaupt mitmachen und Sie bereit sind die UVP von 639 Euro für die Geforce GTX 590 zu bezahlen
http://www.pcgameshardware.de/aid,817166/Geforce-GTX-590-im-Test-Triumphiert-der-doppelte-Fermi-ueber-die-Radeon-HD-6990/Grafikkarte/Test/?page=10
http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/18114-test-3x-nvidia-geforce-gtx-590.html
Positive Aspekte der NVIDIA GeForce GTX 590:
enorme Performance, gerade in hohen Auflösungen und Qualitätseinstellungen Negative Aspekte der NVIDIA GeForce GTX 590:
hoher Last-Stromverbrauch
hoher Idle-Stromverbrauch
relativ hohe Last-Lautstärkehttp://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/18114-test-3x-nvidia-geforce-gtx-590.html?start=26
http://www.gamestar.de/hardware/tests/grafikkarten/pcie/2321812/geforce_gtx_590.html
http://www.youtube.com/watch?v=5XrVAhcOmmk&feature=channel_video_title
Ovomaltine
24.03.2011, 23:20
OMG :evil:
GTX 590 Burn
http://www.youtube.com/watch?v=sRo-1VFMcbc&feature=player_embedded
MFG
Ovo
Jack3443
24.03.2011, 23:42
und trotzdem ist das sicher nicht die GTX590, die der Kerl da in seinem Karton hat! Die passt da nämlich kaum rein..
PS:
Es sei denn die hat der da ohne Dämmaterial drin, wäre aber ziemlich "schädlich"
Ich sehe keinen Grund warum die da nicht "reinpassen" soll... (diagonal; zersägt.... usw:grin:)
Ich finde die GTX 590 irgendwie unnötig (wie alle dual GPU Karten). Die Kühlung ist immer ein großes Problem und außerdem kosten die meist fast so viel wie 2 "normale Karten".
Ich kaufe lieber "gute" single GPU Karten und behalte die dann 3-4 Jahre. Das ganze SLI Zeugs ist meist verschwendetes Geld, außer man spielt mit 2 Monitoren oder so. Beim Filme-schneiden hilft es doch auch nichts.
Ehrlich gesagt bin ich mit der GTX 480 mehr als zufrieden und werde sie wohl so lange wie möglich behalten. Video-schneiden und Games wie Arma 2 laufen ohne Probleme. Was will man mehr....
chenjung
24.03.2011, 23:43
OMG :evil:
GTX 590 Burn
http://www.youtube.com/watch?v=sRo-1VFMcbc&feature=player_embedded
MFG
Ovo
Was soll das denn? Burnen die Karte? Hätten sie lieber mir geben solln ^^
Flying_Dragon
25.03.2011, 07:14
Was soll das denn? Burnen die Karte? Hätten sie lieber mir geben solln ^^
Garantiert machen die das nicht bewusst :P
Die waren am Übertakten denke ich mal...
Aber Dual GPU Grafikkarten sind eh sinnloss
Ovomaltine
25.03.2011, 07:32
Garantiert machen die das nicht bewusst :P
Die waren am Übertakten denke ich mal...
So siehts aus und das tool hatte die falsche spannung angezeigt von 1,2000volt ;-)
MFG
Ovo
Tig3r0023
31.03.2011, 15:44
SLI auf AMD Boards
http://www.computerbase.de/news/hardware/chipsaetze/amd/2011/maerz/nvidia-sli-kehrt-auf-amd-plattformen-zurueck/
leiser als die 6990 ist sie ja.:)
http://www.youtube.com/watch?v=as8pgIWAtXo&feature=channel_video_title
ASUS zeigt GeForce GTX 595 ARES zur Computex (http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/18638-asus-zeigt-geforce-gtx-595-ares-zur-computex.html)
die GeForce GTX 595 ARES wird zwei GF110-Chips einsetzen. Während bei der GeForce GTX 590 der GPU-Takt im Vergleich zur Single-GPU-Variante GTX 580 deutlich abgesenkt wurde (von 772 auf nur noch 607 MHz) soll die neue ARES sogar noch weit über GTX 580-Taktung hinausschießen. Angeblich takten beide GPUs mit 875 MHz, die Shader mit 1700 MHz und der 3072 MB große Speicher mit 1200 MHz. Ob sich diese Angaben wirklich bewahrheiten und wie ASUS die Kühlung dieser Grafikkarte gewährleisten will, soll im Rahmen der Computex (31. Mai bis 4. Juni in Taipei) bekannt gemacht werden.
http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/18638-asus-zeigt-geforce-gtx-595-ares-zur-computex.html
dachte schon dieses jahr keine amd ares auf der cebit. aber jetzt das.:-D
ASUS MARS II: Dual GeForce GTX 580 steht in den Startlöchern (http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/18750-asus-mars-ii-dual-geforce-gtx-580-steht-in-den-startloechern.html)
Während die NVIDIA GeForce GTX 590 mit signifikant niedrigeren Frequenzen, als eine einzelne GeForce GTX 580 ausgestattet ist und es gerade einmal auf 607/1214/3420 MHz bringt, soll die ASUS MARS II mindestens mit den Taktraten einer einzelnen GeForce GTX 580 aufwarten können – auch höhere Frequenzen will man derzeit nicht ausschließen. Bei der Speicherausstattung fährt man ebenfalls keinen Gang zurück und verbaut pro GPU insgesamt 1536 MB GDDR5-Videospeicher samt 384-Bit-Interface. Um der gewaltigen Leistungsaufnahme und Abwärme Herr zu werden, soll eine 19-Phasige Spannungsversorgung mit Super-Alloy-Chokes und ein gewaltiges Kühlsystem zum Einsatz kommen. Nähere Details hierzu lassen allerdings noch auf sich warten.
http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/18750-asus-mars-ii-dual-geforce-gtx-580-steht-in-den-startloechern.html
ASUS GeForce GTX 580 Matrix abgelichtet (http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/18759-asus-geforce-gtx-580-matrix-abgelichtet.html)
Unter der Haube des mächtigen Drei-Slot-Kühlers sollen sich eine starke 19-Phasige Spannungsversorgung und hochwertige Bauteile befinden. Der DirectCU-II-basierende Kühler kann auf zahlreiche Aluminiumfinnen, dicke Heatpipes und zwei riesige Axiallüfter vertrauen. Zur besseren Stabilität und Kühlung besitzt die Grafikkarte auf der Unterseite eine Backplate. Speziell für Overclocker sind nicht nur Voltage-Read-Points auf dem PCB angebracht, sondern auch diverse weitere Schalter, die die beiden Lüfter komfortabel regeln sollen. Trotzdem hat ASUS auch so schon ein wenig an der Taktschraube gedreht. Während sich eine gewöhnliche NVIDIA GeForce GTX 580 mit 772 MHz begnügen muss, arbeitet die kommende ASUS GeForce GTX 580 Matrix mit 816 MHz. Der 1536 MB große GDDR5-Videospeicher, welcher weiterhin über 384 Datenleitungen kommunizieren darf, arbeitet mit seinen sonst üblichen, effektiven 4008 MHz. Auf dem Triple-Slot-I/O-Shield stehen zwei DVI-Ausgänge, ein HDMI-Port und ein DisplayPort-Anschluss bereit. Ebenfalls mit an Board ist SLI-Unterstützung.
http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/18759-asus-geforce-gtx-580-matrix-abgelichtet.html
bilder der mars 2
http://www.computerbase.de/bildstrecke/34755/1/
Gamescom 2011: ASUS MARS II nun offiziell (http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/19592-gamescom-2011-asus-mars-ii-nun-offiziell.html)
http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/19592-gamescom-2011-asus-mars-ii-nun-offiziell.html
Gamescom 2011: ASUS MARS II nun offiziell (http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/19592-gamescom-2011-asus-mars-ii-nun-offiziell.html)
brauch ma ;)
Ovomaltine
20.08.2011, 13:55
Nvidia: Wieder mehr als eine Milliarde US-Dollar Umsatz
Quelle: (http://www.pcgameshardware.de/aid,840356/Nvidia-Wieder-mehr-als-eine-Milliarde-US-Dollar-Umsatz/Grafikkarte/News/)
MFG
Ovo
Asus Mars II im Test
latine und Kühlung
Zwei GTX-580-Grafikkarten im SLI-Betrieb verbrauchen unter Spielelast etwa 450 Watt – zu viel, um diese Leistung innerhalb einer 300-Watt-Spezifikation unterzubringen. Doch wie schon bei der Ares kümmert Asus die PCIe-Spezifikation nur wenig: Die Mars II durchbricht gleich mehrere Grenzen, um ihrer Hardware die Entfaltung zu ermöglichen. Die 29,5 Zentimeter lange Platine der Mars II beherbergt satte drei 8-Pol-Strombuchsen, die ihr jeweils 150 Watt einflößen können. Zusammen mit dem PEG-Slot (75 Watt Spitzenleistung) darf die Mars II im Rahmen ihrer eigenen Spezifikation bis zu 525 Watt aufnehmen. Direkt neben den Stromeingängen sitzt außerdem ein roter Knopf, welcher bei Betätigung den "Panikmodus" aktiviert: 100 Prozent PWM-Drehkraft für beide Lüfter, wenn es mal heiß hergeht.
Asus Mars II im Test: Leistungsaufnahme und Lautheit
Nachdem sowohl die Mars als auch die Ares alle bestehenden Watt-Rekorde hinter sich ließen, lautet die spannende Frage: Ist die Ares II nicht nur die schnellste Grafikkarte der Welt, sondern auch die stromhungrigste? Sie ist es. Die Leistungsaufnahme beim Nichtstun (Windows-Desktop) beträgt hohe 77 Watt, obwohl sich die Karte ordnungsgemäß in den P12-Powerstate begibt. Spielen Sie Battlefield: Bad Company 2, muss das Netzteil satte 449 Watt durch die drei Stromkabel und den PEG-Slot schleusen. Das ist zweifelsohne enorm viel, der Verbrauch steht jedoch in einem vertretbaren Verhältnis zur Leistung – solange die Dual-GPU-Konkurrenz in Form der Geforce GTX 590 und Radeon HD 6990 das Maß sind. Die Mars II erzielt in BFBC2 24 Prozent mehr Fps als die GTX 590 und "verbraucht" dabei 31 Prozent mehr Strom. Im Vergleich mit AMDs HD 6990 sieht die Bilanz nicht mehr so rosig aus: Bei einem Fps-Vorsprung von 17 Prozent ist die Mars II 37 Prozent durstiger.
Wo viel Strom fließt, wird normalerweise auch eine beträchtliche Menge an Wärme frei. Im Leerlauf säuseln beide Lüfter mit 25 Prozent ihrer PWM-Drehkraft, resultierend in sehr guten 0,4 Sone (Charakteristik: Surren). Beim Spielen, in unserem Test wieder Bad Company 2, drehen sie schlimmstenfalls mit 65 Prozent Drehstärke und erzeugen dabei 4,4 Sone. Das ist nur etwas lauter als die Geforce GTX 590 und GTX 580 – die Triple-Slot-Kühlfläche macht sich positiv bemerkbar. Im PCGH VGA Tool (Basis: Furmark) stößt der Kühler an seine Grenzen: Da die Mars II ohne Power-Containment-Drossel arbeitet, sind 13,3 Sone bei 100 Prozent Lüfterstärke zu verzeichnen. Die erste GPU bleibt dabei knapp unter 100 Grad Celsius, während die zweite bei etwa 85 Grad stagniert.
Overclocking
Unser Testmuster der Mars II verfügt über eine GPU-VID von 1,05 Volt (pro Kern), die Spannung lässt sich sowohl per Asus GPU Tweak als auch per Nvidia Inspector nur bis 1,075 Volt anheben. Mit Standardspannung scheitert die SLI-Karte bereits an der 850-MHz-Marke, 840 MHz arbeiten Crysis-stabil. Mit der (geringen) Maximalspannung ist nicht an 900 MHz zu denken, unser Sample verkraftet knapp 880 MHz, bevor es nach einigen Minuten abstürzt. Auch der Speicher (http://www.pcgameshardware.de/aid,842114/Asus-Mars-II-im-Test-Die-extremste-Grafikkarte-der-Welt-Wahnsinn-done-right/Grafikkarte/Test/?page=2#) ist relativ unwillig, schon mit 2.150 MHz sind erste Grafikfehler zu verzeichnen. Auf 880/1.760/2.100 MHz (+13/5 Prozent) übertaktet, steigt die Spieleleistung um fast zehn Prozent. Am Rande des Machbaren gebaut, verwundert das geringe Overclocking-Potenzial nicht.
http://www.pcgameshardware.de/aid,842114/Asus-Mars-II-im-Test-Die-extremste-Grafikkarte-der-Welt-Wahnsinn-done-right/Grafikkarte/Test/?page=2
Fazit
Asus legt die Latte für nachfolgende Grafikkarten sehr hoch: Die Mars II demonstriert nicht nur auf dem Papier und mit ihrer physischen Erscheinung große Stärke, sondern auch in der Praxis. In Spielen distanziert sich die Mars II um bis zu 30 Prozent von Nvidias Geforce GTX 590 und auch AMDs Radeon HD 6990 liegt um etwa 20 Prozent hinten. Selbst die kommende GPU-Generation mit 28-Nanometer-Strukturen wird voraussichtlich nicht die Nominal-Fps der Mars II erreichen (Mikoruckeln & Co. unbeachtet). Auch muss man den Asus-Ingenieuren zu Gute halten, dass sie aus vergangenen Fehlern gelernt haben: Die Mars II hat weder Hitzeprobleme (siehe Mars), noch ist sie besonders laut (siehe Ares) – im Gegenteil, für die gebotene Spieleleistung ist die Mars II geradezu ein Leisetreter. Der Preis für die Leistungskrone ist jedoch hoch: Asus' Mars II ist im PCGH-Preisvergleich derzeit ab 1.230 Euro (http://www.pcgameshardware.de/preisvergleich/669452) gelistet, aber nicht lieferbar. Für diese Summe erhalten Sie auch drei GTX-580-Modelle im Referenzdesign plus ebenso viele Topspiele.
Andererseits fällt es schwer, die Mars II mit dem Maß der Vernunft zu bemessen. Bei dieser auf 999 Exemplare limitierten Grafikkarte handelt es sich um eine marktreife Machbarkeitsstudie, die nutzbare Technologiespitze, ein Sammlerobjekt mit Praxisnutzen. Die Mars II ist nicht nur extrem schnell, sondern auch extrem lang, extrem breit, extrem stromhungrig und extrem teuer. Kurz: Diese Grafikkarte ist nicht an "normale" Enthusiasten gerichtet, sondern an all jene, die etwas Extraordinäres besitzen möchten.
http://www.pcgameshardware.de/aid,842114/Asus-Mars-II-im-Test-Die-extremste-Grafikkarte-der-Welt-Wahnsinn-done-right/Grafikkarte/Test/?page=12
Hallo Jungs!
Ein Kumpel von mir hat vor sich die GTX 560 TI zu holen von ASUS und er hat folgende Frage:
Wo ist der Unterschied zwischen der DC II und der DC II TOP Edition bzw. was macht dieses TOP aus? Nur leere Vermarktungsstrategien oder iwas wirklich sinnvolles?
Greez :)
CRYSISTENSE
14.09.2011, 14:15
Leicht erhöhte Taktraten bei der TOP. Ansonsten keine Unterschiede.
Ich würde die normale DC II nehmen und sie auf den höheren Takt bringen. Da der gleiche Kühler verbaut ist, sollte das absolut kein Problem sein.
moinsen...hab mal ne Frage zum SLI Betrieb...hab mir jetzt 2x 580iger reingejuckt aufn asus p6t v2 deluxe board.
Hab leider keine SLI Brücke...wenn sie beim Zubehör dabei war hab ich sie warscheinlich aus versehn wechgeschmissen oder wat auch immer. Die Leistung is jetzt pervers edel... das SLI funzte auf Anhieb auch ohne Brücke.
Meine Frage is ob eine SLI Bridge noch mehr Leistung rauskitzeln würde, die gibbet ja schon für 10 ocken bei Amazone...
Ovomaltine
03.10.2011, 19:40
moinsen...hab mal ne Frage zum SLI Betrieb...hab mir jetzt 2x 580iger reingejuckt aufn asus p6t v2 deluxe board.
Hab leider keine SLI Brücke...wenn sie beim Zubehör dabei war hab ich sie warscheinlich aus versehn wechgeschmissen oder wat auch immer. Die Leistung is jetzt pervers edel... das SLI funzte auf Anhieb auch ohne Brücke.
Meine Frage is ob eine SLI Bridge noch mehr Leistung rauskitzeln würde, die gibbet ja schon für 10 ocken bei Amazone...
Ohne ist mist, sind ca 5% bis 10%
Kannst dir sonst auch eine bei ww.evga.de bestellen ;-)
MFG
Ovo
Nabend zusammen,
bin kurz davor mir eine GTX570 zu holen. Welche würdet ihr mir da empfehlen (Erfahrungen?)
Tendiere da zur MSI N570GTX Twin Frozr III Power Edition/OC..
Ohne ist mist, sind ca 5% bis 10%
Kannst dir sonst auch eine bei ww.evga.de bestellen ;-)
MFG
Ovo
Oki... danke für den Tip! :grin:
Powered by vBulletin® Version 4.2.5 Copyright ©2025 Adduco Digital e.K. und vBulletin Solutions, Inc. Alle Rechte vorbehalten.