Vielleicht aber auch nicht. Man kann nur abwarten und schauen, was da kommt. Alles andere ist spekulation.
Druckbare Version
ich hab auch nichts anderes gesagt, ich habe nur angedeutet, dass das für so eine PR Abteilung doch grob unlogisch ist, wo sie Grafikkarten von GTX 380 einfach mal auf 480 umbenennen um sich davon was zu erhoffen.
Natürlich "wissen" wir nicht mehr als die Fakten die vorliegen, aber die haben nun mal einen faden Beigeschmack!
kann aber auch sein das sie deswegen keinerlei Benchmark ergebnisse zeigen wollen damit bei der offiziellen vorstellung alle so gespannt darauf sind das es keiner verpassen will weil die spannung halten sie so aufjedenfall größer wen sie dan alles auf einmal bei der offiziellen vorstellung rauslassen was sie haben.
noch nen video
Geforce GTX 480 auf der CeBit 2010 - Leibwächter für die Fermi-Grafikkarte
Nvidia zeigt Samples der kommenden DirectX-11-Geforce GTX 480 nur unter ständiger Bewachung auf der CeBit 2010.
http://www.gamestar.de/img/0.gif http://www.gamestar.de/img/0.gif http://images.idgentertainment.de/im...00356/152x.jpg http://www.gamestar.de/img/gs/white/icon_lupe.gif Geforce GTX 480 auf der CeBit 2010 http://www.gamestar.de/img/0.gif Offiziell beginnt die Cebit 2010 erst heute. GameStar war aber bereits gestern vor Ort, um die ersten Neuigkeiten aufzuspüren. Während der MSI-Pressekonferenz tauchten unvermittelt zwei Nvidia-Mitarbeiter mit einem riesigen, schwarzen PC auf. Im Schlepptau ein Aufpasser von einem Sicherheitsdienst. In dem Rechner soll nach Aussage der Nvidia-Bediensteten sowie von MSIs Standmitarbeiten eine der ersten Geforce GTX 480-Grafikkarten von Nvidia stecken, mit eigenen Augen durften wir die DirectX-11-Grafikkarte jedoch nicht sehen.
http://www.gamestar.de/img/0.gifhttp://www.gamestar.de/img/0.gifhttp://images.idgentertainment.de/im...00357/152x.jpghttp://www.gamestar.de/img/gs/white/icon_lupe.gifGame-Star Chefredakteur Michael Trier wirft einen Blick auf die neue Geforce. Der von Nvidia engagierte Wachmann (mit blauer Krawatte) schaut ihm dabei auf die Finger.http://www.gamestar.de/img/0.gif Der Security Guard darf den Rechner mit Fermi-Karte rund um die Uhr nicht aus den Augen lassen. Ob der ihn auch auf die Toilette mitnimmt, konnten wir nicht klären.
Obwohl mittlerweile fast alle Informationen zur kommenden DirectX-11-Geforce feststehen (mit Ausnahme des finalen Kühlerdesigns sowie der Taktfrequenzen), hält Nvidia die Karte weiterhin unter Verschluss. Nur ein paar Demos sollen im Laufe des Tages gezeigt werden. Nach den uns vorliegenden Informationen hat Nvidia für die gesamte Messe nur vier solcher Fermi-PCs für Partner zur Verfügung - und die stehen bei Asus, MSI, Gigabyte und Zotac.
Auf den Fermi-PCs lief bislang nur die Technik-Demo Supersonic Sled. Auf eine Demonstration von 3D Vision Surround, das den parallelen Betrieb von bis zu drei Monitoren im 3D-Modus erlaubt, verzichtet Nvidia dagegen. Laut unseren Kollegen von der PC-Welt liegt das wahrscheinlich an noch vorhandenen Treiberproblemen.
http://www.gamestar.de/hardware/news...ebit_2010.html
update 02.03.2010 12:33 Uhr:
Zitat:
Wie bereits in den Kommentaren zu lesen war, sind zwei unscharfe Bilder aufgetaucht, die eine GTX 470 zeigen sollen. Diese Fotos lassen jedoch die Kühllösung und die Stromversorgung gut erkennen, die aus zwei 6-Pin-Steckern besteht. Damit würde die Grafikkarte in die Klasse unter 225 Watt fallen.
http://pics.computerbase.de/2/8/6/1/4/2_k.jpg http://pics.computerbase.de/2/8/6/1/4/3_k.jpg
http://www.computerbase.de/news/hard...a_gf100_fermi/
Supermicro zeigt „Supercomputer“ mit 4x Fermi
So richtig will sich Nvidias GF100 auf der Computermesse CeBIT nicht zeigen. Zwar gibt es bei einigen Partnern, darunter zum Beispiel Gigabyte und Zotac, entsprechende Showsysteme, allerdings läuft dort nur eine Techdemo. Bilder von den Karten dürfen wir zudem keine machen.
Bei Supermicro haben wir nun aber rein zufällig einen „Supercomputer“ gesehen, der nicht auf GPUs der GT200-Generation setzt, sondern bereits mit Fermi-Grafikkarten ausgerüstet ist. Gleich vier Tesla-Fermi sind in dem System, das auf den Namen „SS7046GT-TRF“ hört, verbaut. Da wir zuerst nicht glauben wollten, dass es sich um Fermi-Teslas handelt, haben wir nachgefragt. Und Supermicro bestätigte die eigenen Angaben, wobei man aber explizit anmerkte, dass es sich um Prototypen handelt.
http://pics.computerbase.de/2/8/6/3/7/3_m.jpg http://pics.computerbase.de/2/8/6/3/7/5_m.jpg
Das System an sich, basierend auf zwei Xeon-5500-Prozessoren von Intel, sei zwar bereits fertig gestellt, jedoch wartet man derzeit noch auf die Fermi-GPUs. Die „Grafikkarten“ fallen durch einen mächtigen Kühlkörper auf, die Stromversorgung wird durch einen Sechs-Pin- und einen auf der Rückseite versteckten Acht-Pin-Stromstecker gewährleistet. Das System selber soll ohne die Grafikkarten eine Leistungsaufnahme von 400 Watt aufweisen. Interessanterweise ist das Slotblech nicht mit einem DVI-Stecker ausgestattet, obwohl es diesen auf einem Fermi-Tesla eigentlich geben soll. Voraussichtlich ab dem dritten Quartal dieses Jahres soll das Supermicro-Produkt auf dem Markt sein.
http://www.computerbase.de/news/hard...uter_4x_fermi/
im 3DCenter Forum gibt es Bilder einer nackten GTX480.
GeForce GTX 480: Fermi-Grafikchip fotografiertZitat:
Zitat:
Nvidia will seine ersten DirectX-11-Grafikkarten (GeForce GTX 480 und GTX 470) erst am 27. März der Öffentlichkeit präsentieren. Im Rahmen der CeBIT zeigen einige von Nvidias Boardpartnern aber bereits lauffähige GeForce-GTX-480-Systeme – der Blick auf die arbeitenden Karten ist allerdings durch ein geschlossenes Gehäuse versperrt. Dennoch ist es heise online gelungen, eine GeForce GTX 480 in die Hände zu bekommen, auseinanderzubauen und bereits einen Blick auf den Grafikchip zu werfen. Das Package der GTX-480-GPU misst 4,2×4,2 Zentimeter, die Karte 10,5 Zoll. Sie besitzt einen acht- und einen sechspoligen Stromanschluss.
http://www.heise.de/imgs/18/4/8/9/6/...2e82e610b.jpeg
Der Grafikchip einer GeForce GTX 480 im A2-Steppin
http://www.heise.de/imgs/18/4/8/9/6/...ebb0a7498.jpeg
Nach Informationen aus Boardpartner-Kreisen könnte der GTX 480 weniger als 512 Shader-Rechenkerne aufweisen
http://www.heise.de/newsticker/meldu...rt-944353.html
Nvidia bestätigt: Geforce GTX 480 ab 29. März 2010 lieferbar
Zitat:
Neue High-End-Grafikkarten vor der Markteinführung Laut Nvidia werden die ersten Geforce-GTX-480-Grafikkarten Ende März 2010 bei Onlinehändlern eintreffen. Wann das kleinere Fermi-Modell GTX 470 kommt, wurde noch nicht angekündigt.
Der von Nvidias Produktmanager Andrew Fear während einer 3D-Präsentation genannte Termin für die Fermi-Markteinführung ist der 29. März 2010. Ab dann sollen die neuen High-End-Grafikkarten vom Typ Geforce GTX 480 von Nvidias Partnern bei Onlinehändlern bestellt werden können.
http://www.golem.de/1003/73547.html
Wenn das Loch da auch im Referenzdesign ist, dann kann sich Nvidia die Karte sonst wohin schieben ^^
Naja, werde dann sehen ob ich zur 5870 greifen muss ^^
will haben :smile:8-)
http://www.youtube.com/watch?v=gP4aWLkyj_M
leider erst mal nur bilder
Zitat:
Nvidia. .
http://lab501.ro/wp-content/uploads/...85-435x580.jpg
http://lab501.ro/wp-content/uploads/...83-435x580.jpg
http://lab501.ro/wp-content/uploads/...81-580x435.jpg
http://lab501.ro/wp-content/uploads/...78-580x435.jpg
http://lab501.ro/wp-content/uploads/...74-580x435.jpg
http://lab501.ro/wp-content/uploads/...71-580x409.jpg
http://lab501.ro/wp-content/uploads/...65-580x435.jpg
http://lab501.ro/stiri/cebit-2010-gi...ata-de-lansare
neues cebit video
[QUOTEhttp://www.youtube.com/watch?v=6A0HoeA1-Gs][/QUOTE]
Quelle: Golem.deZitat:
Nvidia verliert Versteckspiel um GTX 480 auf der Cebit
Daten, Bilder und Knebelverträge aufgetaucht.
Unter strengen Sicherheitsmassnahmen dürfen einige Hersteller von Grafikkarten Nvidias nächstes Flaggschiff GTX 480 in Hannover zeigen. Gebunden sind sie dabei an einen Vertrag, der genau vorschreibt was wie vorgeführt werden darf - und die interessanten Informationen verbietet. Dennoch gibt es immer mehr Informationen zu den neuen Karten.
Das Unternehmen Nvidia ist stets um volle Kontrolle des Informationsflusses zu seinen Produkten bemüht, und im Moment tut sich der Chiphersteller mit dieser PR-Strategie besonders schwer. Da die GPU GF100 mit Fermi-Architektur, die als erstes auf der Grafikkarte GTX 480 erscheinen soll, mindestens vier Monate verspätet ist, muss Nvidia das Produkt in den Schlagzeilen halten. Ein bisschen neue Informationen sind dazu notwendig, und das macht Nvidia seit Mitte November 2009 mit ganz kleinen Häppchen per viralem Marketing.
Gleichzeitig soll aber nicht zuviel verraten werden, und schon gar nicht das, was die potenziellen Käufer am meisten interessiert: Benchmarks, Taktfrequenzen und Leistungsaufnahme. Und wenn doch etwas davon an die Öffentlichkeit dringt, ist Nvidia sofort um Schadensbegrenzung bemüht.
So war beispielsweise vor kurzem ein Benchmark-Diagramm zur Leistung bei Tesselation mit dem Test Heaven aufgetaucht. Und prompt gab es diese Grafik am ersten Tag der Cebit in einer Präsentation von Nvidia für geladene Journalisten zu sehen: Bis zu doppelt so schnell soll eine GTX 480 gegenüber einer Radeon 5870 sein - aber nur mit Tesselation, andere Werte verriet Produktmanager Andrew Fear nicht. Er gab immerhin mit dem 29. März 2010 erstmals einen konkreten Termin für die Verfügbarkeit der Karte an.
Damit die Grafikkartenhersteller in Hannover für ihre Produkte werben können, müssen sie diese natürlich in irgendeiner Form zeigen dürfen. Nach Informationen von Golem.de geht Nvidia dabei mit einem sehr ungewöhnlichen und komplizierten Verfahren vor.
So sollen die Kartenhersteller erst kurz vor Beginn der Messe komplette PCs - die im übrigen von Alternate gebaut worden sein sollen - mit je einer GTX 480 von Nvidia erhalten haben. Diese Rechner wurden dem Vernehmen nach von einem Sicherheitsunternehmen angeliefert, ein Mitarbeiter dieser Firma hat die Aufgabe, sich stets in unmittelbarer Nähe des PCs aufzuhalten.
Was mit dem Rechner geschehen darf, legt ein Schreiben von Nvidia fest, das den Rechnern beilag. Dieses Dokument liegt Golem.de vor. Demnach darf der Rechner nur so, wie er ist, für Besucher der Messe öffentlich gezeigt werden. Das gilt insbesondere für die installierte Software, bei der nur das Demo "Supersonic Sled" zeigt, was im GF100 steckt. Unbestätigen Angaben zufolge hatte Nvidia auch noch "Need for Speed: Shift" als Demo geplant, rückte aber davon ab, weil sich damit vielleicht Leistungsabschätzungen treffen ließen.
Ausdrücklich verboten ist den offiziell immer noch "Boardpartnern" genannten Firmen, andere Programme als die installierten zu zeigen, oder die Karte in einem anderen Rechner zu betreiben oder sie gar selbst zu zeigen. Folglich fotografierten einige Journalisten durch die Lüftungsschlitze der Rechner, um zumindest einen winzigen Ausschnitt der Platine zeigen zu können, auf welcher der GF100 sitzt.
Manche Pressevertreter wollten dieses Spiel nicht mitspielen, und so fotografierte zuerst Martin Fischer von Heise Online die GPU der GTX 480 - und zwar ohne Kühlkörper. Andere Journalisten wollten noch eins draufsetzen, und so gibt es auf der niederländischen Webseite Tweakers.net Bilder der gesamten Grafikkarte. Sie ist 26,7 Zentimeter lang, verfügt über einen acht- und einen sechspoligen Stromanschluss sowie laut Tweakers.net 1,5 GByte Speicher.
Warum Nvidia die Karten selbst nicht zeigen will, ist angesichts dieser Bilder rätselhaft: Das Gerät sieht serienreif aus, und sichere Rückschlüsse auf die ach so geheimen Daten (Benchmarks, Taktfrequenzen und Leistungsaufnahme) lassen die Aufnahmen auch nicht zu. Dass die GTX 480 maximal 300 Watt aufnehmen darf, ergibt sich schon aus der Tatsache, dass sie bei mehr Energiebedarf die Spezifikationen für PCI-Express-Karten verletzen würde. Zudem hatte Nvidia selbst die Karte schon gezeigt, und dabei waren die selben Strombuchsen zu sehen.
Anderen Quellen auf der Cebit zufolge dreht Nvidia derzeit auch noch an den Taktfrequenzen, und daher ist laut der Bedienungsanleitung für den ersten Messeauftritt der GTX 480 die Diskussion der Takte den Grafikkartenanbietern auch verboten. Mehr noch: Alle Anfragen von Journalisten zu den noch nicht genannten Daten sind unverzüglich an Nvidia weiterzuleiten. Den Firmen, welche die Grafikkarten schließlich verkaufen sollen, ist darüber hinaus auch verboten, mit Pressevertretern selbst Vertraulichkeitsvereinbarungen (NDA) abzuschließen. Dieses Vorgehen ist unüblich, bei Prozessoren beispielsweise können PC-Anbieter in Absprache mit den Chipherstellern durchaus Journalisten vorab über neue Produkte informieren.
In einem Punkt widerspricht Nvidia sich in dem Dokument sogar selbst: Preise und Verfügbarkeit sollen die Kartenhersteller verschweigen. Dennoch gab aber Nvidia am ersten Cebit-Abend den Termin für die Auslieferung der GTX 480 bekannt. Dass der 29. März 2010 stimmt, dürfen die Anbieter von Grafikkarten aber dennoch auch danach eigentlich nicht sagen, sofern sie den Vertraulichkeitsvertrag unterschrieben haben. Auch wenn die Rechtswirksamkeit solcher NDAs in Deutschland umstritten ist, sind die Folgen unangenehm, denn dann gibt es eben kein Demo-System für die Messe.
Fast schon niedlich ist dagegen Nvidias Verbot, keine funktionslosen Muster, so genannte "mechanical samples", von GF100-Karten zu zeigen. Mit einem solchen auch "mockup" genannten Muster war Nvidia bereits im Oktober 2009 auf die Nase gefallen. Die Attrappe wurde schnell als solche entlarvt, was Nvidia dann auch zugeben musste.
Bedenklicher sind da schon andere Angaben. Auf den Bildern der GF100-GPU ist stets "A2" zu lesen, was für das dritte Stepping nach A0 und A1 steht. Ausgeliefert werden soll aber Stepping A3 des Chips - das steckt aber offenbar noch nicht in den Demo-Systemen auf der Cebit.
Folglich gibt es schon Gerüchte, dass die angekündigten 512 Rechenwerke, die für den GTX 480 erwartet wurden, vielleicht nicht alle freigeschaltet werden. Die Produktdifferenzierung durch mehr oder weniger aktive Kerne hat bei Nvidia Tradition. Ebenso ist fraglich, wie Nvidia in nicht einmal vier Wochen genügend A3-GPUs beschaffen will, wenn es jetzt nicht einmal eine Handvoll davon für einen Messeauftritt gibt.
In jedem Fall ist Nvidias Bemühen um volle Kontrolle über Chips, die von anderen an Endkunden verkauft werden sollen, auf der Cebit ein viel diskutiertes Thema der Hardwarebranche. Dass es sich dabei auch nur um virales Marketing handelt, und Nvidia ein vorgebliches Versteckspiel um die GTX 480 mit kalkulierten Indiskretionen im eigenen Sinne sogar gewonnen hat, wird sich erst noch zeigen: Abgerechnet wird erst mit unabhängigen Tests - falls Nvidia diese denn zulässt, und nicht wie früher geschehen, auch Testern die Verfahren und Programme vorschreibt. Alleine ist Nvidia mit solchen Taktiken jedoch nicht: Auch AMD griff auf der Cebit 2007 zu ähnlichen Mitteln für seinen verspäteten R600.
Nvidia Geforce GTX 470 - Erste Benchmarks im Web
http://www.gamestar.de/index.cfm?pid=398&pk=2313164
Sie für mich wiedermal gefälscht aus.
Aber danke für das Posting.
MFG LK
Glaube die benchs ebenfalls nicht. Einfach den release abwarten und Marios benchs^^
EDIT by LKrieger: Marios benches xd - da werden einige kommen sobald ich die in den Händen halte. Jedoch nicht von der 470 ;).
http://www.youtube.com/watch?v=6A0Ho...layer_embedded
Mich reizt 3D immer mehr, allerdings ist es sehr teuer.
Ich warte mal auf die Zukunft.
3D mit sowas ist zu teuer...
2x gtx480 = fast 1000 euro
+
high end cpu (angenommen i7) 250 euro
+
X58 Board 180 euro
+
DDR 3 Ram 120 euro
+
3x 3D Monitore 600-1200 euro
+
nvidia 3d Brille 120 euro
= 2270 - 2870 euro
Sry, aber sowas ist für einen aktiven, nicht reichen Mensch nicht wert... Desweiteren ist die Performance immernoch in meinen Augen zu lahm, wenn man die Spiele mit Max. Auflösung + Max AA, AF + Max. Effekte spielen will.
Ich versteh immer die Leute nicht die mit einem 24 Zoll Monitor - dann noch AA anmachen... Das Bild is eh schon der Hammer - und die Pixel sind wirklich extrem klein (40cm Abstand). Dann noch AA anmachen - is reine Leistungsverschwendung!
Gut dahin wo du gerade gehst - wäre 3d im allergrößten Stil. Man kann auch 3d mit einem 775er Sockel Board und DDR2 auch noch genießen. 2x 280er würde auch schon reichen - oder eine 295. Dann ein 24 Zoll moni - kommste auf ungef 1000. Gut is klar - wenn jemand ein einzelkern CPU hat, dann machts natürlich keinen großen sinn da sone Grafikkarte reinzustopfen. Da muss man aber auch überlegen - wie spielt man Crysis derzeit ;). Da ist auch alles eingeschränkt und bei anderen Spielen auch. Man kann natürlich DANN nicht erwarten alles in 3d zu spielen xD.
Nya muss jeder wissen wie ers macht - ich jedenfalls finds SEEEHR Geil - und ich werde mein zum Test bestelltes Set jetzt wohl nichtmehr zurückschicken.
LOOOL,
Nvidia behauptet, die OEM Hersteller seien schuld, dass sie, Nividia, ständig alte Technik unter neuem Namen verkaufen und somit die Kunden täuschen (Stichwort 8800GT = G92 --> Geforce 9 --> Geforce 240 --> Geforce 340/360).
Sie sehen sich also als "Opfer" statt als Täter.
Ich heul gleich für sie!
http://www.xbitlabs.com/news/video/display/20100304051815_Nvidia_OEMs_Want_Us_to_Re_Brand_Gra phics_Cards.html
nicht ganz on-topic, aber doch sehr Nvidia relevant.
Ich finds krass - du hast hier in diesem Thread noch nicht einwas positives geschrieben - bisher NUR (wirklich NUR) negatives - und geflame. Du weißt doch garnicht was dran is! Aber Hauptsache erstmal meckern. Schön und gut das man davon erfährt (Die Meldung is bisher aber auch nur auf der Seite - die sowieso schon ziemlich unbekannt ist). Deine Meinung is auch ok - aber ich glaube ein jeder hier kann sich vorstellen was du von NV denkst - und das schon nach deinen ersten paar postings ;).
Bitte warte einfach mal ab - und chill down.
MFG LK
Jop das is aber auch massiv! Merks bei mir - 3D zieht gewaltig an der Leistung. Habe ja 3-Way SLI - aber selbst damit kann ichs gerade so noch zocken auf full hd. Ist klar - 3 Monitore und 3D... xd
MFG LK
Nvidias Fermi: Leistung der GeForce GTX 470 enthüllt
Zitat:
Nvidias Fermi-Grafikkarten lassen noch bis Ende März auf sich warten, dennoch liegen heise online exklusiv erste Benchmark-Werte einer Vorabversion der GeForce GTX 470 vor. Demnach liegt die DirectX-11-Grafikkarte im 3DMark Vantage leistungsmäßig zwischen der Radeon HD 5850 und der HD 5870. So erreichte die GTX 470 im 3DMark Vantage (X-Mode) 7511 Punkte, eine Radeon HD 5870 mit 8730 Punkten deutlich mehr. Eine HD 5850 lag bei 6430 Punkten, die GeForce GTX 285 im gleichen Testsystem erreichte 6002 Punkte. In der Performance-Voreinstellung zeigt sich ein ähnliches Bild, jedoch liegt die Radeon HD 5870 (17303) nur noch leicht vor der GeForce GTX 470 (17156). Eine Radeon HD 5850 erreichte 14300 Punkte
Interessant sind insbesondere auch die Ergebnisse des Unigine-Benchmarks, der auf DirectX 11 und Tessellation setzt. Nvidia hatte im Vorfeld angekündigt, die Fermi-Grafikkarten würden mit aktiviertem Tessellation die HD-5800er-Karten deutlich überflügeln. Dies konnten wir mit den vorläufigen Benchmark-Resultaten auf der CeBIT in Hannover nachstellen. So erreichte bei vierfachem Antialiasing die GeForce GTX 470 durchschnittlich 29 Bilder pro Sekunde (fps), eine Radeon HD 5870 rund 27 fps, die HD 5850 nur 22 fps. Bei achtfachem Antialiasing allerdings bricht die Leistung der GeForce GTX 470 stark ein. Sie erreicht dann nur noch 20 fps, eine Radeon HD 5870 ist bei knapp 23 fps deutlich schneller, die Radeon HD 5850 (19 fps) unterliegt nur knapp. Auch in das BIOS der vorläufigen Testkarte konnten wir einen Blick werfen. Die Shader-Rechenkerne liefen dabei mit 1255 MHz, der GDDR5-Speicher mit lediglich 1600 MHz (Read-Write-Clock). Nvidia scheint also den Speicher deutlich langsamer als AMD zu takten, gleicht das jedoch durch die höhere Anzahl an Datenleitungen wieder aus. Jedoch sind die Spezifikationen der Testkarte noch nicht final, daher sind die Testresultate auch mit Vorsicht zu genießen, in der 3D-Leistung sind jedoch keine großen Veränderungen mehr zu erwarten.
http://www.heise.de/newsticker/meldu...lt-946411.html
ps:
http://85.25.184.234/vbulletin/showp...ostcount=14048
http://85.25.184.234/vbulletin/showp...ostcount=14049
http://www.youtube.com/watch?v=vpdPSZB8A8E
das möge daran liegen, dass ja genug Positives hier zu finden ist und etwaige Meldungen auch schon von anderen gepostet werden (löblicherweise) bevor ich sie sehe und damit würde ich nur Doppelposts generieren.... aber das kommt den meisten ja nicht in den Sinn.
eben nicht. Ohne dir zu nahe treten zu wollen, aber warum kann man denn nicht die Positiven wie Negativen Seiten aufzeigen.Zitat:
Zitat von LKrieger
Beim GF100 ist bisher noch nicht viel gesagt oder gezeigt worden, wieso sollte ich dann viel Positives an Nvidia lassen. Falls gedacht wird, dass ich ein AMD oder sonstiger Fanboy sein sei darauf hingewiesen, dass ich aktuell nur Nvidia Grafikkarten im Gebrauch habe, daher ist dem wohl nicht so. Du in diverse Moderatoren hier scheinen wohl immer wieder der Ansicht zu sein, dass das Positive bei der Berichterstattung zu sämtlichen Themen überwiegen sollte. Nochmals, es ist eine Angewohnheit von mir geworden die klare Asymmetrie in den Meinungen in diesem Forum halt etwas auszugleichen.
Zu guter letzt zu dem Link:
Die Handhabe mit der Umbenennerei (von der GF100 ja auch nicht ausgenommen ist 300-->400) ist doch wohl weithin anerkannt als zumindest sehr fragwürdig zu beurteilen, da es offensichtlich keinerlei anderen Grund als Mehverkäufe durch Kundenverwirrung haben kann.
XBitlabs ist eine durchaus kompetente Seite die schon viel älter ist als die ganzen pseudo-kompetenten overclock & co Seiten. Anandtech ist da sicherlich DIE Seite.
Wer aufmerksam Nvidia's Politik im letzten Jahr verfolgt hat weiß auch, dass unabhängige Tester nur noch benachteiligt oder gar gemobbt werden, gefälligst positiv zu berichten. Solche Aktionen lasse ich dann mal jeden selbst bewerten :)
Wenn erste (egal ob positive oder negative) Fakten (!) vorliegen, werde ich auch diese mit Freude hier reinstellen. Wenn die Karte adäquat Mehrleistung bietet werde ich dies wohl kaum schlechtreden, Performance/Watt-mäßig wird dies aber schwer werden. Man darf gespannt sein!
Nvidia Geforce GTX 480 - Offizielle Video-Vorführung
Nvidia hat ein Video auf YouTube gestellt, das eine Geforce GTX 480 in einem High-End-Rechner vorführt.
http://www.gamestar.de/img/0.gif http://www.gamestar.de/img/0.gif http://images.idgentertainment.de/im...00900/152x.jpg http://www.gamestar.de/img/gs/white/icon_lupe.gif Nvidia Geforce GTX 480 http://www.gamestar.de/img/0.gif Die Geforce GTX 480 steckt dabei in einem Rechner mit einem Intel Core i7 960 und 6 GByte DDR3-Speicher. Tom Petersen von Nvidia startet auf diesem System die Software FRAPS zur Anzeige der Bilder pro Sekunde und lässt dann den Unigine Heaven Benchmark laufen.
Der Benchmark nutzt DirectX 11, die Shader-Einstellung high, aktivierte Tessellation, Anisotropische Filterung 1, keine Kantenglättung und eine Auflösung von 1.920 x 1.080. Petersen betont, dass gerade bei Tessellation ein großer Unterschied zwischen der Geforce GTX 480 und der Konkurrenz deutlich wird und gerade darum gehe es bei DirectX 11.
Anschließend ist eine Grafik von Nvidia zu sehen, die eine Radeon HD 5870 mit der Geforce GTX 480 im Verlauf des Benchmarks vergleicht. Dabei erreicht die ATI-Karte nur selten die Bildrate der Geforce. Zum Ende des Videos wird noch 3D Vision Surround vorgeführt.
http://images.idgentertainment.de/im...00901/449x.jpg
http://www.gamestar.de/img/gs/white/icon_lupe.gifNvidia-Grafik mit Benchmark-Verlauf
Quelle:
http://www.gamestar.de/hardware/news...e_gtx_480.html
Ps: Find geil das ich den Monitor schon habe für 3D^^ Das rockt nur^^ Aber 3D Surround finde ich dann doch einwenig übertrieben, aber dennoch cool das es sowas gibt. Ist aber nichts für mich.
Fehlen nur noch 3d Benchs, im Tesla-bereich sind sie wohl schon sehr gut, dennoch gibt es kaum, bzw kein Spiel was dies vordert. Will 3D Benchs!!!!
Boa das is schon krank. Weiß nicht - aber das 3D Surround is mir auch zu krass. Vorallem - Harry das sind 3 mal unsere Monitore :lol:...
kA - aber ich glaube ich könnte mich nicht gleichzeitig auf 3 Monitore konzentrieren.
Aber die Karte is wirklich der Hammer, 2 - wenn der Preis stimmt 3 kommen in Einkaufwagen.
MFG LK
muss schon sagen, beim Heaven Benchmark so auf den Drachen rein und raus zu zoomen bei 1920er Auflösung sieht sehr flüssig aus, das ist definitiv auf den ATI Karten nicht flüssig (getestet), auch bei 1680x1050 nicht.
Da darf man mal gespannt sein, ob die Performance ohne Tesselation nicht doch noch besser ist.
PS: unterstützt CE3 Tesselation? In den videos ist immer nur die Rede von next-gen irgendwas^
Jo ka ob das Supported wird. Aber kann mir schon vorstellen, das die neue Engine bestimmt solche Features auch mitmacht (Achtung Spekulatin xd). Crytek will ja rein technisch schon immer vorne sein ;). Aber wie gesagt Offiziell is noch nix!
MFG LK
Und wenn ich den Kerl richtig verstanden habe war Aniso.Filter auch aus,bzw. auf 1x gestellt.
Update 10.03.2010
http://www.gamestar.de/img/0.gifhttp://www.gamestar.de/img/0.giflZitat:
http://images.idgentertainment.de/im...01367/152x.jpgDer Geforce-Treiber 196.78http://www.gamestar.de/img/0.gif
Die tschechische Seite PC Tuning hat eine Geforce GTX 470 erhalten und versucht, Informationen darüber zu veröffentlichen, ohne das Non-Disclosure-Agreement (NDA) zu brechen. Die Karte besitzt zwei DVI- und einen HDMI-Ausgang und zwei sechspolige PCIe-Stromanschlüsse.
Zu den genauen Taktraten der Karte will man keine Angaben machen, allerdings zeigt ein Screenshot des Treibers, dass der Grafikspeicher mit effektiven 4 GHz betrieben wird. Die weiteren Daten wie 448 CUDA-Cores, 1.280 MByte Speicher und das 320-Bit-Speicherinterface sind keine Überraschung.
Die Treiberversion 196.78 ist laut PC Tuning speziell für die neuen GF100-Geforce-Karten gedacht. Die ID 06C0.01 im Treiber ist bereits seit Version 185.20 vorhanden, die im Januar 2009 erschien. Dies könnte bedeuten, dass Nvidia schon länger als gedacht am GF100 feilt.
http://www.gamestar.de/hardware/news...ce_gtx_470.htm
Weitere Bilder und Benchmarks zur NVIDIA GeForce GTX 470 aufgetaucht
So tauchten nun erneut Bilder des Referenzkühlers auf – dieses Mal aber etwas detaillierter. Demnach kommen insgesamt vier Heatpipes zum Einsatz, die dem Direct-Touch-Prinzip folgen und direkt auf dem Heatpspreader der GPU liegen. Dazu gibt es nicht nur zahlreiche Aluminium-Lamellen, sondern auch einen 70-mm-Lüfter in Radial-Bauweise. Sollte dieser allerdings wirklich unter Volllast mit 1,8 Ampere angesprochen werden, so wäre diese Lösung mit Sicherheit kein Leisetreter. Ansonsten erstreckt sich der Referenzkühler über das gesamte Printed Circuit Board (PCB) und hält Aussparungen für die beiden PCI-Express-Stromstecker sowie für die SLI-Connectoren bereit. Während die NVIDIA GeForce GTX 470 über zwei 6-Pin-PCI-Express-Stecker mit Strom versorgt wird, sollen es beim Flaggschiff hingegen ein 6- und ein 8-Pin-Stecker sein. Auf dem Slotblech werden beide Grafikkarten allerdings nicht nur zwei DVI-Ausgänge bieten, sondern auch einen mini-HDMI-Anschluss für 3DVision Surround. Das jüngst aufgetauchte Modell der NVIDIA GeForce GTX 470 trägt mit "GF100-275-A3" wohl auch schon die Bezeichnung der späteren Verkaufsversion.
http://www.hardwareluxx.de/images/st...7e252cb63e.jpg
Auch weitere Benchmark-Ergebnisse sind nun ans Tageslicht gekommen. So soll die NVIDIA GeForce GTX 470 im DirectX-11-Benchmark Unigine Heaven mit 29,2 FPS bei einer Auflösung von 1920 x 1200 Bildpunkten und 4-fachem AA sowie 16-fachen AF etwas schneller unterwegs gewesen sein, als noch eine ATI Radeon HD 5870 mit 27,1 FPS. Mit 40,99 zu 32,61 durchschnittlichen Bildern pro Sekunde konnte sie sich in Far Cry 2 ebenfalls vor die US-Amerikanische Konkurrenz setzen. Auch in S.T.A.L.K.E.R.: Call of Pripyat konnte sich die GeForce-GTX-400-Karte in drei von vier verschiedenen Durchläufen durchsetzen, auch wenn hier die Unterschiede deutlich geringer ausfallen. Die Auflösung betrug hierbei 2560 x 1600 Bildpunkte.
http://www.hardwareluxx.de/images/st...ec72c0924b.jpg
In den nächsten Tagen dürften sich solche Benchmarks wohl wieder häufen, denn der Start der heiß erwarteten Grafikkartengeneration von NVIDIA steht kurz bevor. So sollen die kommenden 3D-Beschleuniger bereits zur PAX East 2010, welche vom 26. bis 28. März einlädt, offiziell auf den Markt kommen. Die kalifornische Grafikschmiede hat diesen Zeitraum jedenfalls schon bestätigt.
http://www.hardwareluxx.de/index.php...=38&Itemid=101
bild der karte
http://www.pcgameshardware.de/aid,70...57480&vollbild
http://www.pcgameshardware.de/aid,70...57481&vollbild
Auf PCGamesHardware eben gesehen:
Vergleicht man die Karte z.B. mit einer ATI 5850 kommt man auf rund 24,8cm Länge.Zitat:
Der asiatische Hersteller Galaxy, hierzulande unter KFA² bekannt, kündigt auf seiner Homepage den Launch von Fermi an und zeigt passend dazu ein unverfälschtes Bild einer Geforce GTX 470. Dies ist die erste Impression eines Boardpartners von Nvidia - da das offizielle NDA jedoch noch nicht gefallen ist, kann man von einem Leak ausgehen.
http://idisk.me.com/randfee/Public/t...311-124351.jpg
allso ich freu mich schon auf das teil.
8-)
Ich auch, aber nicht, weil ich mir eine der beiden Grafikkarten (GTX470/480) kaufen werde, sondern weil mir das recht passend kommt. Im Mai wenn ich dann anfange mir die Teile zu kaufen werden die Board Partner von nVidia ihre Exemplare fertig haben und die Preise fallen endlich :)
Hm mal schauen wann ich mir die Teile zulegen werde, denke mal so im September - dann sind hoffentlich schon Refreshes da und dann kommt ja bald Crysis 2 - also perfekt ^^
Mfg Scaleo
mhh ich warte nur auf den release auf grund des dadurch erhofften "preissturzes" bei ati....ich hoffe die 5870 verliert nen paar €
du glaubst ernsthaft, dass im September schon Refreshs des GF100 auftauchen? Mein Tip ist eher, dass Fermi erstmal 2-3 Monate braucht um halbwegs lieferbar zu sein. ATi hat viel kleinere (leichter zu fertigende) Chips und kriegt seit 6 Monaten (!) keine Karten herbei...
Ich denke ATI wird zeitnah einen refresh (wahrscheinlich nur leicht höher getaktet) auf den Markt werfen, Ã* la 4870->4890 kommt dann wohl die 5890. Ati hat aber auch ein halbes Jahr Vorsprung. Bis Nvidia nen Refresh hinbekommt vergeht sicher einiges mehr an Zeit!
Das hab ich mir auch lange Zeit gedacht, aber ich befürchte wir haben umsonst gewartet. Die Karten wurden ja immer teurer statt billiger. Die Preise werden höchstens über die Verfügbarkeit fallen aber weder ATI noch Nvidia haben ein Interesse schnell auf die günstigen Preise von 2009 zurückzufallen. Wären ncht die Probleme bei TSMC würde ich glatt darauf tippen, dass die ganze Verknappung künstlich ist um die Preise so hoch zu halten, wahrscheinlich liegt die Wahrheit irgendwo in der Mitte.
^^... oh ja :). Was nicht nur daran liegt, dass der chip neu und viel größer (damit teurer) ist, sondern auch an Nvidias Anspruch. Die haben die Karten immer über ATI positioniert (preislich). 50% Aufpreis für 10-20% Mehrleistung, das geht doch jetzt schon fünf sechs Jahre so. Ich rechne mit mindestens rund 400€ für die 470 und 550€ für die 480. Das deckt sich auch mit den allgemeinen Erwartungen.
Es könnte aber etwas besser kommen, wenn der Chip nicht die Erwartungen der Kunden befriedigt (Benchmarks), was ich weiterhin für sehr wahrscheinlich halte. Mag sein, dass Fermi bei Tesselation Faktor zwei besser ist, aber beim Rest wirds sehr spannend.
wart doch einfach 2 wochen, dann wirst dus ja sehen
Dual Geforce 400 to come later
Zitat:
It looks like dual Fermi won’t be coming anytime soon. A few partners have said that at this time they are not aware that there will be a dual Fermi card and if Nvidia decides to make one, it won't be close to March 27th's single GF100 launch.
Dual Fermi can be expected hopefully towards the end of Q2 2010 and the high thermal dissipation and complexity of cards are few reasons for this postponement. Nvidia would definitely like to have dual cards out, but it might take a little while before it happens.
A good news is that mainstream and entry level Fermi versions should be coming this summer, slightly delayed from its original plan, but for the Dual card, it’s not certain when should it happen. Nvidia is not telling much to us or its partners either.
So in the next few months we guess that Radeon HD 5970 will remain the fastest card around and this is not something that Nvidia and its fearsome Jensen likes. You can be sure that Nvidia is not at all thrilled for this delay, but everything related to Fermi looks quite delayed and definitely doesn't sound like a walk in the park, but apparently it's possible.
http://www.fudzilla.com/content/view/18038/1/
Ja, auf jeden Fall noch Fermi abwarten, die zwei Wochen machen es auch nicht mehr aus! Wenn dann Benchmark-Ergebnisse und Preisempfehlungen stehen ist erstmal klar was Sache ist im Markt für Spiele-Grafikkarten!
Ich tippe, dass ATIs 5850 weiterhin die sweetspot-Karte bleibt. Jedoch finde ich den Preis von 300€+ zuviel, da die Preisempfehlung seitens ATI ja 230€ war. Ich kann mir kaum vorstellen, dass Nvidia die 470GTX für 350€ oder so raushaut. Wie gesagt, kommt alles auf die Leistung der Karten an, darüber wissen wir in zwei Wochen mehr.
Die letzen beiden Seiten waren super^^. Denke bisher in fast allen Punkten genauso. Bin wirklich tierisch gespannt.
Bei mir is es ja so - das ich mir die 480 Karte sowieso mehrmals hole. Ob ich dann mit der Leistung und dem Aufpreis zufrieden bin - und ob es 2 oder mehr Karten werden - entscheidet allein die Leistung. Weil zurückschicken kann man immernoch. Bloß beim derzeitigen Verfügungsrahmen der Chips ists bestimmt schwierig überhaupt an eine Karte zu kommen. Daher aktualisiere ich schon bald alle Stunden Alternate um pünklich ne Vorbestellung abgeben zu können xd. Ich weiß es ist viel zu bald :D
MFG LK
Also am liebsten natürlich 3. Preis und Leistung is allerdings entscheident. Bestellt werden erstmal direkt 2 Karten und eine nachträglich wenns wirklich Hammer ist. Kostet eine schon zu beginn 600 kommen auch "nur" 2 rein. Ich muss nämlich noch Wasserkühler mit 100 Euro pro Stück einrechnen - das heißt eigentlich 700 pro Karte!
Daher eine Karte für 500 zzgl Wakühler und es werden 3.
Aber hoffe natürlich schon das zwei Karten besser sind als mein derzeitiges dreier-Gespann und das auch ohne DX11!
Aber bis die Verkündung der Benches und meine Tests kommen - wird noch einige Zeit vergehen.
MFG LK
Die Karten scheinen unterwegs zu sein...
http://crysis.4thdimension.info/foru...1&d=1268393531
http://crysis.4thdimension.info/foru...1&d=1268393531
http://crysis.4thdimension.info/foru...1&d=1268393531
http://crysis.4thdimension.info/foru...1&d=1268393531http://crysis.4thdimension.info/foru...1&d=1268393531
quelle: PCGH
Naja, wenigstens scheinen sie ihren angepeilten Launch dieses Mal einhalten zu können, freut mich zu hören :)
bleibt die Frage wieviele Karten kommen und mit wie viel Produktionsvolumen in den darauffolgenden Wochen zu rechnen ist. Nur, wenn es jetzt besser läuft als beim HD58xx Start haben wir als Kunden was davon! HD58xx Karten gabs zum Launch auch bei fast jedem Händler.... und dann nix mehr.
Ja, ich freue mich auch mehr, dass die ihre Chips endlich fertig bekommen haben (unabhängig davon, ob die auch schon in der Massenproduktion sind). So können die Partner von nVidia sich schon einmal an die Arbeit machen. Wäre echt ein Traum wenn die Karten am Anfang schon in großen Mengen verfügbar wären, ich erwarte es allerdings nicht ..
Wieso erwarten hier alle, dass der Fermi der Überflieger schlechthin wird? Ich kann mich noch wage an ein früheres Interview mit Nvidia errinnern, wo ausdrücklich gesagt wurde, dass der Schwerpunkt beim Fermi nicht auf überlegene Performance im aktuellen Spielesektor, sondern bei Tesselation und anderen Anwendungsbezogenen Bereichen liegen soll.
Also wer hier ein Monstrum erwartet, wird entäuscht und ist auch selbst Schuld. Nvidias neue Strategie scheint zu sein, ihre GPUs nicht nur auf den Spielesektor zu fixieren, sondern die GPU auch wirklich zu einer GPGPU oder auch GPU (GENERAL Processing Unit) auszubauen. Somit mit dem Ziel, dass die GPU der Zentralchip eines jeden Rechners werden soll und nicht mehr die CPU. Darum auch die ständigen Streitigkeiten mit Intel.
genau das sage ich ja auch und wurde auch schon für die dämpfende Haltung gescholten, aber egal.
Ich erwarte hauptsächlich, dass der release endlich mal den Markt bereinigt und wieder überhaupt einen "Markt" herstellt, damit ich bei welchem Hersteller auch immer, zu einem vernünftigen Preis zuschlagen kann und weiß, dass ich das beste Produkt fürs Geld bekomme. Ich hätte schon lange eine ATI Karte für viel zuviel Geld haben können.
Ist Fermi nicht/kaum performanter in SPIELEN, dann ist die Karte für mich auch keinen Aufpreis wert. Ich brauch zwar wissenschaftlich (auf der Arbeit) jedes Tflop was ich finden kann, aber privat will ich nur Spieleperformance. Ist Fermi also nicht BEDEUTEND schneller werden sie nur unter die-hard Nvidia-Fans (@ Kolga und co, nicht böse gemeint) Kohle bei den Spielern machen können. Da ich auch glaube, dass die Karte nicht sonderlich schneller als die ATIs sein wird erwarte ich Kampfpreise schon Tage nach dem release.
Meine einzige Erwartung ist also: Wiederherstellung einer ordentlichen Marktsituation mit hohem Angebot --> geringem Preis!
ja... was aber einem Kartell gleich käme! Wenn ATI allein als quasi Monopolist sechs Monate die Preise oben hält indem sie die Volumina der Karten gering halten... ok.. .verständlich, aber beide gleichzeitig?! Nvidias Chip ist weit größer als ATIs, wenn sie also ne ordentliche Ausbeute bei TSMC haben, dann hat ATI kein Argument mehr nicht mehr zu liefern.
Trotzdem. Auch ich sehe die Möglichkeit aufgrund der Situation und steigender Speicherpreise, dass wir zurück in die Hochpreisphase von vor 3-4 Jahren schlittern. Ob ich dann überhaupt eine Karte kaufe, weiß ich nicht.
Ehrlich gesagt, ich habe nichts anderes erwartet. Diese Niedrigpreispolitik im letzten Jahr hat selbst ATI nicht gut getan. Klar, wir Kunden freuen uns immer auf niedrige Preise, aber für eine Firma ist das auf lange Sicht meist kontraproduktiv. Und ich sehe da auch keine Monopolstellungen oder irgendwelche Erklärungnöte seitens ATI. Deren Chip ist kleiner, aber nicht weniger komplex. Gerade bei solch einer Komplexität und einem solch kleinem Fertigungsverfahren können schnell irgendwelche Fehler auftreten. Meiner Meinung nach sind beide noch zu früh auf den 40nm Fertigungsschritt umgestiegen, gerade ATI hätte noch locker in 55nm produzieren können, dann gäbe es auch keine Probleme mit der Verfügbarkeit, aber da die Konkurenz, also Nvidia, ebenfalls auf 40nm setzten MUSS, zieht auch ATI nach. Geführt hat das zu der heutigen Angebotslage.
Und ja, es wäre besser, wenn wir unserem Konto bescheid geben, dass es in diesem Jahr mehr leiden muss.
http://www.pcgameshardware.de/aid,70...fikkarte/News/Zitat:
Update vom 12.03.2010
Die amerikanischen Kollegen von Fudzilla wollen aus offiziellen Dokumenten die TDP-Angaben der Geforce GTX 470 und GTX 480 erfahren haben. Die mit zwei 6-Pin-Steckern ausgestattete GTX 470 konsumiert demnach 225 Watt, die GTX 480 mit ihrem 6+8-Pin satte 289 Watt. Beide Modelle liegen damit auf beziehungsweise minimal unter den Werten, welche die PCI-E-Specs erlauben. Für gewöhnlich bewegt sich die reale Leistungsaufnahme in Spielen jedoch spürbar unter der TPD, wir gehen (spekulativ!) von 180 respektive 250 Watt aus.
mit simplem Dreisatz lässt sich dann errrechnen, dass wenn die Nvidia Karten ebenbürtig gut sein wollen (Performance/Watt) sie 25% (GTX470) und ganze 60% (GTX480) schneller sein müssen als die ATI 5870.
Wenn das gelingt bin ich schwer beeindruckt!
Zotac werkelt an übertakteter GTX 480
Zitat:
Noch sind NVIDIAs erste DirectX-11-Grafikkarten GeForce GTX 470 und GTX 480 nicht verfügbar (zumindest die GTX 480 soll jedoch angeblich noch Ende März lieferbar werden). Doch wie die Kollegen von NordicHardware berichten, werkelt mit Zotac bereits mindestens ein Boardpartner an einer GTX 480, die von den Referenzkarten abweichen wird. Konkret soll es sich dabei um ein Modell handeln, das in die bekannte "Amp! Edition"-Reihe eingeordnet wird. Die Karte wird dementsprechend von Haus aus übertaktet werden und soll auch auf einem kompletten Eigendesign von Zotac basieren.
Sollte sich diese individuelle Zotac-Karte bestätigen, ließe das darauf schließen, dass NVIDIA bei der GTX 480 die sonst oft strikte Bindung an das Referenzdesign lockerer handhabt. So würden Boardpartner die Möglichkeit haben, ihre Produkte mehr voneinander abzusetzen und gegebenenfalls durch Übertaktung konkurrenzfähiger zur AMD-Konkurrenz zu machen.
http://www.hardwareluxx.de/index.php...r-gtx-480.html
http://www.shortnews.de/id/806876/Sp...rte-von-Nvidia
Das interessante ist nicht, das hier vermutlich wieder ein Billiggehäuse von Thermaltake in Produktion geht, sondern dieser Satz:
Wer sich noch an EVGA erinnern kann, die vor ca einem viertel jahr das 4-Way SLI Board und 285 Classified released haben - der kann auch darauf kommen, das die neuen Grafikkarten auch im 4-Way SLI laufen könnten.Zitat:
Auch 3-Wege- und Quad-SLI soll möglich sein.
Bin gespannt ob NVidia frei haus schon das neue Feature anbietet oder ob EVGA das wieder nachrüstet bzw es überhaupt kommt. Zumindest glaube ich kaum, das man diese Tech einfach links liegen lässt. Die Benchmarks und die Stabilität bei 4-Way 285 Classified von EVGA war nämlich schon beeindruckend.
MFG LK
Oh man, demnächst kommt noch Penta-SLI, Hexa-SLI, Hepta-SLI, Octa-SLI, usw. Und dann dürfen wir unsere Rechner in der Arktis aufstellen.
Metro 2033 in 3D und Milliarden Polygone: Nvidia demonstriert Power der Geforce GTX 480 live auf der GDC 2010
Zitat:
Metro 2033 in 3D ist noch packender als ohnehin schon: Mit der Geforce GTX 480 zeigt Nvidia auf der GDC 2010 die Leistungsfähigkeit des neuen Grafikkarten-Flaggschiffs. Wir waren vor Ort und haben gestaunt.
Auf der Game Developers Conference will Nvidia vor allem eins: die zahlreich vorhandenen Programmierer von den Vorzügen der eigenen Hard- und Software überzeugen. Das geht am besten mit einigen brandneuen Demos, die auf dem Ende März erscheinenden Hardware-Flaggschiff GTX 480 unter DirectX 11 liefen. Was in einem Spiel passiert, entscheiden in den allermeisten Fällen Designer und Level-Bauer, doch mit welchen Tools das Spiel für welche Grafikkarten und -schnittstellen entwickelt wird, bestimmen zum großen Teil die Programmierer. Diesen will Nvidia in den nächsten Wochen einige Tools in die Hand geben - natürlich nicht ganz uneigennützig, denn Grafikkarten will Nvidia natürlich auch verkaufen.
In 3D: Metro 2033
http://www.pcgames.de/screenshots/18...10/metro_3.jpg
Metro 2033: In 3D noch eindrucksvoller.
Ab nach Russland: Eine GTX 480 zauberte in Verbindung mit Nvidias 3D-Brillen beeindruckende Bilder auf den Monitor. THQs 3D-Shooter Metro 2033 beeindruckte uns mit zahlreichen DirectX-11-Effekten wie Tiefenschärfe-Verwischungen (Depth of Field Blur) und Parkettierungs-Effekten (Tessalation) in Echtzeit - Kanten auf eigentlich runden Elementen wie einer Lampe mussten wir mit der Lupe suchen. Volumetrischer Nebel wirkte in 3D noch einmal so beeindruckend - egal, ob er sich als Pistolenqualm, Rauch oder eben Nebel zeigte. Auf unsere Frage angesprochen, ob DirectX 11 bessere Chancen als der etwas stiefmütterlich behandelte Vorgänger besitze, antwortete der vorführende Nvidia-Mitarbeiter, dass das in der Hand der Entwickler liegt. Also scheint es wieder auf ein Ei-Huhn-Szenario hinauszulaufen, wobei die positiven Kritiken von Windows 7 dem Umstieg etwas mehr Antrieb verpassen dürften.
Tesselation-Demo: Millionen und Milliarden
Reine Technologie-Demos warfen mit den Zahlen nur so um sich. Eine mit DirectX 11 dargestellte Insel-Szene setzte auf statische und dynamische Tessalation und ließ die CPU damit weitestgehend in Ruhe: aus 20,000 vorgegebenen Grundobjekten berechnete eine GTX 480 in der höchsten Detailstufe knapp 1,6 Milliarden Dreiecke pro Sekunde. Die Gras-Animation ließ bis zu 3,5 Millionen Halme im Wind hin- und herschwingen - 48 Millionen Dreiecke pro Frame. Beim Heranzoomen auf die grüne Wiese sorgte einmal mehr die Direct-X-11-eigene Tessalation für mehr Details.
http://www.pcgames.de/screenshots/54...and_before.jpg
Nvidia: Eine Demo-Insel vor dem Einsatz von Tesselation.
http://www.pcgames.de/screenshots/54...land_after.jpg Nvidia: Die gleiche Insel, aber nach dem Einsatz von Tesselation, mit 1,6 Milliarden Polygonen pro Sekunde.
Schüttel dein Haar für mich!
http://www.pcgames.de/screenshots/18..._demo_DX11.jpg
Nvidia: Haare-Demo mit DirectX 11 und der Geforce GTX 480.
Prozedural erzeugtes Gras und Wasser in Ehren, eine Demo einer MTV-gerecht im Wind wehenden Frauenfrisur zog zahlreiche Zuschauer in ihren Bann. Da selbst mit einer GTX 480 die Berechnung jedes einzelnen der etwa 100.000 Haare eines Mitteleuropäers etwas, pardon, haarig wäre, kommen mehrere hundert sogenannter Leit-Strähnen (guide strains) zum Einsatz. Die Haarverläufe zwischen diesen Strähnen wird interpoliert, PhysX sorgt für den natürlichen Fall, abhängig von der Haarlänge und etwaigem Wind, der auf die Frisur bläst. Je nach Entfernung blenden dynamische Level-of-Detail-Routinen Haare aus: Ein etwa fünf Zentimeter großer Kopf lässt die fps-Zahl auf rund 200 ansteigen, während eine bildschirmfüllende Haarpracht diese auf 40 fps reduziert. Das Abschalten von Schatteneffekten bei voller Größe vervierfacht die Bildrate auf 160 fps, sieht natürlich nicht mehr so schick aus. Wie viel Ressourcen diese neuen Haar-Routinen in einer "richtigen" Spielumgebung schlucken, konnte uns der Vorführer nicht sagen. Allerdings wird sich der Frauenkopf wohl nicht von ungefähr vor einem einfarbigen Hintergrund bewegt haben.
Perfekte Kleifung: Neues von APEX
Mit APEX unterstützt Nvidia Entwickler schon seit einiger Zeit dabei, ihre Spiele automatisch auf eine große Reihe von Grafikkarten zu skalieren - Effekte sehen dabei umso besser aus, je mehr Leistungsreserven die Grafikhardware im Rechner besitzt. Mit der auf der GDC präsentierten Funktion namens APEX Clothing legt ein Grafiker fest, welche Teile etwa eines Umhangs im Wind flattern und welche fest am Rest der Kleidung verbleiben sollen - damit dem Helden nicht ein Ende wie in Pixars Kinofilm The Incredibles droht. APEX gibt diese Informationen an die PhysX-Routinen weiter, die dann die Berechnung übernehmen. Das funktionierte in der Demo auch mit Hemdmanschetten und Mantelsäumen, die eine höhere Steifigkeit als der Rest des jeweiligen Kleidungsstückes besitzen.
http://www.pcgames.de/aid,706502/Met...r-GDC-2010/PC/
:shock::shock::shock::shock: boaaaaa diese Grafik is soooo heftig! Wenns so weitergeht haben wir in 20 Jahren reality das von Computern gerendert wird. Heftig das Wasser - boaa.
MFG LK
Sieht fast nach Crysis aus
Von der Rechenpower (via Raytracing) auf jeden Fall realistisch, aber zwei Dinge müssen sich grundlegend ändern:
- Die Erstellung des Content. Soviele Details kann keine Mensch/Firma mehr per Hand generieren. Es muss entweder real aufgenommen werden per 3D Kamera oder viel bessere dynamische Generatoren geben
- Die Ausgabe. Damits wirklich echt wird muss sich an den Displays was tun. Die unnatürliche LCD Hintergrundbeleuchtung muss weg. OLEDs als Eigenleuchter sind da schon besser. "3D" aka Stereobildtechnik ist noch besser, aber ultimativ will das Auge auch wirkliche Tiefe sprich fokussieren können. Das wird der dickste Sprung werden. Im Endeffekt brauchen wir ein schaltbares Hologramm, das wird nicht so einfach (für uns Physiker) aber wenn es fertig ist, wird es geil werden. Prototypen funktionieren, aber nur in Laserlaboren, sind einfarbig und verpixelt :)
Öhmm nur goil, kann kommen und Metro wird gleich in 3D gezoggt. Hammer wie ich mich freu, da wird mein 3xSLI mal wieder gefordert^^ Natürlich warte ich auch gespannt auf die 480 gtx. Übrigens, wer viel Leistung haben will sollte mal meine Sig beachten. 280 bis zu 3xsli im angebot :D
Und ich sags immerwieder wer sich nen Lamborghini kaufen kann, braucht sich über die Spritkosten keine Sorgen machen ;)
MFG LK
wird es eine gt version geben?
Ich denke mal, weil AMD/ATi zurzeit die bessere Marktposition hat und nVidia gut daran tut, schnellstmöglich bessere Alternativen zu releasen und da es halt auch Kunden gibt, die nicht 400 oder mehr für ne Grafikkarte ausgeben wollen (sowie beispielsweise mich :)) gibts eine günstigere (wobei die natürlich immer noch nicht günstig ist) und eine völlig überteuerte High-End Karte ;)
So denke jedenfalls ich :lol:
Man kann das aus 2 Blickwinkeln betrachten: Entweder man kauft sich immer das biligere Modell und muss eben schneller nachrüsten oder kauft sich das Teure und kommt damit länger aus.
Ich z.B. hab mir die 8800 Ultra etwas nach dem release, also fast vor 3 Jahren, gekauft und werde dann die 480 kaufen. Bis jetzt hatte ich noch in keinem Spiel Probleme. Ich stell zwar AA nicht ganz rauf aber das ist meiner Meinung nach sowieso nicht wirklich nötig.
So hat man einfach weniger Ärger.
Ich will damit aber niemanden angreifen.
Von der 480 erwarte ich mir aber vorallem, dass man damit Full HD Material ohne Ruckler schneiden kann (mit der neuen Adobe Engine).
Endlich mal jemand der wegen AA der selben Meinung ist wie ich :). Gut das mit dem schneiden ohne Ruckler kommt dann auch ein wenig auf die Software an. Schneide da aber selber keine Filme mit - kann das also eben nicht beurteilen.
(In deiner Sig steht übrigens Quad-Channel - gibts nicht nur Dual ;) oder DDR3 Tripple)
MFG LK
Ja Ich find das immer witzig wenn manche 16xAA einstellen und das Bild eig gleicht aussieht und alles eben schlecht läuft :). Bei der nativen Auflösung des Monitors merk ich kaum Kanten oder so.....
Ja das mit dem Quad Chanel ist eigenartig... Wenn ich 2 von den 4 Rausnehme geht nix mehr. Bei meinem Mobo steht auch igendwo 4 Channel Memory support also kann ichs mir nicht anders erklären, obwohl man meist sagt Quad Channel ist 2 x Dual Chanel. Außerdem kann ich nur ECC REG Chips reinstecken alles andere wird nicht angenommen. Da mich das jetzt interessiert werd ich mal bei HP nachfragen.
bei Crysis sehe ich aufgrund der Vegetation und deren vielen Kanten auch bei nativer Auflösung sehr viel Geflimmer während ich mich bewege, welches mit AA weg wäre. AA wäre da schon ein riesen Vorteil, weil man dann jede Bewegung aus dem Augenwinkel sieht, wo hingegen man beim Geflimmer öfter zweimal hinschauen muss.
Ich hab leider nicht die Grafikkarte um AA selbst auf niedrigen Auflösungen zu aktivieren. Egal welche Karte ich mir demnächst zulegen werde, ich freu mich auf alle Fäle drauf Spiele endlich mit gutem AF und AA (4x+) spielen zu können. Mal sehen was Nvidia an der AA Performance schrauben konnte, da hat ATI ja mitlerweile mächtig vorgelegt. Kann man die Zeit nicht zwei Wochen vorstellen, ich will Ergebnisse sehen ^^
Vielleicht mit Zeitdilatation (Subjektiv) :-D... Aber ich glaub wir würden alle mal gern Resultate sehen. Besonders interresant finde ich, dass die neue Adobe Premiere Pro Engine mit den Cuda Cores zusammenarbeitet und somit ruckelfreien Full HD Videoschnitt erlaubt (Laut Adobe und Nvidia). Ich glaub zwar nicht, dass der G100 so ein Meilenstein wie G80 wird aber da können wir nur abwarten.
PCGamesHardware.de hat interessante News. So sollen die GTX480 für 450€ zu haben sein. Überdies sind alle gesichteten Chips Revision 3 Chips, anders als die der geleakten Benchmarks, welche von Revision 2 Chips stammten. Daher sind eventuell die Taktraten doch höher als gedacht.
Quelle: pcgameshardware.deZitat:
Zitat von pcgameshardware.de
http://www.gamestar.de/hardware/news...e_gtx_480.html
In meinen Augen zu teuer.
isn ganz normaler Preis für ne brandneue nvidia High End Karte.
450 Euro wären schon okay.
Boa der Preis wäre HAMMERMÄßIG! Da wäre ich dann doch nicht zu arg abgeneigt 3 in den Warenkorb zu packen.
Das mit den Rev 3 Chips ist wirklich interessant - man muss sehen ob die Aussagen stimmen.
Boa der Release sollte langsam mal näher rücken - kanns nimmer erwarten xd :D
MFG LK
Und was willst du dann mit den drei neuen Karten?
Auf Crysis 2 warten? oder einfach nur freuen ne geile Maschine zu haben? :O
Ich will z.b. mal Crysis 1 auf DX10, 16AA, Full hd und 3d spielen und das ohne ein Ruckler kommt (ist jetzt bei weitem nicht möglich). Und für die Zukunft natürlich auch. Leistung braucht man da bei jedem neuen Game. Außerdem liebe ich das Modden und der PC is halt mein "Modding Auto", das manche andere haben und da locker das doppelt und dreifache reinstecken...
MFG LK
Sind eigentlich schon Benchmarks verfügbar?
Keine wirklich aussagekräftigen ;)
Und dann schon mit einem Preis von 450 Mücken einverstanden sein?
Ich erwarte diesmal viel von Nvidia.
Finde ich nicht! Eigentlich ein guter Preis, satt diese Kampfpreise von ATI, die der Firma auf Dauer mehr schaden, als nützen. Nicht zu vergessen sind die Preise, die anfangs für die GTX 280 verlangt wurden und dann relativ schnell gesunken sind. Möglicherweise wird das auch bei der GTX 480 der Fall sein, daher lieber noch 2-3 Monate warten.
Jaja, ich weiß, warten will hier keiner mehr, mir auch eigentlich egal, was ihr mit eurem Geld macht, aber dann meckert später auch nicht, dass ihr euch verarscht vorkommt. Das Geflame um die Preissenkungen bei der GTX 280 ist mir damals schon auf den Sack gegangen.
Gerade gelesen, dass die GTX470 angeblich ca. 299 Euro kosten soll. Die GTX 480 ist mal wieder nur ein Prestige-Objekt, darum auch immer so teuer.