Ich bin auch kein Fanboy.
Habe auch demnächst eine ATI in meinem Sys.
Aber das is doch kein Grund, mich hier in den Intel und Nvidia Threads zu prahlen.
Druckbare Version
Ich bin auch kein Fanboy.
Habe auch demnächst eine ATI in meinem Sys.
Aber das is doch kein Grund, mich hier in den Intel und Nvidia Threads zu prahlen.
Neue Gerüchte um Release - Februar 2010?
http://www.pcgameshardware.de/aid,70...fikkarte/News/
Physx-Test: Radeon dank Physik-Geforce bis zu 7 Mal schneller
http://www.pcgameshardware.de/aid,701321/Physx-Test-Radeon-dank-Physik-Geforce-bis-zu-7-Mal-schneller/Grafikkarte/Test/
LOL.... was ein Gerücht!
na das nenne ich mal eine hübsche Performance. Wenn da was dran ist gibts in ein paar Monaten die ATI 5850 für 140€, die 5870 für 180€ und die 360er für 200-300€. Wenn das mal nicht nur Wunschdenken eines Nvidia Fanboys ist... ^^... oder Nvidia selbst, die ATI das Weihnachtsgeschäft vermasseln wollen, wobei die bzw. TSMC dies schon alleine tun.
http://pics.computerbase.de/2/7/7/5/4/6.jpg
Naja, wir wissen aus Zeiten der 8800GTX, dass solche Sprünge möglich sind, aber solch einen Hammer glaube ich erst wenn ordentliche Tests da sind.
Quelle:
http://www.computerbase.de/news/hard...e_gtx_380_360/
AUF PCGH kann man lesen, dass diese Benchmarks fake sind.
hm, es wäre echt toll, wenn eine GTX360 mind. 10 % schneller wäre als eine HD5870... aber bin skeptisch, da ja ATI in 3/4 Jahr neue Generation verkaufen werden^^
Nvidia to showcase Fermi solutions tomorrow http://www.fudzilla.com/templates/rt...mailButton.png
Zitat:
Nvidia will show off Fermi-based Tesla GPU computing solutions during a 'webinar' scheduled for Thursday.
The event will be presented by Nvidia Compute Solutions Senior Product Manager Sumit Gupta and Nvidia promises 'dramatic performance capabilities', whatever that means.
Nvidia is calling researchers, scientists and other professionals to join the event, and if you fit one of these categories or just have a spare white coat, you can join up here.
Kühler verrät Namen neuer Karten.
http://www.computerbase.de/news/hard..._grafikkarten/
Juhuuu! Keine Namensänderungen mehr :wink:
Was bedeutet denn das Single / Dual / Fanless da hinter den Karten?
Man jetzt wirds aber langsam Zeit etwas offizielles über die Specs zu erfahren und das endlich mal Benchmarks veröffentlich werden :X
Weil dieses ewige "Fermi ist besser / schlechter / genauso gut wie die HD59xx" - Spielchen geht mir auf die nerven.
Mfg Scaleo
Da wird nichts gezeigt werden was Leute in solchen Foren wie hier interessiert. Da gehts um TESLA und das hat mit gaming nichts zu tun. Die single und double performance sind zwar interessant, aber wirklich auf Spiele übertragen lässt sich sowas nicht, besonders nicht mit der doch stark geänderten hardware Struktur!
Ich tippe weiterhin auf Februar für Benchmarks und März/April für die Karten.
Nvidia verspricht hardwareseitige Übertaktungsfunktion bei GF100-Fermi
http://www.pcgameshardware.de/aid,70...fikkarte/News/
Nvidia glaubt: AMDs DirectX-11-Vorsprung ist unbedeutend
http://www.pcgameshardware.de/aid,70...fikkarte/News/Zitat:
Nvidia teilt in letzter Zeit gerne aus: Nach den Comic-Strips, in denen unter anderem gegen Intels Larrabee gestichelt wurde, ließ nun Senior Vice President Michael Hara wissen, dass AMDs Vorsprung bei DirectX-11-Grafikkarten unbedeutend sei. Alle drei bis vier Jahre gäbe es einen großen Umbruch am Grafikkarten-Markt. DirectX 11 sei nur ein kleiner Teil des nächsten Umbruchs.
Naja, da die Grafikkarten von ATi zur Zeit ohnehin kaum verfügbar sind (TSMC) spielt ihr "Vorsprung" wirklich keine große Rolle, aber es bleibt abzuwarten, wie nVidia's Karten ankommen. Ich werd mir auf jeden Fall keine ATi's mehr kaufen, wenn ich mir nächstes Jahr nen neuen PC baue sondern direkt eine nVidia, unabhängig davon, wie viel besser sie sind.
Naja ATi hat immerhin schon 800.000 DX11 Karten ausgeliefert
Und dir Verfügbarkeit wird auch immer besser...
Ich bin der Meinung das Nvidia erstmal zeigen soll was der Fermi wirklich kann, bevor sie ihr Maul (mal wieder) aufreisen...
Edit: @Unter mir
Ganz ehrlich wenn Nvidia jetzt schon wüsste das die Karten soo dermaßen abgehen sollten, wo bleiben dann die Benchmarks?
Durch die könnte Nvidia nämlich viele Menschen davon abhalten eine ATi zu kaufen...
Ich glaub ehrlich gesagt das Nvidia noch Garnichts hat und sie jetzt durch schlecht machen von ATi bzw. DX11 versuchen noch irgendwas zu retten...
Nvidia - Neue Geforce kann Echtzeit-Raytracing?
Zitat:
http://www.gamestar.de/img/0.gif
http://www.gamestar.de/img/0.gif
http://www.gamestar.de/img/0.gif
Über die neuen Geforce-Karten von Nvidia gibt es bisher nach wie vor kaum handfeste Informationen, aber immer wieder Hinweise auf deren Leistungsfähigkeit.
Wie Techradar nun in einem umfangreichen Artikel schreibt, der sich hauptsächlich um die internen Verbesserungen innerhalb des Fermi-Chips kümmert, soll die neue Geforce theoretisch sogar acht Mal schneller sein als die bisher schnellste Geforce-Karte von Nvidia.
In der Praxis würden gewisse Faktoren dafür sorgen, dass dieser Wert nicht ganz erreicht wird, die alten Karten sollen jedoch in Sachen Leistung trotzdem geradezu »zerstört« werden, so Techradar. Inwiefern die jedoch auf die ersten erhältlichen Geforce-Karten zutrifft, ist unklar.
Aber auf die Frage, ob die neue Geforce in der Lage wäre, eine 3D-Welt in Echtzeit für Spiele per Raytracing darzustellen, soll Nvidia mit »Ja« geantwortet haben. Das wäre allerdings eine enorme Leistung.
http://www.gamestar.de/hardware/news...34/nvidia.html
So gerne ich auch sowas höre, steht dahinter leider nichts was dies beweist :X
Mfg Scaleo
was alles immer so behauptet wird... nenene. Auch wenn ich denke, dass die NVidia Karten wohl was schneller werden als die ATIs, jegliches Gerücht dazu sollte man besser nicht ohne wirklichen Test glauben. Theoretische Performance sagt auch hier wie immer rein garnichts drüber aus.
What the... ?! :shock:
Entweder:
a) Diese Karte wird der revolutionärste Fortschritt in der Geschichte der 3D-Grafik
oder
b) NVidia lügt.
Ich erwarte eine Mischung. NVidia wird mit der 7-8-fachen Leistung in jedem Fall lügen, aber selbst wenn es nur 3-Fache Leistung der letzten Generation wäre, wäre das HAMMER :)
Naja. Einfach mal abwarten =)
Ich weiß nicht, aber ich hab im Gefühl das Nvidia doch nicht so arg lügt..klar , aufgrund von Marketing wird immer alle schön geredet, aber aufgrund der Tatsache das sich Nvidia bis jetzt ziemlich zurückgehalten hat und nur sehr wenige Infos released worden sind und Nvidia in letzer Zeit das Maul so weit aufreißt tut sich da noch was. Wäre doch blöd von Nvidia so weit das Maul aufzureisen und am Ende haben wir hier GPU's rumliegen die nicht viel schneller sind..dann wäre Nvidia doch bei vielen unten durch. Es hieß ja auch das sie zwar was länger brauchen, aber dafür würden ihre Produkte sich ergänzen und neue Demensionen schaffen. Ich bin mal gespannt was Nvidia raushaut!
Dann verstehst du die Marketing-Fritzen scheinbar absolut nicht. Selbstverständlich behauptet NVidia, dass ihre neuen Grafikkarten besser sein werden "als alles andere". Das behauptet jeder und immer!
Selbstverständlich posaunen sie dies auch jetzt grade, weil sie etwas hinten dran sind. Damit wollen sie natürlich Leute davon abhalten sich jetzt ATI Karten zu kaufen und dann natürlich Nvidias neue Generation auszulassen. Das ist so sicher wie das Amen in der Kirche und hat rein garnichts mit Tatsachen zu tun, ob ihre Karten wirklich ultragut oder nur so lala sind, absolut nichts.
Trotzdem: Völlig unabhängig wie gut die Nvidia Karten werden, da ATI im Moment (wegen TSMC) nicht liefern kann und hohe Preise für die paar Karten gezahlt werden ist es sicher am cleversten zu warten und zu schauen was die Nvidia Karten bringen. Konkurrenz und hoffentlich auch mehr Verfügbarkeit wird so oder so die Preise drücken und man hat den Vergleich der beiden woraufhin man sich entscheiden kann, egal ob dann ATI oder Nvidia "besser" ist.
Allein von der Die Größe wird Nvidia aber sicher einiges teurer werden und dafür natürlich auch Mehrleistung liefern müssen. Die Frage nach dem besten deal muss, wenn alle Karten auf dem Tisch liegen, dann jeder für sich beantworten.
Fermi muss kürzer treten
Nvidia Fermi: Nvidia reduziert die aktive ALU-Anzahl der Tesla-Karten
Zitat:
Langsam tut sich auch was in Nvidias Fermi-Lager: Zu den Tesla-Compute-Grafikkarten sind die Board-Spezifikationen verfügbar, die den ALU-Takt verraten und belegen, dass nicht alle Kerne der Fermi-GPU genutzt werden.
Nvidias Compute-Grafikkarten Tesla C2050 und C2070 auf Basis der Fermi-Architetkur scheinen mit weniger Rechenkernen auskommen zu müssen: Die GPU mit 512 Kernen kann nur auf 448 zurückgreifen, so die Informationen aus den Board-Spezifikationen bei Nvidia. Hier wird auch der ALU-Takt verraten: 1,25 GHz bzw. 1,40 GHz. Der GDDR5-Speicher soll mit 1,8 bis 2,0 GHz laufen - das passt zu den Gerüchten des 384 Bit breiten Interfaces, welches auch im Dokument genannt wird.
Diese Information öffnet Spekulationen Tür und Tor: Entweder reduziert Nvidia die Zahl der ALUs, um eine TDP von 225 Watt zu erreichen oder die Ausbeute mit voll funktionsfähigen GPUs ist schlicht zu gering. Für die Desktop-Karten aus dem Geforce-Lager dürfte ähnliches zu erwarten sein, um zum einen schwächere Modelle anzubieten und zum anderen den beiden oben genannten Problemen entgegenzuwirken.
http://www.pcgameshardware.de/aid,70...fikkarte/News/
Ich erwarte 4fachen Preis 8)
Ohne Mist, ich würde mich nochnicht so beeindrucken lassen.
1. 7-8 fache Leistung ist einfach viel zu viel. Wird höchsten in 3 Jahren gebraucht und dann is die Karte eh im *****.
2. Es is gelogen. Niemals 7-8 das machen die nur um Kunden hinzuhalten.
der Grund die "aktiven" ALUs zu verringern ist mit Sicherheit in der Ausbeute zu suchen. Pro Fläche gibt es halt Defekt-Wahrscheinlichkeiten. Die sind dann wohl zur Zeit noch so hoch, dass man sich dazu durchringen musste (TSMC, ihr habt ein riesen Schwein, dass ihr Monopolist für den Prozess seid!).
Wenn der Prozess besser wird oder endlich mal ein Konkurrent das satte Geschäft damit wittert würden die Karten (ebenfalls ATI) auch besser und/oder billiger werden...
Damit hast du vollkommen recht! evtl. ist für Overklocker und Biosmodder dann wieder eine Möglichkeit zusätzliche (intakte) Kerne zuzuschalten - was natürlich wieder eine riesen Leistungssteigerung zu folge hätte (Man nehme nur mal den Athlon II X3 ). Alle Kerne werden mit Sicherheit nicht gehen - aber der eine oder andere schon. Glaube kaum das immer 448 ganz sind - könnten auch gut 460 sein...
MFG LK
die werden garantiert abgeschnitten, per laser, da ist dann nix zu holen.
Ich versteh das nicht ganz, wenn die Kerne funktionierend vorhanden sind, warum werden sie dann nicht mit eingebaut?
Nur, weil die Warscheinlichkeit dann höher ist, das ein paar von denen ausfallen?
Also je mehr Kerne, desto instabieler läuft das alles? Oder wie hab ich mir das vorzustellen?
nein, man muss das ja staffeln. Angenommen es gäb 100 Kerne. Dann bietet man ja nicht Produkte mit 99, 98, 97, 96 Kernen etc. an, auch wenn man solche finden wird. Man bietet statt dessen wohl welche mit 100 und mit 80 Kernen an. Wenn dann nur 5 kaputt sind werden trotzdem 15 weitere deaktiviert.
Ähnlich ist das ja auch bei CPUs. Obwohl die Hardware gut genug ist werden da die Multiplikatoren beschnitten, damit man eine mid-range und low-end cpu hat.
Die Gründe hierbei sind klar: Entweder der Riesenchip braucht beim aktuellen Prozess einfach zu viel Strom (sehe ich als garnicht so unwahrscheinlich an) und wird damit zu heiß oder, was sehr wahrscheinlich ist, Die Ausbeute ist zu gering --> chips mit vielen defekten Kernen überwiegen.
Mich wundert ein bisschen, dass ATI dann icht in der Lage ist zahlreiche 5850 zu liefern.... vielleicht ist die Defektrate gar noch höher ^^.
Bis zu 32x AA
Nvidia präsentiert als Fun Fact of the Week in seinem Facebook-Profil neue Infos zu FSAA-Modi. So soll GF100 Fermi einen "brandneuen" Anti-Aliasing-Modus bieten. Mehr als "32x Anti-Aliasing" gibt Nvidia allerdings nicht an, sodass nicht ganz klar ist, wie die Samplingrate zustande kommt. Spekulativ bleibt, ob Nvidia bisher nur über Zusatzprogramme wie Nhancer freischaltbare inoffizielle Modi nun auch offiziell erlaubt oder ob Nvidia einen echten neuen 32x-Modus mit Fermi anbietet.
KLICK:
Wie gut das ich alles was über 4x ist mehr als überflüssig finde, aba naja muss ja jederselbst wissen ;-)
MFG
Ovo
Naja bevor die mit dieser neuen Anti-Aliasing Stufe kommen sollen die doch bitte erstmal die Unterschiede zeigen zu der Stufe dadrunter. Klar ist das das doppelte von 16x aber in meinen Augen eher unwichtig und wieder nur Marketing Strategie die Nvidia da versucht zu fahren!
Das bisher sinnvollste mMn dürfte hier ganz klar 3D, DX11 und Tessellation sein. Alles andere interessiert mich gar nicht und wenn ich nicht so nahe beim Spielen vor der Kiste sitzen würde, sondern eher weit entfernt wie an der Konsole dann bräuchte ich so gut wie kein AA und AF!
Hynix kündigt ersten GDDR5-Speicher mit einer Kapazität von 2 Gb an.
Zitat:
Als einer der ersten Hersteller hat Speicherspezialist Hynix in dieser Woche GDDR5-Speicherchips mit einer Kapazität von 2 Gigabit, also 256 MB, vorgestellt. Die neuen Chips werden bereits im 40-nm-Prozess gefertigt und sollen mit einer Geschwindigkeit von bis zu 7 Gbps arbeiten können. Laut Hersteller soll in Verbindung mit einem 32-Bit-I/O-Interface eine Speicherbandbreite von bis zu 28 GB/s erzielt werden. Obwohl GDDR5-Speicher bislang mit einer Spannung von 1,5 Volt betrieben wurde, sollen die neuen 40-nm-Chips ab sofort mit einer Speicherspannung von 1,35 Volt auskommen. Die neuen Hynix-GDDR5-Speicherchips, welche es bislang mit maximal einem Gigabit gab, sollen bereits im nächsten Jahr in die Massenfertigung gehen. Ab der zweiten Jahreshälfte sollen dann die ersten Grafikkarten mit dem neuen Speicher bestückt werden.
http://www.hardwareluxx.de/index.php...n-2-gb-an.html
Nvidia - Wieder eine Aussage zur neuen Geforce
Zitat:
Luciano Alibrandi erklärte in einem Interview, dass der Fermi-Chip im neuen Jahr erscheinen wird, weil man Treiber und Hardware perfektionieren wolle.
Nvidia Nvidia Fermi verbinde das Beste aus Grafikchip und GPGPU. Aber auch über Tesla werde man erst auf der CES im Januar 2010 wirklich genauere Aussagen machen können.
Fermi werde der schnellste Grafikchip in allen Bereichen sein, dies hätten Leistungstests ergeben. Darüber sei man bei Nvidia glücklich und arbeite nun daran, den Treiber fertigzustellen. Die Treiber sollen »perfekt« sein, um dem Nutzer besonders viel zu bieten.
Die Produktion bei TSMC habe sich verbessert, aber wann die neue Geforce nun auf den Markt kommt, konnte Luciano Alibrandi Donanimhaber ebenfalls nicht verraten.
http://www.gamestar.de/hardware/news...25/nvidia.html
Zitat:
Nichtsdestotrotz zeigt sich NVIDIA noch immer optimistisch. In einem Interview mit den türkischen Kollegen von donaminhaber.com sagte Luciano Alibrandi, Produkt-PR-Direktor bei NVIDIA, dass die Fermi-basierten Grafikkarten zu den schnellsten auf dem Markt erhältlichen Grafikkarten zählen werden. Derzeit teste man den kommenden 3D-Beschleuniger noch intern und freue sich über jedes gute Ergebnis. Sogar eine Dual-GPU-Version sei denkbar. Zwar freue man sich wieder mit dem Halbleiterspezialisten TSMC zusammenzuarbeiten, doch hält man auch Ausschau nach anderen Möglichen, schließlich wolle man keine offen stehen lassen. Zu guter Letzt erwähnte man, dass ION 2 und Tegra 2 kurz vor der Produktvorstellung stünden. Wir freuen uns jedenfalls schon jetzt auf die Consumer Electronics Show in Las Vegas, Anfang nächsten Jahres. Vielleicht wird man dann etwas mehr wissen.
http://www.hardwareluxx.de/index.php...ig-weiter.html
Update:Fermi
Zitat:
Wie der taiwanesische Branchendienst Digitimes heute berichtete, sollen die ersten Fermi-Grafikkarten wohl erst im März 2010 ausgeliefert werden. Im zweiten Quartal 2010 soll mit dem GF104 dann auch ein weiterer Ableger folgen.
Zitat:
Nvidias DirectX 11-Grafikchip Fermi wird wohl erst im März des neuen Jahres ausgeliefert. Das berichtete das taiwanische Branchenmagazin 'DigiTimes' unter Berufung auf Hersteller von Grafikkarten.
Nvidia habe diese über einen entsprechenden Termin informiert. Ursprünglich sollte der Chip bereits im November verfügbar sein. Wegen technischen Problemen musste die Markteinführung allerdings verschoben werden. Auch ein Ausweichtermin zur Unterhaltungselektronik-Messe CES im Januar war allerdings nicht zu halten.
Im März soll nun dem Vernehmen nach der Grafikprozessor Fermi-GF100 in den Handel kommen. Dieser wird in 40-Nanometer-Bauweise hergestellt und arbeitet mit GDDR5-Speichern zusammen. Im zweiten Quartal soll dann die zweite GPU GF104 folgen, die den High End-Markt bedient.
http://winfuture.de/news,52431.html
Soviel nochmal zu Ultra Schnell und Echtzeit-Raytracing blabla berechnung...
Nividia Fermi: Grafikchip langsamer als erwartet - Release im März 2010?
Nvidias Fermi-Grafikchip sorgt fur Furore: Scheinbar sind die Chips weniger leistungsfähig als erwartet. Gerüchten zufolge erfolgt die Veröffentlichung frühestens im März 2010.
Quelle:
MFG
Ovo
Vielleicht sollte Nvidia diese ganzen undichten Stellen mal stopfen und diese Möchtegern Spekulanten sollten Winterschlaf halten. Das geht mir langsam auf die Eier, echt! Ständig muss ich mir auf der Arbeit anhören was Nvidia jetzt schon wieder verspricht oder nicht verspricht, ich höre 8-10 Std. am Tag (Arbeitszeit) fast nur dieses eine Thema von unserem Chef. Langsam kotzt mich Nvidia an, sollen die Karte raus bringen oder einfach die Klappe halten.
So mal nen klein wenig Stunk abgelassen, mir ist langsam eh egal was Nvidia da rausbringt, es wird entäuschend so oder so, diese 3D Bluray Geschichte wird ATI ebenso beherrschen und Tessellation ist für ATI genauso kein Problem. Also wer lange warten will und zu viel Geld aus den Fenster werfen will, so wie mein Chef *hahaha* der soll sich die neue Nvidia ende Februar kaufen.
Naja über die genannten Features die ATi ebenso beherrscht gibt es schon offizielle Stellungnahmen. Das die Nvidia nur noch schlecht werden kann ist wirklich eine Spekulation von mir aber auch kein wunder wenn es erst heißt die neue Graka von Nvidia wird eine immense Leistung haben und dann später heißt es sie wird der Leistung beschnitten. Meiner Meinung nach lohnt sich deshalb ein warten nicht, ein vergleichen dann ebenso wenig, da ATI schon länger mit den neuen Karten auf dem Markt ist. Dennoch wird es sicher so kommen da die Freaks ja immer wieder was brauchen um sich daran aufzugeilen ^^:razz:.
Vielleicht wird darauf die Nvidia Generation ja durchdachter.
Vielleicht ist das 2012 aber auch schon wieder egal^^
Gt300M vorgestellt
http://www.computerbase.de/news/hard...ce-300m-serie/Zitat:
Ohne begleitende Pressemitteilung hat Hersteller Nvidia heimlich, still und leise das Angebot an Grafiklösungen für Notebooks überarbeitet und Informationen zur GeForce-300M-Serie online gestellt. Vermutungen, die wir bereits im September 2009 geäußert hatten, scheinen sich damit zu bestätigen: Bei der neuen Serie handelt es sich in erster Linie um einen Aufguss der GeForce-200M-Modelle.
Die neuen Modelle hören auf die Bezeichnungen GeForce GTS 360M, GeForce GTS 350M (beide High-Performance-Segment), GeForce GT 335M, GeForce GT 330M, GeForce GT 325M (alle Performance-Segment), GeForce 310M und GeForce 305M (beide Mainstream-Segment). Die Versionen GTS 360M und GTS 350M scheinen weitestgehend den Vorgängern 260M und 250M zu entsprechen, die Performance unterscheidet sich kaum bzw. gar nicht.
Die GeForce GT 335M schließt mit 72 Shader-Einheiten hingegen eine bisher im Portfolio klaffende Lücke und besitzt keinen direkt vergleichbaren Vorgänger. Die Versionen 330M und 325M unterscheiden sich von ihren Vorgängern 240M und 230M erneut nur geringfügig. Die Tatsache, dass die GeForce GT 325M (wie erwartet) langsamer als die GeForce GT 230M, die GeForce GT 330M aber schneller als die GeForce GT 240M ist, stiftet darüber hinaus Verwirrung.
Dass die Karten auf dem Vorgänger und nicht auf der für den Desktop-Sektor heiß erwarteten Fermi-Architektur basieren, zeigt auch die Tatsache, dass keine der Grafiklösungen DirectX 11 unterstützt. Da das Enthusiasten-Segment weiterhin den Modellen GeForce GTX 280M und GeForce GTX 260M aus der 200M-Serie vorbehalten bleibt, scheint nicht ausgeschlossen, dass zumindest hier Nachfolger auf Basis der Fermi-Architektur auf dem dem Markt erscheinen werden.
bei Nvidia sitzen echt mal ein paar Hampelmänner. Ich finds extrem frech von den Klappstühlen diesen Chip GT300(m) zu nennen.
der GT300m ist ein umbenannter GT240 und das ist auch nicht mehr als ein G92!
schöner Artikel drüber: http://semiaccurate.com/2009/12/29/n...renamed-gt240/Zitat:
GT300M = GT240 = G215 ~= G92 != Fermi
Das ist nichts als Kundenverarschung. Jeder normal-Denkende erwartet doch dann, dass dahinter was Neues steckt... und das nun schon über drei Generationen hinweg!
Mit Fermi (GT300) hat das nichts zu tun, DX11 hats auch nicht und gehört daher eigentlich auch in den G92-thread (aka 8800GT(s)). Nix für Ungut, sind ja news, aber der Chip ist uralt und das Marketing reiner Betrug!
Speziell zertifiziertes Gehäuse für Nvidias „Fermi“
Zitat:
Im Vorfeld der erwarteten Ankündigung von Nvidias nächster GPU-Generation „Fermi“ hat Thermaltake die Zusammenarbeit mit Nvidia bekannt gegeben, welche sich auf eine spezielle Version des bereits erhältlichen Element V Gehäuses bezieht – das „Element V Nvidia Edition“.
Das Besondere an dieser Sonderedition ist dabei vor allem, dass es aufgrund der gemeinsamen Entwicklung mit Nvidia das erste und einzige Gehäuse sein wird, welches für die kommende Grafikkarten-Generation mit dem Codenamen „Fermi“ zertifiziert ist. Das Gehäuse soll demnach beste Arbeitsbedingungen für die neue Grafikkarten-Generation beim Einsatz von 3-way- oder Quad-SLI schaffen. Hierfür hat man besonderes Augenmerk auf den Luftstrom im Gehäuse gelegt. Auch die Element V Nvidia Edition wird elf 5,25-Zoll-Laufwerksschächte besitzen, von denen beispielsweise sechs für 3,5"-Festplatten und vier für 2,5"-Festplatten vorbereitet sind. Darüber hinaus ist auch bei der Sonderedition das Netzteil am Boden des Gehäuses platziert und die Seitenwand verfügt über den Plug&Play-Lüfter, bei dem man sich keine Sorgen mehr um die Kabelführung beim Öffnen des Gehäuses und das Anschließen des Lüfters machen muss. Über das integrierte Kontrollsystem kann der Benutzer die Lüftergeschwindigkeiten und die Farben der LEDs regeln.
http://pics.computerbase.de/2/7/8/7/2/1_m.jpg
Zusätzlich zu den bekannten, groß dimensionierten Lüftern der Standardversion besitzt die Sonderedition ein „Air-Duct-System“ für die Grafikkarte, welches zusätzliche Kühlung für SLI-Gespanne auf Fermi-Basis liefert. Das System führt und beschleunigt dabei kühle Luft von außerhalb direkt auf die Grafikkarten. Die Element V Nvidia Edition von Thermaltake wird erstmals auf der CES in Las Vegas der Öffentlichkeit in Form eines Prototypen vorgestellt. Genaueres über die geplante Verfügbarkeit und den Preis nannte Thermaltake noch nicht, doch wir werden versuchen, direkt auf der CES nähere Informationen und Bildmaterial zu ergattern.
http://www.computerbase.de/news/hard...nvidias_fermi/
Ist das erbärmlich >.>
Ich krümel mir hier grad einen...
Allein schon dieser Satz
"Das Besondere an dieser Sonderedition ist dabei vor allem, dass es aufgrund der gemeinsamen Entwicklung mit Nvidia das erste und einzige Gehäuse sein wird, welches für die kommende Grafikkarten-Generation mit dem Codenamen „Fermi“ zertifiziert ist"
Tut mir Leid aber darüber kann ich nur lachen
Glaub irgendwie nicht, dass das Gehäuse bessere Bedingungen bietet wie andere gute Gehäuse.
Mfg Scaleo
Update: 4.1.2010: Vorschau auf der CES 2010
Zitat:
Nvidia verkündet auf seiner offiziellen Facebook-Webseite, dass man auf der CES 2010 eine "Sneak Peak" auf der GF100 Fermi am Nvidia-Stand geben wird. Worin diese Vorschau bestehen soll, ist aktuell noch unklar. Eine Live-Demo steht aber zu vermuten.
PC Games Hardware wird selbstverständlich für Sie vor Ort berichten und spätestens am 7.1. herausfinden, worin die Vorschau auf Fermi besteht.
http://www.pcgameshardware.de/aid,69...fikkarte/News/
Update: Neue Bilder des Demosystems plus DX11-Benchmark
http://www.pcgameshardware.de/aid,69...fikkarte/News/
video online
Zitat:
Nvidia bestätigte gegenüber PC Games Hardware, dass man auf der CES eine spezielle Physx-Demo namens Supersonic Sled zeigen wird. Die dort zu sehende Rakete ist nicht nur physikalisch korrekt animierte, sondern bietet auch dazu passenden Rauch; auch die zu zerstörenden Hindernisse sind realistisch modelliert. Die Demo unterstützt DirectX 11 und 3D Vision.
Update: Mittlerweile gibt es auch ein Youtube-Video, das den GF100 beim Einsatz mit dem Unigine-Heaven-DX11-Benchmark zeigt.
http://www.youtube.com/watch?v=gkI-ThRTrPY
http://www.pcgameshardware.de/aid,69...fikkarte/News/
ab ca 19:30mez nvidia pk
live stream läuft schonZitat:
Check back here on Thursday, January 7 at 10:30 AM for the live webcast from NVIDIA’s press conference at CES!”
http://www.nvidia.com/object/ces2010.html
info von
gleich geht es los da.
web cast online
so es kann losgehen.:grin:
Ich bin gespannt:)
geht ab jetzt. in hd
Wo in HD?
10 Zeichen
meinte hiZitat:
Zitat von ;408891
@Black_Death
Mein Gott is das langweilig.^^
das beste kommt wohl am ende.
Der Rechte typ ist aber en Nervöser^^
Hab grad erst angemacht...
Irgendwas spannendes passiert?
nein NOCH nicht.
das ist Tim Sweeney von EPIC
Hm, bis jetzt nicht wirklich was interessantes für mich dabei gewesen .. mal sehen, was noch so kommt. Sonst schau ich mir morgen ne Zusammenfassung an:-)
Für mich ist schluss, viel Spaß noch;)
ne karte habe ich hab in hg kurz gesehen.8-)
Laaaaaaaangweilig. Audi interessiert doch hier wirklich keinen:roll: Da war ja der TEGRA am Anfang noch interessanter.
Wie ist der Name von dem Linken Typen.
Nicht der Audi Mann sondern der andere.
Das ist der CEO von Nvidia, Jen-Hsun Huang
kein 3d im web cast.:lol:
Laggt das bei euch auch so?
lol das wars^^
Waren wirklich nur die 3 Themen:
Tegra
Audi
3D-Vision
das wars :roll:
Naja, wirklich interessant war's jetzt für mich nicht, heißt wohl wieder warten ..
NUja also eigendlich war das für völlig unintressant.
Also 3D Vision Surround ist also die Antwort auf ATI's Eye Finity :smile: Allerdings in 3D :o Allerdings gabs leider keine wirklichen Neuerungen sonst :(
3 Bildschirme 1920x1080 zusammengeschlossen alles in 3D und laut ihm ( wenn ich richtig verstanden habe ) Realtime :o
Das schafft man auch locker mit einer 4890 von der Leistung her! Ich denke ATI wird kontern und mit ihrer Eye Finity Technik Einzug halten. Für wem das allerdings interessant sein soll frag ich mich!? Viel zu teuer sich drei Bildschirme nebst Graka zu kaufen und das nur wegen 3D. Allerdings sicher nett für den Anfang der Technik.
Ich kauf mir wenn es soweit ist ne ordentliche 3D FullHd Glotze und dann geht es ab die Luzy mit der Ps3:lol:
So seh ich das auch, evlt auch schon mit der Ps4 ;-)
Was ich lustig finde is das der Cell CPU noch imma alle Deskop cpus einfach so platt mach von der leistung, bis Intel und AMD da dran kommt vergehen sicher nochmal 2 bis 3 jahre. Letzens erst wieder nen Beenchmark vergleich gesehen...
BTT!
Ich bin zwar gespannt was nvidia rausbringt aber ich denke so dolle wird es nicht werden, die letzen jahre hat sich einfach zu wenig getan in sachen grafik und technik wie ich finde.
Und es lohnt sich einfach nicht sich alle 1 bis zwei jahre ne neue graka für 300 / 600 € zu kaufen, da färhste mit ner konsole echt erheblich besser und billiger...
Aber natürlich Geschmackssache ;-)
MFG
Ovo
Dir ist aber schon klar das du die Cell CPU nicht mit einer Pc CPU vergleichen kannst? Die Architektur ist ganz anders aufgebaut und auch der Aufgabenbereich ist groß wie bei einer Pc CPU. Ich sehe solche Benchmark Vergleiche eher skeptisch gegenüber und stufe sie als unrealistisch ein.
BTT:
Naja die letzten Jahre hat sich eigentlich sehr viel getan, vielleicht nicht unbedingt im Grafik-Sektor weil dort Nvidia sich mit der 8800GTX und später die GTX280 mit wenig Neuerungen auf den Lorbeeren ausruhen konnte. Wobei hier mehr die 8800GTX in den Vordergrund der langen Ruhephase geschoben werden kann. Die Grafikkarte hatte auch richtig viel Power, außer das Spiel Crysis konnte man die Karte kaum bezwingen und fast alle anderen Spiele liefen Butter weich in voller Auflösung.
Intel und AMD wie ich finde, haben schon große Wunder vollbracht. Wie schnell wurden neue/neuartige CPU´s auf den Markt geschmissen. Ich kann mich noch erinnern als ich meinen C2D E6600 hatte, die war richtig schnell und damals auch eine der Top Prozessoren für den bezahlbaren Geldbeutel. Kurze Zeit später kam dann der erste QuadCore Q6600, dann der Q9300, der Q9450, Q9550 usw...! Das sind richtig leckere Prozessoren und die Leistungen haben sich seit dem stark verdoppelt:-D Mit dem Core i5 zeigt Intel das es noch Leistungsfähiger geht und vor alledem Stromsparender. Der Core i7 920 wahr eher oversized!!!!!
AMD hat Anfangs mit dem Phenom X4 9550 Fehler gemacht, was die TDP und die Fehlerhafte Serienstreuung angeht, aber das führt hier nicht zur Sache. Preis und Leistung des Phenom II X4 955er ist einfach nur Hammer und seit vielen Jahren trauen sich endlich auch wieder Gamer auf die Seite von AMD und das zurecht wie ich finde.:-D
p.s. Das mit der Konsole stimme ich dir zu, das jährliche wett aufrüsten bringt keinem was, höchstens denen die eh zu viel Geld in den Taschen oder auf der Bank haben und nicht wissen was sie damit anstellen sollen oder den Hardcore Overlockern!
Am besten fährt man wenn man seinen Pc vor ca. 1 Jahr aufgerüstet hat auf einen QuadCore und eine mittel starke Grafikkarte verbaut hat, daneben eine PS3 oder Xbox360 und fertig
Ende^^
Update: 8.1.2010
Zitat:
Offenbar zeigt Nvidia nicht nur ein Single-GF100-System, sondern auch eine Triple-SLI-Konfiguration. Entsprechende Bilder sind bei den Kollegen von HWupgrade zu finden.
http://www.hwupgrade.it/news/skvideo...oni_31216.html
Das GF100-Triple-System wird wassergekühlt und arbeitet zusammen mit einem EVGA X58-Mainboard und einem unbekannten Core-i7-Prozessor.
Zum Release-Termin gibt es ebenfalls Neuigkeiten. PCGH-Reporter Roland Austinat wohnte der Keynote von Nvidia-Chef Huang bei, der die Serienproduktion von GF100 Fermi bestätigt wurde. Bei der Vorführung von 3D Vision Surround kam Avatar auf drei Bildschirmen zum Einsatz - angeblich auf einer GF100-Karte. Unklar ist noch, worauf sich der Release-Termin "Q1" bezieht. Damit könnte unter Umständen auch das erste Finanzquartal von Nvidia gemeint sein, das vom 26.1. bis 26.4. geht.
video
http://www.tvtech.it/video/546/nvidia-fermi-al-ces/
http://www.pcgameshardware.de/aid,69...fikkarte/News/
http://www.youtube.com/watch?v=KMSC2iUAa28
das macht einfach alles keinen Sinn!
Wenn die Fermi Karten wirklich deutlich schneller wären als die ATI 5870, dann würden sie, darauf könnt ihr euren ***** verwetten, Benchmarks zeigen welche daran keinerlei Zweifel lassen würden. Während AMD, wenn auch gebremst, ständig Karten sogar zu weit höheren Preisen verkauft als sie angekündigt wurden (wegen der Nachfrage) hat NVidia nichts. Hätten sie was in der Hand und/oder wüssten, dass die Fermi Karten DEUTLICH performanter sind, dann würden sie doch kräftigst an der Werbetrommel drehen um potentielle Kunden zurückzuhalten AMD zu kaufen.
aber nö, sie zeigen nichts, obwohl sie Karten fertig haben. Ist jedenfalls für mich ein fast sicheres Zeichen dafür, dass die Karten nicht das bringen was sie sich erhofft haben. 15% Theoretischer Performance haben sie ja schon mal fallen gelassen indem sie von 512 auf 448 Shader gestutzt haben.
Ich find die neuen Features (Tess, DX11, 3D Surround, NVIDIA Parallel DataCache, 32x anti-aliasing, ECC Support...) schon überwältigend. Allein daher werd ich da wohl wieder meine kribbelnden Finger nicht vom Bestell button halten können :D.
Da die Leistung eh um einiges besser ist als beim G200 (was ja mehr als absehbar ist) - wirds wohl (wenns korrekt ist) im Q1 noch ein neues Gespann bei mir geben... Hoffe die Wasserkühler (die in dem Video gezeigt werden) sind dann auch verfügbar. Waren ja beim G200 (wenn ich mich recht erinnere) auch schon vor dessen Release verfügbar.
MFG LK
CES 2010: NVIDIA zeigt Fermi, spricht aber nicht darüber
Zitat:
Eigentlich hatten wir uns von dem heutigen Termin mit NVIDIA etwas mehr erwartet. Bereits auf der gestrigen Pressekonferenz hielt sich Jen-Hsun Huang aber sehr knapp beim Thema Fermi bzw. GF100. Zumindest aber konnte man einige lauffähige Karten präsentieren. Dabei ging es allerdings weniger um die Leistungsfähigkeit der neuen Architektur, als vielmehr um die Präsentation von 3D Vision Surround. In einer Demo wurde dies mittels zweier GF100-Grafikkarten präsentiert, die an drei Beamer angeschlossen sind und im SLI betrieben werden. Die Beamer sind in der Lage das Bild in 120 Hz auszugeben. Über die bereits bekannte 3D Vision Technologie entsteht dann das 3D-Bild.
Für uns aber viel wichtiger war die Tatsache, dass zwei GF100-Grafikkarten eingesetzt werden. Allerdings ist NVIDIA sehr darauf bedachte, dass keine Bilder der Karten selbst gemacht werden. Anhand der externen Anschlüsse wird aber recht schnell klar, dass NVIDIA bei den Anschlüssen einen eher konservativen Weg geht. Zwei DVI scheinen die Standard-Möglichkeit für den Anschluss von Displays oder Beamer zu sein. Anhang der Tatsache, dass 3D Vision Surround aber bis zu drei Monitore unterstützt, stellten wir uns natürlich die Frage, ob NVIDIA nicht auch eine GF100 mit mehr als den üblichen zwei DVI-Anschlüssen anbieten wird. Klare Antwort von NVIDIA: Nein! Auch die neuen GF100-Grafikkarten werden allesamt nur zwei DVI-Anschlüsse bieten. NVIDIA sieht DisplayPort noch nicht für das Jahr 2010, schließt allerdings nicht aus, dass es später auch mal eine entsprechende Option dafür geben könnte. Ob eine Karte auch in der Lage ist mehr als zwei Displays anzusteuern, bleibt unklar, halten wir aber durchaus für möglich.
http://www.hardwareluxx.de/images/st...66fc0ff393.jpg
Auf den Bilder sind die zwei DVI-Anschlüsse auch zu sehen, wenngleich wir uns für die Qualität der Bilder entschuldigen müssen. NVIDIA macht es einem nicht leicht entsprechende Fotos zu schießen.
http://www.hardwareluxx.de/images/st...bbefa4b2a5.jpg
Auf einem weiteren Demo-System mit gleich drei wassergekühlten GF100-Grafikkarten im 3-Way-SLI wurde dann auch eine DirectX-11-Demo gezeigt, welche das Leistungspontenzial der neuen Architektur unterstreichen soll. Auch hier haben wir versucht einige Fotos der Karte selbst zu machen, allerdings auch hier machte man es uns nicht einfach und so ist nicht wirklich etwas wichtiges zu erkennen.
http://www.hardwareluxx.de/images/st...b6cbe8fd77.jpg
Zum Abschluss versuchte NVIDIA noch einmal seine Strategie hinter der bisherigen Entwicklung rund um die GF100 zu erklären. So gäbe es noch keinerlei Verzögerungen bei der Entwicklung. Fermi bzw. GF100 sei für das 1. Quartal 2010 geplant und würde dann auch veröffentlicht werden. Auch könne man die Aufregung nicht nachvollziehen, die Meldungen rund um Fermi immer wieder nach sich ziehen. Besonders verwundert ist man über die Gerüchteküche, die immer wieder technische Daten aus dubiosen Quellen beziehe. Ebenfalls nicht nachvollziehbar seien Schlussfolgerungen, die aus der Präsentation der Tesla-Generation auf Fermi-Basis getroffen werden. Tesla und GF100 seien zwei völlig unterschiedliche Produkte, die keinerlei Verbindung untereinander erlauben. Die Spezifikationen könnten nicht so einfach miteinander verglichen werden.
Pünktlich zur CeBit will NVIDIA mit den ersten Fermi-Grafikkarten für den Desktop-Markt aufwarten können. Ebenfalls geht man davon aus, zum Launch auch ausreichende Stückzahlen der Karten liefern zu können. Ein Seitenhieb auf AMD, deren neue DirectX-11-Grafikkarten über Wochen und Monate nicht lieferbar waren. Allerdings hat AMD den Vorteil nun eine ebenso lange Zeit die schnellsten Karten am Markt zu haben.
http://www.hardwareluxx.de/index.php...-darueber.html
eine DX11 demo mit einem übertakteten triple SLI Verbund ist ja dermaßen aussagekräftig....
man man, ich kann nur unterstreichen was ich gestern sagte. Wenn die Karten wirklich so performant wären wie sie's gerne hätten würden sie garantiert benchmarks zeigen und sich mit AMD vergleichen um weiter potentielle Kunden zu halten. Nichts über die performance zu sagen und die "Strategie nochmal zu erklären" heißt für mich, man will die general purpose GPU-Eigenschaften hervorheben, da die Performance nicht berauschend ist.
Welchen Grund könnten sie denn haben eine tolle Performance weiter zu verschweigen, obwohl sie nun schon mehr boards haben statt nur der wenigen samples von vor Monaten. Die Tatsache, dass sie so lange schon chips/boards haben spricht auch nicht dafür, dass die Treiber noch im alpha Stadium sind, ein weiterer Grund weniger, warum sie sich trotz guter performance zurückhalten könnten.
Man darf gespannt sein, aber irgendwas ist faul... Das Nvidia wie ich's kenn hätte der Kundenbindung willens längst gesagt: "unsere Karte ist aber 50% schneller, ha".
noch ein hd video