Hasta la Vista XFX!
Druckbare Version
Wohooo wer hätte das gedacht! Nya bin jetzt sowieso mehr auf EVGA - is einfach genial mit der Garantie auch nach Wakü Umbau...
MFG LK
Da steht aber was anderes ;)Zitat:
Zitat von Gamestar.de
Mal schauen was jetzt stimmt.
Quelle
Mfg Scaleo
http://www.pcgameshardware.de/aid,70...fikkarte/News/Zitat:
Update: 14.1.2010
Am Nvidia-Stand zeigte man GF100 auf Fermi-Basis in Aktion: Neben der Demo-Maschine, auf der die Techdemo "Supersonic Sled" lief, war auch ein Rechner ausgestellt, der auf drei Monitoren in 3D-Stereo mit jeweils 1.920 x 1.080 den aktuellen Need-for-Speed-Teil "Shift" renderte. Dazu war allerdings ein GF100-SLI-Setup notwendig - allerdings können wir Ihnen zurzeit nicht verraten, an welchem der möglichen Gründe das lag:
- Eine GF100-Fermi-Grafikkarte könnte (im Gegensatz zu AMDs Radeon HD-5000-Reihe) lediglich über herkömmliche zwei anstelle der drei nötigen Display-Ausgänge verfügen.
- Eine GF100-Fermi-Grafikkarte allein könnte zu wenig Leistung aufbringen, um die nötigen 3 x 2 x 1920 x 1080 Pixel für drei Full-HD-Monitore in 3D-Stereo zu versorgen.
In der Galerie sehen Sie einige Bilder von 3D Vision Surround in Aktion.
Da 1) irgendwie einen ziemlichen Nachteil gegenüber der aktuellen HD Reihe von nVidia (auch wenn nur Prestige-seitig) darstellen würde, würde ich vom Gefühl her sagen, dass 2) der Fall ist.
Wie war das früher vor Eyefinity eigentlich? Da gab es ja auch Setups mit 3 LCDs (Triple-Head-2-Go oder so ähnlich)
alle infos
Zitat:
http://www.hardwareluxx.de/community...postcount=1280
Nvidia ist offenbar mächtig sauer aufgrund des leaks und der Videos davon auf YoutubeZitat:
Some FC2 numbers from a slightly overclocked Core i7-920 setup with a stock Radeon HD 5870 board, tested with the same benchmark settings as seen from the video leak:
Zitat:
Average Framerate - 73.92 vs. 84.18, Fermi wins by 12.2%
Maximum Framerate - 111.01 vs. 125.84, Fermi wins by 12.8%
Minimum Framerate - 54.55 vs. 65.21, Fermi wins by 16.4%
Zitat:
Das ganze wurde wiedermal falsch abgelesen!
Schaut euch nochmal genau den Test an. Die ATI hat 73 fps aber das als max und die Fermi hat um die 81-84 fps AVG (soweit man erkennen kann)!!!
Die haben die avg Werte von der Fermi mit den max werten der ATI verglichen! Schaut euch die beiden Bilder an (von dem Video ausgeschnitten!)
Demnach ergäbe das einen Performanceschub der
AVG Werte von ca. 68% und nicht 12!
Max Werte einen Schub von ca. 71%
Min Werte ca. 71%
Nvidia_____________________ATI
http://www.abload.de/thumb/fermibmsq.jpg http://www.abload.de/thumb/58701vvn.jpg
(Leistung ist natürlich nach dem Video bemessen - ist das Video gefakte - ist meine Erläuterung das ebenfalls!)
Übrigens sehr beeindruckend die Demos - vorallem das mit dem Haar - wird auch ma Zeit das die Technologie da ist.
MFG LK
^^ Das wäre in der Tat Wahnsinn! Aber ich denke man kann in dem Metier leider kaum etwas bis garnichts glauben bevor es nicht eine vernünftige Quelle dafür gibt.
Bei einer solchen Performance wäre aber auch klar, was passiert. Nvidia GTX360 Karten ab 350+€, 380er für 400+€, ATI 5870 für 250+€ und damit Nvidia trotzdem breit aus dem Geschäft gekickt, weil der Mainstream sie nicht kaufen kann will, da selbst zwei Drittel der Gamer die Performance nicht brauchen. Wir Crysis Leute wären natürlich elektrisiert ^^.
So oder so, egal wie die Performance wird, der GT300 wird deutlich teurer werden wie die ATIs, allein wegen der Chipfläche. Im Stromverbrauch braucht er ja auch gut 60% mehr (unter Last) und daher wäre eine Mehr-Performance die nicht so hoch ausfällt auch schon wieder eine Niederlage.
Man darf gespannt sein!
hm, dann bin ich ja gespannt ob Benchmarks dabei rum-kommen. Normalerweise berichten einschlägige Seiten ja bereits vor NDA Edne, dass sie Hardware haben und schon getestet haben, um die Interessierten vorzeitig anzulocken. Dergleichen hab ich aber die Tage nirgends gelesen (blind?).
Ist jedenfalls gut, wenn sich da mal was tut, es wird Zeit!
Ähm......Loop1 von Nvidia hat ca. 2500frames und braucht 31 oder 51 sekunden(ich kanns nicht genau entziffern)
Loop1 von ATI hat ca. 4200frames und braucht 51sek.
Wieso sind die unterschiedlich?
Schlechter Vergleich finde ich.
@xeonsys
auch wenn man mit den ATI Karten hätte gut nen Rechner bauen können. Ich hätte wohl längst eine 5850, wenn ich eine für die eigentlich Preisempfehlung bekommen hätte, so aber nicht. Naja wer weiß, vielleicht haut die neue GeForce alles in die Tonne und ich freu mich am Ende noch nicht aufgerüstet zu haben.... so oder so bekomme ich dann wohl im März April was neues!
PS: noch ein Danke war eigentlich nicht gewollt, hab mich verklickt ^^
Ich glaube ihr werft die Werte die ihr da abgelesen habt durcheinander.
Kann bitte nochmal jemand erklären welche Bilder jetzt zu welcher Graka gehören?
Denn so wies hier gepostet wurde hat der Fermi 51fps avg. und die ATI 71 avg.
Irgendwas ist hier durcheinander.
Auf dem Video hat der linke Monitor ca.80fps avg. und der rechte ca. 50fps. avg.
Und für die Demo mit dem Auto wurden 3 Fermi im SLI benutzt,wird im Video auch gesagt.
Das Video vom Farcry bench,sind das beides Fermi?
Weil was ich auch noch nicht verstehe warum die zwei Benches unterschiedlich viele Frames haben.Also maximale Anzahl gerenderter Frames.
Ist schon echt blöd wenn sowas ohne richtige Infos in Umlauf kommt.
OK nochmal ganz langsam...
Also du siehst doch die beiden Monis nebeneinander. Der linke is der aufdem der Bench mit Fermi läuft (startet in mit in die 70 rein). Auf dem rechten Monitor ist zu sehen wie die 5870 am rendern ist (da ist der start bei ca 44 fps).
Am Ende ist zu erkennen (die Werte mit der Gelben Spalte sind von allen Läufen der Durchschnitt!) das die Werte auf dem ersten Moni (NV) eben um einiges höher liegen als auf dem 2. (ATI). Allerdings so wie das angegeben wird das 12% bei FC2 erwartet werden da die ATI 72 fps haben soll stimmt nicht. Das ist nämlich der MAX Wert und nicht der durchschnittliche. Daher ist die Prozentrechnung Falsch und NV liegt eigentlich um 68% vorne.
MFG LK
Jo,nu hbs ich verstanden^^ ;)
Währe schon cool wenns mit nur einer Karte wäre.
Nuja,werden wohl demnächst noch mehr benches dann kommen wenn die NDA fällt.
Spätestens dann wissen wirs genau.
Komisch nur das einer mit ner 5870 diese Werte beim gleichen Benchmark mit gleichen Settings raus bekommen hat (der nutzt zwar nen übertaktet i920, aber Nvidia hat bei dem Benchmark mit ihrer Grafikkarte sicherlich auch nicht den schwächsten Prozessor genutzt):
Und wenn du diese Werte nimmst kommst du auch auf die Prozente, die auf der letzten Seite von xeonsys gepostet wurden :wink:Zitat:
5870:
Average Framerate - 73.92
Maximum Framerate - 111.01
Minimum Framerate - 54.55
Quelle: http://forum.beyond3d.com/showpost.p...&postcount=268
Zitat:
Average Framerate, Fermi wins by 12.2%
Maximum Framerate, Fermi wins by 12.8%
Minimum Framerate , Fermi wins by 16.4%
kurz gefasst.
GTX 360 (448 Cuda Cores) @ 140 FPSZitat:
gtx 380 :
512 CUDA cores
384-bit si
1.5GB GDDR5
8 + 6 pin stromanschluss -> 250-300watt tdp
gtx 360 :
448 CUDA cores
320-bit si
1,28GB GDDR5
6+6 PIN stromanschluss
http://www.donanimhaber.com/Bekleyis...iyor-17596.htm
Im 3dmark vantage soll die gtx 380 wohl 20% schneller als eine hd5870 sein.
http://www.hardwareluxx.de/community...postcount=1357
a GF100 card (possibly GTX 360 with 448 cuda cores) running a live ray tracing demo , the card score 3 times better than GTX285 card (the other system) .
far cry 2 running on a GF100 card (GTX 360 and 448 cuda cores) , Ultra high , DX10 , 1920x1200 4XAA , at 84 Avg FPS .
Da kann ich nur eins sagen: Let's get the Party started!:lol:
Naja. Wenn die Werte tatsächlich stimmen sollten dann.... :o
Ich denke allerdings mal, dass NVidia sicherlich erstmal teurer sein wird als ATI, aber die werden sich ja wohl kaum selbst ausknocken oder? :roll: Ich schätze mal wenn so viel mehr Leistung kommt, dann wird auch mitgerechnet werden im Marketing bei denen, sodass eben die Karten nicht zu teuer werden ;)
Naja. Mal schauen :)
Hui, dann werd ich erstma auf ne Karte sparen oder vllt auch 2 :lol:
Bin dann mal auf "richtige" Benchmarks gespannt.
Mfg Scaleo
Dein Kommentar is genauso glaubwürdig wie der Benchmark selbst:-o
Edit:
@Tig3r0023 (einen Post nach mir)
Und wie?
Schau: Ich zweifle nicht daran, dass der Benchmark nicht original ist sondern nur daran, wie du versuchst, mir das weiß zu machen;-)
Wenn du also handfeste Beweise hast, die den Benchmark als unecht entlarven, geb ich Ruhe.
Und für die raytracing Demo wurden 3Karten im SLI benutzt.
Das wird in dem geleakten Video gesagt.
Im Titel des neuen Video steht 1card ray tracing.
Läuft allerdings dann auch nur mit nem halben frame.
Achja,und nicht denken ich wäre nen ATI Fan oder so.
Die Fermi Karte darf ruhig schneller sein,belebt schließlich das Geschäft :)
:lol:ohne worte.
und computerbase.de ab 6:00 uhr morgensZitat:
Morgen früh lohnt es sich womöglich, bei PCGH reinzusehen, um mehr über das Thema zu erfahren.
http://www.pcgameshardware.de/aid,69...fikkarte/News/
Im Mediamarkt Prospekt wurde schon ein PC mit ner 320er angeboten 8-O
wtf
NVIDIA was at PDX LAN 2010 to show off our new GF100 GPU. Just before the stage presentation, Tom Petersen offered to give out some free gear to the hungry crowd.
Attention gamers of the Northwest! We are at PDX LAN this weekend with GF100 in the wild. Someone in the audience will win one. It could be you!
Fermi GF100 im Technik-TÜV: Kommentare zu Architekturdetails, Bildqualität und Benchmarks
Zitat:
Der einzige Game-Benchmark, welchen wir live mitverfolgen konnten, war ein Duell im integrierten Far-Cry-2-Benchmarktool gegen die Geforce GTX 285 (rechter Monitor). Die Einstellungen in Full-HD-Auflösung standen auf dem jeweiligen Maximum der einzelnen Settings, zusätzlich aktivierte man 4x FSAA und 16:1 AF - letzteres im Treiber.
Die Ergebniss im Klartext
GF100 / Fermi:
Min-Fps: 52,32
Avg-Fps: 77,64
Geforce GTX 285:
Min-Fps: 30,38
Avg-Fps: 38,33
http://www.pcgameshardware.de/aid,70...e/Test/?page=3
Fermi / GF100: Wann kommen welche Karten?
Laut Nvidia befinden sich die Fermi-GPUs per 10. Januar in "voller Produktion", nachdem man nach eigenen Angaben bereits 10 Millionen 40nm-GPUs ausgeliefert habe. Nvidia wünschte sich zwar, Fermi bereits früher ausliefern zu können, kann oder will aber derzeit keine Aussage zur Verfügbarkeit machen. Auch die Namen der Karte hält man genauso geheim, wie die Pläne zur Modellvielfalt und die Preise zum Launch.
Unser derzeitiger Tipp: Im März werden die ersten Karten verfügbar sein, es wird zwei Modelle geben: Eine "Vollausstattung" und eine abgespeckte Version mit 448 oder 480 Shader-Einheiten (1 oder 2 deaktivierten SMs) und einem 320 Bit Speicherinterface und 1.280 Megabyte Videospeicher. Vielleicht heisst das komplette Modell Geforce GTX 380, die kleinere Schwester dann GTX 360. Die Preise dürften bei 500 und mehr Euro für die große und vielleicht 350 bis 400 Euro für die kleinere Version liegen - je nachdem, wo sie sich in Sachen Fps-Leistung gegenüber der Radeon-HD-Reihe positionieren.
Fermi / GF100: Versionen
Die folgenden Modelle sind eine Einschätzung von PC Games Hardware, da Nvidia bislang weder Taktraten noch Modellvielfalt ankündigen möchte. Die Angaben können sich daher durchaus als unrichtig herausstellen und sind daher ohne jegliche Gewähr.
"Geforce GTX 380"
• 4 GPCs mit 512 Shader-ALUs (Cuda-Cores) und 64 TMUs
• 384 Bit Speicheranbindung mit 48 ROPs
• 1.536 MiByte GDDR5-RAM
• 1x 6-Pin & 1x 8-Pin Stromanschluss (>225 bis 300 Watt möglich)
• Taktraten (optimistisch!): ~750/1.500/2.400 MHz für GPU-/Shader- und GDDR5-Takt
"Geforce GTX 360"
• 4 GPCs mit 448 Shader-ALUs (Cuda-Cores) und 56 TMUs
(2 Shader-Multiprozessoren mit je 4 TMUs deaktiviert)
• 320 Bit Speicheranbindung mit 40 ROPs
• 1.280 MiByte GDDR5-RAM
• 2x 6-Pin Stromanschluss (>150 bis 225 Watt möglich)
Um angesichts der 40nm-Probleme bei der Chipschmiede die Modularität der Architektur auszunutzen und damit möglichst viele Chips zu retten, ist theoretisch außerdem noch eine dritte Version denkbar.Hier stellt sich allerdings die Frage, inwieweit sich das vermutlich teure Boarddesign und die Platinenkosten angesichts der zu erzielenden Verkaufspreise noch lohnen würde. Andererseits hat AMD mit der HD 2900 GT vorgemacht, dass es nicht unmöglich ist. Ob eine solche oder ähnliche Minimal-Version herauskommt, hängt wohl maßgeblich mit der Ausbeute an Chips ab, die TSMC und Nvidia erzielen können und die sich noch als eines der oben genannten Modelle verkaufen lassen.
"Geforce GTX 3xx"
• 3 GPCs mit 384 Shader-ALUs (Cuda-Cores) und 48 TMUs
• 256 Bit Speicheranbindung mit 32 ROPs
• 1.024 MiByte GDDR5-RAM
• 2x 6-Pin Stromanschluss (>150 bis 225 Watt möglich)
Fermi / GF100: Technik-Fazit
Auf dem Papier klingen die Verbesserungen, welche Nvidia im Fermi auch für die Grafikseite integriert hat, sinnvoll und vielversprechend: Insbesondere die mehrfach ausgelegten Geometrieeinheiten und die multiplen, unabhängigen Rasterizer sind überfällig, da sie einen Bereich angehen, der bislang nur durch Steigerung der Taktraten verbessert worden ist.
Die (von Nvidia ausgewählten!) Benchmarks unterstreichen dieses Bild zum jetzigen Zeitpunkt und zeigen den Chip zum Teil deutlich vor Geforce GTX 285 und Radeon HD 5870 - welche jedoch sicherlich nicht im gleichen Preisbereich anzusiedeln sind.
Nun muss Nvidia noch zweierlei tun: Die Grafikkarten auf Fermi-Basis auf den Markt bringen und zeigen, dass die Theorie auch in die Praxis umgesetzt werden kann, dann dürfte AMD zumindest im Single-Chip-High-End die derzeit redlich verdiente Krone wieder loswerden. Gegen die HD 5970 wird es von der Crossfire-Skalierung abhängen, wer vorn liegt.
http://www.pcgameshardware.de/aid,70...fikkarte/Test/
Bericht: Nvidia GF100: Technische Details
Zitat:
Schlusswort
Das ist er nun also, der GF100, der voraussichtlich unter dem Namen GeForce GTX 360 sowie GeForce GTX 380 in den Handel kommen wird. Zumindest von der technischen Seite und das auch nur so weit, wie Nvidia mit dem heutigen Tage zugelassen hat. Mehr gibt es leider immer noch nicht vom GF100 zu sehen – eine verspätete Sneak Preview halt.
Nach Sichtung der uns zur Verfügung gestellten Materialien hat der GF100 eines sicherlich: Potenzial. Nvidia hat sich viel mit der GPU vorgenommen und seit längerer Zeit (seit dem G80) wieder eine neue Architektur eingeführt, die vieles anders als der Vorgänger macht. Damit ist ein gutes Abschneiden des GF100 für Nvidia allerdings doppelt wichtig. Denn die Kalifornier werden diese Architektur nicht nur in der kommenden Generation sondern zumindest in den Grundzügen die nächsten Jahre benutzen müssen.
Die technischen Details der kommenden High-End-Karten lesen sich eindrucksvoll. 512 Shadereinheiten, 64 Textureinheiten mit einer eigenen, hoch gezüchteten Taktdomäne, 48 ROPs und ein 384 Bit breites Speicherinterface mit GDDR5 wird der GF100 bieten. Noch interessanter sind aber die internen Änderungen an der Architektur, die ohne Karte nur schwer zu bewerten ist. Ob die von Nvidia heraus gegebenen Benchmarks in der Praxis wieder zu finden sein werden, wird sich auch erst noch zeigen müssen.
Was bleibt nach dem heutigen Tage? Wir sind gespannt. Die Technik des GF100 verspricht viel auf dem Papier. Am Ende heißt es aber vorerst weiter: Warten. Näher gekommen sind die Karten dem Markt mit dem heutigen Tage nicht. Und noch etwas werden wir tun: Hoffen. Hoffen darauf, dass der GF100 am Ende auch das hält, was er verspricht. Und dass ihm Aspekte wie die Leistungsaufnahme und die Geräuschentwicklung am Ende keinen Strich durch die Rechnung machen. Sobald Karten verfügbar sind, werden wir uns gerne selbst ein Bild davon machen.
http://www.computerbase.de/artikel/h...ische_details/
Glaube ist 1 neues Video dabei.
Wenn nicht ist es nochmal eine gute Zusammenfassung.
http://www.pcgameshardware.de/aid,70...fikkarte/News/
ROPs und Speicherinterface
Zitat:
...Mit die wichtigste Modifizierung betrifft das acht-fache Anti-Aliasing, das auf dem GF100 deutlich schneller als auf dem GT200 laufen soll, der unter dieser Einstellung noch einen recht hohen Performanceverlust erleidet...Der GF100 ist in der Testsequenz (Hinweis meinerseits: Benchmark in Hawx) mit aktivierter vierfachen Kantenglättung 60 Prozent schneller als ein GT200. Wird die Kantenglättung auf 8xMSAA erhöht, beträgt die Geschwindigkeitssteigerung dagegen gleich 130 Prozent. Der Geschwindigkeitsverlust des GF100 soll bei geringen neun Prozent liegen, wenn 8xMSAA anstatt 4xMSAA zum Einsatz kommt.
Darüber hinaus gibt es einen neuen Anti-Aliasing-Modus: 32xCSAA, das das flotte (wenn auch nicht ganz so hübsche) Coverage-Sampling-AA nutzt. Der Modus setzt sich aus 8xMSAA sowie 24 zusätzlichen CSAA-Samples zusammen. Möglich wird dieser wahrscheinlich nur durch die drastische Steigerung der 8xMSAA-Performance. Gleichzeitig wurde das Transparency-MSAA erweitert, das nun auch auf CSAA-Samples das Transparency-AA anwendet und so Alpha-Test-Texturen besser bearbeiten kann.
Einen Benchmark (Age of Conan) gibt es zum 32xCSAA auch: Das Spiel soll nur noch sieben Prozent gegenüber dem herkömmlichen 8xMSAA verlieren und dabei gleichzeitig sichtbar besser aussehen.
3D Vision Surround
Mit der Radeon-HD-5000-Serie führte ATi die Eyefinity-Technologie an. Mit deren Hilfe ist es möglich, mehr als nur zwei Monitore gleichzeitig an einer Grafikkarte zu betreiben. Dies bietet nicht nur im Office-Bereich Vorteile, sondern funktioniert genauso gut in Spielen und gibt dem Kunden ein deutlich intensiveres Spielerlebnis. Es war nur eine Frage der Zeit, bis Nvidia mit einer Konkurrenztechnologie kontert.
Und so führen die Kalifornier mit dem GF100 3D Vision Surround ein, das noch einen drauf setzt soll. Denn so wird es mit dem GF100 nicht nur möglich sein, drei Bildschirme zu betreiben und darauf zu spielen. Gleichzeitig kann zusätzlich die 3D-Brille 3D Vision (falls vorhanden) angeschaltet werden und die Spiele laufen dann in Stereoscopic 3D. Doch hat 3D Vision Surround auch einen Nachteil gegenüber Eyefinity: Während bei der ATi-Umsetzung eine Grafikkarte ausreicht, müssen es bei Nvidia mindestens zwei 3D-Beschleuniger sein. Das gilt auch, wenn 3D abgeschaltet wird. Wir vermuten, dass dies mit einer zu geringen Anzahl an TMDS-Transmittern im GF100 begründet ist, da eine einzelne Karte nur zwei Monitore ansteuern kann. Mehr als drei Monitore scheinen zudem nicht gleichzeitig in Spielen zu funktionieren.
Bei 3D Vision Surround inklusive 3D liegt die maximale Auflösung aller Displays bei 1920x1200. Wird 3D abgeschaltet, erhöht sich diese auf 2560x1600. 3D Vision Surround unterstützt eine Bezel-Korrektur. Diese sorgt dafür, dass die Ränder der Monitore in das Spielgeschehen mit ein gerechnet werden, um so ein realistischeres Spielgefühl zu geben. Ohne Bezel würden die Ränder ignoriert und damit würde das Bild am zweiten Monitor direkt dort wieder anfangen, wo es am ersten aufgehört hat.
http://www.computerbase.de/artikel/h...ision_surround
Hört sich gut an, villt werden ich nächstes Jahr meine 2 GTX285 gegen sie tauschen..aber mal schauen. Das mit dem 3d reizt mich aber grade :D
na mal warten bis die karten kommen.
Zitat:
Die gezeigten Fermi-Grafikkarten (s. Bild oben) sind ebenfalls noch nicht final und werden zur endgültigen Produktreife wahrscheinlich noch einmal neu designed. Auch liefen die Lüfter mit einer festgelegten Drehzahl, eine Lüftersteuerung war nicht aktiviert. Aussagen zur Geräusch- und Wärmeentwicklung der Karten entbehren somit jeder Grundlage.
http://www.pcgameshardware.de/aid,70...fikkarte/Test/
Wie ich vermutet habe gabs nur heiße Luft heute. Auf Anandtech und anderen guten Seiten gibts zwar einies zur Architektur, aber wie diese Seiten auch schreiben ist das reine Verzögerungstaktik, weil sie noch immer nicht in die Gänge kommen.
Damit bewahrheitet sich meine Vermutung. Vor April wird das alles nichts... Da zu Beginn die Karte eh sofort ausverkauft und dann überteuert ist.
Naja, Hauptsache sie machen sich gegenseitig mal was Druck bei den Preisen. ATI zurück zu den Einführungspreisen und Nvidia nen guten Batzen runter von dem was jetzt so vermutet wird. 350-400€ für die GTX360, pff, viel zu viel, aber bei dem riesen Chip verständlich.
Omann - ich war noch nie so ungeduldig auf eine Kartengeneration zu warten. Das Teil wird so heftig - sprachlos...
Bin aber auch mal gespannt wenn wirklich alle Details bekannt sind. CEBIT ich komme 8-).
_____________________________________
EDIT:
NVidia G100 Technologie Review:
http://www.guru3d.com/article/nvidia...ology-preview/
MFG LK
Nvidia-CEO glaubt: Aktuelle PCs haben ihre Anziehungskraft verloren
Zitat:
Laut Nvidia-Chef Jen-Hsun Huang haben heutige Computer gegenüber früheren Generationen aufgrund zu ausgereifter Technik an Anziehungskraft verloren. Dies könne sich durch die neuesten GPUs aus eigenem Haus demnächst wieder ändern.
http://www.pcgameshardware.de/screen...ikkarte_03.JPG
Die so vielbeschworene digitale Revolution ist für viele Anwender schon zur Realität geworden - wenn überhaupt, dann gleicht die aktuelle Entwicklung eher einer digitalen Evolution. Nvidia-CEO Jen-Hsun Huang greift diesen Umstand in einem aktuellen Gespräch mit der BBC auf und fordert eine fortschrittlichere Bedienbarkeit, um den heutigen Computern ihre seiner Ansicht verloren gegangene "Magie" wiederzugeben. Hier einige Aussagen aus einem Artikel der BBC."The computer that we know of today has lost its magic in the sense that the technology has become rather mature and that is one of the reasons the PC has stopped amazing us. [...] The computer would simply know that it is me sitting in front of it. I wouldn't need to type in a password. It would know it's me based on what it sees of me, the way I am acting and talking. These kinds of capabilities are certainly within the next generation, because we have created a processor for the GPU that makes it possible to do parallel processing so much faster on a PC. We think this GPU technology is going to transform computing in a way that will bring back the magic to consumers"Demnach sei es mithilfe von Nvidia-Grafikprozessoren der neuesten Generation (siehe dazu auch "Fermi GF100 im Technik-TÜV: Kommentare zu Architekturdetails, Bildqualität und Benchmarks") und GPU-Computing möglich, beispielsweise die Passwort-Eingabe durch ein audio-visuelles Erkennungssystem zu ersetzen.
http://www.pcgameshardware.de/aid,70...fikkarte/News/
Nvidia Supersonic Sled
http://www.gamestar.de/hardware/prax...onic_sled.html
Ich weiß nicht ob es schon gepostet wurde , aber trotzdem mal hierher:
http://www.nvidia.de/object/gf100_de.html
die sollen die raytracing demo mal rausrücken,damit ich es mal mit meiner 5970 testen kann und mir ein eigenes bild machen kann.
TSMC hat angeblich seine Probleme im Griff die 40nm Produktion betreffend. Damit sollte das Produktionsvolumen mal endlich steigen. Damit auch die Verfügbarkeit der ATI Karten und damit hoffentlich auch die Fermi Produktion!
http://www.computerbase.de/news/hard...0-nm-probleme/
wie viel wird der GPU denn etwa kosten
28nm:smile:
Zitat:
http://www.gamestar.de/img/0.gif
http://www.gamestar.de/img/0.gif
http://www.gamestar.de/img/0.gif
http://www.gamestar.de/img/0.gif
TSMC wirft seinen Blick inzwischen auf die nächste Stufe und hat angekündigt, bereits im 3. Quartal 2010 mit der Produktion in 28nm zu beginnen. Gerüchte gehen davon aus, das AMD dies für seine Refresh-Karten bereits nutzen wird und so wesentlich höhere Taktraten erzielen könnte – falls diesmal nicht wieder enorme Probleme auftreten.
http://www.gamestar.de/hardware/news...fikkarten.html
und es geht weiter
Zitat:
Außerdem wurde bei dieser Festlichkeit das kürzlich fertiggestellte Produktionsgebäude Phase 5 eingeweiht, worin ab dem dritten Quartal des laufenden Jahres die Massenproduktion von 28-nm-Chips beginnen soll. Zusätzlich plane man eine weitere Produktionsstätte, Phase 6, wo zukünftig die 22-nm-Produktion vorgesehen sei, so Liu.
http://www.computerbase.de/news/hard...40-nm-probleme
infos zur mass production der GF100
Zitat:
We know that mass production of GF100 boards will initialize in first week of February, with other AIB partners following in second, third and fourth week of February.
http://www.brightsideofnews.com/news...-analysis.aspx
Doch im Februar?
Zitat:
Sofern man den neusten Gerüchten Glauben schenken kann, gibt es an dieser Stelle neben einer positiven auch eine durchwachsene Nachricht über die kommende Grafikkarten-Generation von NVIDIA zu berichten. Die schlechte zuerst: Den Informationen auf Fudzilla.com zufolge soll Fermi nicht nur zu den komplexesten Chips zählen, sondern sich auch zu den heißesten Single-GPU-Karten seiner Art gesellen. Während die ATI Radeon HD 5870 über eine Thermal Design Power (TDP) von 188 Watt verfügt, soll das kommende High-End-Modell von NVIDIA hingegen die 200-Watt-Marke erreichen. Böse Zungen sprechen sogar von deutlich mehr. Dass eine so hohe Leistungsaufnahme allerdings kein allzu große Hürde darstellt, hat AMD mit seiner ATI Radeon HD 5970, deren TDP bei 294 Watt liegt, eindrucksvoll bewiesen.
Weiterhin ließ die stets gut bediente Gerüchteküche heute verlauten, dass das Warten bald ein Ende haben könnte. Demnach sollte die nächste NVIDIA-Generation schon im Februar an den Mann gebracht werden. Wie gewohnt werden sich die Boardpartner zu Beginn allerdings noch an die Vorgaben der kalifornischen Grafikschmiede halten und erst später am Design feilen. Ein Quartal später sollen dann die Mainstream-Modelle folgen. NVIDIA selbst bestätigte diese Angaben nicht und verweist weiter auf seine jüngste Enthüllung (wir berichteten).
http://www.hardwareluxx.de/index.php...m-februar.html
Flüssigkeitssimulation.
http://www.youtube.com/watch?v=UYIPg...layer_embedded
http://www.pcgameshardware.de/aid,69...fikkarte/News/Zitat:
Update 22.01.2010:
Erneut ist ein Video aufgetaucht, welches die GF100/Fermi in Aktion zeigt. Dieses Mal muss der Chip eine Simulation von Flüssigkeit berechnen, bei der mittels Smoothed Particle Hydrodynamics (SPH) 128.000 Partikel genutzt werden, um eine Flüssigkeit ein einem Quader zu nachzustellen. In einer Präsentation auf der GF100-Vorstellung (Link zum PCGH-Bericht) gab Nvidia an, bei diesem Test eine Leistungssteigerung von GTX 285 auf GF100 von 67 zu 141 Fps erreicht zu haben. Zum Vergleich: Das Physx-Spiel Crystasis von 2009 simulierte rund 30.000 Partikelinteraktionen für seine Wasserdarstellung und erreichte bei weitem nicht diese Fps-Zahlen. Auf einer GTX 285, die Spiel und Physx ohne separaten Beschleuniger darstellen musste, erreichte PC Games Hardware im Cryostasis Physx-Test (Link) rund 40 Fps.
Übertaktungsprobleme behoben.
http://www.pcgameshardware.de/aid,70...fikkarte/News/
Nvidia - Erste fertige Karten im Februar
Quelle:
http://www.gamestar.de/index.cfm?pid=398&pk=2312093
Na dann werde ich mal mein 3xSLI verkaufen gehen ( wer interesse hat, PN ;) me).
Werde wohl auf die 380 von EVGA warten und dann zuschlagen.
ein paar videos.
Zitat:
http://www.hardwareluxx.de/community...postcount=2020
http://www.youtube.com/watch?v=-XfbU...eature=channel
http://www.youtube.com/watch?v=_734d...eature=channel
http://www.youtube.com/watch?v=rqW2J...eature=channel
Tessellation u Hair Demo
http://www.youtube.com/watch?v=_So-0mr_uf0&NR=1
http://www.youtube.com/watch?v=ygzWJ...eature=channel
http://www.youtube.com/watch?v=jf-rH...eature=channel
http://www.youtube.com/watch?v=7nWJp...eature=channel
http://www.youtube.com/watch?v=f9Hk3...eature=channel
http://www.youtube.com/watch?v=Qj9ol...eature=channel
http://www.youtube.com/watch?v=v8_HQ...eature=channel
http://www.youtube.com/watch?v=E1-_e...eature=channel
http://www.youtube.com/watch?v=ktmvb...eature=channel
Dark Void
http://www.youtube.com/watch?v=A9Oxr...eature=channel
http://www.youtube.com/watch?v=Tj1x8...eature=channel
Rocket Sled
http://www.youtube.com/watch?v=asGFM...eature=channel
Kanns kaum erwarten solch ein Baby mal in den Händen halten zukönnen! Absolut umwerfend was das Baby darstellen kann und ich hoffe, dass alles auch so eintritt wie gesagt wurde. Wahrscheinlich wird Fermi eine weitere Tür Punkto grafischer Qualität öffnen, aber dies ist doch irgendwie mit Vorsicht zugenießen. Ich meine, es wird von Tessellation geredet, schön und gut, aber was nützt es wenn der Inhalt neu ist und die Verpackung alt bleibt.
Momentan ist es zwar beeindruckend, was geplant wird, aber Skepsis ist wohl begründet.
also mich haut die jetzt nicht so vom hocker...
die Fluiddemo lief garantiert in nem Tripple oder Quad sli system =) also wird der nurmal user der sich auch ab und zu mal was zu essen kaufen muss und nicht bei mama wohnt und sein ganzes geld für 7 grafikkarten ausgeben kann eh nie zu sehen bekommen...zumindest so flüssig
und das mit dem meer...naja...hat nix mit der karte zu tun aber das meer sieht sch*** aus. wirkt wie nen Crysis meer wo man einfach die sichtweite und die wellen höhe erweitert hat.. und wieviel performance das verbraucht wissen wir alle...sogut wie keine
NEIN ICH BIN KEIN ATI FANBOY!
wenn nvidia mal wieder was NEUES rausbringt wo man sich auch sicher sein kann das es kein einfach neu gelabelter chip ist und dann auch noch PL stimmt wechsel ich auch wieder da hin aber im moment sehe ich keinen grund da die 5*** von ati zwar im moment schlecht leiferbar ist aber instgesammt BIS JETZT eindeutig das bessere P/L verhältnis hat.
Nvidia works on second generation Fermi
Weiß jetzt nicht was du da mit P/L von dir gibst, da es die Teile noch nichtmal zu kaufen gibt :roll:
Bis jetzt sind jegliche Preise spekulationen - klar ich erwarte jetzt nicht das sie billig sind, aber wie gesagt die Teile gibt es nichtmal ansatzweise zu kaufen.
Woher willst du den wissen was fürn Rechner da eingesetzt wurde ?
Ausserdem wird in dieser Physic-Demo nur das mögliche gezeigt, bis man ansatzweise physikalisch korrekt berechnetes Wasser in einer vielzahl von Games sieht, vergehen ehh noch ein paar Jährchen.
Hm weiß jetzt nicht ob ich das gut oder schlecht finden, soll
Na ja schauen wa mal was die neue GF leistet, wann ich mir zwei davon leisten kann und ob es dann nicht sinnvoller ist auf den Refresh zu warten.
Mfg Scaleo
Egal wie gut die Karten auch werden, dank der Konsolengeneration wird sich in sachen Grafik in Spielen erstmal eh kaum was verändern die nächsten 2 jahre,
vorher kommt keine neue Konsolengeneration raus und da 80% aller Spiele Konsolen importierungen sind ist es eh wayne was NVidia bzw ATI rausbringt...
Natürlich ein wenig schade für die PCler, aba so ist das nunmal...
MFG
Ovo
Weil vor 2012 defintiv Sony und MS keine neue Konsole rausbringt, es gibt noch nix über neue Konsolen, kein Aussehen keine Hardware einfach nix...
Denkst du nächste woche wird ne neue Konsole angekündigt und in 2 Monaten kommt sie raus ?! alleine die Production bei solchen riesen dingen dauert min 6 Monate...
Ich sage 2012 wenn nicht sogar erst 2013....
Alleine solche aussagen von MS sagen mir es wird noch lange lange dauern bis wir neue Konsolen von MS sehen
KLICK:
MFG
Ovo
Als ob die Grafikentwicklung alleine von der Konsole abhängt...
Sie geht nur wahrscheinlich langsamer von statten als sie könnte.
Ausserdem reicht die Grafik von z.b. Crysis vollkommen aus - nicht das sie besser sein könnte - aber sie sollten sich mal lieber auf Physik etc. pp. konzentrieren, dort gibt es noch viel zu tun.
Mfg Scaleo
Konsolen hin oder her, Tatsache ist, dass mit Fermi vielleicht ein weiterer Schritt Punkto grafischer Qualität gegangen wird, ich betone vielleicht daher, weil ich momentan nur mehr Polygone dank Tessellation und keine bessere Texturen gesehen habe. In gewisser Weise wird hier dem User nur wieder etwas vorgemacht. Natürlich mehr Polygone sind auch etwas Schönes, aber wenn die Textur(en) immer noch Mist sind, dann machen auch mehr Polygone nichts besser.
Lasst endlich dieses Geplänkl, dass Konsolen grafische Schönheit darstellen können. Ich sehs am Beispiel von UT3, Gears Of War oder auch anderen Games die für alle Plattformen erhältlich sind. Die Grafik ist überhaupt nicht die Wucht, aber wird heutzutage als sehr gut bezeichnet, oder man sagt sogar dass die PS3 oder XBox360 die gleiche Leistung wie ein PC hat. Ich frag mich nur, wie man zu diesem vollidiotischen Meinungen kommen kann. Wahrscheinlich wird die PS4 oder XBox720 (oder wie auch immer die das Zeug nennen werden) an die Qualität von Crysis rankommen, aber wenn das passiert, wird der PC wieder einen gigantischen Schritt voraus sein. Gute Grafik ist nicht alles von einem Game, aber man will auch nicht in einer rosaroten und abgefuc*ten Welt zocken.
Dieses ganze Hin- und Her-Geeiere, dass Multiplatform Games nur noch programmiert werden ist total für die Katz. Auch wenn die Hardware dann bei solche Games unterfordert ist und man hat massig Fps-Überschuss, aber eine Stagnierung ist nicht gut, besonders Dekadenz ist zum kotzen.
Auch wenn Nvidia Fermi bald rausbringt, werden wir aus grafischer Sicht vielleicht keinen Höhepunkt erreichen (für eine bestimmte Zeit), denn der einizige Unterschied von der PC zur Konsolen Version wird dann Tessellation sein und weiter nichts und ob das nun wieder weise ist, naja das soll mal dahin gestellt bleiben.
Ja natürlich, aber letztendlich müssen wir dann diese Tatsache akzeptieren und das Beste daraus machen. CoD MW4 ist zum Beispiel Punkto Grafik nicht gerade das Schönste vom Ei, aber dafür überwiegt das gute Gameplay, solange es nicht von Campern und Cheatern online ruiniert wird (das kann ich immer gut bei meinen Bruder beobachten, wie da manche cheaten oder campen und freuen sich die Jungfrau Maria an ihren Ransen). ;)
Ich persönlich hoffe nur, dass Fermi noch mehr Power haben wird, auch unter DX10, denn dann baller ich mir son Teil rein, damit ich Crysis butterweich unter DX10 zocken kann. DX10 ist bei 1680x1050 und very high en bissel zu viel für meine GTX260.
Nvidia soll sich nicht unter Druck setzen lassen. Gute Produkte brauchen eben Zeit und ich als angehender Mikroelektroniker weiß ich das zu gut. Nvidia versucht außerdem die GPU nicht nur zu einer Graphic Prossesing Unit zu machen, sondern wirklich zu einer General Prossesing Unit, mit der man mehr als nur zocken kann. Mit anderen Worten: Hier wird versucht, die Bedeutung einer CPU immer weiter zu verringern (was sie schon lange tun), sodass diese in Zukunft nur noch die Manage-Funktion übernehmen soll, während die Hauptarbeit die GPU übernimmt. Finde ich toll, diese Entwicklung. Was ich von APUs halten soll, weiß ich nicht. Für Net- und Notebooks sicherlich ganz toll, aber sonst?
WTF! Das dacht ich mir vor ein paar tagen auch! Denke die benennen die alte GPU bald in MPU (Multi Prozessing Unit) um. Da es sich wirklich schon mehr lohnt Physikalische Berechnungen sowie auch Videos zu konvertieren und vieles mehr.
Nya warten wir mal Fermi ab.
MFG LK
Ja genau das selbe denke ich mir auch.
Hab mal in einer PC Zeitung, glaube PC Games Hardware wars, so einen Bericht rüber gelesen.
Da die GTX285er 45kleine Kerne, CPUs oder wie die Dinger auch heißen, haben, spart man sehr sehr viel Zeit zb beim Rendern von Videos.
Ne i7 CPU hatte an die 5 min gebraucht oder sowas und die GPU war nach knapp ner Minute schon fertig.
Das ist richtig krass.
@Tig3r0023
Das stimmt.
Hab gestern ein 2,5 Stunden Film von einer BluRay in FullHD mit Badaboom in MP4 umgewandelt. Dauerte 1,5 Stunden (GTX 280).
Wenn ich das mit z.B. VirtualDub per CPU mache braucht er schon 6 Stunden (Q9550@4Ghz).
Von daher warte ich sehr gespannt auf Fermi und auf die Mehrleistung beim Videorendern.
Nvidia kündigt an - Geforce GTX 470 und GTX 480
Die bisher für die neuen Grafikkarten gehandelten Begriffe wie Geforce GTX 360 oder Geforce GTX 380 sind Geschichte.
http://www.gamestar.de/img/0.gif http://www.gamestar.de/img/0.gif http://images.idgentertainment.de/im...99335/152x.jpg http://www.gamestar.de/img/gs/white/icon_lupe.gif Nvidia kündigt an http://www.gamestar.de/img/0.gif Gestern erklärte Nvidia, dass die beiden ersten Grafikkarten mit der neuen Technik und dem GF100-Grafikchip als Geforce GTX 480 und Geforce GTX 470 erscheinen werden.
Die bisher erwarteten Bezeichnungen mit Modellnummern der 300er-Serie werden vermutlich aber nicht aufs Rententeil geschickt, sondern für kleinere Modelle aus dem OEM-Bereich verwendet. Dort hatten billige Karten wie eine Geforce 310 schon für Verwirrung gesorgt.
Angeblich will Nvidia die Vorstellung seiner GF100-Karten am 10 März vornehmen, dies soll man jedenfalls seinen Partnern mitgeteilt haben. Im zweiten Quartal soll dann bereits ein Grafikchip namens GF104 debütieren, be dem es sich um einen High-End-Chip handelt soll. Spekulationen gehen davon aus, dass dies ein weiter fehlerbereinigter und höher taktbarer GF100 sein könne.
Quelle:
http://www.gamestar.de/hardware/news...30/nvidia.html
Eigentlich müsste man den Thread umbennen^^
Aber Leistung hast du ja trotzdem noch.
GT400...hm hört sich sogar besser an :D
Nja vor 2011 kommen in meine Kiste eh keine neuen Karten. Von daher bin ich da gechillt und ich lehne mich zurück und schau mal wie sich das entwickelt.
Werde auf jeden Fall dieses Jahr noch zuschlagen. Ob es dann eine Karte mit GF100 oder 104 wird sei mal dahingestellt. Oder eben ATI aber da warte ich lieber wenn auch den Refresh. Naja...
Momentan bin ich noch unsicher da ja leider bisher nur zu FC2 ein Benchmark veröffentlicht wurde.. Ob das allerdings auch so stimmt weiß man auch nicht 100% :-? Denke mal es wird eine GF100 Karte... Die 5% Performance die manchmal noch rauskommen brauch ich so dringend nicht und dann sind die Karten warscheinlich wieder 50 € teurer... nagut. Vorurteile sinds schon aber ich werds sehn :D
So sehe ich das auch, erstmal abwarten und das 2 quartal ist auch nicht mehr so lange hin. Aber ein paar Benchs von der ersten Serie würde ich schon gerne solangsam sehen.
Wenn die dinger nicht die leistung bringen wie erwartet, setzte ich denke ich eh aus. Frag mich bloss , warum die gleich 2-3 Monate später einen refresh machen, vielleicht ist die jetztige version doch nicht so gut wie nv vorerst dachte.
bescheuert, dass die mitlerweile wirklich absolut wahllose Bezeichnungen für ihre Karten an den Tag legen. GTX280, 285, 260, 275, alles schön und gut, aber dann alte Geforce 8 Technik als GeForce 9, dann als GT240, dann als GT300er Serie verhökern und die nächste wirkliche Neuerung als GTX4xx....
.... lächerlich!
Das einzige Ziel von dem Durcheinander was glaubhaft wäre ist die Abzocke von Kunden mit Halbwissen oder garkeinem Wissen!
Lol was regste dich eigentlich auf ?
Die High End Karten erkennste sofort und jemand der in Media Markt läuft und sich mal eben nen neuen Rechner kauft, weil sein alter "kaput" ist stört das auch nicht und dem kann man ehh nicht mehr helfen in der beziehung ...
Ausserdem kann man schon am Preis erkennen ob das ne "gute" Grafikkarte ist, oder nur Müll.
Und jemand der sich mit der Materie so halbwegs auskennt, hat nach dem Begriff GT240 gegooglet, die erste Seite angeklickt und weiß dann sofort bescheid wie gut die Karte tatsächlich ist.
Und sag jetzt bitte nicht man kann aber die Performance bei der ATI Namesgebung ablesen.
Mfg Scaleo
Darf ich mal kurz was ins allgemeine "geflame" einwerfen ohne ausgebuht zu werden, ja? Das hat seinen Sinn. Als ich die Meldung gelesen habe, war mir auch klar wieso die die GTX3xx auslassen bzw. naja.. ihr wisst was gemeint ist ^^ ;)
Die GTX3xx-Reihe wird nicht Fermi-basiert sein, ob das so ist sei mal dahingestellt. Ich nehme mal an, dass die GTX3xx-Reihe ein erneutes Refresh der GTX2xx darstellt. Deshalb macht es Sinn, die anderen GTX4xx zu nennen. Was gibt es da, worüber man sich aufregen soll? NVidia sind auch nur ein Chipdesigner. Auch ATI bringt nicht alle 2 Tage eine neue Architektur raus. Uns wurde doch klar gemacht, dass die Produktion von Karten mit GT200 Chip bald beendet wird. Der logische Schritt für mich ist, dass NVidia eine billigere Alternative zu GT300 bzw. GTX4xx anbieten möchte die nicht unbedingt für die Hardcore-Gamer interessant sind. Die GTX4xx ist hald für diese gedacht und deshalb auch nur für diese interessant. Der Refresh ist einfach die vorgezogene Antwort auf den Refresh der ATI5xxx. NVidia möchte die verlorene Zeit dadurch warscheinlich wieder rausholen. Bei NVidia sind im Moment hald mal schwierige Zeiten, und da wollen sie hald ein möglichst breites Angebot bieten - was sie ja auch tun und das ist meiner Meinung nach sinnvoll !
Ich hoffe mal, dass bei dem wirrwarr was da teilweise oben steht jeder durchblickt :D
Jedenfalls finde ich es sinnvoll was NVidia da bringt :)
Nvidia's Fermi GTX480 is broken and unfixable
Hot, slow, late and unmanufacturable
Die letzte Nachricht liegt ja auch schon ein Weilchen zurück .. ich bin's ehrlich gesagt leid irgendetwas, was uns Hoffnung machen soll, zu hören .. die sollen die Karten mal releasen und aufhören, die Kunden zu verarschen ..
(Ich lese mir sowas nicht mehr durch .. hat doch eh keinen Sinn mehr mit denen ..)
[quote=Essah;421789....bin's ehrlich gesagt leid irgendetwas, was uns Hoffnung machen soll, zu hören .. die sollen die Karten mal releasen und aufhören, die Kunden zu verarschen ..[/quote]
was habt ihr euch denn gedacht? Ich sagte schon vor Monaten, dass der release Ende des Jahres nicht zu halten ist und Ende des Jahres, dass es sicher April wird, bis da was verfügbar ist und damit lag ich goldrichtig. Wer ein bisschen was davon versteht weiß, dass so ein riesen chip nicht direkt auf einem neuen Prozess herstellbar. Überdies wird das Ding teuer wie sau bei der Größe....
die eierlegende Wollmilchsau, die die Leute (oder NVidia fanboys?!) erwarten (für mich schon mal unverständlich) wird es nicht geben. Nvidia hat sich etwas verzockt dieses mal. Ati kann davon nicht profitieren, weil auch sie am neuen TSMC Prozess scheitern mit den Stückzahlen, wobei ich da nicht sicher bin, ob die die Stückzahl nicht künstlich niedrig und den Preis damit hoch halten.... langsam denke ich sogar eher das.
Trotzdem, finales Urteil kann man erst beim ersten vernünftigen Test (anandtech & Co) abgeben.
Ich habe nie erwartet, dass der Chip so schnell (Januar/Februar) kommt, allerdings nervt mich dieses ganze Hingehalte .. klar, nVidia muss jetzt irgendwie handeln, da sie zur Zeit in einer schlechten Situation sind und potenzielle Kunden verlieren, aber trotzdem ..
ja was erwartest du denn? Die verkaufen seit drei Jahren immer wieder alte Technik unter neuen Namen/Bezeichnungen, was denkste was das für Leute sind in diesen Marketingabteilungen.... Leute verarschenw wollen sie. Nvidia ist nicht die einzige Firma, aber sie haben mit dem ****** angefangen! (aus G92=8800GT eine Geforce 9 gemacht, dann mobil 240, dann mobil gt3xx, lachhaft).
Mit ihrem riesenchip G100/Fermi haben sie sich halt verzockt, weil der neue Prozess zu fehlerbehaftet und damti die Ausbeute quadratisch mies war. Tja.... baut kleinere chips :)
Da ist meines wissens nicht ganz richtig. ATI hat damal als die Radeon 9000er Reihe kam einen Radeon 8500 umbenannt in 9200 und als neue Karte verkauft. ;-)
Das ist ja noch zu verkraften zumal das kein High-End Chip war... Und das ja nur ne Umbenennung war... NVidia zieht da noch was viel schlimmeres ab da muss ich Randfee zustimmen.
Meine nächste Graka kann eh noch mindestens ein Jahr warten aber dannach muss ich mal sehen, was dann so aufm Markt ist