wtf
NVIDIA was at PDX LAN 2010 to show off our new GF100 GPU. Just before the stage presentation, Tom Petersen offered to give out some free gear to the hungry crowd.
Attention gamers of the Northwest! We are at PDX LAN this weekend with GF100 in the wild. Someone in the audience will win one. It could be you!
Fermi GF100 im Technik-TÜV: Kommentare zu Architekturdetails, Bildqualität und Benchmarks
Der einzige Game-Benchmark, welchen wir live mitverfolgen konnten, war ein Duell im integrierten Far-Cry-2-Benchmarktool gegen die Geforce GTX 285 (rechter Monitor). Die Einstellungen in Full-HD-Auflösung standen auf dem jeweiligen Maximum der einzelnen Settings, zusätzlich aktivierte man 4x FSAA und 16:1 AF - letzteres im Treiber.
Die Ergebniss im Klartext
GF100 / Fermi:
Min-Fps: 52,32
Avg-Fps: 77,64
Geforce GTX 285:
Min-Fps: 30,38
Avg-Fps: 38,33
http://www.pcgameshardware.de/aid,70...e/Test/?page=3
Fermi / GF100: Wann kommen welche Karten?
Laut Nvidia befinden sich die Fermi-GPUs per 10. Januar in "voller Produktion", nachdem man nach eigenen Angaben bereits 10 Millionen 40nm-GPUs ausgeliefert habe. Nvidia wünschte sich zwar, Fermi bereits früher ausliefern zu können, kann oder will aber derzeit keine Aussage zur Verfügbarkeit machen. Auch die Namen der Karte hält man genauso geheim, wie die Pläne zur Modellvielfalt und die Preise zum Launch.
Unser derzeitiger Tipp: Im März werden die ersten Karten verfügbar sein, es wird zwei Modelle geben: Eine "Vollausstattung" und eine abgespeckte Version mit 448 oder 480 Shader-Einheiten (1 oder 2 deaktivierten SMs) und einem 320 Bit Speicherinterface und 1.280 Megabyte Videospeicher. Vielleicht heisst das komplette Modell Geforce GTX 380, die kleinere Schwester dann GTX 360. Die Preise dürften bei 500 und mehr Euro für die große und vielleicht 350 bis 400 Euro für die kleinere Version liegen - je nachdem, wo sie sich in Sachen Fps-Leistung gegenüber der Radeon-HD-Reihe positionieren.
Fermi / GF100: Versionen
Die folgenden Modelle sind eine Einschätzung von PC Games Hardware, da Nvidia bislang weder Taktraten noch Modellvielfalt ankündigen möchte. Die Angaben können sich daher durchaus als unrichtig herausstellen und sind daher ohne jegliche Gewähr.
"Geforce GTX 380"
• 4 GPCs mit 512 Shader-ALUs (Cuda-Cores) und 64 TMUs
• 384 Bit Speicheranbindung mit 48 ROPs
• 1.536 MiByte GDDR5-RAM
• 1x 6-Pin & 1x 8-Pin Stromanschluss (>225 bis 300 Watt möglich)
• Taktraten (optimistisch!): ~750/1.500/2.400 MHz für GPU-/Shader- und GDDR5-Takt
"Geforce GTX 360"
• 4 GPCs mit 448 Shader-ALUs (Cuda-Cores) und 56 TMUs
(2 Shader-Multiprozessoren mit je 4 TMUs deaktiviert)
• 320 Bit Speicheranbindung mit 40 ROPs
• 1.280 MiByte GDDR5-RAM
• 2x 6-Pin Stromanschluss (>150 bis 225 Watt möglich)
Um angesichts der 40nm-Probleme bei der Chipschmiede die Modularität der Architektur auszunutzen und damit möglichst viele Chips zu retten, ist theoretisch außerdem noch eine dritte Version denkbar.Hier stellt sich allerdings die Frage, inwieweit sich das vermutlich teure Boarddesign und die Platinenkosten angesichts der zu erzielenden Verkaufspreise noch lohnen würde. Andererseits hat AMD mit der HD 2900 GT vorgemacht, dass es nicht unmöglich ist. Ob eine solche oder ähnliche Minimal-Version herauskommt, hängt wohl maßgeblich mit der Ausbeute an Chips ab, die TSMC und Nvidia erzielen können und die sich noch als eines der oben genannten Modelle verkaufen lassen.
"Geforce GTX 3xx"
• 3 GPCs mit 384 Shader-ALUs (Cuda-Cores) und 48 TMUs
• 256 Bit Speicheranbindung mit 32 ROPs
• 1.024 MiByte GDDR5-RAM
• 2x 6-Pin Stromanschluss (>150 bis 225 Watt möglich)
Fermi / GF100: Technik-Fazit
Auf dem Papier klingen die Verbesserungen, welche Nvidia im Fermi auch für die Grafikseite integriert hat, sinnvoll und vielversprechend: Insbesondere die mehrfach ausgelegten Geometrieeinheiten und die multiplen, unabhängigen Rasterizer sind überfällig, da sie einen Bereich angehen, der bislang nur durch Steigerung der Taktraten verbessert worden ist.
Die (von Nvidia ausgewählten!) Benchmarks unterstreichen dieses Bild zum jetzigen Zeitpunkt und zeigen den Chip zum Teil deutlich vor Geforce GTX 285 und Radeon HD 5870 - welche jedoch sicherlich nicht im gleichen Preisbereich anzusiedeln sind.
Nun muss Nvidia noch zweierlei tun: Die Grafikkarten auf Fermi-Basis auf den Markt bringen und zeigen, dass die Theorie auch in die Praxis umgesetzt werden kann, dann dürfte AMD zumindest im Single-Chip-High-End die derzeit redlich verdiente Krone wieder loswerden. Gegen die HD 5970 wird es von der Crossfire-Skalierung abhängen, wer vorn liegt.
http://www.pcgameshardware.de/aid,70...fikkarte/Test/
Bericht: Nvidia GF100: Technische Details
Schlusswort
Das ist er nun also, der GF100, der voraussichtlich unter dem Namen GeForce GTX 360 sowie GeForce GTX 380 in den Handel kommen wird. Zumindest von der technischen Seite und das auch nur so weit, wie Nvidia mit dem heutigen Tage zugelassen hat. Mehr gibt es leider immer noch nicht vom GF100 zu sehen – eine verspätete Sneak Preview halt.
Nach Sichtung der uns zur Verfügung gestellten Materialien hat der GF100 eines sicherlich: Potenzial. Nvidia hat sich viel mit der GPU vorgenommen und seit längerer Zeit (seit dem G80) wieder eine neue Architektur eingeführt, die vieles anders als der Vorgänger macht. Damit ist ein gutes Abschneiden des GF100 für Nvidia allerdings doppelt wichtig. Denn die Kalifornier werden diese Architektur nicht nur in der kommenden Generation sondern zumindest in den Grundzügen die nächsten Jahre benutzen müssen.
Die technischen Details der kommenden High-End-Karten lesen sich eindrucksvoll. 512 Shadereinheiten, 64 Textureinheiten mit einer eigenen, hoch gezüchteten Taktdomäne, 48 ROPs und ein 384 Bit breites Speicherinterface mit GDDR5 wird der GF100 bieten. Noch interessanter sind aber die internen Änderungen an der Architektur, die ohne Karte nur schwer zu bewerten ist. Ob die von Nvidia heraus gegebenen Benchmarks in der Praxis wieder zu finden sein werden, wird sich auch erst noch zeigen müssen.
Was bleibt nach dem heutigen Tage? Wir sind gespannt. Die Technik des GF100 verspricht viel auf dem Papier. Am Ende heißt es aber vorerst weiter: Warten. Näher gekommen sind die Karten dem Markt mit dem heutigen Tage nicht. Und noch etwas werden wir tun: Hoffen. Hoffen darauf, dass der GF100 am Ende auch das hält, was er verspricht. Und dass ihm Aspekte wie die Leistungsaufnahme und die Geräuschentwicklung am Ende keinen Strich durch die Rechnung machen. Sobald Karten verfügbar sind, werden wir uns gerne selbst ein Bild davon machen.
http://www.computerbase.de/artikel/h...ische_details/
Glaube ist 1 neues Video dabei.
Wenn nicht ist es nochmal eine gute Zusammenfassung.
http://www.pcgameshardware.de/aid,70...fikkarte/News/
ROPs und Speicherinterface
...Mit die wichtigste Modifizierung betrifft das acht-fache Anti-Aliasing, das auf dem GF100 deutlich schneller als auf dem GT200 laufen soll, der unter dieser Einstellung noch einen recht hohen Performanceverlust erleidet...Der GF100 ist in der Testsequenz (Hinweis meinerseits: Benchmark in Hawx) mit aktivierter vierfachen Kantenglättung 60 Prozent schneller als ein GT200. Wird die Kantenglättung auf 8xMSAA erhöht, beträgt die Geschwindigkeitssteigerung dagegen gleich 130 Prozent. Der Geschwindigkeitsverlust des GF100 soll bei geringen neun Prozent liegen, wenn 8xMSAA anstatt 4xMSAA zum Einsatz kommt.
Darüber hinaus gibt es einen neuen Anti-Aliasing-Modus: 32xCSAA, das das flotte (wenn auch nicht ganz so hübsche) Coverage-Sampling-AA nutzt. Der Modus setzt sich aus 8xMSAA sowie 24 zusätzlichen CSAA-Samples zusammen. Möglich wird dieser wahrscheinlich nur durch die drastische Steigerung der 8xMSAA-Performance. Gleichzeitig wurde das Transparency-MSAA erweitert, das nun auch auf CSAA-Samples das Transparency-AA anwendet und so Alpha-Test-Texturen besser bearbeiten kann.
Einen Benchmark (Age of Conan) gibt es zum 32xCSAA auch: Das Spiel soll nur noch sieben Prozent gegenüber dem herkömmlichen 8xMSAA verlieren und dabei gleichzeitig sichtbar besser aussehen.
3D Vision Surround
Mit der Radeon-HD-5000-Serie führte ATi die Eyefinity-Technologie an. Mit deren Hilfe ist es möglich, mehr als nur zwei Monitore gleichzeitig an einer Grafikkarte zu betreiben. Dies bietet nicht nur im Office-Bereich Vorteile, sondern funktioniert genauso gut in Spielen und gibt dem Kunden ein deutlich intensiveres Spielerlebnis. Es war nur eine Frage der Zeit, bis Nvidia mit einer Konkurrenztechnologie kontert.
Und so führen die Kalifornier mit dem GF100 3D Vision Surround ein, das noch einen drauf setzt soll. Denn so wird es mit dem GF100 nicht nur möglich sein, drei Bildschirme zu betreiben und darauf zu spielen. Gleichzeitig kann zusätzlich die 3D-Brille 3D Vision (falls vorhanden) angeschaltet werden und die Spiele laufen dann in Stereoscopic 3D. Doch hat 3D Vision Surround auch einen Nachteil gegenüber Eyefinity: Während bei der ATi-Umsetzung eine Grafikkarte ausreicht, müssen es bei Nvidia mindestens zwei 3D-Beschleuniger sein. Das gilt auch, wenn 3D abgeschaltet wird. Wir vermuten, dass dies mit einer zu geringen Anzahl an TMDS-Transmittern im GF100 begründet ist, da eine einzelne Karte nur zwei Monitore ansteuern kann. Mehr als drei Monitore scheinen zudem nicht gleichzeitig in Spielen zu funktionieren.
Bei 3D Vision Surround inklusive 3D liegt die maximale Auflösung aller Displays bei 1920x1200. Wird 3D abgeschaltet, erhöht sich diese auf 2560x1600. 3D Vision Surround unterstützt eine Bezel-Korrektur. Diese sorgt dafür, dass die Ränder der Monitore in das Spielgeschehen mit ein gerechnet werden, um so ein realistischeres Spielgefühl zu geben. Ohne Bezel würden die Ränder ignoriert und damit würde das Bild am zweiten Monitor direkt dort wieder anfangen, wo es am ersten aufgehört hat.
http://www.computerbase.de/artikel/h...ision_surround
Hört sich gut an, villt werden ich nächstes Jahr meine 2 GTX285 gegen sie tauschen..aber mal schauen. Das mit dem 3d reizt mich aber grade![]()
na mal warten bis die karten kommen.
Die gezeigten Fermi-Grafikkarten (s. Bild oben) sind ebenfalls noch nicht final und werden zur endgültigen Produktreife wahrscheinlich noch einmal neu designed. Auch liefen die Lüfter mit einer festgelegten Drehzahl, eine Lüftersteuerung war nicht aktiviert. Aussagen zur Geräusch- und Wärmeentwicklung der Karten entbehren somit jeder Grundlage.
http://www.pcgameshardware.de/aid,70...fikkarte/Test/