PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia Serie - Sammelthread



Seiten : 1 [2] 3 4 5 6 7 8 9

jupph
01.10.2009, 06:58
Nur eine 8Pin-Buchse o.O

http://www.abload.de/img/2z6yrzn5zi0.jpg (http://www.abload.de/image.php?img=2z6yrzn5zi0.jpg)

Ist das nicht ne Tesla-karte? In der Vergangenheit waren die doch nur für Berechnungen gedacht. Nicht fürs Spielen.
Dann würden mich die Specs von 6GB Ram usw. auch nicht wundern.
Beim Computing auf GPU's sind die auch durchaus sinvoll...

Tig3r0023
01.10.2009, 07:04
Ist das nicht ne Tesla-karte? In der Vergangenheit waren die doch nur für Berechnungen gedacht. Nicht fürs Spielen.
Dann würden mich die Specs von 6GB Ram usw. auch nicht wundern.
Beim Computing auf GPU's sind die auch durchaus sinvoll...

Ja das auf dem Bild is ne Tesla Karte, steht aber auch im Artikel. Die 6 GB Ram sind auch nur für diese Karten gedacht, die Zocker Karten können max 3GB DDR5 Ram enthalten.( Hab ich jetzt so aus dem Artikel herauslesen können)

jupph
01.10.2009, 07:10
Okay. Hab jetzt nur den Thread durchflogen und bin nicht auf die Links gegangen.
Dann bin ich auch mal gespannt wann NV den Markt mit den Karten flutet.
Hoffe auch das mit der neuen Generation mehr ausgereifte Software mit
CUDA-Unterstützung kommt.
Ich kompriemiere sehr viel Videomaterial und das geht z.B. mit Badaboom um einiges schneller als mit CPU basierten Programmen. Besonders im HD bereich.
Leider stürzt das Programm auch gern mal ab.
Ich bin gespannt...

LKrieger
01.10.2009, 07:48
Lol jetzt schon mit Tesla Aufschrift - total der Hammer.

Guckt euch mal bei google die C1060 an die is schon der Hammer. Das Ding wird son Monster..

Mfg LKrieger

ZaCXeeD
01.10.2009, 07:50
Tjoa mal schauen was da nVIDIA da bringen wird...

Auch wenn es ein weilchen länger dauern wird. Wie schon gesagt wurde, dann wird halt die Karte besser optimierter sein und mehr Leistung erzielen wie man wahrscheinlich auch seitens von nVIDIA erwartet.
Besser paar Monate länger als wie alles unter Druck machen und dann eine Karte rausbringen die wahrscheinlich eh dann nur 70% von der Leistung bringt...

@jupph
Ich denke mal das die Karte bestimmt auch mehr von PhysX und CUDA bringen wird, weil nuja...nächste Generation, sprich DX11 und so...
Da denke ich mal wird auch die Karte in den anderen Bereichen etwas mehr bringen, aber jetzt ne Menge da zu erhoffen sollte man nicht...

Neja warten wir mal ab was da nVIDIA herzaubern wird...

Tig3r0023
01.10.2009, 08:27
Update :


Auf der GTC-Keynote und der anschließenden Pressekonferenz, welche beide hauptsächlich von Nvidia-CEO Huang bestritten wurden, gab es noch einige interessante neue Details zu den Fermi-Grafikkarten. Neue Fotos der Karte zeigen die spiegelnde Kühlerabdeckung, die Stabilisierungsplatte auf der Rückseite und die eigenwillige Montage des Acht- und Sechpol-Stromanschlusses: Ersterer zeigt nach hinten, letzterer nach oben aus der Karte heraus. Huang sagte auf die Frage der Journalisten nach dem Stromverbrauch, dass man sich bei der Fermi-Architektur im gleichen Rahmen bewege wie bei der gegenwärtigen Generation. Die Stromanschlüsse machen es auch deutlich: maximal 225 Watt darf eine so ausgestattete Karte beziehen. Man habe derzeit funktionierendes Silizum im Labor (wie bereits anhand der Live-Demo des Fermi zu erahnen war) und arbeite mit Hochdruck daran, die Chips für die Massenproduktion zu optimieren. Von diesem Stadium an dauere es in der Regel noch "wenige Monate" bis zur Produktveröffentlichung. In den Händlerregalen dürften größere Mengen Fermi-basierter Chips daher wohl nicht mehr zu finden sein.

Wie üblich wolle man einen großen Bereich mit der Architektur abdecken: Vom High-End bis hinunter zu passiv gekühlten Lösungen soll die Spanne reichen. Huang bezeichnete Fermi als erste voll auf GPU-Computing optimierte Architektur. Man probiere bei Nvidia neue Techniken zunächst als Anhang zu bestehenden Architekturen aus und wenn sich für diese Anwendungsbereiche ein lohnenswerter Markt abzeichne, optimiere man kommende Generationen stärker hierfür. So geschehen mit G80 -> GT200 und nun Fermi, welcher numerisch der NV100 ist. Wichtig sei vor allem, dass man bestehende Anwendungen und Performance-Messlatten nicht beeinträchtige, wenn man etwas neues versucht, so Huang weiter.

Nach wie vor stehen die finalen Taktraten der Fermi-Karten nicht fest, entsprechend lässt sich auch aufgrund der runderneuerten Architektur die Performance im Spielebereich im Vergleich zur HD 5870 kaum einschätzen.

Quelle : http://www.pcgameshardware.de/aid,696334/G300-Fermi-Nvidia-fokussiert-GPU-Computing-mit-Next-Gen-Grafikkarte-Update-Weitere-Bilder-und-Informationen/Grafikkarte/News/

T-Rocc
01.10.2009, 09:40
Boa, die Karte wird bestimmt der Hammer. Der Preis dann bestimmt allerdings auch.

Bin ja mal gespannt, ob sich ottonormalverbraucher solch eine Karte leisten kann.

ZaCXeeD
01.10.2009, 09:48
Boa, die Karte wird bestimmt der Hammer. Der Preis dann bestimmt allerdings auch.

Bin ja mal gespannt, ob sich ottonormalverbraucher solch eine Karte leisten kann.

Naja die 280GTX haben sich auch viele am Anfang leisten können...oh man das war noch eine Zeit :D

Ich denke mal schon das sich die viele leisten können. Nur muss halt NVIDIA auch dementsprechen was bieten können damit auch die Leute da gereizt werden die Karte zu holen, weil ich denke kaum das jemand eine Karte solchen Generation dann kaufen wird und dann daheim bemerkt das man eigentlich nur 30% mehr hat als wie die Generation davor ;)

Ich persönlich wart noch da ein bisschen ab nach dem Release der Karte, da ich selber woanders erstma das Geld reinstecken muss und joa dieses mal nicht gleich von Anfang sein muss...mein Rechner funzt noch und joa...was will man mehr ;)
Außer man hat solche derartigen geilen Ergebnisse erzielt, dann kommt die im nu bei mir daheim an ;)

Noname
01.10.2009, 10:26
Ich war ja sehr enttäuscht von NV und sie hätten mit ihrer "jetzigen" (G200) Fahrtrichtung auch deutlichst!!! gegen die HD5000 verloren.. aber da kommen die einfach mit komplett neuem Konzept für DX11 karten daher. 8) Hammer! Ich revidiere meine Meinung von letztens!
Das wird nen Hammer und jetzt ists wohl auch klar, dass NV die karten erst in wenigen Monaten und nicht sofort bringt. :)



DirectX 11 mit GF100 statt GT300?

GPU specifications
This is the meat part you always want to read fist. So, here it how it goes:
* 3.0 billion transistors
* 40nm TSMC
* 384-bit memory interface
* 512 shader cores
* 32 CUDA cores per Shader Cluster
* 1MB L1 cache memory
* 768KB L2 unified cache memory
* Up to 6GB GDDR5 memory
* Half Speed IEEE 754 Double Precision


und
225W

wäre einfach nur die Hölle 8)

Preislich wirds wohl 400-500 euro am anfang sein. ;)


Gruß
Noname

chenjung
01.10.2009, 10:33
Wenn ich das meinem Freundeskreis erzähle, werden die vergessen haben, dass es eine HD5870 gibt. :-D

Abwarten, Nvidia kann viel erzählen ;) Die 5000er Serie, sollte man erst vergleichen, wenn Nvidias Karte da ist. Vorher ist alles nur Theorie.

ZaCXeeD
01.10.2009, 10:39
Ich sage es immerwieder...hört doch mit den ATI vs. NV auf...sowas ist doch einfach nur wie im Kindergarten!

Echt schlimm teilweise...nagut man kann mal was dagegen sagen, aber dann gleich immerwieder zurückfeuern und rumnörgeln...das bringt doch zu gar keinem Ziel...ich mein was will man mit sowas erreichen...ist ja fast wie Schwanzvergleich...ohne Witz...
Da kommt einer behauptet die Karte würde alles wegsprengen, danach kommt der andere mit der Karte und meint das gleiche...
Und zu welchen Zweck...nur um zu zeigen das man den längeren hat...

"Der Klügere gibt nach!" Danach sollte man gehen...lasst einfach die Leute reden die meinen was sie meinen und gut ist...

Und weiter sollte man jetzt nicht drauf eingehen und wieder zum Thema zurückkehren...

Ich glaub ihr tut euch und ne Menge User hier echt einen Gefallen wenn man einfach mal über die Sachen disktuiert was auch zum diskutieren gibt ;)

Jodasalz
01.10.2009, 11:05
Sehr interessant!
wirklich sehr interessant die Karte.
ob ich nun die kaufe oder ne ATI wird sich bei den anschaffungspreisen entscheiden und beim unterhalt. Wenn sie von der Leistung gleich auf liegen fällt die wahl auf die billigere mit dem bessern stromverbrauch... ich meine 225watt für eine Karte mit den Specs ist glaube ich noch wunschdenken...auch die von ATI angepeilten 180watt (waren es glaube ich) sind utopie glaube ich...

was ich mich frage, wenn NV wirklich das hällt was die daten ahnen lassen, kauft man sich eine karte und dann hat man die gleiche leistung wie die leute die gerade 2 oder 3 280 chips verbaut haben. das kann doch wirtschaftlich nicht gut gehen wenn sie sich quasi selber die kundschaft stehlen...ich meine wenn leute gerade noch zu einem sli gespann gezwungen sind weil ihnen 400 frames nicht flüssig vorkommen, dann müsste der absatz ja drastisch einbrechen weil man ja nur 1 oder 2 karten braucht. hoffe ihr versteht was ich meine xD

Warfrog
01.10.2009, 12:25
So eine Aussage kann ja nur ein Nvidia Fanboy in die Runde werfen, wartet erstmal ab wie der Preis sein wird, bei den überdimensionierten Specs kann ich mir vorstellen das die Karte rund 600€ kosten wird. Es muss sich ja irgendwie refinanzieren für Nvidia und viele Leute werden sich solch ein High-End Gerät auch nicht kaufen zumindest nicht so viele wie die Einsteiger und Mittelfeld Karten und genau in diesem wird ATI gutes Geld verdienen bis irgendwann mal Nvidia günstiger wird^^. Vielleicht stellt Nvidia mit der neuen Karte auch ein neues Preis-Segment ein? 800€ für das High-End Stück!? Ohhweijjjjaaaaa

:D Ich habs gewusst das es kommen wird. Ja ich bevorzuge Nvidia (nein kein Fanboy) aus dem klaren Grund, weil mir von ATi die Karten X600, Rage Pro Turbo abgebrannt sind. Bei Nvidia ist mir das nochnicht passiert. Ich find die neuen ATi Karten auch interessant, aber kaufen ? Ne!
Ich möchte nicht nocheinmal mein PC schrotten. Sorry für OP aber ich musste das erklären :D

Der Preis ist mir egal. Wenn man Leistung und gute Treiber haben will, muss man zahlen das ist klar.
Aber die Specs sind mal echt krank das musst du zugeben. Ganze einfach ATi ist sauer auf Nvidia weil die wieder gebombt hat.
Aber dafür sind die Preise bei ATi in Ordnung. Aber es wird sich alles noch weisen.

@Crysis2142: Neja ein Fanboy würde glaube ich auch zu Nvidia greifen wenn ATi besser ist. Aber ich würde auch auf ATi umsteigen wenn die ne Bombe mal machen ;-)
Ich kauf mir auch keine Karte um Schwanzvergleich zu machen. Ich kauf mir ne Karte das ich die bestmögliche Performance aus einem Spiel bekomme.

PS. Kann das sein das da Carbon auf dem Gehäuse ist ?

jupph
01.10.2009, 13:03
Hier nochmal ein paar schöne Bilder der Fermi-Tesla Karte:http://img5.pcpop.com/ArticleImages/0x0/1/1238/001238708.jpg
http://www.hardwareluxx.de/images/stories/newsbilder/aschilling/Fermi_Graka_2.jpeghttp://img5.pcpop.com/ArticleImages/0x0/1/1238/001238705.jpghttp://img5.pcpop.com/ArticleImages/0x0/1/1238/001238704.jpg

Warfrog
01.10.2009, 13:13
Wenn die Karte also nich die Tesla Version so in den Handel kommt mit Chrom und Carbon dann glaubich liegt der Preis über 600 Euro, aber die Karte sieht einfach nur Megafett aus. Wie ein Audi R8 mit Chromlack :D

Wie zu sehen ist verfügt sie über einen 8 und 6 Pin Anschluss

ZaCXeeD
01.10.2009, 13:18
Joa sieht einfach nur nice aus...Edel Edel ;)

Joa ich denke mal nicht das sowas unter 600 Euro kosten wird...denke mal schon das da etwas mehr Kosten kommen allein wegen sowas :D
Aber egal, solang die Leistung dementsprechend ist wird sie gekauft :D

eFFeCTiVe
01.10.2009, 13:27
Joa sieht einfach nur nice aus...Edel Edel ;)

Joa ich denke mal nicht das sowas unter 600 Euro kosten wird...denke mal schon das da etwas mehr Kosten kommen allein wegen sowas :D
Aber egal, solang die Leistung dementsprechend ist wird sie gekauft :D

Ist echt schick:) Aber so wie ich das versteh, is die echt nur für Freaks und Programmierer:lol: PS: Kannst mir dann ja dein SLi schenken:lol:
8)

Masterside
01.10.2009, 13:32
Also die Karte sieht schon stylisch aus. Naja nächste Woche erstmal die HD5870 holen und wenn dieser Lucid Chip auch auf ein AMD MoBo kommt hole ich mir die NVIDIA Karte auch noch ^^.

Warfrog
01.10.2009, 13:38
Weiter Bilder gibts noch hier :

http://www.pcpop.com/doc/pic/001238706.html

Schön wärs wenn diese Chrom Carbon Gehäuse auch auf der GTX380 sein würde

1337_alpha
01.10.2009, 13:50
Naja
Ich denke dass das kein echtes Chrom und Carbon ist ;)

warpspeed
01.10.2009, 14:16
Auf Heise.de gibt es auch noch eine News zu der Fermi-Karte.

http://www.heise.de/newsticker/GTC-Nvidia-Chef-zeigt-erste-Fermi-Grafikkarte-Update--/meldung/146166

xeonsys
02.10.2009, 14:39
mal sehen wie das mit dem stromverbrauch so ist.:roll:

Techdemo videos

http://pc.watch.impress.co.jp/docs/news/event/20091001_318678.html

HD videos

http://www.youtube.com/watch?v=vPeZf8WJDM4

http://www.youtube.com/watch?v=iyg9HgiD8X0

HarryRulez
02.10.2009, 14:47
Hammer die vids, einfach Hammer. Da kommt was ganz großes daher^^

Scaleo
02.10.2009, 14:57
mal sehen wie das mit dem stromverbrauch so ist.:roll:

Wer nen Auto mit 500 PS fahren will, muss auch dementsprechend viel für Sprit ausgeben.
Und nichts anderes ist das mit den Grafikkarten.

Mfg Scaleo

Lobos
02.10.2009, 15:09
Wer nen Auto mit 500 PS fahren will, muss auch dementsprechend viel für Sprit ausgeben.
Und nichts anderes ist das mit den Grafikkarten.

Mfg Scaleo

das halte ich für eine standardmäßige Antwort, es gibt genug Beispiele die einen schon heute zeigen das man auch mit viel Power wenig Strom verbrauchen kann. Es wird eben alles immer kleiner und komplexer, der Stromverbrauch eines PC´s von heute ist in 10 Jahren bei 20 facher Leistung in etwa die gleiche! Die erste Generation der PS3 verbraucht auch gut 50% mehr Strom als die Ps3 Slim doch die Leistung ist sogar minimal gestiegen gegenüber der 1. Generation.

Scaleo
02.10.2009, 15:17
das halte ich für eine standardmäßige Antwort, es gibt genug Beispiele die einen schon heute zeigen das man auch mit viel Power wenig Strom verbrauchen kann. Es wird eben alles immer kleiner und komplexer, der Stromverbrauch eines PC´s von heute ist in 10 Jahren bei 20 facher Leistung in etwa die gleiche! Die erste Generation der PS3 verbraucht auch gut 50% mehr Strom als die Ps3 Slim doch die Leistung ist sogar minimal gestiegen gegenüber der 1. Generation.

Bei PKWs nicht anders, Leistung wurde erhöht, verbrauch wurde gemindert, trotzdem sollte man nicht sich nicht wundern wenn nen BMW M5 ( Geforce 380 GTX [ Oder wie der spaß dann auch immer heißt ]) mehr verbraucht als nen Ford Fiesta ( Geforce 9600GT ).

Mfg Scaleo

Lobos
02.10.2009, 15:19
Bei PKWs nicht anders, Leistung wurde erhöht, verbrauch wurde gemindert, trotzdem sollte man nicht sich nicht wundern wenn nen BMW M5 ( Geforce 380 GTX [ Oder wie der spaß dann auch immer heißt ]) mehr verbraucht als nen Ford Fiesta ( Geforce 9600GT ).

Mfg Scaleo

Ich meinte ja nur das der Verbrauch in einigen Jahren bei gleicher Leistung weniger ist, das ist aber immer so denke ich. Die Anfangsprodukte sind eben noch nicht ausgereift und werden mit der Zeit immer besser8-).

jupph
02.10.2009, 21:54
Die ersten Grafikkarten auf Basis der Fermi-Architektur sollen laut Aussage Nvidias gegen Ende des Jahres veröffentlicht werden.

Wie es im Nvidia-Amtsenglisch heißt: "First products based on Fermi are expected to launch towards the end of the year". Ob es sich dabei um eine Geforce-Karte, womöglich die Geforce GTX 380, oder um Tesla- oder Quadro-Produkte handelt, ist bislang nicht bekannt. Wahrscheinlich ist jedoch eine Veröffentlichung zunächst von Geforce Grafikkarten - wie bei Nvidia üblich vermutlich das Top-Modell und eine etwas abgespeckte Version, die GTX 360 heißen könnte.


Quelle: PCGH (http://www.pcgameshardware.de/aid,696538/Nvidia-bestaetigt-Erste-Fermi-Grafikkarten-gegen-Jahresende/Grafikkarte/News/)

Noname
04.10.2009, 13:11
Wieder neues zur GF100. ;)



Fermi für Spiele-Karten abgespeckt

http://images.idgentertainment.de/images/idgwpgsgp/bdb/2084834/152x.jpg (http://javascript<b></b>:MM_Image(10,2084834,1959414,'',398);)
Bill Daily von Nvidia (http://crysis.4thdimension.info/forum/#) hat laut cnet (http://news.cnet.com/8301-13924_3-10320411-64.html) gegenüber Investoren weitere Aussagen zum neuen Fermi-Grafikchip getroffen. Viele der neuen Features des Chips seien dafür ausgelegt, Anwendungen zur Video- oder Bildbearbeitung als Co-Prozessor zu beschleunigen. Das sei zwar zurzeit noch ein recht kleiner Markt, doch Daily ist überzeugt, dass sich im Laufe der Zeit ändern und damit Nvidia einen großen Vorsprung in diesem Bereich bescheren wird.

Zur Tatsache, dass der Fermi-Chip als Supercomputer-Chip und nicht als Spiele-GPU wahrgenommen wurde, sagte Daily, dass man nur eine gewisse Fläche im Chip belegen und sich dabei nur eine bestimmte Menge Energie verbrauchen dürfe. Einiges davon sei für Bereiche vorgesehen, die bei Spielen weniger Nutzen bringen als bei Berechnungen. Aber der Fermi-Chip könne herunterskaliert werden und auch wenn man momentan nicht über weitere Chips sprechen wolle, könne man sich vorstellen, dass man für Spiele-Karten weniger als 512 CUDA-Cores und pro Core auch weniger der neuen Features einsetze. Alle Fermi-Produkte, einschließlich der Spiele- und Workstation-Produkte würden in einem nah beieinanderliegenden Zeitrahmen angekündigt.

Damit bestätigt Daily die Erwartungen, dass der Fermi-Chip in der zunächst präsentierten Form für Spiele-Karten abgespeckt wird, da viele der Funktionen dort einfach wenig oder keinen Sinn machen. Eine Einschätzung der möglichen Leistung gegenüber der ATI Radeon HD 5870 (http://www.gamestar.de/hardware/tests/grafikkarten/pcie/1959128/radeon_hd_5870_mit_directx_11.html) ist aber auch weiterhin nicht möglich.

http://www.gamestar.de/hardware/news/grafikkarten/1959414/nvidia.html



Gruß
Noname

Blue Dragon
04.10.2009, 20:13
ich finde das erklärt einiges
ich denke mir das es zwar so recht imba risig und auch teuer wird
ABER zb wird sie beim spielen so runterskaliert und somit wird sie auch keine 300- 400 watt verbrauchen

muss leider weg
schreibe später weitere gedanken^^

xeonsys
05.10.2009, 12:28
noch ein video


http://www.youtube.com/watch?v=r17UOMZJbGs


laut Nvidia-Chef Huang arbeitet Nvidia bereits am Fermi-Nachfolger, dieser sei aber noch 2-3 Jahre entfernt.
http://www.gamestar.de/hardware/news/grafikkarten/1959398/amd.html

spYder
05.10.2009, 13:05
noch ein video.


http://www.youtube.com/watch?v=N1FOnpzUzZY

Tig3r0023
05.10.2009, 13:06
PhysiX Destruction
http://www.youtube.com/watch?v=N1FOnpzUzZY&feature=player_embedded

spYder
05.10.2009, 13:09
@tig3r0023

zu spät :grin:8)

Kolga
05.10.2009, 13:43
Boha erst das Video mit dem Wasser was Realtime gerendert wurde. Jetzt das Video mit PhysX.
Ich glaube ich falle hier noch vom Stuhl. Bin gespannt wenn die Teile aufm Markt sind was abgeht..... :lol:

P.S.: Crysis 2 mit so ner Destruction. *lecker*

Sommermn
05.10.2009, 14:33
Huiuiui :)
Das wird sowas von geil. Ich glaube ich überspringe doch die GT200 und spare dann später auf einen mit Fermi-Chip :)

spYder
05.10.2009, 14:42
Jetzt noch eine Karte von der 200er Serie kaufen wäre ein fataler Fehler ;)

xeonsys
05.10.2009, 14:50
Jetzt noch eine Karte von der 200er Serie kaufen wäre ein fataler Fehler ;)
genau dann kann meine 7900gto in rente gehen.:smile:

Noname
05.10.2009, 16:51
PhysiX Destruction
http://www.youtube.com/watch?v=N1FOnpzUzZY&feature=player_embedded


Boha erst das Video mit dem Wasser was Realtime gerendert wurde. Jetzt das Video mit PhysX.
Ich glaube ich falle hier noch vom Stuhl. Bin gespannt wenn die Teile aufm Markt sind was abgeht..... :lol:

P.S.: Crysis 2 mit so ner Destruction. *lecker*


Denk nicht an Crysis.. denk an Games wie Company of Heroes 2 o.d.g. 8-)

Das wird so heftig.. was alles neus kommen wird und ich dachte Ray Tracing sei krass :D


Gruß
Noname

Black_Death
05.10.2009, 17:13
Oh ich denke gerade an so spiele wie Crysis. Besonders wenn ich das mit Partikeln simulierte Wasser sehe, gibt es eine Schöne Zukunft. *träum*

Aber das hab ih schon in diesem Zukunft Thread mal gepostet das das womöglich kommt.

Dark9
07.10.2009, 12:12
Bericht: Nvidia muss High-End-Grafikkarten aufgeben!!!

Der Grafikkartenhersteller Nvidia (http://winfuture.de/news,50429.html#) will angeblich in Kürze seine Modelle GTX285 und GTX260 vom Markt nehmen. Bald soll außerdem auch die GTX275 verschwinden, so dass sich das Unternehmen fast vollständig vom Markt für Grafikkarten (http://winfuture.de/news,50429.html#) der Mittel- und Oberklasse verabschieden würde.

Wie 'SemiAccurate (http://www.semiaccurate.com/2009/10/06/nvidia-kills-gtx285-gtx275-gtx260-abandons-mid-and-high-end-market/)' unter Berufung auf Quellen bei Nvidia berichtet, haben die Vertragsfertiger des Unternehmens mitgeteilt bekommen, dass die GTX285 das Ende ihres Lebenszyklus' erreicht hat. Angeblich folgt im November oder Dezember auch die GTX260. Die GTX275 soll ihr "End Of Life" (EOL) ebenfalls schon innerhalb der nächsten zwei Wochen erreichen.
Letztlich verbleibt dann nur noch die Nvidia GeForce GTX295, die bisher nur bei Nvidia direkt in Form einer vollständigen Grafikkarte (http://winfuture.de/news,50429.html#) erworben werden kann. Diese ist angeblich nur in extrem geringen Stückzahlen erhältlich, was vor allem auf hohe Kosten zurück zu führen sein soll. Auch dieses Modell verschwindet angeblich, sobald die derzeit noch bestehenden Vorräte abverkauft sind.

Dem Bericht zufolge hat Nvidia vorerst keine Möglichkeit, weiter mit ATI im Bereich der High-End- und Mid-Range-Grafikkarten zu konkurrieren. Zwar hat das Unternehmen Chips, die in Sachen Leistung mithalten können, doch die Kosten sind angeblich so hoch, dass beim großen Konkurrenzdruck im Bereich der Add-In-Grafikkarten keine Gewinne mehr erwirtschaftet werden könnten.

Auch die kürzlich vorgestellten Fermi-Chips können Nvidia angeblich auf kurze Sicht nicht helfen, da sie bisher noch nicht gefertigt werden können. Außerdem sind die Kosten angeblich auch in diesem Fall so hoch, dass man in Sachen Preis/Leistung nicht mit ATI mithalten kann. Auslöser der Probleme sind angeblich Fehler in der Entwicklungsabteilung.
---------------------------------------------------------------------------------------------------
Quelle: http://winfuture.de/news,50429.html (http://winfuture.de/news,50429.html)

sieht ganz schön schlecht aus für nvidia !!!
werd mir nun eine 5870x2 holen wenn sie erscheint

Servitor
07.10.2009, 12:16
Und was für Grafikkarten kommen dann als ersatz ? :neutral:

spYder
07.10.2009, 12:18
das weiß noch keiner, jedoch wenn die Karte nicht mehr auf dem Markt sind, wird sich meine GTX 260 sicher gut verkaufen :)

Dark9
07.10.2009, 12:23
das weiß noch keiner, jedoch wenn die Karte nicht mehr auf dem Markt sind, wird sich meine GTX 260 sicher gut verkaufen :)


:D:D ohja, dann kannste locker so die 1000-2000 verlangen :D:D

Tommi-lee
07.10.2009, 12:31
als ob das glaube ich nie im leben.. highend ist prestige für die hersteller wie nvdia und midrange ist das geschaft wo man überhaupt das richtige geld verdienen kann deswegen werden die sich da bestimmt nicht zurück zeihen. die zahlen von nvidia sahen gut aus.


freue mich schon auf die ''REAKTOR KARTEN'' :-P

Dark9
07.10.2009, 12:36
als ob das glaube ich nie im leben.. highend ist prestige für die hersteller wie nvdia und midrange ist das geschaft wo man überhaupt das richtige geld verdienen kann deswegen werden die sich da bestimmt nicht zurück zeihen. die zahlen von nvidia sahen gut aus.


freue mich schon auf die ''REAKTOR KARTEN'' :-P

und jetzt sehen sie nicht gut aus oder??

Scaleo
07.10.2009, 12:46
Bevor Nvidia kein Statement dazu abgibt glaub ich nichts davon, klingt ehr nach einer Story die Nvidia schädigen soll...
Denk im ersten Moment an Aktien...

Mfg Scaleo

Lobos
07.10.2009, 12:58
als ob das glaube ich nie im leben.. highend ist prestige für die hersteller wie nvdia und midrange ist das geschaft wo man überhaupt das richtige geld verdienen kann deswegen werden die sich da bestimmt nicht zurück zeihen. die zahlen von nvidia sahen gut aus.


freue mich schon auf die ''REAKTOR KARTEN'' :-P

So ganz magst du nicht unrecht haben, aber was hier in Vordergrund geschoben wird ist das AMD (ATI) durch den frühen Release der eigenen Karten, Nvidia ganz schön durchgeschüttelt hat. AMD (ATI) ist sehr gut aufgestellt und das weiß Nvidia. Sie haben eine Einsteiger Karte ab ca. 120€ , zwei Mittelfeld für ca. 150€ und ca. 200€ und eine High-End für ca 350€ und dann noch die X2 ( ca. 450€) die erscheinen soll, man bedenke das diese Karten alle DX11 haben.

Ich bin nicht gegen Nvidia, aber erst kam ein Gerücht auf das die Ausbeute bei der Produktion zu schlecht sei, dann dementiert Nvidia das offiziell und versucht auf der eigenen Messe noch guten Eindruck zu schinden mit der unprofessionell zusammengebauten Fermi Karte und jetzt kann man scheinbar doch nicht die Wahrheit leugnen. Schon sehr seltsam!! :roll:

Ich denke es ist einfach so das Nvidia keine Kraft mehr dazu hat, Spiele zu unterstützen damit sie auf der Pc Plattform erscheinen und nicht eine billige Konsolen Portierung werden. Der Markt hat sich in den letzten zwei Jahren extrem geändert und es wird so kommen das auch ATI sicher bald kein großes Interesse mehr daran hat die beste Grafikkartenleistung zu haben. Viele spielen halt lieber gemütlich vor dem Fernseher und auch die Grafik auf der Konsole muss sich nicht mehr verstecken! Auch sehr gut vorstellbar wäre, das es nach Crysis 2 kein Crysis 3 mehr auf den Pc geben wird. Das wollen sicherlich viele hier nicht hören, aber alles ändert sich eben.

Ade.....ade........schöne, alte Computerspielzeit :(:twisted:

Captain-S
07.10.2009, 13:04
Der Artikel kommt von Charlie Demerjian!!
Und schon wieder wird über diesen Bullshit kräftig diskutiert.

Noname
07.10.2009, 13:47
und was wird dann aus dem GF100 Graka :(:(:(:( ?

Gruß
Noname

Black_Death
07.10.2009, 13:55
Leute ich glaube ihr missversteht den Text oder Bericht. Dieser Besagt, das Nvidia die jetzige High-End Reihe aufgeben muss, aber nichts davon, das es nie wieder High-End modelle geben wird. Also ich denke das Nvidia mit dem G300 oder G100 wie auch immer er heißen mag auch ein high end darstellt.

Das wäre zumindest sehr wünschenswert, denn sonst würde ATI die Preise ind die höhe steigen lassen für Top modelle.

Scaleo
07.10.2009, 13:56
und was wird dann aus dem GF100 Graka :(:(:(:( ?

Gruß
Noname

Was soll mit dem schon werden, bevor Nvidia diese Meldung nicht bestätigt/dementiert, kommt der GF100...
Und das werden sie bald machen, da die Börse in ca. 50min öffnet...

Mfg Scaleo

spYder
07.10.2009, 13:57
Jop. Wie gesagt kommen wir ohne Konkurenz nicht weiter in der Entwicklung. Vielleicht steigt auch Matrox mit Grafikkarten ein ;)

Sommermn
07.10.2009, 14:29
Nun. Ich muss ganz ehrlich sagen als ich das grade eben gelesen habe hat es mich geschockt. Aber wenn ich so drüber nachdenke glaub ich dem Autor kein Wort mehr. Das ist irgendwie so sehr ATI Fanmäßig geschrieben, dass ich glaube da wollte jemand NVidia schlecht machen. Könnte natürlich auch sein dass die Meldung stimmt, aber so wie der Text verfasst ist => Nein, im Leben nicht.
Außerdem kann ich mir nicht so wirklich vorstellen dass NVidia plötzlich aus dem High und Mid Range Markt rausgehen würde. Schließlich sollte man sich mal überlegen wieviel % aller Chips von NVidia "stammen". Da NVidia ( und das kann man nicht leugnen ) etwas teurere Grakas anbietet muss man sich nochmals überlegen ob am Text was dran sein kann. ;)
ich geb euch nen Tipp: Glaubt nicht immer sofort was ihr da lest. Schließlich ist es ( auch wenn es ein "Autor" ist ) nur das Internet ;)
mfg

Noname
07.10.2009, 15:06
Nun. Ich muss ganz ehrlich sagen als ich das grade eben gelesen habe hat es mich geschockt. Aber wenn ich so drüber nachdenke glaub ich dem Autor kein Wort mehr. Das ist irgendwie so sehr ATI Fanmäßig geschrieben, dass ich glaube da wollte jemand NVidia schlecht machen. Könnte natürlich auch sein dass die Meldung stimmt, aber so wie der Text verfasst ist => Nein, im Leben nicht.
Außerdem kann ich mir nicht so wirklich vorstellen dass NVidia plötzlich aus dem High und Mid Range Markt rausgehen würde. Schließlich sollte man sich mal überlegen wieviel % aller Chips von NVidia "stammen". Da NVidia ( und das kann man nicht leugnen ) etwas teurere Grakas anbietet muss man sich nochmals überlegen ob am Text was dran sein kann. ;)
ich geb euch nen Tipp: Glaubt nicht immer sofort was ihr da lest. Schließlich ist es ( auch wenn es ein "Autor" ist ) nur das Internet ;)
mfg


1. NV hält seit Ende 2007 ca. 65% Marktanteile.. das spricht für sich. ;)
2. Wie sagt mein IS Lehrer so oft... denkt immer dran.. 80% im Netz sind Müll und die restlichen 20% sind zu gebrauchen. 8-)

P.s.: Ich möchte doch einfach nur den GF100 in Action sehen.. zuletzt dieses geile Physik-Vid.



Gruß
Noname

E1ite-Marc0
07.10.2009, 15:18
Ich wusste garnetmal von der GF100 soviel wie durch den Text... xD
Naja... ich bin meist net so Up-to-Date... Ich lass die Hardware einfach kommen... :twisted:

...
80% im Netz sind Müll und die restlichen 20% sind zu gebrauchen. 8-)
...
Ich dachte 99% Wäre gut und 1% Müll? Oder steht dein Lehrer net so auf Pornos? xD
MfG
Marc0

Jaco_E
07.10.2009, 15:23
Nur weil ein Chip nicht mehr produziert wid, heißt es ja nicht, dass er verschwindet.
Da werden erstma Lagerbestände abgebaut, was schonmal 3 Monate oder länger dauern kann.
In der Zeit verdient NV zwar nichts mehr an der Architektur aber der Gewinn wäre eh nicht mehr soo überragend hoch, dass das denen das Ende beschehren könnte.

Dennoch kann ich es glauben, dass sie in Punkto Preis/Leistung aktuell nicht mithalten könnten.
Die rechnen ja immernoch damit, dass sie die High- End- Sachen zu release für 600 Euro verkaufen können.
Das ist bei der Konkurenz aber nur noch an [rosa-] grünbebrillte möglich.

Noname
07.10.2009, 15:37
Man die sollen sich ja zusammenreißen :evil: und egfällst nen ordentliches Statement bin der nächsten 24h bringen, sonst knallts... Sowas >>> (* ) kann ich nicht ab!!!!!


*


Update 07. Oktober 2009

Laut einer Meldung von Fudzilla (http://www.fudzilla.com/content/view/15833/1/) kann Nvidia nicht nur kleinere Versionen des Fermi-Grafikchips auf verschiedenen Karten einsetzen, sondern dabei auch auf den teureren GDDR5-Speicher verzichten.

Stattdessen kann der neue Grafikchip auch mit GDDR3 umgehen und Nvidia könnte so die Kosten kleinerer Fermi-Grafikkarten senken. Da bisher die Spiele-Leistung des Fermi-Chips nicht zu beurteilen ist, ist es kaum möglich, die Auswirkungen von GDDR3 statt GDDR5 einzuschätzen.

Allerdings wird die Speicherbandbreite aufgrund der nur noch 384 Bit breiten Speicheranbindung bei GDDR3 dann unter der aktueller GT200-Grafikkarten liegen, die für den gleichen Speicher (http://crysis.4thdimension.info/forum/#) meistens ein 512-Bit-Interface verwenden. Ob die kleinere Anbindung dann ausreicht, einen wohl deutlich leistungsfähigeren Chip zu versorgen, wird sich zeigen.

http://www.gamestar.de/hardware/news/grafikkarten/1959414/nvidia.html


Die haben Marktanteile wie Sand am Meer gg-über ATI und jetzt so ein Mist. Ob die Meldung Fake ist oder nicht, was ich immermehr bezweifel.. die sollten mal ihre Politik überdenken....

Ich weiß noch, dass ich vor nen paar Seiten hier nen richtigen MiesmacherPost gg NV gelegt habe... dann stand genau sowas von wegen zu hohe Kosten.. keine Retabilität usw.
sollte sich das jetzt bewahrheiten ?

Wehe wenn, NV!!!!!



Gruß
Noname

Hepta
07.10.2009, 15:41
Falls diese Negativ-Gerüchte sich weiterhin so schnell ausbreiten und nVidia wirklich nicht schnell ein glaubwürdiges Statement dazu abgibt, kann denen das schon eine Wertsenkung der Aktien einbrocken.

Es gibt sicher viele Verrückte, die jetzt verkaufen. Zwar etwas unseriös und seltsam, aber so funktioniert der Martk

matt1974
07.10.2009, 16:28
Falls diese Negativ-Gerüchte sich weiterhin so schnell ausbreiten und nVidia wirklich nicht schnell ein glaubwürdiges Statement dazu abgibt, kann denen das schon eine Wertsenkung der Aktien einbrocken.

Es gibt sicher viele Verrückte, die jetzt verkaufen. Zwar etwas unseriös und seltsam, aber so funktioniert der Martk
Hmm, dann sollten mal alle schnell noch eine Karte kaufen, die das eh vorhatten, bevor bei Alternate und Co die Preise steigen. Ich sage nur DDR2 Ram, der hat sich fast verdoppelt seit März (zumindest bestimmte Modelle). Andererseits, wenn Nvidia ihre neuen Karten plazieren will müssen die Vormodelle weg, die machen sich doch selber den Preis kaputt. Also als Marketing Stratege würde ich so eine Meldung verbreiten um die Altbestände abzuverkaufen. Eine GTX 260 bekommt man für rund 130 Euro, will nicht wissen wie hoch die Entwicklungskosten waren und jetzt alle zu ATI gehen, wäre auch nicht gut fürs Geschäft. Hoffe das ist eine Ente.

Scaleo
07.10.2009, 16:34
Also als Marketing Stratege würde ich so eine Meldung verbreiten um die Altbestände abzuverkaufen.

Das Problem was Nvidia nur hat ist das sie noch keine funktionierenden GF100 Karten vorgeführt haben und das kommt so rüber als haben die starke Probleme damit den Chip herzustellen.
Dazu jetzt diese Meldung...
Da kanns passieren dass der Aktienkurs schnell absinkt.

Mfg Scaleo

matt1974
07.10.2009, 16:40
Das Problem was Nvidia nur hat ist das sie noch keine funktionierenden GF100 Karten vorgeführt haben und das kommt so rüber als haben die starke Probleme damit den Chip herzustellen.
Dazu jetzt diese Meldung...
Da kanns passieren dass der Aktienkurs schnell absinkt.

Mfg Scaleo
Wenn dem so wäre müssten die noch heute eine Adhoc Meldung machen, aus eigenem Interesse.

Captain-S
07.10.2009, 17:19
Wenn dem so wäre müssten die noch heute eine Adhoc Meldung machen, aus eigenem Interesse.

Warum sollte Nvidia auf eine Meldung von Charlie reagieren?

Übrigens ist der Aktienkurs von NV heute stark eingebrochen,
ganze 0,73 % gings runter. :smile:

http://aktien.onvista.de/snapshot.html?ID_OSI=92472

spYder
07.10.2009, 17:24
wahrscheinlich wegen diesem Gerücht :-D

Servitor
08.10.2009, 12:27
Update 8. Oktober 2009

Gegenüber heise online hat Nvidia die Behauptungen von SemiAccurate zurückgewiesen, aber gleichzeitig bestätigt, dass momentan die Nachfrage die Bestände an produzierten Grafikchips übersteigt.

Herstellern wie Gigabyte, Gainward und Zotac ist nichts von der Einstellung der Geforce-GTX- Grafikkarten bekannt, während Asus keinen Kommentar zu den Gerüchten abgeben wollte. Gigabyte erwartet außerdem, dass der Lieferengpass bei der Geforce GTX 275 wohl nur bis Mitte November anhalten werde.

Damit scheint zumindest bestätigt, dass es in den nächsten Wochen schwer sein wird, aktuelle Nvidia-Karten zu kaufen. Ob in den - im Internet heiß diskutierten - Behauptungen von SemiAccurate überhaupt ein Körnchen Wahrheit steckt, wird sich zeigen müssen. Ken Brown von Nvidia unterstellt in einer E-Mail an HardOCP indirekt, dass AMD hinter den Gerüchten stecke. Es sei kein Zufall, dass SemiAccurate aussehe wie eine AMD-Werbung.

Q: http://www.gamestar.de/hardware/news/grafikkarten/1959475/nvidia.html


na na AMD , so geht das aber nicht. ;-)

Dark9
08.10.2009, 12:40
Weiterhin Nvidia-Grafikkarten, aber Lieferengpässe


Gestern berichteten (http://winfuture.de/news,50429.html) wir darüber, dass Nvidia (http://winfuture.de/news,50488.html#) womöglich in Kürze seine Modelle GTX285 und GTX260 vom Markt nehmen wird. Wie Nvidia jetzt gegenüber WinFuture mitteilte, ist der Bericht von 'SemiAccurate (http://www.semiaccurate.com/2009/10/06/nvidia-kills-gtx285-gtx275-gtx260-abandons-mid-and-high-end-market/)' falsch.

Jedoch kommt es derzeit zu Lieferengpässen, so dass die Nachfrage die Produktionskapazitäten in Krisenzeiten übersteigt. Auch die Partner des Unternehmens, die die eigentlichen Grafikkarten (http://winfuture.de/news,50488.html#) herstellen, konnten ein Auslaufen der besagten Modelle nicht bestätigen. Sie gaben an, dass Nvidia nicht ausreichend Grafikchips liefern kann.
Jedoch bleibt das eigentliche Probleme, was ursprünglich zu den Gerüchten führte, bestehen. Dem Bericht zufolge hat Nvidia vorerst keine Möglichkeit, weiter mit ATI im Bereich der High-End- und Mid-Range-Grafikkarten zu konkurrieren. Zwar hat das Unternehmen (http://winfuture.de/news,50488.html#) Chips, die in Sachen Leistung mithalten können, doch die Kosten sind angeblich so hoch, dass beim großen Konkurrenzdruck im Bereich der Add-In-Grafikkarten keine Gewinne mehr erwirtschaftet werden könnten.

Man wird also abwarten müssen, wie Nvidia die aktuelle Krise meistern wird. Auch die beste Technologie (http://winfuture.de/news,50488.html#) nützt nichts, wenn man sie nicht verkaufen kann und selbst dann keine Gewinne erwirtschaftet.

quelle: http://winfuture.de/news,50488.html (http://winfuture.de/news,50488.html)

Servitor
08.10.2009, 14:10
Nvidia

Chipsatz-Entwicklung eingestellt



Wie PCMag meldet, hat Nvidia seine nForce-Chipsatz-Serie vorerst eingestellt. Grund dafür sind die rechtlichen Auseinandersetzungen zwischen Intel und Nvidia. Man werde Investitionen in diesen Bereich verschieben, so Robert Sherbin von Nvidia.

Man glaube zwar immer noch, dass der Chipsatz-Bereich ein langes Leben vor sich habe, doch die unfairen Taktiken von Intel würden es Nvidia unmöglich machen, neue Chipsätze auf den Markt zu bringen. Laut Intel hat Nvidia keine Lizenz für die Produktion von Chipsätzen für die Core i7-Serie mit integriertem Speichercontroller.

Obwohl diese Probleme nur Intel-Chipsätze betreffen, hat Nvidia auch die Entwicklung für AMD-Prozessoren eingestellt. Damit dürften in absehbarer Zukunft fast alle Intel- und AMD-Systeme auch deren Chipsätze verwenden.

Q:http://www.gamestar.de/hardware/news/chipsaetze/1959498/nvidia.html

Lobos
08.10.2009, 14:21
Kann man ja fast sagen das durch die Fusionierung zwischen AMD und ATI das beste war, was sie machen konnten. Nvidia hat es wirklich schwer, einer der größten wird plötzlich ziemlich klein. Vielleicht läuft da wirklich was mächtig schief bei Nvidia? Da sag mal einer das Konkurrenz auf langer Sicht gesehen gut ist fürs Geschäft!?

Blue Dragon
08.10.2009, 14:29
ey f*ck auf die seite
grade ein gerücht begraben und fehlerhaft
ach nehmen wa doch mal die MoBos... mh aja nvidia chipsätze ... da kann man ja auch noch n paar aktien runterschrauben
WAS IS DAS NÄCHSTE ... mh physikX is ja auch ******* und die brille is auch zum drauf scheißen ... halt ne klobrille
EY ich WILLL WAS Positives hören

zB ATI hat soeben bemerkt das sie gar kein geld mehr in der kasse haben und nun muss die 5870 x2 leider dran glauben und kann nicht mehr produziert werden
bzw der phenom II war auch n ****** flop

DAS WILL ICH HÖREN
ATI SOLL SCHEIßEN GEHEN

Tig3r0023
08.10.2009, 14:30
ey f*ck auf die seite
grade ein gerücht begraben und fehlerhaft
ach nehmen wa doch mal die MoBos... mh aja nvidia chipsätze ... da kann man ja auch noch n paar aktien runterschrauben
WAS IS DAS NÄCHSTE ... mh physikX is ja auch ******* und die brille is auch zum drauf scheißen ... halt ne klobrille
EY ich WILLL WAS Positives hören

zB ATI hat soeben bemerkt das sie gar kein geld mehr in der kasse haben und nun muss die 5870 x2 leider dran glauben und kann nicht mehr produziert werden
bzw der phenom II war auch n ****** flop

DAS WILL ICH HÖREN
ATI SOLL SCHEIßEN GEHEN

Am besten soll es beiden gut gehen ;) Dann bleibt der Konkurenzkampf erhalten und dies wirkt sich auf positiv auf die Preise aus.

Link93
08.10.2009, 19:41
http://forums.gametrailers.com/thread/-nvidia-it-gave-up---bomb-/936852
Ich weiß nicht ob es wahr ist oder sogar schon gepostet wurde, ich hab nichtmal Bock das durchzulesen. Tut mir leid wenn einer der beiden ersten Fälle eintritt.

PIMP50
08.10.2009, 19:45
ey f*ck auf die seite
grade ein gerücht begraben und fehlerhaft
ach nehmen wa doch mal die MoBos... mh aja nvidia chipsätze ... da kann man ja auch noch n paar aktien runterschrauben
WAS IS DAS NÄCHSTE ... mh physikX is ja auch ******* und die brille is auch zum drauf scheißen ... halt ne klobrille
EY ich WILLL WAS Positives hören

zB ATI hat soeben bemerkt das sie gar kein geld mehr in der kasse haben und nun muss die 5870 x2 leider dran glauben und kann nicht mehr produziert werden
bzw der phenom II war auch n ****** flop

DAS WILL ICH HÖREN
ATI SOLL SCHEIßEN GEHEN

omg...geh mal leben :D

wenn ati bzw amd nicht wär müsstes du 1000euro oder mehr für ne kleine graka bezahlen!

1337_alpha
08.10.2009, 19:47
Wollte grad sagen!

Dein Gehampel lass mal bitte bleiben -.-

pcfreak60
08.10.2009, 19:53
ey f*ck auf die seite
grade ein gerücht begraben und fehlerhaft
ach nehmen wa doch mal die MoBos... mh aja nvidia chipsätze ... da kann man ja auch noch n paar aktien runterschrauben
WAS IS DAS NÄCHSTE ... mh physikX is ja auch ******* und die brille is auch zum drauf scheißen ... halt ne klobrille
EY ich WILLL WAS Positives hören

zB ATI hat soeben bemerkt das sie gar kein geld mehr in der kasse haben und nun muss die 5870 x2 leider dran glauben und kann nicht mehr produziert werden
bzw der phenom II war auch n ****** flop

DAS WILL ICH HÖREN
ATI SOLL SCHEIßEN GEHEN

Komm mal wieder runter, und lass das Fanboygelaber.
Ich sehe es wie tiger. Wenn es nur eine Grossmacht gibt ohne Konkurenz, können die die Preise selber bestimmen. Nur Konkurenzkampf und alterung der Ware lässt die Preise fallen.

Blue Dragon
09.10.2009, 13:14
gott nein ihr habt das falsch verstanden!
ich mein nich das ati untergehen soll aber auch nvidia nich
und zur zeit geht nvidia unter ... hauptsächlich durch solche gerüchte
hab mich wohl n bischen zu sehr aufgeregt, sorry-.-
außerdem bin ich jetzt nich wirklich so der fanboy wenn ich selber schon darüber nachdenke das so ne 5870 x2 auch super sein kann
aber ich warte halt noch auf nvidia...
nur diese typen die die ganze zeit ******* über nvidia schreiben nur um denen zu schaden würde ich am liebsten in die tonne kloppen, so mein ich das
ich WILL mal was von nvidia selber hören, bzw das physik video is doch schon ziemlich geil^^

also sorry wegen fehlinterpretationen

1337_alpha
09.10.2009, 13:17
Mooment mal
Es hat ja noch keiner bestätigt ob es richtig oder falsch ist

Wer weiß...
Vielleicht ist an den Gerüchten auch was wahres dran

Fusion145
09.10.2009, 13:36
Das mit den Chipsätzen wurde jetzt ja eigentlich schon von Nvidia bestätigt:

Keine Nvidia Chipsätze für Lynnfiel und co. (http://www.computerbase.de/news/hardware/chipsaetze/nvidia/2009/oktober/keine_chipsaetze_nvidia_lynnfield_co/)
Keine neuen Nvdia Chipsätze mehr für AMD CPUs (http://www.computerbase.de/news/hardware/chipsaetze/nvidia/2009/oktober/keine_nvidia-chipsaetze_amd-cpus/)

1337_alpha
09.10.2009, 13:45
Wer sollte die Krücken denn auch kaufen? :D

Dark9
09.10.2009, 13:50
gott nein ihr habt das falsch verstanden!
ich mein nich das ati untergehen soll aber auch nvidia nich
und zur zeit geht nvidia unter ... hauptsächlich durch solche gerüchte
hab mich wohl n bischen zu sehr aufgeregt, sorry-.-
außerdem bin ich jetzt nich wirklich so der fanboy wenn ich selber schon darüber nachdenke das so ne 5870 x2 auch super sein kann
aber ich warte halt noch auf nvidia...
nur diese typen die die ganze zeit ******* über nvidia schreiben nur um denen zu schaden würde ich am liebsten in die tonne kloppen, so mein ich das
ich WILL mal was von nvidia selber hören, bzw das physik video is doch schon ziemlich geil^^

also sorry wegen fehlinterpretationen

mich in ne tonne kloppen?? lol, ich kopiere sozusagen nur aus anderen foren.
und ja bin ati fanboy,trotzdem ist es enttäuschend für mich das nvidia zzt nicht so gut da steht, da wird meine zukünftige 5870x2 wohl teurer als erwartet.


Nvidia

Chipsatz-Entwicklung eingestellt

das hat aber nix mit grafikkarten zu tun, gehört in anderen threat oder?

Fusion145
09.10.2009, 13:50
Wer sollte die Krücken denn auch kaufen? :D

Es gibt viele die, die kaufen schau dich alleine mal hier im Forum um (ich selber würde nie ein Board mit Nvidia Chipsatz nehmen)
Aber nun wieder B2T :wink:

siLenz
09.10.2009, 13:53
tia wer bislang sli nutzen wollte, musste zu nvidea chipsaetzen greifen.

Dark9
09.10.2009, 13:59
tia wer bislang sli nutzen wollte, musste zu nvidea chipsaetzen greifen.

stört mich nicht wenns anders kommt.

würd mich auf ein amd board freuen mit amd chipsatz und crossfire für 2x 5870x2 :lol:

Sommermn
09.10.2009, 14:01
Grafikchips und Grafikkarten hängen so nah aneinander, da ist das doch in Ordnung oder?!
Übrigens würde ich mich freuen wenn ich ständig solche posts kommen würden wie

Wer sollte die Krücken denn auch kaufen? :grin:

Blue Dragon
09.10.2009, 16:47
mich in ne tonne kloppen?? lol, ich kopiere sozusagen nur aus anderen foren.
und ja bin ati fanboy,trotzdem ist es enttäuschend für mich das nvidia zzt nicht so gut da steht, da wird meine zukünftige 5870x2 wohl teurer als erwartet.

ihr versucht auch alles falsch zu verstehen was man nur falsch verstehen kann...-.-
nicht dich in die tonne kloppen sondern den autor bzw. die internetseite die das veröffentlicht obwohl es nur spekulationen sind
du kannst als ati fanboy ja mal garnichts dafür^^

Servitor
12.10.2009, 15:25
NEUE NEWS 13.10.2009





DirectX-10.1-Karte Geforce GT 240

Während viele Grafikkarten-Hersteller in den letzten Tagen die wegen ihrer 48 Shader für Spieler kaum interessanten Geforce GT220 und G210 vorgestellt haben, gibt es Gerüchte über eine weitere Karte mit der Bezeichnung Geforce GT 240.

Die GT 240 soll über 96 Shader verfügen und auf dem Mobil-Grafikchip GT215 basieren. Der Speicherausbau beträgt entweder 1 GByte DDR3 mit 900 MHz oder 512 MByte GDDR5 mit 1,8 GHz, die jeweils über ein 128-Bit-Interface angebunden werden. Die GPU soll mit 550 MHz getaktet sein, während der Shadertakt 1.340 MHz betragen soll.

Zumindest die GDDR5-Variante ist in der Lage, die Geforce 9800 GT manchmal zu schlagen, wie wenigen Benchmarks von it168 zeigen. Wann und zu welchem Preis die Karte in den Handel kommt, ist noch nicht bekannt.



Update: 12. Oktober 2009


Das Thema »Einstellung der Geforce GTX 285, GTX 275 und GTX 260« scheint wohl doch noch nicht gänzlich vom Tisch zu sein, denn wie die meist Nvidia-freundliche Webseite Fudzilla heute meldet, sehen sich mehrere Nvidia-Partner dazu gezwungen, diese Karten einzustellen.

Als Grund wird genannt, dass die Verfügbarkeit der Grafikchips seitens Nvidia »desaströs« sei. Ob dahinter eine Absicht von Nvidia steckt, um nicht auf älteren Grafikchips sitzen zu bleiben oder ob man einfach nicht genug GPUs hergestellt hat, ist unklar.

Wenn aber Nvidia-Partner ihre Geforce GTX-Karten einstellen, dürfte das den gleichen Effekt haben, den eine Einstellung seitens Nvidia hätte: ATI bleibt mit seiner DirectX-11-Generation um die Radeon HD 5870 für einige Wochen, wenn nicht sogar Monate, ohne wirkliche Konkurrenz.



Update 13. Oktober 2009



Bright Side of News hat von einigen Nvidia-Partnern eine gegenteilige Aussage erhalten. Nach deren Angaben gäbe es nach wie vor eine Massenproduktion der GT200-Grafikchips, von denen es sogar eine Refresh-Version geben soll.

Allerdings scheint es so zu sein, dass einige europäische Partner keine Grafikchips von Nvidia erhalten und die meisten davon an Grafikkarten-Hersteller in den USA gehen. Dort soll es laut BSN überhaupt keine Probleme mit der Menge an verfügbaren Nvidia-GPUs geben.

Es ist also denkbar, dass die Quelle der Meldungen bei den europäischen Partnern liegt, die zurzeit keine Grafikchips mehr erhalten. Rein aus der Luft gegriffen sind die Gerüchte aber anscheinend nicht.




http://www.gamestar.de/hardware/news/grafikkarten/1959475/nvidia.html

Sommermn
22.10.2009, 16:51
Naja... Hier mal eine kleine Bemerkung an die Mods:
Ich finde es leicht unfair, dass das Thema "ATI 5000er Serie" gepinnt wird, der GT300 Thread allerdings nicht;) Würde es auf jeden Fall besser finden wenn beide Themen gepinnt wären:roll:
mfg

randfee
22.10.2009, 17:05
Naja... Hier mal eine kleine Bemerkung an die Mods:
Ich finde es leicht unfair, dass das Thema "ATI 5000er Serie" gepinnt wird, der GT300 Thread allerdings nicht;) Würde es auf jeden Fall besser finden wenn beide Themen gepinnt wären:roll:
mfg

die ati 5000er serie ist Realität, die GT300 ist noch nicht vorhanden! Sobald diese mal released wird kann man es auch pinnen, vorher wäre das ja unfair.

Tig3r0023
29.10.2009, 07:19
Fehler verät neue Mobile Grafikkarten.
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2009/oktober/fehler_geforce-300-karten/

Hab ich mich gestern auch gewundert, warum diese schon drinne waren :D
Edit : Sind immer noch vorhanden.
http://www.nvidia.de/Download/index.aspx?lang=de

Tig3r0023
31.10.2009, 13:07
Angebliche Renderbilder!

Obwohl Bild 2 mir ZU real erscheint...

http://www.pcgameshardware.de/aid,698556/Angebliche-Fermi-Renderings-sorgen-fuer-vermeintliches-Aufsehen/Grafikkarte/News/

EDIT :


Boah wenn das wirklich Render Bilder sind, dann mag ich gar nicht erst wissen was uns in einem Jahr an Renderbilder erwarten mag :D

Ja sehe ich genauso! Richtig krank was da abgeliefert wird!

ZaCXeeD
31.10.2009, 13:15
Angebliche Renderbilder!

Obwohl Bild 2 mir ZU real erscheint...

http://www.pcgameshardware.de/aid,698556/Angebliche-Fermi-Renderings-sorgen-fuer-vermeintliches-Aufsehen/Grafikkarte/News/

Boah wenn das wirklich Render Bilder sind, dann mag ich gar nicht erst wissen was uns in einem Jahr an Renderbilder erwarten mag :D

Lobos
31.10.2009, 13:16
verstehe zwar nicht wirklich was das mit Renderszenen zu tun hat aber das Video ist von den Playground Festival

http://www.youtube.com/watch?v=HCvDwzVqpls

Tig3r0023
31.10.2009, 13:59
Bin mir nicht sicher wo ich es posten soll..

http://www.pcgameshardware.de/aid,698561/Asus-und-Nvidia-stellen-Desktop-Supercomputer-mit-1-1-Teraflops-Rechenleistung-vor/Grafikkarte/News/


Asus und Nvidia stellen Desktop-Supercomputer mit 1,1 Teraflops Rechenleistung vor



Das Ding ist ein Monster! Kostet aber auch um die 16.000€...

ZaCXeeD
31.10.2009, 14:13
verstehe zwar nicht wirklich was das mit Renderszenen zu tun hat aber das Video ist von den Playground Festival

http://www.youtube.com/watch?v=HCvDwzVqpls

Neja ich glaub das nVidia da ihrer raytracing Technologie usw. eingesetzt hat um das Video zu machen...keine Ahnung. Vielleicht kommt ja noch was offizielles von nVidia dazu raus.


Bin mir nicht sicher wo ich es posten soll..

http://www.pcgameshardware.de/aid,698561/Asus-und-Nvidia-stellen-Desktop-Supercomputer-mit-1-1-Teraflops-Rechenleistung-vor/Grafikkarte/News/



Das Ding ist ein Monster! Kostet aber auch um die 16.000€...

Hmmm...was soll man sagen. Ein Kleinwagen ;)

Ovomaltine
31.10.2009, 14:16
Ist fake der trailer, wurde auch schon geschrieben ;-)

Stammt von hier

http://www.revolver.nl/index.php?page=workdetail&CID=2147


MFG
Ovo

Black_Death
31.10.2009, 14:18
Jap und außerdem wer ausdauer hat und sich den Abspann ansieht, sieht das die Kämfer real (nicht gerender oder realtime) sind.

Cephei
31.10.2009, 15:29
Bin mir nicht sicher wo ich es posten soll..

http://www.pcgameshardware.de/aid,698561/Asus-und-Nvidia-stellen-Desktop-Supercomputer-mit-1-1-Teraflops-Rechenleistung-vor/Grafikkarte/News/



Das Ding ist ein Monster! Kostet aber auch um die 16.000€...

Kann ich mir das Teil als reicher Schnösel kaufen und als Desktop PC benutzen? :mrgreen:

XcorpioN
31.10.2009, 16:37
Bin mir nicht sicher wo ich es posten soll..

http://www.pcgameshardware.de/aid,698561/Asus-und-Nvidia-stellen-Desktop-Supercomputer-mit-1-1-Teraflops-Rechenleistung-vor/Grafikkarte/News/



Das Ding ist ein Monster! Kostet aber auch um die 16.000€...

Ja, für 5 Jahre mit Strom und allem... siehe Zitat hier

"[...] belaufen sich die Kosten für ein solches System - inklusive Hardware, Strom- und Wartungskosten für 5 Jahre - auf rund 16.665 Euro"

Tig3r0023
31.10.2009, 16:46
Ja, für 5 Jahre mit Strom und allem... siehe Zitat hier

"[...] belaufen sich die Kosten für ein solches System - inklusive Hardware, Strom- und Wartungskosten für 5 Jahre - auf rund 16.665 Euro"

Ehm ja? Wurd ja auch geschrieben :grin:

Link93
01.11.2009, 16:00
http://www.electronista.com/articles/09/10/30/nvidia.fermi.details.escape/

blabla, guckt an, wow tolle render, blabla :)

Ovomaltine
01.11.2009, 16:02
http://www.electronista.com/articles/09/10/30/nvidia.fermi.details.escape/

blabla, guckt an, wow tolle render, blabla :)

Lawl, das es einige noch imma net checken, das es nur nen fake is ;-)

MFG
Ovo

Link93
01.11.2009, 16:03
Lawl, das es einige noch imma net checken, das es nur nen fake is ;-)

MFG
Ovo
Wusst ich nicht, habs nur im Gametrailersforum gesehen.
Hätt ich mir denken können.

eFFeCTiVe
04.11.2009, 08:51
Gibts eigentlich schon bestätigte RLS-Termine? Hab was gelesen vom 4. Quartal dieses Jahr, d. h. die müssten ja um Weihnachten rum kommen:???: Sry bin grad etwas konfus...

Lobos
04.11.2009, 10:29
Gibts eigentlich schon bestätigte RLS-Termine? Hab was gelesen vom 4. Quartal dieses Jahr, d. h. die müssten ja um Weihnachten rum kommen:???: Sry bin grad etwas konfus...

Sichere Quellen gibt es leider nicht aber hab irgendwo im Forumdeluxx lesen können das man auf den 1.Q 2010 tippt, Nvidia ist einfach zu ruhig.:-(

eFFeCTiVe
04.11.2009, 10:35
Sichere Quellen gibt es leider nicht aber hab irgendwo im Forumdeluxx lesen können das man auf den 1.Q 2010 tippt, Nvidia ist einfach zu ruhig.:-(

Mist, dabei wollte ich zu Weihnachten ne Monsterkiste haben:( Muss ich mich wohl mit dem GT200 begnügen:-| Nagut, wenn man ne 7000er-NVidia hat, wird man so oder so überrascht sein:-D

Lobos
04.11.2009, 11:28
Mist, dabei wollte ich zu Weihnachten ne Monsterkiste haben:( Muss ich mich wohl mit dem GT200 begnügen:-| Nagut, wenn man ne 7000er-NVidia hat, wird man so oder so überrascht sein:-D

Wie gesagt es ist nur ein Gerücht! Hab hier noch eine aktuelle Nachricht, die wie ich finde, sich gar nicht mal so unglaubwürdig anhört. Hier der Link: http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2009/november/nvidias_fermi_ces_2010/

Scaleo
08.11.2009, 20:36
Massenproduktion erst 2010


Nvidias CEO Jen Hsun-Huang hat im Rahmen der Bekanntgabe der Geschäftszahlen nun jedoch klargestellt, dass die Massenproduktion des Fermi-Chips erst im 1. Quartal 2010 anlaufen wird. Nvidia werde im 1. Quartal mehr 40nm-Wafer benötigen als je zuvor, denn dann werde man den Fermi-Chip für drei verschiedene Produktreihen herstellen: Geforce, Quadro und Tesla.


Quelle (http://www.gamestar.de/index.cfm?pid=398&pk=2310368&sortorder=asc&fp=4#liststart)

Mfg Scaleo

Westi01
09.11.2009, 16:34
Hier steht schon was auf Wikipedia dazu :)
http://en.wikipedia.org/wiki/Comparison_of_Nvidia_graphics_processing_units#GeF orce_300_Series

xeonsys
11.11.2009, 15:31
Zeigt Nvidia die erste echte Fermi-Grafikkarte auf der SC09?



Fermi-basierte Grafikkarten sind bislang rar. Auf der Supercomputing-09-Conference will Nvidia nun Tesla-Grafikkarten auf Fermi-Basis zeigen - so die offizielle Ankündigung auf der Nvidia-Homepage.


"Now, I have one right here. This, Ladies and Gentlemen, this puppy here is Fermi. It just came back from Fab." - mit diesem Satz und dem dazugehörigen Grafikkarten-Dummy, auf dem nicht einmal eine GPU verlötet war, löste Nvidia-Chef Jen-Hsun Huang auf der GTC 09 einigen Wirbel (http://www.pcgameshardware.de/aid,696495/Nvidia-Fermi-Praesentierte-G300-Grafikkarte-auf-der-GTC-nicht-lauffaehig/Grafikkarte/News/) aus. Auf der Supercomputing 09 sollen nun Tesla-GPUs und Live-Demos zu sehen sein, welche Fermi in Action zeigen.

Der Wortlaut der Nvidia-Webseite zur SC09 (http://www.nvidia.com/object/sc09.htm):
Must See Demos
Tuesday, November 17 - Thursday November 19 | NVIDIA Booth # 2365
• See "Fermi” in Action
Come see a live demonstration of the next generation CUDA™ GPU computing (http://www.pcgameshardware.de/aid,699221/Zeigt-Nvidia-die-erste-echte-Fermi-Grafikkarte-auf-der-SC09/Grafikkarte/News/#) architecture, codenamed "Fermi”. The Fermi-based Tesla™ GPUs are mass market parallel processors and fuel the HPC industry's transition to parallel processing. Compared to the latest quad-core CPUs, the Fermi-based Tesla GPUs deliver equivalent performance at 1/20th the power consumption and 1/10th the cost.


Man darf gespannt sein, ob Fermi wieder im Rahmen einer Black-Box-Präsentation gezeigt wird, bei der das eine oder andere GPU-Computing-Demo, vorzugsweise mit doppeltgenauen Gleitkommaberechnungen auf eine Video-Leinwand gestreamt wird, oder ob Nvidia auf der SC09 mehr oder weniger finale Fermi-basierte Tesla-Produkte zeigen wird.
Die Supercomputing 09 findet vom 14. bis 20. November in Portland, Oregon statt und beschäftigt sich, wie der Name andeutet, mit Großrechnern. Ein weiteres Zeichen dafür, wie wichtig Nvidia diesen Bereich inzwischen einstuft.

http://www.pcgameshardware.de/aid,699221/Zeigt-Nvidia-die-erste-echte-Fermi-Grafikkarte-auf-der-SC09/Grafikkarte/News/

Crythic
12.11.2009, 20:11
Hallo,

gibt es eigl. schon Preisliche Vorstellungen von der GTX 395?

Passt sie zu meinen anderen Hardware Komponenten?

Mein System:


Quad Q8200
2 x 2048MB DDR2

1337_alpha
12.11.2009, 20:15
Die passt absolut nicht zu deinem Sys
Ich denke einer GTX395 wird nur ein Core i7 System gerecht

Bei deinem System wäre es verschwendetes Geld ;)

Lobos
12.11.2009, 20:18
Darüber kann man sich erst Gedanken machen wenn es soweit ist und ne 395 kommt erst lange nach dem 380! Also abwarten und weiter sehen. Der i7 ist kein Musterbeispiel ich denke ein i5 würde auch langen oder eben c2d quad 9550 oder 9650 aber das werden wir dann sehen. Momentan ist der Fermi nur ein Papiertieger:twisted:

Crythic
12.11.2009, 20:19
Also i denke mal als "Amateur" der RAM sollte reichen hab nur 32bin Vista Home Preium

welche Rechenleistung hat der i7?

Lobos
12.11.2009, 20:23
Also i denke mal als "Amateur" der RAM sollte reichen hab nur 32bin Vista Home Preium

welche Rechenleistung hat der i7?

kommt darauf an welchen nun meinst? ^^

Der 920 hat 4x 2,6 Ghz
der 950 hat 4x 3,0 Ghz
der 960 hat 4x 3,2 Ghz
der 975 hat 4x 3,3 Ghz

allerdings ist hier die Geschwindigkeit nicht ganz so das entscheidende sonst könntest du auch nen c2d 8400 mit 3,5 Ghz nehmen! Die Architektur ist das entscheidende etwas, der Ram dürfte schon reichen allerdings wäre einer mit 1066 Taktung besser

Crythic
12.11.2009, 20:28
und was würde so ein prozesser kosten...

Lobos
12.11.2009, 20:35
und was würde so ein prozesser kosten...

Also wenn du umbedingt einen 920er haben willst brauchst du auch ein Mainboard +Ram und evtl. ein stärkeres Netzteil. Was für eins hast du?

920 + Mainbaoard + Ram!
Bundle Preis in etwa 400-450€

Ein Core i5 würde auch gehen und der ist schon günstiger zu haben. Dazu dann halt Mainboard und Ram

750 + Mainbaoard + Ram!
Bundle Preis in etwa 300-350€

wobei ein Q9550 auch reichen dürfte und zusammen mit nen ordentlichen Ram upgrade nochmal gut 1-1/2 Jahre für Spiele reichen wird

Crythic
12.11.2009, 20:40
Also sagen wir mal so, es ist besser, wenn ich mir gleich einen High-End-Gamimg Rechner zusammenbaue?

Kannst du mir welche Hardware die beste ist?

Also GTX 395, I7, usw.?...

Betreibssystem würd ich dann auf Windos 7 umsteigen

Lobos
12.11.2009, 20:45
Also sagen wir mal so, es ist besser, wenn ich mir gleich einen High-End-Gamimg Rechner zusammenbaue?

Kannst du mir welche Hardware die beste ist?

Also GTX 395, I7, usw.?...

Betreibssystem würd ich dann auf Windos 7 umsteigen


Naja sagen wir mal so, man sollte immer für jetzt aufrüsten und nicht für etwas was in ein paar Jahren mal ist. Wenn du wirklich nur zocken willst und auch nicht so viel Geld hast, hast du die Qual der Wahl. Intel oder AMD, beides können richtig gute Systeme sein, wobei AMD da die Nase vorn hat was P/L angeht. Wenn du aber nicht komplett auf ein neuen Sockel umsteigen willst hast du die Möglichkeit deiner CPU und deinem RAM ein upgrade zu verpassen.

Was sagst du?

Crythic
12.11.2009, 20:51
Ich werde früher oder später auf einen High-End zusamenbauen, aber wie du schon sagstest es wird wohl noch 1-2 Jahre dauern.
Zur P/L...ich schau nicht auf den Preis sondern auf Qualität & Leistung :wink:

Ich würd eher auf intel gehen, da die meisten Games für intel ausgelegt sind...wie crysis auf intel & nvida ausglegt ist :wink:

Lobos
12.11.2009, 20:55
Na wenn es noch 1-2 Jahre dauert dann nimm ein neuen c2d Quad 9550 (kannst gut übertakten), 2x 2GB 1066Mhz Kit Corsair Dominator und eine ATI 5850 bis 22" und wenn du 24" besitzt dann eher die 5870 oder ende des Monats die 5970. Dann reicht das zocken auf maximaler Auflösung ohne Probleme

Crythic
12.11.2009, 20:58
Warum würdest du die ATI nehmen, anstat der Nvida?...ich hab eine HD Readon 4850 und die hat manchmal mit der Textur probleme:x

Lobos
12.11.2009, 21:05
Warum würdest du die ATI nehmen, anstat der Nvida?...ich hab eine HD Readon 4850 und die hat manchmal mit der Textur probleme:x

Weil sich jetzt eine Nvidia kaufen kein Sinn machen würde, zu teuer und zu wenig Leistung für den Preis. ATI/AMD hat sich mit der 5er Reihe stak verbessert und man kann bei den Karten für das gebotene nicht meckern. Dann kommt noch hinzu das die Karten bereits DX11 beherrschen! Du kannst allerdings auch auf die Fermi von Nvidia warten aber das wird dieses Jahr wohl nix mehr, vielleicht eher so Februar oder März 2010

1337_alpha
12.11.2009, 21:08
Jetzt etwas zusammenzustellen würde keinen Sinn machen ;)
Warte doch noch etwas ab ;)

Lobos
12.11.2009, 21:12
Jetzt etwas zusammenzustellen würde keinen Sinn machen ;)
Warte doch noch etwas ab ;)

Deshalb sagte ich ja, wenn er die Leistung jetzt braucht soll er aufrüsten, wenn nicht zwingend notwendig dann später aufrüsten. Man sollte immer nur dann Geld dafür investieren wenn es auch gerade Sinn macht. Später gibt es immer was besseres und man ärgert sich zu tode

Crythic
12.11.2009, 21:18
Also momentan ist aufrüsten kein Thema für mich, da ich einfach das Geld nicht habe :-(

Frühestes in einem Jahr. Mein Rechner packt Crysis auf hoch bis auf das letze Levl, da kakt das spiel immer ab :x

Also ich würde sagen, beenden wir diese Diskusion und kehren zum eigl. Thema zurück;)

Lobos
12.11.2009, 21:19
Also momentan ist aufrüsten kein Thema für mich, da ich einfach das Geld nicht habe :-(

Frühestes in einem Jahr. Mein Rechner packt Crysis auf hoch bis auf das letze Levl, da kakt das spiel immer ab :x

Also ich würde sagen, beenden wir diese Diskusion und kehren zum eigl. Thema zurück;)

Dito, so macht es keine Sinn mit dem Aufrüsten^^:lol:8-)

Tig3r0023
16.11.2009, 15:21
Nvidia stellt erste Fermi Karte vor.

http://www.pcgameshardware.de/aid,699514/Tesla-S20-Serie-Nvidia-stellt-erste-Fermi-Grafikkarte-vor/Grafikkarte/News/

randfee
16.11.2009, 15:44
hm... die weniger single precision performance hat als Atis 5870 und nur 15% mehr double precision.... und das in der dicksten Ausführung. Gut, das sagt zur Spiele-Performance noch nicht viel, aber damit ist die OpenCL schon mal eingegrenzt.

xeonsys
18.11.2009, 09:45
Nvidia Fermi GF100 first working desktop card spotted



A few hours ago, the Nvidia engineers running the company’s Facebook page uploaded a picture of what appears to be the first working sample of a 40nm GF100 high-end card based on Fermi architecture, the first to make its way on the internet.

http://www.fudzilla.com/images/stories/2009/November/General%20News/first_working_gf100.jpg

Original size (http://www.facebook.com/photo.php?pid=2883759&id=8409118252#/photo.php?pid=2883759&id=8409118252)

The image was uploaded at 9:45pm PST and depicts the Geforce desktop card running Uningine’s Heaven DirectX 11 benchmark on a Dell 24-inch monitor, so we can rationally assume that the benchmark resolution is 1920x1200. The core hardware configuration appears to be composed of an ASUS Rampage II Extreme (http://www.newegg.com/Product/Product.aspx?Item=N82E16813131352) LGA 1366 motherboard coupled with undetermined Core i7 processor and DDR3 memory.
Upon close inspection in Photoshop with the help of others, it appears that the 40nm Fermi-based GF100 monster is using a PCI-Express 8-pin adapter on the left and a 6-pin adapter on the right, so nothing is new in terms of PSU hardware requirements for enthusiast consumers. It is important to note that this particular engineering sample GPU is using the recently taped-out A2 silicon (http://www.fudzilla.com/content/view/16342/34/). Our multiple internal sources have previously confirmed that the company will move to A3 silicon for its final retail products.

http://www.fudzilla.com/content/view/16470/34/

pic hq

http://www.facebook.com/photo.php?pid=2883759&id=8409118252#/photo.php?pid=2883759&id=8409118252

Tig3r0023
21.11.2009, 16:14
Nvidia glaubt: Warten auf Fermi lohnt sich, Spieler werden nicht enttäuscht

http://www.pcgameshardware.de/aid,699887/Nvidia-glaubt-Warten-auf-Fermi-lohnt-sich-Spieler-werden-nicht-enttaeuscht/Grafikkarte/News/

randfee
21.11.2009, 16:25
Nvidia glaubt: Warten auf Fermi lohnt sich, Spieler werden nicht enttäuscht

http://www.pcgameshardware.de/aid,699887/Nvidia-glaubt-Warten-auf-Fermi-lohnt-sich-Spieler-werden-nicht-enttaeuscht/Grafikkarte/News/

es wäre auch sehr komisch, wenn Nvidia was anderes behaupten würde. Ich glaube erst was ich sehe in dieser Industrie.
Der GT 300 MUSS merkbar schneller werden als die 58xx von Ati um den ohnehin höheren Herstellungspreis rauszuholen! Weit größerer Chip, bei gleicher Fabrik gefertigt.
Ich kann mir schon denken, dass der Chip auch bei Spielen noch brilliert, wenn das Ding aber schneller ist als die ATI Karten dann wird der Kunde wieder nur abgezockt für 300€+. Da kaufe ich dann trotzdem Ati, weil die dann günstiger werden/bleiben.

In meinen Augen kann Nvidia nur Punkten, wenn der GT300 DEUTLICH schneller wird als die ATI, sodass ein empfindlicher Aufpreis sich sogar noch "lohnt", alles andere wäre eine Niederlage.

eFFeCTiVe
21.11.2009, 16:54
es wäre auch sehr komisch, wenn Nvidia was anderes behaupten würde. Ich glaube erst was ich sehe in dieser Industrie.
Der GT 300 MUSS merkbar schneller werden als die 58xx von Ati um den ohnehin höheren Herstellungspreis rauszuholen! Weit größerer Chip, bei gleicher Fabrik gefertigt.
Ich kann mir schon denken, dass der Chip auch bei Spielen noch brilliert, wenn das Ding aber schneller ist als die ATI Karten dann wird der Kunde wieder nur abgezockt für 300€+. Da kaufe ich dann trotzdem Ati, weil die dann günstiger werden/bleiben.

In meinen Augen kann Nvidia nur Punkten, wenn der GT300 DEUTLICH schneller wird als die ATI, sodass ein empfindlicher Aufpreis sich sogar noch "lohnt", alles andere wäre eine Niederlage.

Na, abgezockt wird der Kunde dann aber nicht - für mehr Leistung muss man auch bereit sein, mehr zu zahlen;) Hast du ja auch selbst geschrieben...

JamDeluxe
21.11.2009, 16:59
Ja, aber dann muss es deutlich mehr sein wenn du um die 200€ mehr bezahlst, für mich müssten das locjker 30% mehr Leistung sein die ich dann sehen will.

randfee
21.11.2009, 17:02
Na, abgezockt wird der Kunde dann aber nicht - für mehr Leistung muss man auch bereit sein, mehr zu zahlen;) Hast du ja auch selbst geschrieben...

selbstverständlich... aaaaber...
für ein paar Prozent aber nen Hunderter mehr zu zahlen ist Wucher. Mir ist durchaus klar, dass das schon lange so ist.
Natürlich geht man primär davon aus, dass der Kunde mündig ist und weiß, was er da kauft, aber nur wenn Großteile der Kunden bereit sind diese extrem hohen Preise (350€+) für Grafikkarten zu zahlen werden die auch so teuer gemacht, ansonsten wären sie viel günstiger. Da habe ich als Einzelkunde keine Wahl. Ich kann mir diese Karten nicht kaufen (bzw. will nicht soviel ausgeben) müsste es aber, weil die breite Masse der Kunden, ja sorry, "so dämlich" ist und diese Preise bezahlt. Das ärgert mich dann halt.

eFFeCTiVe
21.11.2009, 17:12
OK, stimmt... haste Recht;) Wir Gamer gehören bestimmt nicht zur "breiten Masse" der Otto-Normal-Käufer.
Ich selber hab noch nen Dual-Core, die Dinger sind in ein paar Jahren sicher auch keinen Appel und n Ei mehr wert, und ne 7000er GeForce, von daher kann ich da kaum mitreden:mrgreen:

Tig3r0023
24.11.2009, 19:24
Kommt Fermi im Januar?

http://www.fudzilla.com/content/view/16544/34/

randfee
24.11.2009, 19:59
Kommt Fermi im Januar?

http://www.fudzilla.com/content/view/16544/34/

frühestens..... und Konsumerkarten werden wohl noch ne Weile länger auf sich warten lassen.

Lobos
24.11.2009, 20:56
frühestens..... und Konsumerkarten werden wohl noch ne Weile länger auf sich warten lassen.

Ja genau so sieht es aus, die meisten unwissenden sind jetzt verwirrt und denken....wow...im Januar kommt die Nvidia raus, dann gebe ich lieber mein Weihnachtsgeld jetzt nicht aus und warte auf Nvidia.:twisted:

Tig3r0023
25.11.2009, 13:36
Hier nochmal ne Zusammenfassung von gestern :

http://www.pcgameshardware.de/aid,700141/GF100-Fermi-Widerspruechliche-Geruechte-zum-Release-Termin/Grafikkarte/News/


Besagte Nvidia-Grafikkarten für Spieler, inzwischen meist "GF100 Fermi" genannt, sollen laut der Webseite Fudzilla ab Januar ausgeliefert werden. Als Begründung für dieses Zeitfenster gibt man an, erfahren zu haben, dass die neueste Chip-Revision A2 nicht für die Massenproduktion geeignet gewesen sei und Nvidia deshalb auf die Revision A3 spekuliere, PC Games Hardware berichtete bereits über Produktionsprobleme der Chip-Schmiede TSMC (http://www.pcgameshardware.de/aid,698697/AMD-und-Nvidia-Probleme-bei-40-nm-Prozess-von-TSMC/Grafikkarte/News/). Seien die Ergebnisse mit A3 jedoch besser, beziehungsweise sind es bereits, würden Board-Partner demnach schon im ersten Monat des Jahres 2010 Fermi-Karten ausliefern können. Zusätzlich konkretisiert man (http://www.fudzilla.com/content/view/16544/1/), dass Nvidia definitiv die Messe CES 2010 verstreichen lassen würde, die vom 7. Bis zum 10. Januar stattfindet, bevor man die neuen Modelle der Öffentlichkeit vorstellt.

Mit einem anderen Datum rechnet wiederum die Webseite HardOCP: Deren Redakteure berichten nämlich von einem Treffen hochrangiger Mitarbeiter Nvidia-Mitarbeiter, das vor Kurzem in Hong Kong stattgefunden hätte. Was der genaue Grund dieser Zusammenkunft gewesen ist, sei zwar nicht bekannt, jedoch nahm das Online-Magazin jenes zum Anlass, diverse Vermutungen anzustellen. HardOCP berichtet ebenfalls von diversen Verzögerungen bei Nvidia, ist jedoch etwas pessimistischer als Fudzilla. Man rechnet dort (http://www.hardocp.com/news/2009/11/23/more_fermi_rumors_good) nicht vor Ende Februar mit den neuen GF100-Fermi-Karten, am realistischsten sei sogar der Monat April. Interessant ist auch die Meldung über einen angeblich offiziellen Codenamen der ersten Dual-GPU-Geforce auf Fermi-Basis, welcher "Gemini" lauten soll.

xeonsys
08.12.2009, 18:42
NVIDIA zeigt GF100-SLI-Verbundsystem



Auch wenn es an dieser Stelle kaum Neues zu vermelden gibt, hat der kalifornische Grafikkartenhersteller in diesen Tagen ein weiteres Foto veröffentlicht. Darauf zu sehen ist jedenfalls Tom Peterson, technischer Marketing-Director bei NVIDIA, der stolz ein lauffähiges SLI-Verbundsystem – bestehend aus zwei GF100-Karten – präsentiert. Unter näherer Betrachtung sind nicht nur die üblichen SLI-Connector für 3-Way-SLI zu sehen, sondern vermutlich auch ein 8- und 6-Pin-PCI-Express-Stromstecker. Damit könnte das kommende NVIDIA-Flaggschiff, welches bekanntlich über 3 Milliarden Transistoren beherbergt, bis zu 300 Watt aus dem Netzteil ziehen.

http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/13768-nvidia-zeigt-gf100-sli-verbundsystem.html

pics

http://img8.abload.de/img/nvidia-geforce100-fermt29g.jpg
http://img8.abload.de/img/nvidia-fermi-geforce10w3o4.jpg

xeonsys
10.12.2009, 19:11
GF100: Sind endlich die finalen Spezifikationen durchgesickert? (http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/13795-gf100-sind-endlich-die-finalen-spezifikationen-durchgesicker.html)



So langsam aber sicher kommt "Fermi" in Fahrt. Nachdem man schon vor einigen Wochen die Architektur offiziell vorstellte, kamen nun endlich auch die ersten Spezifikationen ans Tageslicht. Wie nicht anders zu erwarten, wird die heiß erwartete 40-nm-GPU, die rund 3,0 Milliarden Transistoren beherbergt, in ihrer Vollbestückung auf insgesamt 512 skalare Einheiten zurückgreifen können, während sich die kleinere Version mit nur 12 Streaming-Multiprozessoren (SM) und damit 384 Shadereinheiten zufrieden geben muss. Während die NVIDIA (http://www.nvidia.de/page/home.html) GeForce GTX 380 wohl 128 Texture-Units und 48 ROPs besitzt, muss die NVIDIA GeForce GTX 360 hier ebenfalls Abstriche hinnehmen. Demnach stehen 96 bzw. 40 Einheiten im Raum. Auch beim verbauten GDDR5-Videospeicher gibt es Unterschiede zwischen den beiden 3D-Beschleunigern. So soll das kommende Flaggschiff auf insgesamt 1536 MB und ein 384 Bit breites Speicherinterface kommen. Das günstigere Modell besitzt mit 1280 MB etwas weniger. Zudem kommunizieren die Speicherchips über 320 Datenleitungen. Doch auch die Taktraten scheinen nun fest zu stehen. So soll die GeForce GTX 380 mit 650/1700/1050 MHz rechnen. Alles in allem bringt es der GF100 auf eine maximal arithmetische Rohleistung von satten 1.740 GigaFLOPS.
Ob die hier gezeigten Daten wirklich stimmen, werden wir erst zum Release erfahren. Wann es aber so weit sein wird, steht ebenfalls noch im Dunkeln.

zur tabelle

http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/13795-gf100-sind-endlich-die-finalen-spezifikationen-durchgesicker.html

Dark9
10.12.2009, 23:52
hähä, es kommt noch ne radeon 5890 raus ,die weiter getaktet sein wird als diese hier gezeigten

spYder
11.12.2009, 00:01
fanboy. falscher thread --> this is nvidiaaaaa :D

LKrieger
11.12.2009, 00:42
Finds echt krass das das hier schonwieder abgeht mit der flamerei...!

Also ich freu mich auf den Fermi - wird so wie es ausschaut bei mir nicht bei einer Karte bleiben...

MFG LK

Cephei
11.12.2009, 00:44
Sind die zu langsam?

Dark9
11.12.2009, 00:58
nix gefanboye, eher reine info,das noch eine andere kommt :razz:


Sind die zu langsam?

nix ZU langsam, eher ZU schnell wenn die specs stimmen

Sc|-|mid
11.12.2009, 01:06
Sind die zu langsam?[/quote]Ich denke mal das die GTX380 ( wenn sie denn so heißen wird) schneller wird als eine HD5870, alles andere würde mich stark überraschen! Jedoch denke ich, dass sie lauter wird ( aufgrund der höheren Abwärme) und wegen des größeren Chips teurer in der Produktion sein wird, was sich im Endeffekt auf den Kunden abrollen wird.

randfee
11.12.2009, 01:23
ließt sich theoretisch alles sehr gut. Freue mich darauf die Dinger mal mit Realwerten sehen/lesen zu dürfen. Ich weiß nur eins. Ich freue mich auf meine Neue Karte, ega welche Farbe sie hat :)

Schwer wirds nur, wenn Nvidia klar schneller ist, aber auch deutlich teurer, dann kommts bei ATI nur auf die Preissenkung an um mich trotzdem zu überzeugen, da überteuerte Karten eh meist unsinnig sind.

PS: Ich glaube noch immer nicht, dass Nividia die Dinger jetzt mal zeitig rausbringt. Selbst Nvidia sagt ja, dass man zuerst den Tesla Markt bedienen wird. ... da kommen dann noch die 40nm Probleme von TSMC dazu... selbst die viel kleineren ATIs werden kaum in Stückzahlen produziert pff, die Karten kriegt ma nicht vor März/April zu gesicht, vermute ich jetzt einfach mal.

Flying_Dragon
11.12.2009, 07:21
Daten sehen ja nice aus aber wenn die Karten wieder richtig teuer werden, wird man nicht wirklich viele Kunden habne die dieses Prodkt kaufen.
Meine Graka bleibt eh noch ein wenig drin aber, wenn ich die Wahl zwischen ner 200€ Graka von ATI habe, die satte Leistung bringt und einer 500€ Graka von NV die 5-20% mehr Leistung erzielt, werde ich mich doch klar für die ATI entscheiden! Alles Andere ist in meinen Augen Geldverschwendung.

Wenn NVidia mit den Preisen von ATI nicht konkurrieren kann sieht das Ganze nicht so pralle aus :-?

HarryRulez
11.12.2009, 07:36
Nun ja, werde mir wohl meine 3x GTX280 bei Ebay verkaufen und mir dann 2 oder 3 GT 300 holen. Einige sehen das als Geldverschwendung, ich als invest für die Zukunft. Bin bis jetzt immer so gefahren und habe es bis jetzt nie bereut. Zudem will mein Plasma gefüttert werden. Aber erstmal abwarten, wie die specs definitve sind und vorallem auch der Preis. Wenns wirklich nur 10 - 20% mehr Leistung sind. Wede ich noch ne weile warten. Denn 200€ mehr für minimale Leistungsteigerung, wäre nicht gerade intiligent. Früher oder später kommt nen 2 / 3 SLI der 300er sowie so ins Gehäuse. Also abwarten und Tee trinken.

randfee
11.12.2009, 09:03
Nun ja, werde mir wohl meine 3x GTX280 bei Ebay verkaufen und mir dann 2 oder 3 GT 300 holen. Einige sehen das als Geldverschwendung, ich als invest für die Zukunft.

dann ist deine Definition von Investment wohl eine etwas andere als die der meisten Menschen. Man investiert weil man sich davon eine Rendite verspricht. Gewinnbringend wird das, was du da machst, niemals sein. Eine signifikante Mehrleistung gegenüber dem Mehraufwand (Kosten) hast du ja nicht. Aber Jedem das Seine.
Das ist halt reiner Luxus, andere Gönnen sich da andere "Spielzeuge" und das sei dir auch fregestellt, aber als "Investment" sehen, da solltest du dir nichts vormachen :)

.... es sei denn (bevor ichs vergesse) du verdienst mit Simulationen jeder Art dein Geld und siehst diesen Rechner als Power Workstation an... was ich aber eher nicht glaube :)



Bin bis jetzt immer so gefahren und habe es bis jetzt nie bereut.
Das ist ja was anderes. Das ist Spaß an der Freude. Ich bereue meine sehr teuren Objektive für meine Kamera auch nicht, wohingegen die aber auch kaum an Wert verlieren und signifikante Performancesteigerungen in der Zukunft nicht denkbar sind :)

spYder
11.12.2009, 22:58
Ich bin auch kein Fanboy.

Habe auch demnächst eine ATI in meinem Sys.

Aber das is doch kein Grund, mich hier in den Intel und Nvidia Threads zu prahlen.

Tig3r0023
12.12.2009, 09:42
Neue Gerüchte um Release - Februar 2010?

http://www.pcgameshardware.de/aid,700141/Geforce-GF100-Fermi-Geruechte-zum-Release-Termin-Update/Grafikkarte/News/


Physx-Test: Radeon dank Physik-Geforce bis zu 7 Mal schneller

http://www.pcgameshardware.de/aid,701321/Physx-Test-Radeon-da (http://www.pcgameshardware.de/aid,701321/Physx-Test-Radeon-dank-Physik-Geforce-bis-zu-7-Mal-schneller/Grafikkarte/Test/)nk-Physik-Geforce-bis-zu-7-Mal-schneller/Grafikkarte/Test/ (http://www.pcgameshardware.de/aid,701321/Physx-Test-Radeon-dank-Physik-Geforce-bis-zu-7-Mal-schneller/Grafikkarte/Test/)

randfee
14.12.2009, 09:28
LOL.... was ein Gerücht!

na das nenne ich mal eine hübsche Performance. Wenn da was dran ist gibts in ein paar Monaten die ATI 5850 für 140€, die 5870 für 180€ und die 360er für 200-300€. Wenn das mal nicht nur Wunschdenken eines Nvidia Fanboys ist... ^^... oder Nvidia selbst, die ATI das Weihnachtsgeschäft vermasseln wollen, wobei die bzw. TSMC dies schon alleine tun.
http://pics.computerbase.de/2/7/7/5/4/6.jpg (http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2009/dezember/benchmarks_geforce_gtx_380_360/)

Naja, wir wissen aus Zeiten der 8800GTX, dass solche Sprünge möglich sind, aber solch einen Hammer glaube ich erst wenn ordentliche Tests da sind.


Quelle:
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2009/dezember/benchmarks_geforce_gtx_380_360/

Noname
14.12.2009, 12:26
http://pics.computerbase.de/2/7/7/5/4/6.jpg (http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2009/dezember/benchmarks_geforce_gtx_380_360/)

Naja, wir wissen aus Zeiten der 8800GTX, dass solche Sprünge möglich sind, aber solch einen Hammer glaube ich erst wenn ordentliche Tests da sind.


Quelle:
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2009/dezember/benchmarks_geforce_gtx_380_360/


Dito!
Aber wie du schon sagst.. gescheite Test und gut... vor allem da man von Computerbase besser sowieso nichts halten sollte. mit ihr krummen Dingern :roll: :evil:


Gruß
Noname

Aerox
14.12.2009, 12:59
AUF PCGH kann man lesen, dass diese Benchmarks fake sind.

randfee
14.12.2009, 13:28
AUF PCGH kann man lesen, dass diese Benchmarks fake sind.

das war ja auch klar.... sorry, wenn ich die Ironie in meinem Beitrag heute morgen so versteckt hab :)

Noname
14.12.2009, 17:33
das war ja auch klar.... sorry, wenn ich die Ironie in meinem Beitrag heute morgen so versteckt hab :)

Kein Ding. :) ;)

Jeder, der sich halbwegs bei dem Bereich, in die Recherche stürzt, weiß, dass CB eine der unseriösesten Seiten ist!


Gruß
Noname

Aerox
16.12.2009, 14:21
hm, es wäre echt toll, wenn eine GTX360 mind. 10 % schneller wäre als eine HD5870... aber bin skeptisch, da ja ATI in 3/4 Jahr neue Generation verkaufen werden^^

xeonsys
16.12.2009, 15:45
Nvidia to showcase Fermi solutions tomorrow http://www.fudzilla.com/templates/rt_versatility_ii_sienna/images/emailButton.png (http://www.fudzilla.com/index2.php?option=com_content&task=emailform&id=16873&itemid=1)


Nvidia will show off Fermi-based Tesla GPU computing solutions during a 'webinar' scheduled for Thursday.

The event will be presented by Nvidia Compute Solutions Senior Product Manager Sumit Gupta and Nvidia promises 'dramatic performance capabilities', whatever that means.

Nvidia is calling researchers, scientists and other professionals to join the event, and if you fit one of these categories or just have a spare white coat, you can join up here (https://www2.gotomeeting.com/register/606754650).


http://www.fudzilla.com/content/view/16873/1/

Tig3r0023
17.12.2009, 14:53
Kühler verrät Namen neuer Karten.


http://s4.directupload.net/images/091217/73dtuogd.jpghttp://www.computerbase.de/news/hardware/gehaeuse_kuehlung/2009/dezember/vga-kuehler_namen_grafikkarten/

Sommermn
17.12.2009, 21:08
Juhuuu! Keine Namensänderungen mehr :wink:
Was bedeutet denn das Single / Dual / Fanless da hinter den Karten?

spYder
17.12.2009, 21:10
Was bedeutet denn das Single / Dual / Fanless da hinter den Karten?

Single = 1 Lüfter
Dual = 2 Lüfter
Fanless = keine Lukü. kp Passivkühler oder so ist verschieden.

Scaleo
17.12.2009, 21:22
Man jetzt wirds aber langsam Zeit etwas offizielles über die Specs zu erfahren und das endlich mal Benchmarks veröffentlich werden :X

Weil dieses ewige "Fermi ist besser / schlechter / genauso gut wie die HD59xx" - Spielchen geht mir auf die nerven.

Mfg Scaleo

xeonsys
17.12.2009, 21:32
Man jetzt wirds aber langsam Zeit etwas offizielles über die Specs zu erfahren und das endlich mal Benchmarks veröffentlich werden :X

Weil dieses ewige "Fermi ist besser / schlechter / genauso gut wie die HD59xx" - Spielchen geht mir auf die nerven.

Mfg Scaleo


7. januar CES 2010

Scaleo
17.12.2009, 21:38
7. januar CES 2010

I know, aber ob da so viel rüberkommt - ich hoffe es.

Mfg Scaleo

randfee
18.12.2009, 00:32
7. januar CES 2010


Da wird nichts gezeigt werden was Leute in solchen Foren wie hier interessiert. Da gehts um TESLA und das hat mit gaming nichts zu tun. Die single und double performance sind zwar interessant, aber wirklich auf Spiele übertragen lässt sich sowas nicht, besonders nicht mit der doch stark geänderten hardware Struktur!

Ich tippe weiterhin auf Februar für Benchmarks und März/April für die Karten.

Tig3r0023
18.12.2009, 17:59
Nvidia verspricht hardwareseitige Übertaktungsfunktion bei GF100-Fermi


http://www.pcgameshardware.de/aid,701789/Nvidia-verspricht-hardwareseitige-Uebertaktungsfunktion-bei-GF100-Fermi/Grafikkarte/News/

Tig3r0023
20.12.2009, 16:42
Nvidia glaubt: AMDs DirectX-11-Vorsprung ist unbedeutend


Nvidia teilt in letzter Zeit gerne aus: Nach den Comic-Strips, in denen unter anderem gegen Intels Larrabee gestichelt wurde, ließ nun Senior Vice President Michael Hara wissen, dass AMDs Vorsprung bei DirectX-11-Grafikkarten unbedeutend sei. Alle drei bis vier Jahre gäbe es einen großen Umbruch am Grafikkarten-Markt. DirectX 11 sei nur ein kleiner Teil des nächsten Umbruchs.


http://www.pcgameshardware.de/aid,701742/Nvidia-glaubt-AMDs-DirectX-11-Vorsprung-ist-unbedeutend/Grafikkarte/News/

spYder
20.12.2009, 16:46
Nvidia glaubt: AMDs DirectX-11-Vorsprung ist unbedeutend


LOL xd made my day

ScoR
20.12.2009, 16:50
LOL xd made my day

Wartet doch erstmal ab.
Hinterher rockt Nvidia alles weg und dann war alles hier geschriebene umsonst.

Shooter0175
20.12.2009, 17:49
Naja, da die Grafikkarten von ATi zur Zeit ohnehin kaum verfügbar sind (TSMC) spielt ihr "Vorsprung" wirklich keine große Rolle, aber es bleibt abzuwarten, wie nVidia's Karten ankommen. Ich werd mir auf jeden Fall keine ATi's mehr kaufen, wenn ich mir nächstes Jahr nen neuen PC baue sondern direkt eine nVidia, unabhängig davon, wie viel besser sie sind.

Fusion145
20.12.2009, 18:02
Naja ATi hat immerhin schon 800.000 DX11 Karten ausgeliefert
Und dir Verfügbarkeit wird auch immer besser...

Ich bin der Meinung das Nvidia erstmal zeigen soll was der Fermi wirklich kann, bevor sie ihr Maul (mal wieder) aufreisen...

Edit: @Unter mir
Ganz ehrlich wenn Nvidia jetzt schon wüsste das die Karten soo dermaßen abgehen sollten, wo bleiben dann die Benchmarks?
Durch die könnte Nvidia nämlich viele Menschen davon abhalten eine ATi zu kaufen...

Ich glaub ehrlich gesagt das Nvidia noch Garnichts hat und sie jetzt durch schlecht machen von ATi bzw. DX11 versuchen noch irgendwas zu retten...

Tig3r0023
20.12.2009, 18:04
Naja ATi hat immerhin schon 800.000 DX11 Karten ausgeliefert
Und dir Verfügbarkeit wird auch immer besser...

Ich bin der Meinung das Nvidia erstmal zeigen soll was der Fermi wirklich kann, bevor sie ihr Maul (mal wieder) aufreisen...
Entweder ist es eine Marketingstratgie von Nvidia, oder sie wissen intern wirklich wie die Karten abgehen.
Abwarten.

Shooter0175
20.12.2009, 18:09
Naja ATi hat immerhin schon 800.000 DX11 Karten ausgeliefert
Und dir Verfügbarkeit wird auch immer besser...

Ich bin der Meinung das Nvidia erstmal zeigen soll was der Fermi wirklich kann, bevor sie ihr Maul (mal wieder) aufreisen...


Wirklich so viele?

Ich habe auch schon gehört, dass es langsam besser wird, aber Fakt ist, dass sie momentan immer noch rar sind.

Ich denke schon, dass die Karten von nVidia besser sind, aber wirklich wissen werden wir es erst, wenn die ersten Karten kommen ..

xeonsys
21.12.2009, 14:41
Nvidia - Neue Geforce kann Echtzeit-Raytracing?




http://www.gamestar.de/img/0.gif
http://www.gamestar.de/img/0.gif

http://www.gamestar.de/img/0.gif
Über die neuen Geforce-Karten von Nvidia gibt es bisher nach wie vor kaum handfeste Informationen, aber immer wieder Hinweise auf deren Leistungsfähigkeit.
Wie Techradar (http://www.techradar.com/news/computing-components/graphics-cards/nvidia-s-fermi-graphics-architecture-explained-657489) nun in einem umfangreichen Artikel schreibt, der sich hauptsächlich um die internen Verbesserungen innerhalb des Fermi-Chips kümmert, soll die neue Geforce theoretisch sogar acht Mal schneller sein als die bisher schnellste Geforce-Karte von Nvidia.

In der Praxis würden gewisse Faktoren dafür sorgen, dass dieser Wert nicht ganz erreicht wird, die alten Karten sollen jedoch in Sachen Leistung trotzdem geradezu »zerstört« werden, so Techradar. Inwiefern die jedoch auf die ersten erhältlichen Geforce-Karten zutrifft, ist unklar.

Aber auf die Frage, ob die neue Geforce in der Lage wäre, eine 3D-Welt in Echtzeit für Spiele (http://www.gamestar.de/hardware/news/grafikkarten/2311434/nvidia.html#) per Raytracing darzustellen, soll Nvidia mit »Ja« geantwortet haben. Das wäre allerdings eine enorme Leistung.

http://www.gamestar.de/hardware/news/grafikkarten/2311434/nvidia.html

Tig3r0023
21.12.2009, 14:54
Nvidia - Neue Geforce kann Echtzeit-Raytracing?

Wenn das stimmt...dann Hut ab, ist die Karte gekauft.

Scaleo
21.12.2009, 15:00
So gerne ich auch sowas höre, steht dahinter leider nichts was dies beweist :X

Mfg Scaleo

randfee
21.12.2009, 17:54
was alles immer so behauptet wird... nenene. Auch wenn ich denke, dass die NVidia Karten wohl was schneller werden als die ATIs, jegliches Gerücht dazu sollte man besser nicht ohne wirklichen Test glauben. Theoretische Performance sagt auch hier wie immer rein garnichts drüber aus.

Sommermn
21.12.2009, 18:21
What the... ?! :shock:
Entweder:
a) Diese Karte wird der revolutionärste Fortschritt in der Geschichte der 3D-Grafik
oder
b) NVidia lügt.
Ich erwarte eine Mischung. NVidia wird mit der 7-8-fachen Leistung in jedem Fall lügen, aber selbst wenn es nur 3-Fache Leistung der letzten Generation wäre, wäre das HAMMER :)
Naja. Einfach mal abwarten =)

Tig3r0023
21.12.2009, 18:39
Ich weiß nicht, aber ich hab im Gefühl das Nvidia doch nicht so arg lügt..klar , aufgrund von Marketing wird immer alle schön geredet, aber aufgrund der Tatsache das sich Nvidia bis jetzt ziemlich zurückgehalten hat und nur sehr wenige Infos released worden sind und Nvidia in letzer Zeit das Maul so weit aufreißt tut sich da noch was. Wäre doch blöd von Nvidia so weit das Maul aufzureisen und am Ende haben wir hier GPU's rumliegen die nicht viel schneller sind..dann wäre Nvidia doch bei vielen unten durch. Es hieß ja auch das sie zwar was länger brauchen, aber dafür würden ihre Produkte sich ergänzen und neue Demensionen schaffen. Ich bin mal gespannt was Nvidia raushaut!

randfee
21.12.2009, 20:30
.....Wäre doch blöd von Nvidia so weit das Maul aufzureisen und am Ende haben wir hier GPU's rumliegen die nicht viel schneller sind..dann wäre Nvidia doch bei vielen unten durch. ...

Dann verstehst du die Marketing-Fritzen scheinbar absolut nicht. Selbstverständlich behauptet NVidia, dass ihre neuen Grafikkarten besser sein werden "als alles andere". Das behauptet jeder und immer!
Selbstverständlich posaunen sie dies auch jetzt grade, weil sie etwas hinten dran sind. Damit wollen sie natürlich Leute davon abhalten sich jetzt ATI Karten zu kaufen und dann natürlich Nvidias neue Generation auszulassen. Das ist so sicher wie das Amen in der Kirche und hat rein garnichts mit Tatsachen zu tun, ob ihre Karten wirklich ultragut oder nur so lala sind, absolut nichts.

Trotzdem: Völlig unabhängig wie gut die Nvidia Karten werden, da ATI im Moment (wegen TSMC) nicht liefern kann und hohe Preise für die paar Karten gezahlt werden ist es sicher am cleversten zu warten und zu schauen was die Nvidia Karten bringen. Konkurrenz und hoffentlich auch mehr Verfügbarkeit wird so oder so die Preise drücken und man hat den Vergleich der beiden woraufhin man sich entscheiden kann, egal ob dann ATI oder Nvidia "besser" ist.

Allein von der Die Größe wird Nvidia aber sicher einiges teurer werden und dafür natürlich auch Mehrleistung liefern müssen. Die Frage nach dem besten deal muss, wenn alle Karten auf dem Tisch liegen, dann jeder für sich beantworten.

xeonsys
22.12.2009, 17:09
Fermi muss kürzer treten
Nvidia Fermi: Nvidia reduziert die aktive ALU-Anzahl der Tesla-Karten



Langsam tut sich auch was in Nvidias Fermi-Lager: Zu den Tesla-Compute-Grafikkarten sind die Board-Spezifikationen verfügbar, die den ALU-Takt verraten und belegen, dass nicht alle Kerne der Fermi-GPU genutzt werden.

Nvidias Compute-Grafikkarten Tesla C2050 und C2070 auf Basis der Fermi-Architetkur scheinen mit weniger Rechenkernen auskommen zu müssen: Die GPU mit 512 Kernen kann nur auf 448 zurückgreifen, so die Informationen aus den Board-Spezifikationen bei Nvidia. Hier wird auch der ALU-Takt verraten: 1,25 GHz bzw. 1,40 GHz. Der GDDR5-Speicher soll mit 1,8 bis 2,0 GHz laufen - das passt zu den Gerüchten des 384 Bit breiten Interfaces, welches auch im Dokument genannt wird.

Diese Information öffnet Spekulationen Tür und Tor: Entweder reduziert Nvidia die Zahl der ALUs, um eine TDP von 225 Watt zu erreichen oder die Ausbeute mit voll funktionsfähigen GPUs ist schlicht zu gering. Für die Desktop-Karten aus dem Geforce-Lager dürfte ähnliches zu erwarten sein, um zum einen schwächere Modelle anzubieten und zum anderen den beiden oben genannten Problemen entgegenzuwirken.

http://www.pcgameshardware.de/aid,702011/Nvidia-Fermi-Nvidia-reduziert-die-aktive-ALU-Anzahl-der-Tesla-Karten/Grafikkarte/News/

JamDeluxe
22.12.2009, 17:36
Nvidia - Neue Geforce kann Echtzeit-Raytracing?

Ich erwarte 4fachen Preis 8)

Ohne Mist, ich würde mich nochnicht so beeindrucken lassen.

1. 7-8 fache Leistung ist einfach viel zu viel. Wird höchsten in 3 Jahren gebraucht und dann is die Karte eh im *****.
2. Es is gelogen. Niemals 7-8 das machen die nur um Kunden hinzuhalten.

randfee
23.12.2009, 01:04
der Grund die "aktiven" ALUs zu verringern ist mit Sicherheit in der Ausbeute zu suchen. Pro Fläche gibt es halt Defekt-Wahrscheinlichkeiten. Die sind dann wohl zur Zeit noch so hoch, dass man sich dazu durchringen musste (TSMC, ihr habt ein riesen Schwein, dass ihr Monopolist für den Prozess seid!).

Wenn der Prozess besser wird oder endlich mal ein Konkurrent das satte Geschäft damit wittert würden die Karten (ebenfalls ATI) auch besser und/oder billiger werden...

LKrieger
23.12.2009, 09:19
der Grund die "aktiven" ALUs zu verringern ist mit Sicherheit in der Ausbeute zu suchen. Pro Fläche gibt es halt Defekt-Wahrscheinlichkeiten. Die sind dann wohl zur Zeit noch so hoch, dass man sich dazu durchringen musste (TSMC, ihr habt ein riesen Schwein, dass ihr Monopolist für den Prozess seid!).

Wenn der Prozess besser wird oder endlich mal ein Konkurrent das satte Geschäft damit wittert würden die Karten (ebenfalls ATI) auch besser und/oder billiger werden...

Damit hast du vollkommen recht! evtl. ist für Overklocker und Biosmodder dann wieder eine Möglichkeit zusätzliche (intakte) Kerne zuzuschalten - was natürlich wieder eine riesen Leistungssteigerung zu folge hätte (Man nehme nur mal den Athlon II X3 ). Alle Kerne werden mit Sicherheit nicht gehen - aber der eine oder andere schon. Glaube kaum das immer 448 ganz sind - könnten auch gut 460 sein...

MFG LK

randfee
23.12.2009, 12:32
die werden garantiert abgeschnitten, per laser, da ist dann nix zu holen.

ScoR
23.12.2009, 12:35
die werden garantiert abgeschnitten, per laser, da ist dann nix zu holen.

Ich versteh das nicht ganz, wenn die Kerne funktionierend vorhanden sind, warum werden sie dann nicht mit eingebaut?
Nur, weil die Warscheinlichkeit dann höher ist, das ein paar von denen ausfallen?
Also je mehr Kerne, desto instabieler läuft das alles? Oder wie hab ich mir das vorzustellen?

randfee
23.12.2009, 12:54
nein, man muss das ja staffeln. Angenommen es gäb 100 Kerne. Dann bietet man ja nicht Produkte mit 99, 98, 97, 96 Kernen etc. an, auch wenn man solche finden wird. Man bietet statt dessen wohl welche mit 100 und mit 80 Kernen an. Wenn dann nur 5 kaputt sind werden trotzdem 15 weitere deaktiviert.

Ähnlich ist das ja auch bei CPUs. Obwohl die Hardware gut genug ist werden da die Multiplikatoren beschnitten, damit man eine mid-range und low-end cpu hat.

Die Gründe hierbei sind klar: Entweder der Riesenchip braucht beim aktuellen Prozess einfach zu viel Strom (sehe ich als garnicht so unwahrscheinlich an) und wird damit zu heiß oder, was sehr wahrscheinlich ist, Die Ausbeute ist zu gering --> chips mit vielen defekten Kernen überwiegen.
Mich wundert ein bisschen, dass ATI dann icht in der Lage ist zahlreiche 5850 zu liefern.... vielleicht ist die Defektrate gar noch höher ^^.

XcorpioN
23.12.2009, 13:27
[...]
Mich wundert ein bisschen, dass ATI dann icht in der Lage ist zahlreiche 5850 zu liefern.... vielleicht ist die Defektrate gar noch höher ^^.
Mach mir keien angst! :-(

Ovomaltine
25.12.2009, 19:48
Bis zu 32x AA

Nvidia präsentiert als Fun Fact of the Week in seinem Facebook-Profil neue Infos zu FSAA-Modi. So soll GF100 Fermi einen "brandneuen" Anti-Aliasing-Modus bieten. Mehr als "32x Anti-Aliasing" gibt Nvidia allerdings nicht an, sodass nicht ganz klar ist, wie die Samplingrate zustande kommt. Spekulativ bleibt, ob Nvidia bisher nur über Zusatzprogramme wie Nhancer freischaltbare inoffizielle Modi nun auch offiziell erlaubt oder ob Nvidia einen echten neuen 32x-Modus mit Fermi anbietet.

KLICK: (http://www.pcgameshardware.de/aid,699654/Nvidia-GF100-Fermi-Geforce-Grafikkarte-gesichtet-Update-Neuer-32x-AA-Modus/Grafikkarte/News/)


Wie gut das ich alles was über 4x ist mehr als überflüssig finde, aba naja muss ja jederselbst wissen ;-)


MFG
Ovo

Scaleo
25.12.2009, 20:00
Wie gut das ich alles was über 4x ist mehr als überflüssig finde, aba naja muss ja jederselbst wissen ;-)


Überflüssig nicht, nur in aktuellen Spielen unmöglich von der Leistung her.

Mfg Scaleo

Lobos
25.12.2009, 20:26
Naja bevor die mit dieser neuen Anti-Aliasing Stufe kommen sollen die doch bitte erstmal die Unterschiede zeigen zu der Stufe dadrunter. Klar ist das das doppelte von 16x aber in meinen Augen eher unwichtig und wieder nur Marketing Strategie die Nvidia da versucht zu fahren!

Das bisher sinnvollste mMn dürfte hier ganz klar 3D, DX11 und Tessellation sein. Alles andere interessiert mich gar nicht und wenn ich nicht so nahe beim Spielen vor der Kiste sitzen würde, sondern eher weit entfernt wie an der Konsole dann bräuchte ich so gut wie kein AA und AF!

Scaleo
25.12.2009, 20:29
Das bisher sinnvollste mMn dürfte hier ganz klar 3D, DX11 und Tessellation sein. Alles andere interessiert mich gar nicht und wenn ich nicht so nahe beim Spielen vor der Kiste sitzen würde, sondern eher weit entfernt wie an der Konsole dann bräuchte ich so gut wie kein AA und AF!

Dito, nur bei AF kann ich dir nicht zustimmen :wink:
Das merkste aber obs an ist oder nicht ^^

Mfg Scaleo

xeonsys
26.12.2009, 16:24
Hynix kündigt ersten GDDR5-Speicher mit einer Kapazität von 2 Gb an.




Als einer der ersten Hersteller hat Speicherspezialist Hynix in dieser Woche GDDR5-Speicherchips mit einer Kapazität von 2 Gigabit, also 256 MB, vorgestellt. Die neuen Chips werden bereits im 40-nm-Prozess gefertigt und sollen mit einer Geschwindigkeit von bis zu 7 Gbps arbeiten können. Laut Hersteller soll in Verbindung mit einem 32-Bit-I/O-Interface eine Speicherbandbreite von bis zu 28 GB/s erzielt werden. Obwohl GDDR5-Speicher bislang mit einer Spannung von 1,5 Volt betrieben wurde, sollen die neuen 40-nm-Chips ab sofort mit einer Speicherspannung von 1,35 Volt auskommen. Die neuen Hynix-GDDR5-Speicherchips, welche es bislang mit maximal einem Gigabit gab, sollen bereits im nächsten Jahr in die Massenfertigung gehen. Ab der zweiten Jahreshälfte sollen dann die ersten Grafikkarten mit dem neuen Speicher bestückt werden.

http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/13904-hynix-kuendigt-ersten-gddr5-speicher-mit-einer-kapazitaet-von-2-gb-an.html

xeonsys
27.12.2009, 15:38
Nvidia - Wieder eine Aussage zur neuen Geforce




Luciano Alibrandi erklärte in einem Interview, dass der Fermi-Chip im neuen Jahr erscheinen wird, weil man Treiber und Hardware perfektionieren wolle.
Nvidia Nvidia Fermi verbinde das Beste aus Grafikchip und GPGPU. Aber auch über Tesla werde man erst auf der CES im Januar 2010 wirklich genauere Aussagen machen können.
Fermi werde der schnellste Grafikchip in allen Bereichen sein, dies hätten Leistungstests ergeben. Darüber sei man bei Nvidia glücklich und arbeite nun daran, den Treiber fertigzustellen. Die Treiber sollen »perfekt« sein, um dem Nutzer besonders viel zu bieten.
Die Produktion bei TSMC habe sich verbessert, aber wann die neue Geforce nun auf den Markt kommt, konnte Luciano Alibrandi Donanimhaber ebenfalls nicht verraten.

http://www.gamestar.de/hardware/news/grafikkarten/2311525/nvidia.html


Nichtsdestotrotz zeigt sich NVIDIA noch immer optimistisch. In einem Interview mit den türkischen Kollegen von donaminhaber.com sagte Luciano Alibrandi, Produkt-PR-Direktor bei NVIDIA, dass die Fermi-basierten Grafikkarten zu den schnellsten auf dem Markt erhältlichen Grafikkarten zählen werden. Derzeit teste man den kommenden 3D-Beschleuniger noch intern und freue sich über jedes gute Ergebnis. Sogar eine Dual-GPU-Version sei denkbar. Zwar freue man sich wieder mit dem Halbleiterspezialisten TSMC zusammenzuarbeiten, doch hält man auch Ausschau nach anderen Möglichen, schließlich wolle man keine offen stehen lassen. Zu guter Letzt erwähnte man, dass ION 2 und Tegra 2 kurz vor der Produktvorstellung stünden. Wir freuen uns jedenfalls schon jetzt auf die Consumer Electronics Show in Las Vegas, Anfang nächsten Jahres. Vielleicht wird man dann etwas mehr wissen.

http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/13914-nvidia-fermi-die-geruechtekueche-brodelt-fleissig-weiter.html

xeonsys
28.12.2009, 13:03
Update:Fermi



Wie der taiwanesische Branchendienst Digitimes heute berichtete (http://www.digitimes.com/news/a20091228PD207.html), sollen die ersten Fermi-Grafikkarten wohl erst im März 2010 ausgeliefert werden. Im zweiten Quartal 2010 soll mit dem GF104 dann auch ein weiterer Ableger folgen.



http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/13914-nvidia-fermi-die-geruechtekueche-brodelt-fleissig-weiter.html


Nvidias DirectX 11-Grafikchip Fermi wird wohl erst im März des neuen Jahres ausgeliefert. Das berichtete das taiwanische Branchenmagazin 'DigiTimes (http://www.digitimes.com/news/a20091228PD207.html)' unter Berufung auf Hersteller von Grafikkarten (http://winfuture.de/news,52431.html#).

Nvidia habe diese über einen entsprechenden Termin informiert. Ursprünglich sollte der Chip bereits im November verfügbar sein. Wegen technischen Problemen musste die Markteinführung allerdings verschoben werden. Auch ein Ausweichtermin zur Unterhaltungselektronik-Messe CES im Januar war allerdings nicht zu halten.

Im März soll nun dem Vernehmen nach der Grafikprozessor Fermi-GF100 in den Handel kommen. Dieser wird in 40-Nanometer-Bauweise hergestellt und arbeitet mit GDDR5-Speichern zusammen. Im zweiten Quartal soll dann die zweite GPU GF104 folgen, die den High End-Markt bedient.


http://winfuture.de/news,52431.html

Dark9
28.12.2009, 19:13
Update:Fermi
ach ich glaub denen nix mehr

Ovomaltine
29.12.2009, 12:55
Soviel nochmal zu Ultra Schnell und Echtzeit-Raytracing blabla berechnung...

Nividia Fermi: Grafikchip langsamer als erwartet - Release im März 2010?

Nvidias Fermi-Grafikchip sorgt fur Furore: Scheinbar sind die Chips weniger leistungsfähig als erwartet. Gerüchten zufolge erfolgt die Veröffentlichung frühestens im März 2010.


Quelle: (http://www.pcgames.de/aid,702265/Nividia-Fermi-Grafikchip-langsamer-als-erwartet-Release-im-Maerz-2010/PC/News/)


MFG
Ovo

Lobos
29.12.2009, 13:05
Vielleicht sollte Nvidia diese ganzen undichten Stellen mal stopfen und diese Möchtegern Spekulanten sollten Winterschlaf halten. Das geht mir langsam auf die Eier, echt! Ständig muss ich mir auf der Arbeit anhören was Nvidia jetzt schon wieder verspricht oder nicht verspricht, ich höre 8-10 Std. am Tag (Arbeitszeit) fast nur dieses eine Thema von unserem Chef. Langsam kotzt mich Nvidia an, sollen die Karte raus bringen oder einfach die Klappe halten.

So mal nen klein wenig Stunk abgelassen, mir ist langsam eh egal was Nvidia da rausbringt, es wird entäuschend so oder so, diese 3D Bluray Geschichte wird ATI ebenso beherrschen und Tessellation ist für ATI genauso kein Problem. Also wer lange warten will und zu viel Geld aus den Fenster werfen will, so wie mein Chef *hahaha* der soll sich die neue Nvidia ende Februar kaufen.

1337_alpha
29.12.2009, 13:16
Mit der Aussage biste aber nicht viel besser wie die "Möchtegern" Spekulanten


Vielleicht sollte Nvidia diese ganzen undichten Stellen mal stopfen und diese Möchtegern Spekulanten sollten Winterschlaf halten. Das geht mir langsam auf die Eier, echt! Ständig muss ich mir auf der Arbeit anhören was Nvidia jetzt schon wieder verspricht oder nicht verspricht, ich höre 8-10 Std. am Tag (Arbeitszeit) fast nur dieses eine Thema von unserem Chef. Langsam kotzt mich Nvidia an, sollen die Karte raus bringen oder einfach die Klappe halten.

So mal nen klein wenig Stunk abgelassen, mir ist langsam eh egal was Nvidia da rausbringt, es wird entäuschend so oder so, diese 3D Bluray Geschichte wird ATI ebenso beherrschen und Tessellation ist für ATI genauso kein Problem. Also wer lange warten will und zu viel Geld aus den Fenster werfen will, so wie mein Chef *hahaha* der soll sich die neue Nvidia ende Februar kaufen.

Lobos
29.12.2009, 13:29
Mit der Aussage biste aber nicht viel besser wie die "Möchtegern" Spekulanten

Naja über die genannten Features die ATi ebenso beherrscht gibt es schon offizielle Stellungnahmen. Das die Nvidia nur noch schlecht werden kann ist wirklich eine Spekulation von mir aber auch kein wunder wenn es erst heißt die neue Graka von Nvidia wird eine immense Leistung haben und dann später heißt es sie wird der Leistung beschnitten. Meiner Meinung nach lohnt sich deshalb ein warten nicht, ein vergleichen dann ebenso wenig, da ATI schon länger mit den neuen Karten auf dem Markt ist. Dennoch wird es sicher so kommen da die Freaks ja immer wieder was brauchen um sich daran aufzugeilen ^^:razz:.

Vielleicht wird darauf die Nvidia Generation ja durchdachter.

Vielleicht ist das 2012 aber auch schon wieder egal^^

Tig3r0023
31.12.2009, 14:46
Gt300M vorgestellt


Ohne begleitende Pressemitteilung hat Hersteller Nvidia heimlich, still und leise das Angebot an Grafiklösungen für Notebooks überarbeitet und Informationen zur GeForce-300M-Serie online gestellt (http://www.nvidia.com/object/geforce_m_series.html). Vermutungen, die wir bereits im September 2009 geäußert hatten (http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2009/september/nvidia-treiber_geforce-300m-familie/), scheinen sich damit zu bestätigen: Bei der neuen Serie handelt es sich in erster Linie um einen Aufguss der GeForce-200M-Modelle.
Die neuen Modelle hören auf die Bezeichnungen GeForce GTS 360M, GeForce GTS 350M (beide High-Performance-Segment), GeForce GT 335M, GeForce GT 330M, GeForce GT 325M (alle Performance-Segment), GeForce 310M und GeForce 305M (beide Mainstream-Segment). Die Versionen GTS 360M und GTS 350M scheinen weitestgehend den Vorgängern 260M und 250M zu entsprechen, die Performance unterscheidet sich kaum bzw. gar nicht.
Die GeForce GT 335M schließt mit 72 Shader-Einheiten hingegen eine bisher im Portfolio klaffende Lücke und besitzt keinen direkt vergleichbaren Vorgänger. Die Versionen 330M und 325M unterscheiden sich von ihren Vorgängern 240M und 230M erneut nur geringfügig. Die Tatsache, dass die GeForce GT 325M (wie erwartet) langsamer als die GeForce GT 230M, die GeForce GT 330M aber schneller als die GeForce GT 240M ist, stiftet darüber hinaus Verwirrung.

Dass die Karten auf dem Vorgänger und nicht auf der für den Desktop-Sektor heiß erwarteten Fermi-Architektur basieren, zeigt auch die Tatsache, dass keine der Grafiklösungen DirectX 11 unterstützt. Da das Enthusiasten-Segment weiterhin den Modellen GeForce GTX 280M und GeForce GTX 260M aus der 200M-Serie vorbehalten bleibt, scheint nicht ausgeschlossen, dass zumindest hier Nachfolger auf Basis der Fermi-Architektur auf dem dem Markt erscheinen werden.


http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2009/dezember/nvidia_geforce-300m-serie/

randfee
31.12.2009, 17:07
bei Nvidia sitzen echt mal ein paar Hampelmänner. Ich finds extrem frech von den Klappstühlen diesen Chip GT300(m) zu nennen.
der GT300m ist ein umbenannter GT240 und das ist auch nicht mehr als ein G92!


GT300M = GT240 = G215 ~= G92 != Fermischöner Artikel drüber: http://semiaccurate.com/2009/12/29/nvidia-gts360m-renamed-gt240/

Das ist nichts als Kundenverarschung. Jeder normal-Denkende erwartet doch dann, dass dahinter was Neues steckt... und das nun schon über drei Generationen hinweg!
Mit Fermi (GT300) hat das nichts zu tun, DX11 hats auch nicht und gehört daher eigentlich auch in den G92-thread (aka 8800GT(s)). Nix für Ungut, sind ja news, aber der Chip ist uralt und das Marketing reiner Betrug!

Lobos
31.12.2009, 17:31
bei Nvidia sitzen echt mal ein paar Hampelmänner. Ich finds extrem frech von den Klappstühlen diesen Chip GT300(m) zu nennen.
der GT300m ist ein umbenannter GT240 und das ist auch nicht mehr als ein G92!

schöner Artikel drüber: http://semiaccurate.com/2009/12/29/nvidia-gts360m-renamed-gt240/

Das ist nichts als Kundenverarschung. Jeder normal-Denkende erwartet doch dann, dass dahinter was Neues steckt... und das nun schon über drei Generationen hinweg!
Mit Fermi (GT300) hat das nichts zu tun, DX11 hats auch nicht und gehört daher eigentlich auch in den G92-thread (aka 8800GT(s)). Nix für Ungut, sind ja news, aber der Chip ist uralt und das Marketing reiner Betrug!

Das liegt wohl an der derzeitigen Situation (Probleme bei der Chip Herstellung), Nvidia kann momentan einfach nix anbieten^^. Aber eine Frechheit finde ich das ebenso:twisted:

xeonsys
01.01.2010, 15:41
Speziell zertifiziertes Gehäuse für Nvidias „Fermi“







Im Vorfeld der erwarteten Ankündigung von Nvidias nächster GPU-Generation „Fermi“ hat Thermaltake die Zusammenarbeit mit Nvidia bekannt gegeben, welche sich auf eine spezielle Version des bereits erhältlichen Element V (http://www.thermaltake.com/product_info.aspx?PARENT_CID=C_00001516&id=C_00001517&name=Element+V+&ov=n&ovid=n&parent_cp=) Gehäuses bezieht – das „Element V Nvidia Edition“.
Das Besondere an dieser Sonderedition ist dabei vor allem, dass es aufgrund der gemeinsamen Entwicklung mit Nvidia das erste und einzige Gehäuse sein wird, welches für die kommende Grafikkarten-Generation mit dem Codenamen „Fermi“ zertifiziert ist. Das Gehäuse soll demnach beste Arbeitsbedingungen für die neue Grafikkarten-Generation beim Einsatz von 3-way- oder Quad-SLI schaffen. Hierfür hat man besonderes Augenmerk auf den Luftstrom im Gehäuse gelegt. Auch die Element V Nvidia Edition wird elf 5,25-Zoll-Laufwerksschächte besitzen, von denen beispielsweise sechs für 3,5"-Festplatten und vier für 2,5"-Festplatten vorbereitet sind. Darüber hinaus ist auch bei der Sonderedition das Netzteil am Boden des Gehäuses platziert und die Seitenwand verfügt über den Plug&Play-Lüfter, bei dem man sich keine Sorgen mehr um die Kabelführung beim Öffnen des Gehäuses und das Anschließen des Lüfters machen muss. Über das integrierte Kontrollsystem kann der Benutzer die Lüftergeschwindigkeiten und die Farben der LEDs regeln.
http://pics.computerbase.de/2/7/8/7/2/1_m.jpg (http://www.computerbase.de/bildstrecke/27872/1/)

Zusätzlich zu den bekannten, groß dimensionierten Lüftern der Standardversion besitzt die Sonderedition ein „Air-Duct-System“ für die Grafikkarte, welches zusätzliche Kühlung für SLI-Gespanne auf Fermi-Basis liefert. Das System führt und beschleunigt dabei kühle Luft von außerhalb direkt auf die Grafikkarten (http://www.computerbase.de/news/hardware/gehaeuse_kuehlung/2009/dezember/speziell_gehaeuse_nvidias_fermi/#). Die Element V Nvidia Edition von Thermaltake wird erstmals auf der CES in Las Vegas der Öffentlichkeit in Form eines Prototypen vorgestellt. Genaueres über die geplante Verfügbarkeit und den Preis nannte Thermaltake noch nicht, doch wir werden versuchen, direkt auf der CES nähere Informationen und Bildmaterial zu ergattern.

http://www.computerbase.de/news/hardware/gehaeuse_kuehlung/2009/dezember/speziell_gehaeuse_nvidias_fermi/

1337_alpha
01.01.2010, 15:45
Ist das erbärmlich >.>

Ich krümel mir hier grad einen...
Allein schon dieser Satz

"Das Besondere an dieser Sonderedition ist dabei vor allem, dass es aufgrund der gemeinsamen Entwicklung mit Nvidia das erste und einzige Gehäuse sein wird, welches für die kommende Grafikkarten-Generation mit dem Codenamen „Fermi“ zertifiziert ist"

Tut mir Leid aber darüber kann ich nur lachen

Scaleo
01.01.2010, 15:48
Glaub irgendwie nicht, dass das Gehäuse bessere Bedingungen bietet wie andere gute Gehäuse.

Mfg Scaleo

1337_alpha
01.01.2010, 15:55
Glaub irgendwie nicht, dass das Gehäuse bessere Bedingungen bietet wie andere gute Gehäuse.

Mfg Scaleo

Natürlich nicht

Alles Kundenverarsche und was Thermaltake da für eine Schrotqualität wieder abliefert will ich auch nicht wissen...

Die hätten mal lieber mit Coolermaster zusammenarbeiten sollen

Lobos
01.01.2010, 16:05
Natürlich nicht

Alles Kundenverarsche und was Thermaltake da für eine Schrotqualität wieder abliefert will ich auch nicht wissen...

Die hätten mal lieber mit Coolermaster zusammenarbeiten sollen

Da gebe ich dir Recht, ist doch nur Geldmacherei, aber die Fanboys werden sicher fleißig kaufen:wall::tock::d_biglaugh:

xeonsys
04.01.2010, 15:29
Update: 4.1.2010: Vorschau auf der CES 2010




Nvidia verkündet auf seiner offiziellen Facebook-Webseite, dass man auf der CES 2010 eine "Sneak Peak" auf der GF100 Fermi am Nvidia-Stand geben wird. Worin diese Vorschau bestehen soll, ist aktuell noch unklar. Eine Live-Demo steht aber zu vermuten.

PC Games Hardware wird selbstverständlich für Sie vor Ort berichten und spätestens am 7.1. herausfinden, worin die Vorschau auf Fermi besteht.

http://www.pcgameshardware.de/aid,699654/Nvidia-GF100-Alle-Fakten-zur-Fermi-Geforce-Grafikkarte-Update-Fermi-Preview-auf-der-CES/Grafikkarte/News/

Tig3r0023
07.01.2010, 12:29
Update: Neue Bilder des Demosystems plus DX11-Benchmark

http://www.pcgameshardware.de/aid,699654/Nvidia-GF100-Alle-Fakten-zur-Fermi-Geforce-Grafikkarte-Update-Neue-Bilder-des-Demosystems-plus-DX11-Benchmark/Grafikkarte/News/

xeonsys
07.01.2010, 18:02
video online


Nvidia bestätigte gegenüber PC Games Hardware, dass man auf der CES eine spezielle Physx-Demo namens Supersonic Sled zeigen wird. Die dort zu sehende Rakete ist nicht nur physikalisch korrekt animierte, sondern bietet auch dazu passenden Rauch; auch die zu zerstörenden Hindernisse sind realistisch modelliert. Die Demo unterstützt DirectX 11 und 3D Vision.

Update: Mittlerweile gibt es auch ein Youtube-Video, das den GF100 beim Einsatz mit dem Unigine-Heaven-DX11-Benchmark zeigt.


http://www.youtube.com/watch?v=gkI-ThRTrPY


http://www.pcgameshardware.de/aid,699654/Nvidia-GF100-Fakten-zur-Fermi-Geforce-Grafikkarte-Update-GF100-Bilder-und-Youtube-Video-mit-DX11-Benchmark/Grafikkarte/News/

xeonsys
07.01.2010, 18:31
ab ca 19:30mez nvidia pk



Check back here on Thursday, January 7 at 10:30 AM for the live webcast from NVIDIA’s press conference at CES!”


http://www.nvidia.com/object/ces2010.htmllive stream läuft schon

http://cnettv.cnet.com/liveatces?tag=rb_content;overviewHeadinfo von

http://www.hardwareluxx.de/community/showpost.php?p=13703349&postcount=521

xeonsys
07.01.2010, 19:11
gleich geht es los da.

web cast online


http://ispss.istreamplanet.com/nvidia/

xeonsys
07.01.2010, 19:28
so es kann losgehen.:grin:

http://www.hardwareluxx.de/community/showthread.php?t=675760&page=26

CRYSISTENSE
07.01.2010, 19:31
Ich bin gespannt:)

xeonsys
07.01.2010, 19:32
geht ab jetzt. in hd

Black_Death
07.01.2010, 19:34
Wo in HD?

10 Zeichen

xeonsys
07.01.2010, 19:35
Wo in HD?

10 Zeichen

meinte hi
@Black_Death

Black_Death
07.01.2010, 19:45
Mein Gott is das langweilig.^^

xeonsys
07.01.2010, 19:47
das beste kommt wohl am ende.

ScoR
07.01.2010, 20:04
Der Rechte typ ist aber en Nervöser^^
Hab grad erst angemacht...
Irgendwas spannendes passiert?

xeonsys
07.01.2010, 20:06
nein NOCH nicht.

das ist Tim Sweeney von EPIC

Shooter0175
07.01.2010, 20:11
Hm, bis jetzt nicht wirklich was interessantes für mich dabei gewesen .. mal sehen, was noch so kommt. Sonst schau ich mir morgen ne Zusammenfassung an:-)

Für mich ist schluss, viel Spaß noch;)

xeonsys
07.01.2010, 20:13
ne karte habe ich hab in hg kurz gesehen.8-)

CRYSISTENSE
07.01.2010, 20:18
Laaaaaaaangweilig. Audi interessiert doch hier wirklich keinen:roll: Da war ja der TEGRA am Anfang noch interessanter.

ScoR
07.01.2010, 20:18
Wie ist der Name von dem Linken Typen.
Nicht der Audi Mann sondern der andere.

Fusion145
07.01.2010, 20:20
Das ist der CEO von Nvidia, Jen-Hsun Huang

Rick
07.01.2010, 20:21
Wie ist der Name von dem Linken Typen.
Nicht der Audi Mann sondern der andere.

Huang, der Nvidia Chef ;)

xeonsys
07.01.2010, 20:34
kein 3d im web cast.:lol:

CRYSISTENSE
07.01.2010, 20:37
Laggt das bei euch auch so?

xeonsys
07.01.2010, 20:39
Laggt das bei euch auch so?

ja bei mir

ScoR
07.01.2010, 20:39
Laggt das bei euch auch so?

Jop.
Auf egal welchen Einstellungen..
Ich hab jetzt grad mal Pause gemacht und hoffe das der ein bischen vor buffert.

Rick
07.01.2010, 20:42
Jop.
Auf egal welchen Einstellungen..
Ich hab jetzt grad mal Pause gemacht und hoffe das der ein bischen vor buffert.

Geht das überhaupt bei einer live Übertragung?

Mhh der Film war jetzt echt zu viel :(

ScoR
07.01.2010, 20:45
Geht das überhaupt bei einer live Übertragung?

Mhh der Film war jetzt echt zu viel :(

Nee ich glaub nicht.
Bei mir laggts zwar nichtmehr aber am vorbuffern liegts glaub ich nicht, weil das ist dafuer schon zulange her.

Edit: JETZT KOMMT DAS INTRESSANTE!

Oja... Sounrounded by 3D...Darauf hab ich gewartet -.-

CRYSISTENSE
07.01.2010, 20:47
lol das wars^^

Waren wirklich nur die 3 Themen:
Tegra
Audi
3D-Vision

xeonsys
07.01.2010, 20:47
das wars :roll:

Shooter0175
07.01.2010, 20:48
Naja, wirklich interessant war's jetzt für mich nicht, heißt wohl wieder warten ..

Black_Death
07.01.2010, 20:49
NUja also eigendlich war das für völlig unintressant.

Sommermn
07.01.2010, 20:49
Also 3D Vision Surround ist also die Antwort auf ATI's Eye Finity :smile: Allerdings in 3D :o Allerdings gabs leider keine wirklichen Neuerungen sonst :(
3 Bildschirme 1920x1080 zusammengeschlossen alles in 3D und laut ihm ( wenn ich richtig verstanden habe ) Realtime :o

Lobos
07.01.2010, 20:57
Also 3D Vision Surround ist also die Antwort auf ATI's Eye Finity :smile: Allerdings in 3D :o Allerdings gabs leider keine wirklichen Neuerungen sonst :(
3 Bildschirme 1920x1080 zusammengeschlossen alles in 3D und laut ihm ( wenn ich richtig verstanden habe ) Realtime :o

Das schafft man auch locker mit einer 4890 von der Leistung her! Ich denke ATI wird kontern und mit ihrer Eye Finity Technik Einzug halten. Für wem das allerdings interessant sein soll frag ich mich!? Viel zu teuer sich drei Bildschirme nebst Graka zu kaufen und das nur wegen 3D. Allerdings sicher nett für den Anfang der Technik.

Ich kauf mir wenn es soweit ist ne ordentliche 3D FullHd Glotze und dann geht es ab die Luzy mit der Ps3:lol:

Ovomaltine
08.01.2010, 06:49
Ich kauf mir wenn es soweit ist ne ordentliche 3D FullHd Glotze und dann geht es ab die Luzy mit der Ps3:lol:


So seh ich das auch, evlt auch schon mit der Ps4 ;-)
Was ich lustig finde is das der Cell CPU noch imma alle Deskop cpus einfach so platt mach von der leistung, bis Intel und AMD da dran kommt vergehen sicher nochmal 2 bis 3 jahre. Letzens erst wieder nen Beenchmark vergleich gesehen...

BTT!

Ich bin zwar gespannt was nvidia rausbringt aber ich denke so dolle wird es nicht werden, die letzen jahre hat sich einfach zu wenig getan in sachen grafik und technik wie ich finde.
Und es lohnt sich einfach nicht sich alle 1 bis zwei jahre ne neue graka für 300 / 600 € zu kaufen, da färhste mit ner konsole echt erheblich besser und billiger...

Aber natürlich Geschmackssache ;-)



MFG
Ovo

Lobos
08.01.2010, 08:29
S
Was ich lustig finde is das der Cell CPU noch imma alle Deskop cpus einfach so platt mach von der leistung, bis Intel und AMD da dran kommt vergehen sicher nochmal 2 bis 3 jahre. Letzens erst wieder nen Beenchmark vergleich gesehen...

BTT!

Ich bin zwar gespannt was nvidia rausbringt aber ich denke so dolle wird es nicht werden, die letzen jahre hat sich einfach zu wenig getan in sachen grafik und technik wie ich finde.
Und es lohnt sich einfach nicht sich alle 1 bis zwei jahre ne neue graka für 300 / 600 € zu kaufen, da färhste mit ner konsole echt erheblich besser und billiger...

Aber natürlich Geschmackssache ;-)



MFG
Ovo


Dir ist aber schon klar das du die Cell CPU nicht mit einer Pc CPU vergleichen kannst? Die Architektur ist ganz anders aufgebaut und auch der Aufgabenbereich ist groß wie bei einer Pc CPU. Ich sehe solche Benchmark Vergleiche eher skeptisch gegenüber und stufe sie als unrealistisch ein.

BTT:

Naja die letzten Jahre hat sich eigentlich sehr viel getan, vielleicht nicht unbedingt im Grafik-Sektor weil dort Nvidia sich mit der 8800GTX und später die GTX280 mit wenig Neuerungen auf den Lorbeeren ausruhen konnte. Wobei hier mehr die 8800GTX in den Vordergrund der langen Ruhephase geschoben werden kann. Die Grafikkarte hatte auch richtig viel Power, außer das Spiel Crysis konnte man die Karte kaum bezwingen und fast alle anderen Spiele liefen Butter weich in voller Auflösung.

Intel und AMD wie ich finde, haben schon große Wunder vollbracht. Wie schnell wurden neue/neuartige CPU´s auf den Markt geschmissen. Ich kann mich noch erinnern als ich meinen C2D E6600 hatte, die war richtig schnell und damals auch eine der Top Prozessoren für den bezahlbaren Geldbeutel. Kurze Zeit später kam dann der erste QuadCore Q6600, dann der Q9300, der Q9450, Q9550 usw...! Das sind richtig leckere Prozessoren und die Leistungen haben sich seit dem stark verdoppelt:-D Mit dem Core i5 zeigt Intel das es noch Leistungsfähiger geht und vor alledem Stromsparender. Der Core i7 920 wahr eher oversized!!!!!

AMD hat Anfangs mit dem Phenom X4 9550 Fehler gemacht, was die TDP und die Fehlerhafte Serienstreuung angeht, aber das führt hier nicht zur Sache. Preis und Leistung des Phenom II X4 955er ist einfach nur Hammer und seit vielen Jahren trauen sich endlich auch wieder Gamer auf die Seite von AMD und das zurecht wie ich finde.:-D


p.s. Das mit der Konsole stimme ich dir zu, das jährliche wett aufrüsten bringt keinem was, höchstens denen die eh zu viel Geld in den Taschen oder auf der Bank haben und nicht wissen was sie damit anstellen sollen oder den Hardcore Overlockern!
Am besten fährt man wenn man seinen Pc vor ca. 1 Jahr aufgerüstet hat auf einen QuadCore und eine mittel starke Grafikkarte verbaut hat, daneben eine PS3 oder Xbox360 und fertig

Ende^^

xeonsys
08.01.2010, 15:25
Update: 8.1.2010



Offenbar zeigt Nvidia nicht nur ein Single-GF100-System, sondern auch eine Triple-SLI-Konfiguration. Entsprechende Bilder sind bei den Kollegen von HWupgrade zu finden.

http://www.hwupgrade.it/news/skvideo/nvidia-fermi-alcune-nuove-informazioni_31216.html

Das GF100-Triple-System wird wassergekühlt und arbeitet zusammen mit einem EVGA X58-Mainboard und einem unbekannten Core-i7-Prozessor.

Zum Release-Termin gibt es ebenfalls Neuigkeiten. PCGH-Reporter Roland Austinat wohnte der Keynote von Nvidia-Chef Huang bei, der die Serienproduktion von GF100 Fermi bestätigt wurde. Bei der Vorführung von 3D Vision Surround kam Avatar auf drei Bildschirmen zum Einsatz - angeblich auf einer GF100-Karte. Unklar ist noch, worauf sich der Release-Termin "Q1" bezieht. Damit könnte unter Umständen auch das erste Finanzquartal von Nvidia gemeint sein, das vom 26.1. bis 26.4. geht.

video
http://www.tvtech.it/video/546/nvidia-fermi-al-ces/


http://www.pcgameshardware.de/aid,699654/Nvidia-GF100-Fakten-zur-Fermi-Geforce-Grafikkarte-Update-Triple-SLI-System-plus-Serienproduktion/Grafikkarte/News/


http://www.youtube.com/watch?v=KMSC2iUAa28

randfee
08.01.2010, 16:45
das macht einfach alles keinen Sinn!

Wenn die Fermi Karten wirklich deutlich schneller wären als die ATI 5870, dann würden sie, darauf könnt ihr euren ***** verwetten, Benchmarks zeigen welche daran keinerlei Zweifel lassen würden. Während AMD, wenn auch gebremst, ständig Karten sogar zu weit höheren Preisen verkauft als sie angekündigt wurden (wegen der Nachfrage) hat NVidia nichts. Hätten sie was in der Hand und/oder wüssten, dass die Fermi Karten DEUTLICH performanter sind, dann würden sie doch kräftigst an der Werbetrommel drehen um potentielle Kunden zurückzuhalten AMD zu kaufen.

aber nö, sie zeigen nichts, obwohl sie Karten fertig haben. Ist jedenfalls für mich ein fast sicheres Zeichen dafür, dass die Karten nicht das bringen was sie sich erhofft haben. 15% Theoretischer Performance haben sie ja schon mal fallen gelassen indem sie von 512 auf 448 Shader gestutzt haben.

Scaleo
08.01.2010, 17:45
das macht einfach alles keinen Sinn!

Wenn die Fermi Karten wirklich deutlich schneller wären als die ATI 5870, dann würden sie, darauf könnt ihr euren ***** verwetten, Benchmarks zeigen welche daran keinerlei Zweifel lassen würden. Während AMD, wenn auch gebremst, ständig Karten sogar zu weit höheren Preisen verkauft als sie angekündigt wurden (wegen der Nachfrage) hat NVidia nichts. Hätten sie was in der Hand und/oder wüssten, dass die Fermi Karten DEUTLICH performanter sind, dann würden sie doch kräftigst an der Werbetrommel drehen um potentielle Kunden zurückzuhalten AMD zu kaufen.

aber nö, sie zeigen nichts, obwohl sie Karten fertig haben. Ist jedenfalls für mich ein fast sicheres Zeichen dafür, dass die Karten nicht das bringen was sie sich erhofft haben. 15% Theoretischer Performance haben sie ja schon mal fallen gelassen indem sie von 512 auf 448 Shader gestutzt haben.

Wer weiß auf was es Nvidia abzielt aber ich hoffe das mal dass das Gegenteil von dem eintritt was du geschrieben hast - nämlich das die Nvidia Karte abgeht wie Schnitzel und kein reinfall wird.

Mfg Scaleo

LKrieger
08.01.2010, 22:05
Ich find die neuen Features (Tess, DX11, 3D Surround, NVIDIA Parallel DataCache, 32x anti-aliasing, ECC Support...) schon überwältigend. Allein daher werd ich da wohl wieder meine kribbelnden Finger nicht vom Bestell button halten können :D.

Da die Leistung eh um einiges besser ist als beim G200 (was ja mehr als absehbar ist) - wirds wohl (wenns korrekt ist) im Q1 noch ein neues Gespann bei mir geben... Hoffe die Wasserkühler (die in dem Video gezeigt werden) sind dann auch verfügbar. Waren ja beim G200 (wenn ich mich recht erinnere) auch schon vor dessen Release verfügbar.

MFG LK

xeonsys
09.01.2010, 06:09
CES 2010: NVIDIA zeigt Fermi, spricht aber nicht darüber (http://www.hardwareluxx.de/index.php/news/allgemein/vor-ortmessen/14038-ces-2010-nvidia-zeigt-fermi-spricht-aber-nicht-darueber.html)


Eigentlich hatten wir uns von dem heutigen Termin mit NVIDIA etwas mehr erwartet. Bereits auf der gestrigen Pressekonferenz (http://www.hardwareluxx.de/index.php/news/allgemein/vor-ortmessen/14035-ces-2010-nvidia-praesentiert-tegra-2-und-spricht-kurz-von-fermi.html) hielt sich Jen-Hsun Huang aber sehr knapp beim Thema Fermi bzw. GF100. Zumindest aber konnte man einige lauffähige Karten präsentieren. Dabei ging es allerdings weniger um die Leistungsfähigkeit der neuen Architektur, als vielmehr um die Präsentation von 3D Vision Surround. In einer Demo wurde dies mittels zweier GF100-Grafikkarten präsentiert, die an drei Beamer (http://www.hardwareluxx.de/index.php/news/allgemein/vor-ortmessen/14038-ces-2010-nvidia-zeigt-fermi-spricht-aber-nicht-darueber.html#) angeschlossen sind und im SLI betrieben werden. Die Beamer sind in der Lage das Bild in 120 Hz auszugeben. Über die bereits bekannte 3D Vision Technologie entsteht dann das 3D-Bild.
Für uns aber viel wichtiger war die Tatsache, dass zwei GF100-Grafikkarten eingesetzt werden. Allerdings ist NVIDIA sehr darauf bedachte, dass keine Bilder der Karten selbst gemacht werden. Anhand der externen Anschlüsse wird aber recht schnell klar, dass NVIDIA bei den Anschlüssen einen eher konservativen Weg geht. Zwei DVI scheinen die Standard-Möglichkeit für den Anschluss von Displays oder Beamer zu sein. Anhang der Tatsache, dass 3D Vision Surround aber bis zu drei Monitore (http://www.hardwareluxx.de/index.php/news/allgemein/vor-ortmessen/14038-ces-2010-nvidia-zeigt-fermi-spricht-aber-nicht-darueber.html#) unterstützt, stellten wir uns natürlich die Frage, ob NVIDIA nicht auch eine GF100 mit mehr als den üblichen zwei DVI-Anschlüssen anbieten wird. Klare Antwort von NVIDIA: Nein! Auch die neuen GF100-Grafikkarten werden allesamt nur zwei DVI-Anschlüsse bieten. NVIDIA sieht DisplayPort noch nicht für das Jahr 2010, schließt allerdings nicht aus, dass es später auch mal eine entsprechende Option dafür geben könnte. Ob eine Karte auch in der Lage ist mehr als zwei Displays anzusteuern, bleibt unklar, halten wir aber durchaus für möglich.

http://www.hardwareluxx.de/images/stories/temp/d161b1c652a0e1a0d6c5f166fc0ff393.jpg (http://www.hardwareluxx.de/images/stories//galleries/news/aschilling/CES2010/GF100/1/MS8I9054.jpg)







Auf den Bilder sind die zwei DVI-Anschlüsse auch zu sehen, wenngleich wir uns für die Qualität der Bilder entschuldigen müssen. NVIDIA macht es einem nicht leicht entsprechende Fotos zu schießen.
http://www.hardwareluxx.de/images/stories/temp/e545d7e8c64ef7d9db4a13bbefa4b2a5.jpg (http://www.hardwareluxx.de/images/stories//galleries/news/aschilling/CES2010/GF100/2/MS8I9062.jpg)









Auf einem weiteren Demo-System mit gleich drei wassergekühlten GF100-Grafikkarten im 3-Way-SLI wurde dann auch eine DirectX-11-Demo gezeigt, welche das Leistungspontenzial der neuen Architektur unterstreichen soll. Auch hier haben wir versucht einige Fotos der Karte selbst zu machen, allerdings auch hier machte man es uns nicht einfach und so ist nicht wirklich etwas wichtiges zu erkennen.

http://www.hardwareluxx.de/images/stories/temp/33ae8f1ddf177abe93dfdab6cbe8fd77.jpg (http://www.hardwareluxx.de/images/stories//galleries/news/aschilling/CES2010/GF100/3/MS8I9058.jpg)





Zum Abschluss versuchte NVIDIA noch einmal seine Strategie hinter der bisherigen Entwicklung rund um die GF100 zu erklären. So gäbe es noch keinerlei Verzögerungen bei der Entwicklung. Fermi bzw. GF100 sei für das 1. Quartal 2010 geplant und würde dann auch veröffentlicht werden. Auch könne man die Aufregung nicht nachvollziehen, die Meldungen rund um Fermi immer wieder nach sich ziehen. Besonders verwundert ist man über die Gerüchteküche, die immer wieder technische Daten aus dubiosen Quellen beziehe. Ebenfalls nicht nachvollziehbar seien Schlussfolgerungen, die aus der Präsentation der Tesla-Generation auf Fermi-Basis getroffen werden. Tesla und GF100 seien zwei völlig unterschiedliche Produkte, die keinerlei Verbindung untereinander erlauben. Die Spezifikationen könnten nicht so einfach miteinander verglichen werden.
Pünktlich zur CeBit will NVIDIA mit den ersten Fermi-Grafikkarten für den Desktop-Markt aufwarten können. Ebenfalls geht man davon aus, zum Launch auch ausreichende Stückzahlen der Karten liefern zu können. Ein Seitenhieb auf AMD, deren neue DirectX-11-Grafikkarten über Wochen und Monate nicht lieferbar waren. Allerdings hat AMD den Vorteil nun eine ebenso lange Zeit die schnellsten Karten am Markt zu haben.

http://www.hardwareluxx.de/index.php/news/allgemein/vor-ortmessen/14038-ces-2010-nvidia-zeigt-fermi-spricht-aber-nicht-darueber.html





http://www.youtube.com/watch?v=3-1GMbqzGX0

randfee
09.01.2010, 14:04
eine DX11 demo mit einem übertakteten triple SLI Verbund ist ja dermaßen aussagekräftig....

man man, ich kann nur unterstreichen was ich gestern sagte. Wenn die Karten wirklich so performant wären wie sie's gerne hätten würden sie garantiert benchmarks zeigen und sich mit AMD vergleichen um weiter potentielle Kunden zu halten. Nichts über die performance zu sagen und die "Strategie nochmal zu erklären" heißt für mich, man will die general purpose GPU-Eigenschaften hervorheben, da die Performance nicht berauschend ist.

Welchen Grund könnten sie denn haben eine tolle Performance weiter zu verschweigen, obwohl sie nun schon mehr boards haben statt nur der wenigen samples von vor Monaten. Die Tatsache, dass sie so lange schon chips/boards haben spricht auch nicht dafür, dass die Treiber noch im alpha Stadium sind, ein weiterer Grund weniger, warum sie sich trotz guter performance zurückhalten könnten.

Man darf gespannt sein, aber irgendwas ist faul... Das Nvidia wie ich's kenn hätte der Kundenbindung willens längst gesagt: "unsere Karte ist aber 50% schneller, ha".

xeonsys
10.01.2010, 18:18
noch ein hd video

http://www.youtube.com/watch?v=6RdIrY6NYrM