Charlie Demerjian vom Inquirer berichtet grundsätzlich negativ über Nvidia.
Dies hängt damit zusammen, dass er von den meisten Nvidia-Events ausgeschlossen wurde.
Vielleicht war er ja bei TSMC und hat selbst nachgezählt... :grin:
Druckbare Version
Soviel zum "Verschleißgerücht"
QuelleZitat:
Nvidia
DirectX-11-Chip mit Problemen? (Update)
http://www.gamestar.de/img/0.gif http://www.gamestar.de/img/0.gif http://images.idgentertainment.de/im...99335/152x.jpg
http://www.gamestar.de/img/gs/white/icon_lupe.gif Nvidia http://www.gamestar.de/img/0.gif Wie SemiAccurate meldet, soll die Anzahl der tatsächlich brauchbaren GT300-Grafikchips, die Nvidia bei der ersten Herstellung erhalten hat, selbst pessimistische Schätzungen noch unterbieten. Sind 20 Prozent Ausbeute bereits recht niedrig, aber noch im Rahmen, soll Nvidia aus den ersten vier Wafern mit zusammen 416 Chips gerade einmal sieben brauchbare Exemplare enthalten haben. Das sind weniger als 1,7 Prozent.
Laut SemiAccurate sei damit sogar in Frage gestellt, ob Nvidia mit so wenigen Chips überhaupt Tests und Fehlerbereinigungen im benötigten Umfang vornehmen kann. Damit könnte sich auch die Markteinführung der DirectX-11-Karten von Nvidia verzögern.
Update 17. September 2009
Wie Fudzilla meldet, soll die Markteinführung des GT300 von Nvidia wohl nach wie vor im November stattfinden, was zu den webweiten Meldungen über eine extrem schlechte Ausbeute bei der Produktion aber nicht so recht passt. Auch andere Quellen mit eigenen, guten Beziehungen in der Branche, wie beispielsweise Kyle Bennett von HardOCP, bestätigen die Produktionsprobleme von Nvidia.
Immerhin soll der GT300 laut Personen, die Leistungsdaten des neuen Chips gesehen haben, die Radeon HD 5870 des Konkurrenten ATI sicher schlagen. Dies würde sich dann natürlich auch auf eine Dual-Karte mit zwei Grafikchips beziehen, die die geplante Radeon HD 5870 X2 übertreffen könnte.
Gruß
Noname
Gut dass du es nochmal hier rein kopierst, dann bekommen es auch die zu Gesicht, die nicht fähig sind einen Link zu klicken :p
Verschleiß ist das Abnutzen durch Gebrauch. Die hier sind noch nichtmal gebraucht worden, weil sie von vorn herein Mist waren
(gesetz dem Fall, dass die Gerüchte stimmen).
Allerdings heißt es ja auch: "[...] bei der ersten Herstellung erhalten hat [...]".
Kann sich ja geändert haben und wer weiß wann die erste Herstellung war :-|
Naja, die Chips werden in so einer Art "Testphase" hergestellt, da wird sich eh noch einiges tun (müssen). Das Problem dabei liegt einfach daran, dass man immer wieder versucht, möglichst viel Leistung auf möglichst wenig Fläche zu bekommen. Mit dem bisher verwendetem Material wird das allmählich immer schwieriger.
Nvidia bekommt das schon hin.
Desweiteren kann ich es IMMER WIEDER betonen: Meldungen vom INQ bezüglich Nvidia sind MÜLL, MÜLL und nochmals MÜLL, weil da alles Nvidia feindliche Redakteure hinter sitzen. ATI Fanboys, wenn man so will.
Nvidia
DirectX-11-Chip mit Problemen? (Update2)
Update 25. September 2009
Wie Fudzilla meldet, hat ein Senior Manager von Nvidia ihnen gegenüber ausgesagt, dass die Ausbeute bei der Herstellung in 40nm gut sei und die Gerüchte, die im Umlauf sind, jeder Grundlage entbehren würden.
Außerdem will man erfahren haben, dass es für Nvidia kein Problem darstellen dürfte, Ende November oder zumindest im Dezember mit der Auslieferung der eigenen DirectX-11-Karten mit GT300-Grafikchip zu beginnen. Nvidia könnte die Karten sogar vorher vorführen, um Interessenten nicht ins ATI-Lager wechseln zu lassen.
Quelle: http://www.gamestar.de/index.cfm?pid...fp=6#liststart
Möge der Kampf beginnen^^ :razz:
jear seh ich genau so
möge der kampf beginnen:twisted:
ich muss wegen meinem geld so oder so bis dezember warten und hab sowie so damit gerechnet das sie dann rauskommen8-)
ich hoffe doch noch für nvidia das sie ati weghauen:twisted::twisted::twisted:
Grad auf PCGH.de gelesen:
Zitat:
Während die Verfügbarkeit von AMDs neuer Grafikkartengeneration zunehmend steigen sollte, steht der genaue Erscheinungstermin von Nvidias GT300 immer noch in den Sternen. So werden - laut vr-zone.com - Nvidias erste DirectX-11-Grafikchips gegen Ende dieses Jahres (genauer Dezember 2009) erwartet. Wie gewohnt sollen zu erst Enthusiasten mit einem High-End-Modell bedient werden, Mainstream- und Einsteiger-Karten sollen im zweiten Quartal 2010 folgen.
Ein weiteres Gerücht dreht sich um die angeblich schlechte Ausbeute der GT300-Chips - welches vermutlich auf eine übernommene Story von BSN (brightsideofnews.com) zurück zu führen ist, die ihrerseits auf einem Übersetzungsfehler aus dem Japanischen basieren soll (Monatszahlen wurden zu Prozentangaben uminterpretiert). Ein ungenannter Senior Manager soll nun zumindest diese Meldung dementiert haben. Laut vr-zone.com seien die Gerüchte als "haltlos" abgestempelt und mit den Worten "Our 40nm yields are fine" entkräftet worden.
einfach nur >>
Und wenn ich dann von einem Release von 2.Quartal 2010 lese...Zitat:
Zitat von Noname
NV Geld reagiert die Welt. Aber nicht Geld geht über Alles, sondern Wissen (Klugheit / Dummheit). Das ganze Geld bringt GAR NICHTS.. wenn der Abstand ja so groß zu ATI war, dass man sich als NV mal eben nen Abstand von 6-8Monaten gönnen sollte!
Danke NV ich pfeif auf den GT300.. wird sowieso ne Lachnummer. Hol ich mir doch liebe ne HD5870 :roll: traurig. Aber so kann man auch seine Kunden verlieren. :(
Gruß
Noname
GT300 is codenamed Fermi
Named after a nuclear reactor
Zitat:
The chip that we ended up calling GT300 has internal codename Fermi. The name might suit it well as Enrico Fermi was the chap that came up with the first nuclear reactor.
The new Nvidia chip is taped out and running, and we know that Nvidia showed it to some important people. The chip should be ready for very late 2009 launch. This GPU will also heavily concentrate on parallel computing and it will have bit elements on chip adjusted for this task. Nvidia plans to earn a lot of money because of that.
The chip supports GDDR5 memory, has billions of transistors and it should be bigger and faster than Radeon HD 5870. The GX2 dual version of card is also in the pipes. It's well worth noting that this is the biggest architectural change since G80 times as Nvidia wanted to add a lot of instructions for better parallel computing.
The gaming part is also going to be fast but we won’t know who will end up faster in DirectX 11 games until we see the games. The clocks will be similar or very close to one we've seen at ATI's DirectX 11 card for both GPU and memory but we still don't know enough about shader count and internal structure to draw any performance conclusions.
Of course, the chip supports DirectX 11 and Open GL 3.1
http://www.fudzilla.com/content/view/15719/1/
Oh oh
Named after a nuclear reactor
Das lässt hoffen... :D
Naja... auf was das hoffen lässt kann ich mir denken. Ich hoffe für NV user das es nicht heisst das man nen Reaktor braucht um das ding zu betreiben. Klar die ATI 5*** sind auch nicht unbedingt Spaarsam aber ich finde für die Leistung ist es erträglich.
Das musst mir erklären oO
Was ist denn an der ATI 5*** reihe nicht gescheit? Eine Single GPU Karte hat fast die Leistung der besten NV Dual GPU Karte bei weit weiger Anschaffungskosten und weniger Stromverbrauch.
just my 2 cents
Die grafikkarten die im dezember kommen, das sind also die high-end modelle die ein wenig mehr kosten aber auch ordneltich power haben sollen richtig ?
Sind die denn ueberhaupt auch richtig ausgereift, denn wenn dann die low teile im 2. quartal kommen, dann muessten die ja ein wenig besser vom bau her sein oder ? :S
@LandsHeer: Ja die Karten die spekulationsmäßig im September erscheinenden Karten sind die High-end Modell, also auch spekulativ die GTX380 und GTX360.
Man weiß aber nicht ob Nvidia wieder wie beim G200 chip eine verbesserte Version ala GTX 285 und GTX275 rasu bringt. Deswegen warte ich eingie Zeitlang nach Realese. Eventeull steig ich auch auf ATi um.
All diese daten sind Spekulationen und wurden noch nicht richtig bestätigt.
NV stand ab dem G80 bisher einfach für mehr Qualität - ob man das jetzt warhaben will oder nicht. Ich merke es jedenfalls bei uns im Geschäft, bei mir selbst zu Hause und höre es überall. Kann mir also keiner ne andere Meinung einreden, der vllt gerademal 3 Karten von ATI hatte und damit bisher zufrieden war ;).
Egal BTT!
Bin jedenfalls mal sehr gespannt wann NV den release plant. Können sich derzeit sowieso noch Zeit lassen, habs noch nicht so eilig :lol::roll:.
Mfg LKrieger
ati hat den kampf doch schon gewonnen vorrausgesetzt die sorgen dafür das die neue hd5000 serie auch jetzt sprich die nächsten tage ohne engpässe lieferbar ist!
viele wie ich zb. haben noch eine 8800 gts 512 oder vergleichbares und sind nicht auf eine 260 gtx umgestiegen weil der leistungsschub zu gering ist.
aber jetzt wo ati hat die bombe platzen lassen und ich für lächerliche 293 euro eine hd5870 bekomme und zu gleich über 50% mehr leistung bekomme und dann sind die dinger auch noch besser für aa in vielen spielen, ist ati für mich der klare gewinner!
ich selbst hatte noch nie eine ati karte und war schon mit der geforce 4200 unterwegs und glücklich - das wird sich jetzt ändern ;)
greetz^^
Naja das wichtigste für einen Grafikkarten Entwickler wie AMD und Nvidia ist, so viele Grafikkarten zu verkaufen wie es nur geht. Und wie macht man das am besten? Ganz klar mit den Einsteiger- und Mittelfeld-Karten. Der geringste Gewinn wird über die Hightech Karten gewonnen. AMD ist deshalb der klare Sieger und brauch sich vor Nvidia nicht wirklich verstecken, AMD haut seine zwei Karten raus und hat vor dem release der Nvidia noch die X2 Karte, welche ausreichend Leistung bringt. Sobald Nvidia ihre neuen Karten verkauft (zu beginn meist sehr teuer und wer weiß schon ob es NV schafft die Karten dieses Jahr noch zu liefern?!), kann AMD den Preis drücken und hält auf langer Sicht das beste Preis-Leistung-Verhältnis. Kontert Nvidia gegen die X2 von AMD, kann AMD vielleicht schon sehr kurz danach mit einer neuen Karte kontern. Die meisten Abverkäufe bleiben wohl oder übel bei AMD. Da interessiert es kaum noch jemanden ob Nvidia die schnellsten sind.
Viele Gamer springen vom dem Pc Segment ab und wechseln wegen des dauernden Aufrüsten zu den Konsolen wie Xbox360 oder Ps3. Der Trend wird immer deutlicher und da kann jeder sagen was er will es ist einfach Fakt! Die hohe Auflösung beim Pc mit AA und AF zieht einfach nicht mehr. Die Konsolen sind im Stande mit der Pc Grafik zu konkurrieren. Schaut euch mal die Texturen von Uncharted 2 an, oder die Grafik von GranTurismo, oder Heavy Rain. Das sind nur wenige Beispiele und die Liste ist noch lang. Dagegen wird die Pc Spiel Liste immer kleiner, was auch nicht ganz unschuldig sein dürfte ist das viele Entwickler wissen das sie mehr Umsatz mit Konsolen spielen machen
Wollte damit nur meine Sicht los werden, wobei es immer deutlicher wird das die wenigsten sich das leisten können ihren Pc alle 2 Jahre mit Power Komponenten aufzurüsten nur um in einem Spiel 30FPS+ mehr zu haben. Ich habe mir dieses Jahr nach dem Unfall meines Pc´s auch Gedanken darüber gemacht das es kaum noch Sinn macht immer das teuerste und neueste zu kaufen. Wenn ich spielen will dann auf Konsole und zum arbeiten reicht ein normaler Pc mit Dualcore und 4GB Ram mit einer 8800 oder 4650 voll aus.
Ungeduld wird meist nie belohnt. Schon alleine deswegen, dass der GT300 später rauskommt, muss er schneller sein als die Konkurenz, denn sonst schießt sich Nvidia ins eigene Knie und das wissen die auch. Naja, meine GTX 280 reicht mir derzeit, weshalb ich erstmal nichts von beiden brauche.
hab grad auf pcgh.de ein neues Gerücht gelesen, dass die GT300 die 300W.Marke knacken wird...
Link: http://www.pcgameshardware.de/aid,69...fikkarte/News/
Falls das stimmt, dann werd ich auf DX12 warten, wo eine GRAKA in IDLE weniger als 1 Watt verbraucht und unter Games nur 100W mit 50fachen SPeed als jetzt :D
oha ^^
schneller als die 5870 X2. ^^
Problem ist nur das sie die genaue Geschwindigkeit der HD5xxx Serie nicht kannten, und jetzt wo sie bekannt ist können sie nicht mehr wirklich viel am GT300 ändern, etwa sie haben mit der Leistung der neuen ATis gerechnet oder sie haben halt Pech...
Das soll doch ein Witz sein das Nvidia für Qualität steht, oder?
Die haben selbst zu gegeben das sie ab den 200er qualitativ schlechtere Teile verbaut haben um die Karten rentabel zu machen. Und das merkt man den Karten auch an (jede 2 Karte fiept vor sich hin):roll:
Und nein ich bin kein ATi Fanboy ich sehe es einfach realistisch, wenn Nvidia eine Qualitativ/Leistungsstärkere Grafikkarte als ATi raus bringt und das auch noch zu einem annehmbaren Preis dann würde ich natürlich auch klar diese vorziehen...
Naja mal gucken was wie eine Grafikkarte Nvidia da auf den Markt bringt, viel bestätigtes ist ja noch nicht bekannt
Ihr macht es euch viel zu kompliziert. Kauft einfach jede Grafikkarte einmal und tauscht sie aus wenn ihr mal was neues wollt :ugly:
Naja, ich denke jetzt was richtiges zu schreiben würde nichts bringen denn das meiste ist schon gesagt. Wir können jetzt nurnoch abwarten was Nvidia da bringt.
Klar ist aufjedenfall jetzt schon:
Jede Karte wird ihre Vor- und Nachteile haben das ist auch schon bei Konsolen so das wird sich auch niemals ändern!
Du hast absolut recht.
Hinzu kommt leider auch noch, dass die Piraterie-Szene beim PC um Einiges stärker ist als auf den Konsolen (nicht zuletzt wegen der relativen Einfachheit). Piraterie ist ja eigentlich auch der einzige plausible Grund, weshalb Spiele für PCler nach hinten verschoben werden (wie Assassins Creed 2, von dem ich eigentlich seit September die Black-Edition vorbestellt habe aber jetzt ernsthaft mit dem Gedanken spiele, diese Bestellung zu stornieren - einfach deshalb, weil ich micht wirklich von Ubisoft [ein weiteres mal] verarscht fühle!).
Der PC ist, als Spieleplattform, dem Untergang geweiht - vorrausgesetzt, der momentane Trend wird weiter anhalten.
Naja das "nVidia steht für Qualität" war ja schließlich für die ganze Grafikkarte gedacht, würd ich mal sagen. Denn für die Qualität des Chips is immerhin größtenteils der Hersteller, TSMC, verantwortlich - wenn die pfuschen, is wieder im endeffekt die ganze Grafikkarte fürn Hugo.
Ich kann eigentlich der Aussage "nVidia steht für Qualität" auch nur beistimmen - die haben seit dem G80 wirklich die nase vorn.
Aber AMD is, wies auch schon gesagt wurde, P/L-Meister.
Meiner Meinung sind die nur "P" Meister ;) - weil Leistung bekomm ich mehr bei der Konkur (Rest erklär ich gerne in ICQ oder nach Absprache im Chat)... Aber jetzt mal Ruhe hier! Sonst geht das geflame der beiden Parteien wieder los! Bin eh am überlegen ob wir dazu lieber einen neuen Thread starten sollen - da das sonst wieder ausartet - die letzen beiden Seiten hab ich fast nurnoch ATI hier gelesen - und der Thread heißt ja NVidia GT300 infos/Spekulationen. Genauso möchte ich nicht das NV im ATI Thread steht! Als unwissender sucht man hier Infos und stößt nur auf flame bzw 2 Parteien die Probleme beim anderen suchen xD.
BTT also!
300 Watt is natürlich schon heftig unter Last. Bleibt die Frage offen wie es ausschaut wenn die Karte im Idle läuft. Ich meine Verbrauch darf ruhig hoch sein, wenn Leistung passt, dafür is es schließlich das High-End Modell von NV. Wenn man nicht sone hohe Stromrechnung haben will - wartet man halt auf die Mainstream Karten die dann angepasster sind. Abzuwarten ist, wie es da mit der Energie/Leistung ausschaut. Wie gesagt das wichtige ist Idle/Last.
Wenn die Karte allerdings 300 Watt verbraucht wird wohl wieder ein 6 und ein 8 pin PCIe Stromstecker fällig werden oder sogar 2x8 pin (Spekulation). Für das High-End Modell sollte man also wieder ein ordentliches Netzteil von mindestens 600 Watt einberechnen (kommt natürlich viel auf den restlichen Komponenten an).
Bin trotzdem SEHR gespannt was uns da NV dann auf den Tisch wirft. Ich werde aufjedenfall die Karte testen und direkt Bericht erstatten!
Mfg LKrieger
DirectX 11 mit GF100 statt GT300?
Im Beyond3D-Forum ist unscharf gemachtes Bild einer Nvidia-Präsentation aufgetaucht, das einen Grafikchip mit der Bezeichnung GF100 und dessen Aufbau zeigt. Die Spekulationen gegen davon aus, dass GF für Geforce Fermi steht, ebenso wie GT Geforce Tesla bedeutet. Erst vor einigen Tagen war der Codename Fermi für den DirectX-11-Chip von Nvidia bekannt geworden.
Die Nutzer von Beyond3D haben Vergleiche mit anderen Präsentationen herangezogen und versucht, den Text auf dem Bild zu analysieren und vermuten einen nei TSMC in 40 nm hergestellten Chip mit 3 Milliarden Transistoren, 512 Shadern und einem 384-Bit-Speicherinterface für GDDR5. Ob diese Spekulationen nah an der Wahrheit sind, ist natürlich noch unbekannt. Beyond3D ist jedoch für große Sachkenntnis in Sachen Grafik bekannt
GPU specifications
This is the meat part you always want to read fist. So, here it how it goes:
* 3.0 billion transistors
* 40nm TSMC
* 384-bit memory interface
* 512 shader cores
* 32 CUDA cores per Shader Cluster
* 1MB L1 cache memory
* 768KB L2 unified cache memory
* Up to 6GB GDDR5 memory
* Half Speed IEEE 754 Double Precision
Quelle:
http://www.gamestar.de/hardware/news/grafikkarten/1959323/nvidia.html
Noch in diesem Jahr will Nvidia eine neue Grafikkarten-Generation in den Handel bringen. Sie hört auf den Codename "GT300". Jetzt tauchte ein verschleiertes Architektur-Diagramm im Forum von 'Beyond3d.com' auf, das die Gerüchte ins Rollen brachte.
Offenbar will man sich leistungsmäßig deutlich von AMD absetzen. Dafür sollen mehr als drei Milliarden Transistoren sowie bis zu sechs Gigabyte GDDR5-Speicher sorgen. Dies ist dank der 40-Nanometer-Fertigung von TSMC möglich. Im alten Verfahren hätte dies zu einem riesigen Grafikchip mit einem sehr großen Energiehunger geführt.
Sechs 64Bit-Speichercontroller sollen ein 384 Bit breites Speicherinterface realisieren. Damit kann der GDDR5-Speicher angesteuert werden. Je nach Modell werden davon 1,5, 3,0 oder sogar 6,0 Gigabyte verbaut. Zudem hat Nvidia die Anzahl der Shader mit 512 Einheiten mehr als verdoppelt, verglichen mit den aktuellen Spitzenmodellen der 200er-Serie.
Ob diese Gerüchte der Wahrheit entsprechend, wird sich womöglich schon in Kürze herausstellen. Laut einem Bericht der Webseite 'Fudzilla' will der Nvidia-Chef Jen-Hsun Huang bereits heute im Rahmen seiner Keynote auf der GPU Technology Conference die neue Grafikkarte vorführen.
http://winfuture.de/news,50284.html
Wednesday 9/30
1:00 PM PT
Opening Keynote with Jen-Hsun Huang
müsste allso bald losgehen,
morgen wissen wir mehr.8)
6gb DDR5 speicher ?! lol wie gut das atm net mal nen unterschied zwischen 1024 und 2048 MB ram bei ner graka besteht, zumindest laut benches nicht ;-)
niemals stimmt das, wär schon nen bissle krank wenn nvidia einfach mal so von 1gb gleich auf 6gb speicher geht lol
mehr infos
LOL, wenn das wahr sein sollte, erwartet uns ein echtes Leistungsmonster mit dem GT300, rein theorietisch 2,5 - 3fach so schnell wie der GT200...die 6GB Speicher sind ein bisschen viel für heutige Verhältnisse...ich rechne eher mit 2GB...aber mal abwarten.
Die meistens Infos wurden jetzt von Nvidia selbst bestätigt:
http://www.computerbase.de/news/hard...l_fermi_gt300/
Und hier noch eine PDF zur "Fermi" Architektur:
http://www.nvidia.com/content/PDF/fe...Whitepaper.pdf
Klingt verdammt teuer und überdimensioniert von der Größe her.
Der GT300 wird ja ne richtige Penisvergrößerungsmaschine in Benches... :D
MfG
Marc0
Wenn ich das meinem Freundeskreis erzähle, werden die vergessen haben, dass es eine HD5870 gibt. :-D
Boa hätte schon gedacht das einige von den Spekulationen wahr werden - aber gleich alle xDDDDDDD
Karte/n sind zu 100% gekauft!
Mfg LKrieger
Das is uborgeil :D
http://www.pcgameshardware.de/screen...rmi_PCGH_7.JPG
Meine Fresse! Also die Specs. sind mal echt überausserirdisch.
Da kann ATi echt einpacken... Verdammt 512 Kerne OMG
Hoffentlich passt die bei mir rein. :<
Nur eine 8Pin-Buchse o.O
http://www.abload.de/img/2z6yrzn5zi0.jpg
Lol? Nur eine 8Pin Buchse oO
Das ist echt übel... Kann ich mir allerdings nicht vorstellen.... Die Karte frisst ja schon 300Watt und ich denke nicht das die dann mit einem 8 Pin hinkommt
So eine Aussage kann ja nur ein Nvidia Fanboy in die Runde werfen, wartet erstmal ab wie der Preis sein wird, bei den überdimensionierten Specs kann ich mir vorstellen das die Karte rund 600€ kosten wird. Es muss sich ja irgendwie refinanzieren für Nvidia und viele Leute werden sich solch ein High-End Gerät auch nicht kaufen zumindest nicht so viele wie die Einsteiger und Mittelfeld Karten und genau in diesem wird ATI gutes Geld verdienen bis irgendwann mal Nvidia günstiger wird^^. Vielleicht stellt Nvidia mit der neuen Karte auch ein neues Preis-Segment ein? 800€ für das High-End Stück!? Ohhweijjjjaaaaa
Okay. Hab jetzt nur den Thread durchflogen und bin nicht auf die Links gegangen.
Dann bin ich auch mal gespannt wann NV den Markt mit den Karten flutet.
Hoffe auch das mit der neuen Generation mehr ausgereifte Software mit
CUDA-Unterstützung kommt.
Ich kompriemiere sehr viel Videomaterial und das geht z.B. mit Badaboom um einiges schneller als mit CPU basierten Programmen. Besonders im HD bereich.
Leider stürzt das Programm auch gern mal ab.
Ich bin gespannt...
Lol jetzt schon mit Tesla Aufschrift - total der Hammer.
Guckt euch mal bei google die C1060 an die is schon der Hammer. Das Ding wird son Monster..
Mfg LKrieger
Tjoa mal schauen was da nVIDIA da bringen wird...
Auch wenn es ein weilchen länger dauern wird. Wie schon gesagt wurde, dann wird halt die Karte besser optimierter sein und mehr Leistung erzielen wie man wahrscheinlich auch seitens von nVIDIA erwartet.
Besser paar Monate länger als wie alles unter Druck machen und dann eine Karte rausbringen die wahrscheinlich eh dann nur 70% von der Leistung bringt...
@jupph
Ich denke mal das die Karte bestimmt auch mehr von PhysX und CUDA bringen wird, weil nuja...nächste Generation, sprich DX11 und so...
Da denke ich mal wird auch die Karte in den anderen Bereichen etwas mehr bringen, aber jetzt ne Menge da zu erhoffen sollte man nicht...
Neja warten wir mal ab was da nVIDIA herzaubern wird...
Update :
Quelle : http://www.pcgameshardware.de/aid,69...fikkarte/News/Zitat:
Auf der GTC-Keynote und der anschließenden Pressekonferenz, welche beide hauptsächlich von Nvidia-CEO Huang bestritten wurden, gab es noch einige interessante neue Details zu den Fermi-Grafikkarten. Neue Fotos der Karte zeigen die spiegelnde Kühlerabdeckung, die Stabilisierungsplatte auf der Rückseite und die eigenwillige Montage des Acht- und Sechpol-Stromanschlusses: Ersterer zeigt nach hinten, letzterer nach oben aus der Karte heraus. Huang sagte auf die Frage der Journalisten nach dem Stromverbrauch, dass man sich bei der Fermi-Architektur im gleichen Rahmen bewege wie bei der gegenwärtigen Generation. Die Stromanschlüsse machen es auch deutlich: maximal 225 Watt darf eine so ausgestattete Karte beziehen. Man habe derzeit funktionierendes Silizum im Labor (wie bereits anhand der Live-Demo des Fermi zu erahnen war) und arbeite mit Hochdruck daran, die Chips für die Massenproduktion zu optimieren. Von diesem Stadium an dauere es in der Regel noch "wenige Monate" bis zur Produktveröffentlichung. In den Händlerregalen dürften größere Mengen Fermi-basierter Chips daher wohl nicht mehr zu finden sein.
Wie üblich wolle man einen großen Bereich mit der Architektur abdecken: Vom High-End bis hinunter zu passiv gekühlten Lösungen soll die Spanne reichen. Huang bezeichnete Fermi als erste voll auf GPU-Computing optimierte Architektur. Man probiere bei Nvidia neue Techniken zunächst als Anhang zu bestehenden Architekturen aus und wenn sich für diese Anwendungsbereiche ein lohnenswerter Markt abzeichne, optimiere man kommende Generationen stärker hierfür. So geschehen mit G80 -> GT200 und nun Fermi, welcher numerisch der NV100 ist. Wichtig sei vor allem, dass man bestehende Anwendungen und Performance-Messlatten nicht beeinträchtige, wenn man etwas neues versucht, so Huang weiter.
Nach wie vor stehen die finalen Taktraten der Fermi-Karten nicht fest, entsprechend lässt sich auch aufgrund der runderneuerten Architektur die Performance im Spielebereich im Vergleich zur HD 5870 kaum einschätzen.
Boa, die Karte wird bestimmt der Hammer. Der Preis dann bestimmt allerdings auch.
Bin ja mal gespannt, ob sich ottonormalverbraucher solch eine Karte leisten kann.
Naja die 280GTX haben sich auch viele am Anfang leisten können...oh man das war noch eine Zeit :D
Ich denke mal schon das sich die viele leisten können. Nur muss halt NVIDIA auch dementsprechen was bieten können damit auch die Leute da gereizt werden die Karte zu holen, weil ich denke kaum das jemand eine Karte solchen Generation dann kaufen wird und dann daheim bemerkt das man eigentlich nur 30% mehr hat als wie die Generation davor ;)
Ich persönlich wart noch da ein bisschen ab nach dem Release der Karte, da ich selber woanders erstma das Geld reinstecken muss und joa dieses mal nicht gleich von Anfang sein muss...mein Rechner funzt noch und joa...was will man mehr ;)
Außer man hat solche derartigen geilen Ergebnisse erzielt, dann kommt die im nu bei mir daheim an ;)
Ich war ja sehr enttäuscht von NV und sie hätten mit ihrer "jetzigen" (G200) Fahrtrichtung auch deutlichst!!! gegen die HD5000 verloren.. aber da kommen die einfach mit komplett neuem Konzept für DX11 karten daher. 8) Hammer! Ich revidiere meine Meinung von letztens!
Das wird nen Hammer und jetzt ists wohl auch klar, dass NV die karten erst in wenigen Monaten und nicht sofort bringt. :)
undwäre einfach nur die Hölle 8)Zitat:
225W
Preislich wirds wohl 400-500 euro am anfang sein. ;)
Gruß
Noname
Ich sage es immerwieder...hört doch mit den ATI vs. NV auf...sowas ist doch einfach nur wie im Kindergarten!
Echt schlimm teilweise...nagut man kann mal was dagegen sagen, aber dann gleich immerwieder zurückfeuern und rumnörgeln...das bringt doch zu gar keinem Ziel...ich mein was will man mit sowas erreichen...ist ja fast wie Schwanzvergleich...ohne Witz...
Da kommt einer behauptet die Karte würde alles wegsprengen, danach kommt der andere mit der Karte und meint das gleiche...
Und zu welchen Zweck...nur um zu zeigen das man den längeren hat...
"Der Klügere gibt nach!" Danach sollte man gehen...lasst einfach die Leute reden die meinen was sie meinen und gut ist...
Und weiter sollte man jetzt nicht drauf eingehen und wieder zum Thema zurückkehren...
Ich glaub ihr tut euch und ne Menge User hier echt einen Gefallen wenn man einfach mal über die Sachen disktuiert was auch zum diskutieren gibt ;)
Sehr interessant!
wirklich sehr interessant die Karte.
ob ich nun die kaufe oder ne ATI wird sich bei den anschaffungspreisen entscheiden und beim unterhalt. Wenn sie von der Leistung gleich auf liegen fällt die wahl auf die billigere mit dem bessern stromverbrauch... ich meine 225watt für eine Karte mit den Specs ist glaube ich noch wunschdenken...auch die von ATI angepeilten 180watt (waren es glaube ich) sind utopie glaube ich...
was ich mich frage, wenn NV wirklich das hällt was die daten ahnen lassen, kauft man sich eine karte und dann hat man die gleiche leistung wie die leute die gerade 2 oder 3 280 chips verbaut haben. das kann doch wirtschaftlich nicht gut gehen wenn sie sich quasi selber die kundschaft stehlen...ich meine wenn leute gerade noch zu einem sli gespann gezwungen sind weil ihnen 400 frames nicht flüssig vorkommen, dann müsste der absatz ja drastisch einbrechen weil man ja nur 1 oder 2 karten braucht. hoffe ihr versteht was ich meine xD
:D Ich habs gewusst das es kommen wird. Ja ich bevorzuge Nvidia (nein kein Fanboy) aus dem klaren Grund, weil mir von ATi die Karten X600, Rage Pro Turbo abgebrannt sind. Bei Nvidia ist mir das nochnicht passiert. Ich find die neuen ATi Karten auch interessant, aber kaufen ? Ne!
Ich möchte nicht nocheinmal mein PC schrotten. Sorry für OP aber ich musste das erklären :D
Der Preis ist mir egal. Wenn man Leistung und gute Treiber haben will, muss man zahlen das ist klar.
Aber die Specs sind mal echt krank das musst du zugeben. Ganze einfach ATi ist sauer auf Nvidia weil die wieder gebombt hat.
Aber dafür sind die Preise bei ATi in Ordnung. Aber es wird sich alles noch weisen.
@Crysis2142: Neja ein Fanboy würde glaube ich auch zu Nvidia greifen wenn ATi besser ist. Aber ich würde auch auf ATi umsteigen wenn die ne Bombe mal machen ;-)
Ich kauf mir auch keine Karte um Schwanzvergleich zu machen. Ich kauf mir ne Karte das ich die bestmögliche Performance aus einem Spiel bekomme.
PS. Kann das sein das da Carbon auf dem Gehäuse ist ?
Hier nochmal ein paar schöne Bilder der Fermi-Tesla Karte:http://img5.pcpop.com/ArticleImages/.../001238708.jpg
http://www.hardwareluxx.de/images/st...i_Graka_2.jpeghttp://img5.pcpop.com/ArticleImages/.../001238705.jpghttp://img5.pcpop.com/ArticleImages/.../001238704.jpg
Wenn die Karte also nich die Tesla Version so in den Handel kommt mit Chrom und Carbon dann glaubich liegt der Preis über 600 Euro, aber die Karte sieht einfach nur Megafett aus. Wie ein Audi R8 mit Chromlack :D
Wie zu sehen ist verfügt sie über einen 8 und 6 Pin Anschluss
Joa sieht einfach nur nice aus...Edel Edel ;)
Joa ich denke mal nicht das sowas unter 600 Euro kosten wird...denke mal schon das da etwas mehr Kosten kommen allein wegen sowas :D
Aber egal, solang die Leistung dementsprechend ist wird sie gekauft :D
Also die Karte sieht schon stylisch aus. Naja nächste Woche erstmal die HD5870 holen und wenn dieser Lucid Chip auch auf ein AMD MoBo kommt hole ich mir die NVIDIA Karte auch noch ^^.
Weiter Bilder gibts noch hier :
http://www.pcpop.com/doc/pic/001238706.html
Schön wärs wenn diese Chrom Carbon Gehäuse auch auf der GTX380 sein würde
Naja
Ich denke dass das kein echtes Chrom und Carbon ist ;)
Auf Heise.de gibt es auch noch eine News zu der Fermi-Karte.
http://www.heise.de/newsticker/GTC-N...meldung/146166
mal sehen wie das mit dem stromverbrauch so ist.:roll:
Techdemo videos
HD videos
Hammer die vids, einfach Hammer. Da kommt was ganz großes daher^^
das halte ich für eine standardmäßige Antwort, es gibt genug Beispiele die einen schon heute zeigen das man auch mit viel Power wenig Strom verbrauchen kann. Es wird eben alles immer kleiner und komplexer, der Stromverbrauch eines PC´s von heute ist in 10 Jahren bei 20 facher Leistung in etwa die gleiche! Die erste Generation der PS3 verbraucht auch gut 50% mehr Strom als die Ps3 Slim doch die Leistung ist sogar minimal gestiegen gegenüber der 1. Generation.
Quelle: PCGHZitat:
Die ersten Grafikkarten auf Basis der Fermi-Architektur sollen laut Aussage Nvidias gegen Ende des Jahres veröffentlicht werden.
Wie es im Nvidia-Amtsenglisch heißt: "First products based on Fermi are expected to launch towards the end of the year". Ob es sich dabei um eine Geforce-Karte, womöglich die Geforce GTX 380, oder um Tesla- oder Quadro-Produkte handelt, ist bislang nicht bekannt. Wahrscheinlich ist jedoch eine Veröffentlichung zunächst von Geforce Grafikkarten - wie bei Nvidia üblich vermutlich das Top-Modell und eine etwas abgespeckte Version, die GTX 360 heißen könnte.
Wieder neues zur GF100. ;)
Zitat:
Fermi für Spiele-Karten abgespeckt
http://images.idgentertainment.de/im...84834/152x.jpg
Bill Daily von Nvidia hat laut cnet gegenüber Investoren weitere Aussagen zum neuen Fermi-Grafikchip getroffen. Viele der neuen Features des Chips seien dafür ausgelegt, Anwendungen zur Video- oder Bildbearbeitung als Co-Prozessor zu beschleunigen. Das sei zwar zurzeit noch ein recht kleiner Markt, doch Daily ist überzeugt, dass sich im Laufe der Zeit ändern und damit Nvidia einen großen Vorsprung in diesem Bereich bescheren wird.
Zur Tatsache, dass der Fermi-Chip als Supercomputer-Chip und nicht als Spiele-GPU wahrgenommen wurde, sagte Daily, dass man nur eine gewisse Fläche im Chip belegen und sich dabei nur eine bestimmte Menge Energie verbrauchen dürfe. Einiges davon sei für Bereiche vorgesehen, die bei Spielen weniger Nutzen bringen als bei Berechnungen. Aber der Fermi-Chip könne herunterskaliert werden und auch wenn man momentan nicht über weitere Chips sprechen wolle, könne man sich vorstellen, dass man für Spiele-Karten weniger als 512 CUDA-Cores und pro Core auch weniger der neuen Features einsetze. Alle Fermi-Produkte, einschließlich der Spiele- und Workstation-Produkte würden in einem nah beieinanderliegenden Zeitrahmen angekündigt.
Damit bestätigt Daily die Erwartungen, dass der Fermi-Chip in der zunächst präsentierten Form für Spiele-Karten abgespeckt wird, da viele der Funktionen dort einfach wenig oder keinen Sinn machen. Eine Einschätzung der möglichen Leistung gegenüber der ATI Radeon HD 5870 ist aber auch weiterhin nicht möglich.
http://www.gamestar.de/hardware/news...14/nvidia.html
Gruß
Noname
ich finde das erklärt einiges
ich denke mir das es zwar so recht imba risig und auch teuer wird
ABER zb wird sie beim spielen so runterskaliert und somit wird sie auch keine 300- 400 watt verbrauchen
muss leider weg
schreibe später weitere gedanken^^
noch ein video
Zitat:
laut Nvidia-Chef Huang arbeitet Nvidia bereits am Fermi-Nachfolger, dieser sei aber noch 2-3 Jahre entfernt.
http://www.gamestar.de/hardware/news...59398/amd.html
noch ein video.
PhysiX Destruction
http://www.youtube.com/watch?v=N1FOn...layer_embedded
@tig3r0023
zu spät :grin:8)
Boha erst das Video mit dem Wasser was Realtime gerendert wurde. Jetzt das Video mit PhysX.
Ich glaube ich falle hier noch vom Stuhl. Bin gespannt wenn die Teile aufm Markt sind was abgeht..... :lol:
P.S.: Crysis 2 mit so ner Destruction. *lecker*
Huiuiui :)
Das wird sowas von geil. Ich glaube ich überspringe doch die GT200 und spare dann später auf einen mit Fermi-Chip :)
Jetzt noch eine Karte von der 200er Serie kaufen wäre ein fataler Fehler ;)
Oh ich denke gerade an so spiele wie Crysis. Besonders wenn ich das mit Partikeln simulierte Wasser sehe, gibt es eine Schöne Zukunft. *träum*
Aber das hab ih schon in diesem Zukunft Thread mal gepostet das das womöglich kommt.
Bericht: Nvidia muss High-End-Grafikkarten aufgeben!!!
Der Grafikkartenhersteller Nvidia will angeblich in Kürze seine Modelle GTX285 und GTX260 vom Markt nehmen. Bald soll außerdem auch die GTX275 verschwinden, so dass sich das Unternehmen fast vollständig vom Markt für Grafikkarten der Mittel- und Oberklasse verabschieden würde.
Wie 'SemiAccurate' unter Berufung auf Quellen bei Nvidia berichtet, haben die Vertragsfertiger des Unternehmens mitgeteilt bekommen, dass die GTX285 das Ende ihres Lebenszyklus' erreicht hat. Angeblich folgt im November oder Dezember auch die GTX260. Die GTX275 soll ihr "End Of Life" (EOL) ebenfalls schon innerhalb der nächsten zwei Wochen erreichen.
Letztlich verbleibt dann nur noch die Nvidia GeForce GTX295, die bisher nur bei Nvidia direkt in Form einer vollständigen Grafikkarte erworben werden kann. Diese ist angeblich nur in extrem geringen Stückzahlen erhältlich, was vor allem auf hohe Kosten zurück zu führen sein soll. Auch dieses Modell verschwindet angeblich, sobald die derzeit noch bestehenden Vorräte abverkauft sind.
Dem Bericht zufolge hat Nvidia vorerst keine Möglichkeit, weiter mit ATI im Bereich der High-End- und Mid-Range-Grafikkarten zu konkurrieren. Zwar hat das Unternehmen Chips, die in Sachen Leistung mithalten können, doch die Kosten sind angeblich so hoch, dass beim großen Konkurrenzdruck im Bereich der Add-In-Grafikkarten keine Gewinne mehr erwirtschaftet werden könnten.
Auch die kürzlich vorgestellten Fermi-Chips können Nvidia angeblich auf kurze Sicht nicht helfen, da sie bisher noch nicht gefertigt werden können. Außerdem sind die Kosten angeblich auch in diesem Fall so hoch, dass man in Sachen Preis/Leistung nicht mit ATI mithalten kann. Auslöser der Probleme sind angeblich Fehler in der Entwicklungsabteilung.
---------------------------------------------------------------------------------------------------
Quelle: http://winfuture.de/news,50429.html
sieht ganz schön schlecht aus für nvidia !!!
werd mir nun eine 5870x2 holen wenn sie erscheint
Und was für Grafikkarten kommen dann als ersatz ? :neutral:
das weiß noch keiner, jedoch wenn die Karte nicht mehr auf dem Markt sind, wird sich meine GTX 260 sicher gut verkaufen :)
als ob das glaube ich nie im leben.. highend ist prestige für die hersteller wie nvdia und midrange ist das geschaft wo man überhaupt das richtige geld verdienen kann deswegen werden die sich da bestimmt nicht zurück zeihen. die zahlen von nvidia sahen gut aus.
freue mich schon auf die ''REAKTOR KARTEN'' :-P
Bevor Nvidia kein Statement dazu abgibt glaub ich nichts davon, klingt ehr nach einer Story die Nvidia schädigen soll...
Denk im ersten Moment an Aktien...
Mfg Scaleo
So ganz magst du nicht unrecht haben, aber was hier in Vordergrund geschoben wird ist das AMD (ATI) durch den frühen Release der eigenen Karten, Nvidia ganz schön durchgeschüttelt hat. AMD (ATI) ist sehr gut aufgestellt und das weiß Nvidia. Sie haben eine Einsteiger Karte ab ca. 120€ , zwei Mittelfeld für ca. 150€ und ca. 200€ und eine High-End für ca 350€ und dann noch die X2 ( ca. 450€) die erscheinen soll, man bedenke das diese Karten alle DX11 haben.
Ich bin nicht gegen Nvidia, aber erst kam ein Gerücht auf das die Ausbeute bei der Produktion zu schlecht sei, dann dementiert Nvidia das offiziell und versucht auf der eigenen Messe noch guten Eindruck zu schinden mit der unprofessionell zusammengebauten Fermi Karte und jetzt kann man scheinbar doch nicht die Wahrheit leugnen. Schon sehr seltsam!! :roll:
Ich denke es ist einfach so das Nvidia keine Kraft mehr dazu hat, Spiele zu unterstützen damit sie auf der Pc Plattform erscheinen und nicht eine billige Konsolen Portierung werden. Der Markt hat sich in den letzten zwei Jahren extrem geändert und es wird so kommen das auch ATI sicher bald kein großes Interesse mehr daran hat die beste Grafikkartenleistung zu haben. Viele spielen halt lieber gemütlich vor dem Fernseher und auch die Grafik auf der Konsole muss sich nicht mehr verstecken! Auch sehr gut vorstellbar wäre, das es nach Crysis 2 kein Crysis 3 mehr auf den Pc geben wird. Das wollen sicherlich viele hier nicht hören, aber alles ändert sich eben.
Ade.....ade........schöne, alte Computerspielzeit :(:twisted:
Der Artikel kommt von Charlie Demerjian!!
Und schon wieder wird über diesen Bullshit kräftig diskutiert.
und was wird dann aus dem GF100 Graka :(:(:(:( ?
Gruß
Noname