-
Hab immer gehofft das sowas kommt. Für die PPU einen kompletten Slot "verschwenden" war schon immer blödsinn. Vorallem wie ich gesehen hab wie letztes Jahr auf der GC die PC's von Ageia rumgespackt haben. Da war eine G80 drin - und son Accelerator. Wollten damit Cellshock zocken - das hat rumgespackt mit 25 fps - hab ich ohne auch schon.
Da kommen jetzt echt neue Wege für die Zukunft - und die Gamer sehen endlich mehr von der Physik ohne einen Slot zu verschwenden - Super NV.
@Ati-Fans: Ati wird sich da bestimmt auch was einfallen lassen. Da wird denke ich schon viel Wert rauf gelegt.
Mfg LKrieger
-
von mir aus können die alle kaufen wen die wollen und ob ati/amd oder nvidia oder sonst irgendwer unter geht is mir auch vollkommen latte was mir wichtig ist ist der preis... wenn ich schon wieder lese das der neue GT200 knappe 250W verlusstleistung hat wird mir schlecht... erstmal kostet die ganze neue hardware viel zu viel und ist viel zu schnell revidiert und dann kommen noch die horenden stromkosten... is ja auch egal jetzt... Ich fänd es super wenn es eine einheitlich Pysikengine geben würde evtl. opensource dann wäre sie imens ausbaufähig und auf jedem system lauffähig... soll heissen 1 grundgerüsst und darauf richtig aufbauen und verbessern. und ich denke da hat Nvidia jetzt mal wieder den fisch aam haken.
-
was mich wunder nimmt ist, wie die physikberechnung in zukunft ausschaun wird. von manchen spieleentwickler ist nämlich bekannt, dass man gewissen titel so optimieren will, dass deren physik von einem cpu kern (bei nem quadcore) berechnet werden soll. wie des nun ausschaun' wird mit einer integration quasi .. :-?
-
Die Idee von Ageia war ja im Grunde net schlecht:
Die Bieten für Spieleentwickler Kostenlos eine Physikengine an.. diese leuft halt nur sehr gut wen man eine PhysX Karte besitz.. die Karten können NUR diese Physikengine berechnen..
Es gab halt leider nur sehr wenig Titel die diese Physik benutzten.
Dann glaube ich auch gelesen zu haben, dass es weitere Phys. Karten geben wird aber jetzt mit Nvidia PU. Wäre dicker wen es Gra-Kas geben wird mit eingebauten Acc dafür^^
Kann auch sein, dass ich mich irre
Ich denke, dass Nvidia damit Intel eins auf die Möre hauen wollte.. weil Intel ja durch den kauf von Havok das HavokFX-Programm beendet hat.. HavokFX war eine Physikengine die auch durch die Grafikkarte mitberechnet werden konnte.. Intel fande das net Lustig und kaufte Havok auf.. Laut Intel soll die Physik durch ihre CPU´s berechnet werden^^
Wie man in Crysis sieht, macht eine gute Physik viel aus.. das Gameplay wirkt wesentlich realer!
Ich hoffe, dass es Nvidia gelingt in Zukunft dafür zu sorgen, dass mehr Spieleentwickler PhysX verwenden, da dies im Grunde eine sehr gute Physikengine ist (Man stelle sich Crysis damit vor^^)
-
Vor kurzem wusste man nur dass Ageia übernommen wurde und nun weiss man wer, aber war auch nicht schwer zu erahnen...
-
Ich kann mir nicht vorstellen das das nun viel ändern wird.
Die Ageia Karten waren bisher unnötig und daran wird sich auch jetzt nichts ändern.Gibt schließlich genügend andere Physikengines (zb. Havok).
Das die GPU´s Physikberechnungen übernehmen ist ja auch schon ein alter Hut,wurde bisher nur nicht umgesetzt.
Dafür reicht aber auch nen ordentlicher dualcore Prozessor aus.
Ich messe dem nicht allzu viel Bedeutung zu.
-
Die Ageia Physik ist schon ein ganzes Stück besser als die Havok:grin:
Deswegen freut es mich bald zu sehen was daraus alles wird... (:
-
Es gibt da schon eine ganze Weile nen "Streit" zwischen Nvidia und Intel.
Intel bekräftigt immer wieder, dass die Physik viel besser von einer CPU berechnet werden kann, vor allem, da wir schon Quad Core CPUs haben und man somit einem gesamten Rechenkern zur Berechenung der Physik verwenden kann.
Nvidia hingegen meint, die GPUs sind pure Leistungs Chips und sind dafür besser ausgelegt, die Berechnung der Physik zu übernehmen als ein im Vergleich schwacher Kern einer Multicore CPU tun kann.
Bleibt also abzuwarten, wer am Ende Recht hat und wonach sich die Spieleentwickler richten werden.
-
Ich hoffe Intel... Kerne haben wir bald mehr als genug :roll:
-
naja ich bin ja treuer nvidia käufer, und inzwischen auch intelfan da bei amd das preis leistungsverhältnis nichtmehr ganz stimmt:-? also nichtso schlimm