Nach Physikbeschleunigern kommt der KI-Beschleuniger
Hier, habe ich gerade gefunden, was haltet ihr davon?
Eigentlich war es nur eine Frage der Zeit, bis jemand auf die Idee kommt, einen speziellen Chip für die KI in Spielen herzustellen.
Dieser
jemand hat sich nun in der Firma "AIseek" gefunden. Der "world’s first AI acceleration chip" trägt den
Namen "Intia". AI steht übrigens für Artifical Intelligence, was im Deutschen Künstliche Intelligenz bedeutet und entsprechend mit KI abgekürzt wird.
Der Gedankengang ist simpel: So wie ein Physikbeschleuniger die Spiele realistischer aussehen lassen soll, soll der KI-Beschleuniger die Non-Player-Characters (NPC) zu realistischerem Verhalten bringen.
Dabei soll der Intia KI-Berechnungen bis zu 200mal schneller ausführen können, als wenn die CPU diese Aufgabe übernimmt.
Von der Qualität kann man sich schon überzeugen, denn es stehen vier Demos bereit, welche die KI-Beschleunigung aufzeigen.
http://www.tweakpc.de/news/10208/nac...beschleuniger/
http://www.aiseek.com/Demos.html
Re: Nach Physikbeschleunigern kommt der KI-Beschleuniger
Zitat:
Zitat von Turnschuh
Hier, habe ich gerade gefunden, was haltet ihr davon?
Also von dem AIS1 halte ich nicht so viel wie vom PhysX. Der Unterschied ist, dass Physikberechnungen eigentlich nur aus F=m*a und Kollisionserkennungen bestehen die sich sehr leicht paralellisieren lassen.
KI Berechnungen hingegen sind sehr viel vielschichtiger und ja nach Anwendung sehr unterschiedlich. Eine intelligente Wegfindung ist etwas völlig anderes als eine Angriffstaktik oder ein selbstlernender Prozess.
Diese Dinge lassen sich auch nciht gut parallelisieren, sprich in einzelne Teile zerlegen, parallel berechnen und später wieder zusammenfügen.
Und gerade die parallele Verarbeitung von Prozessen ist neben dem reduzierten Befehlssatz einer der Hauptvorteile von dedizierten Chips.
Es wird schon stimmen, dass sich KI durch den Chip beschleunigen lässt, aber stellt sich nur die Frage, ob das ausreicht um so eine Karte zu rechtfertigen. 200 Mal klingt nicht gerade nach viel, wenn man bedenkt, dass die Firma da sicherlich übertreibt. Die nehmen natürlich das best-mögliche Beispiel, dass mit der Realität aber nicht viel zu tun haben muss.
Man siehts ja auch am PhysX. Der soll ja auch 32000 Objekte berechnen können. Im Endeffekt sind es aber bei weitem nicht so viele. Der kann vielleicht 32.000 Würfel berechnen, aber wo gibt's das schon. Die meisten Objekte sind komplexer.
Wirklich Sinn machen wird das Ganze wahrscheinlich nur auf so einer Art Multimediakarte. Die muss dann eine Sound-, Physik- und KI-Chip enthalten. So etwas würde ich mir wahrscheinlich auch kaufen.
Außerdem muss eine DirectX API dazu bestehen. Es bringt nichts, wenn jeder Hersteller seine eigene API schreibt. Eine offnene API a'la OpenAL und OpenGL wäre natürlich auch nicht schlecht, aber im Endeffekt werden die natürlich auch keine Chance gegen DirectX haben.
Naja. Warten wir es mal ab. Besonders interessant ist es ja jetzt geworden, nachdem die GPU immer mehr von der Graphics Processing Unit zur Global Processing Unit mutiert.
Ab Vista kann man die GPU schon eher als Koprozessor betrachen auf dem alles Mögliche berechnet werden kann. Nicht nur Grafik. Darauf kann man nun natürlich auch KI und Physik berechnen.
Und wenn sich die PhysX oder der AIS1 doch langsam durchsetzen werden und den GPU-Herstellern wirtschaftlich schaden zufügen, dann werden sich die GPU-Hersteller sicherlich auch etwas einfallen lassen und Physik und KI Funktionen in ihre GPUs einbauen. Der erste Schritt ist mit Havok FX ja schon getan.
Gegen diese Chipgiganten werden es die kleinen Start-Up Firmen schwer haben, sich durch zu setzen. Vielleicht werden sie auch ganz einfach aufgekauft. Große Chancen haben die meiner Meinung nach nicht.