Seite 1 von 2 12 LetzteLetzte
Ergebnis 1 bis 10 von 12

Thema: Nach Physikbeschleunigern kommt der KI-Beschleuniger

  1. #1
    Semi Pro Avatar von Turnschuh
    Registriert seit
    27.04.2006
    Beiträge
    898

    Standard Nach Physikbeschleunigern kommt der KI-Beschleuniger

    Hier, habe ich gerade gefunden, was haltet ihr davon?

    Eigentlich war es nur eine Frage der Zeit, bis jemand auf die Idee kommt, einen speziellen Chip für die KI in Spielen herzustellen.


    Dieser
    jemand hat sich nun in der Firma "AIseek" gefunden. Der "world’s first AI acceleration chip" trägt den
    Namen "Intia". AI steht übrigens für Artifical Intelligence, was im Deutschen Künstliche Intelligenz bedeutet und entsprechend mit KI abgekürzt wird.

    Der Gedankengang ist simpel: So wie ein Physikbeschleuniger die Spiele realistischer aussehen lassen soll, soll der KI-Beschleuniger die Non-Player-Characters (NPC) zu realistischerem Verhalten bringen.

    Dabei soll der Intia KI-Berechnungen bis zu 200mal schneller ausführen können, als wenn die CPU diese Aufgabe übernimmt.

    Von der Qualität kann man sich schon überzeugen, denn es stehen vier Demos bereit, welche die KI-Beschleunigung aufzeigen.

    http://www.tweakpc.de/news/10208/nac...beschleuniger/

    http://www.aiseek.com/Demos.html

    AMD X6 1090T - 4GB DDR3 1600 - ASRock 890GX Extreme3 - EVGA GTX570 SC - WD VelociRaptor 600 GB - Thermaltake Toughpower 750 - Netgear WG 311T (108 Mbit/s) W-Lan - Samsung SyncMaster 226BW (22 zoll) - 360er Wasserkühlung EffizienzGurus im HAF-X

  2. #2
    Professional Avatar von noxon
    Registriert seit
    12.05.2006
    Beiträge
    3.340

    Standard Re: Nach Physikbeschleunigern kommt der KI-Beschleuniger

    Zitat Zitat von Turnschuh
    Hier, habe ich gerade gefunden, was haltet ihr davon?
    Also von dem AIS1 halte ich nicht so viel wie vom PhysX. Der Unterschied ist, dass Physikberechnungen eigentlich nur aus F=m*a und Kollisionserkennungen bestehen die sich sehr leicht paralellisieren lassen.

    KI Berechnungen hingegen sind sehr viel vielschichtiger und ja nach Anwendung sehr unterschiedlich. Eine intelligente Wegfindung ist etwas völlig anderes als eine Angriffstaktik oder ein selbstlernender Prozess.

    Diese Dinge lassen sich auch nciht gut parallelisieren, sprich in einzelne Teile zerlegen, parallel berechnen und später wieder zusammenfügen.

    Und gerade die parallele Verarbeitung von Prozessen ist neben dem reduzierten Befehlssatz einer der Hauptvorteile von dedizierten Chips.


    Es wird schon stimmen, dass sich KI durch den Chip beschleunigen lässt, aber stellt sich nur die Frage, ob das ausreicht um so eine Karte zu rechtfertigen. 200 Mal klingt nicht gerade nach viel, wenn man bedenkt, dass die Firma da sicherlich übertreibt. Die nehmen natürlich das best-mögliche Beispiel, dass mit der Realität aber nicht viel zu tun haben muss.

    Man siehts ja auch am PhysX. Der soll ja auch 32000 Objekte berechnen können. Im Endeffekt sind es aber bei weitem nicht so viele. Der kann vielleicht 32.000 Würfel berechnen, aber wo gibt's das schon. Die meisten Objekte sind komplexer.

    Wirklich Sinn machen wird das Ganze wahrscheinlich nur auf so einer Art Multimediakarte. Die muss dann eine Sound-, Physik- und KI-Chip enthalten. So etwas würde ich mir wahrscheinlich auch kaufen.

    Außerdem muss eine DirectX API dazu bestehen. Es bringt nichts, wenn jeder Hersteller seine eigene API schreibt. Eine offnene API a'la OpenAL und OpenGL wäre natürlich auch nicht schlecht, aber im Endeffekt werden die natürlich auch keine Chance gegen DirectX haben.

    Naja. Warten wir es mal ab. Besonders interessant ist es ja jetzt geworden, nachdem die GPU immer mehr von der Graphics Processing Unit zur Global Processing Unit mutiert.

    Ab Vista kann man die GPU schon eher als Koprozessor betrachen auf dem alles Mögliche berechnet werden kann. Nicht nur Grafik. Darauf kann man nun natürlich auch KI und Physik berechnen.

    Und wenn sich die PhysX oder der AIS1 doch langsam durchsetzen werden und den GPU-Herstellern wirtschaftlich schaden zufügen, dann werden sich die GPU-Hersteller sicherlich auch etwas einfallen lassen und Physik und KI Funktionen in ihre GPUs einbauen. Der erste Schritt ist mit Havok FX ja schon getan.

    Gegen diese Chipgiganten werden es die kleinen Start-Up Firmen schwer haben, sich durch zu setzen. Vielleicht werden sie auch ganz einfach aufgekauft. Große Chancen haben die meiner Meinung nach nicht.

  3. #3
    Erfahrener User
    Registriert seit
    19.06.2006
    Beiträge
    484

    Standard

    Mir war schon nicht so ganz klar warum man sich so eine PhysX karte kaufen sollte eine oder auch zwei gute Grafikkarten reichen vollkommen aus. Aber jetzt auch noch KI karten??? Das halte ich für vollkommen Sinnlos.

    Mir reicht es jetzt schon mit den ganzen Sonderkarten. Bald kommt dann noch ne Karte extra für Wasser, eine für Bäume und eine für Gras. Das muss doch echt nicht sein. Wenn es nach mir geht sollte es nicht mehr als EINE Grafikkarte sein. Die Geschichte mit den 2 Karten finde ich schon doof. Brauchen mehr Platz, Mehr Strom, mehr Kühlung.

    Naja mag sein das es welche anders sehen aber ich kauf mir halt nicht gern so viele verschiedene Teile.

  4. #4
    VIP Avatar von foofi
    Registriert seit
    13.05.2006
    Ort
    GER Cologne/Bonn - GR Alex/polis
    Beiträge
    15.210

    Standard

    Die CPU geht dann auf Stand-By

  5. #5
    User
    Registriert seit
    30.08.2006
    Beiträge
    20

    Standard

    Ich weiß ja nicht ob das ne art gesamtlösung ist (wenn ich das system richtig verstanden habe) aber Nvidia will das das nächstes Jahr schon durchsetzten. Man "erweitert" dann seine Grafikkkarte mit bestimten Modulen die Spezielle Aufgaben haben.
    Ich sehe mich schon in 10 Jahren zu meinem Pc-Händler laufen und mich sagen hören "Tach, ich brauch nen neuens Module für die "Nvidia 100250 GT" zur erzeugung von Schatten." Und dann bekomm ich sowas zu hören wie: "na welches genau bracuhen sie den? Das für Dynamische Schatten in freier Umgebung, in beleuchteten räumen, in Dunklen Räumen, mit HHHDR oder erstmal ohne?!"
    Na wo macht den da noch der PC-Kauf spaß?

    An und für sich ist es keine Schlechte Idee den CPU auszulasten, doch es Gibt auch "Allround" talente dafür. Seit einigen Jahren ist es ja im gespräch Zusatzkarten auf Cell-Chip-basis zu verwenden, wobei die einzelnen Zellen dann spezielle aufgaben übernehmen könne. Das fände ich eigentlich so die Optiomal lösung: eine Karte, ohne großen aufwand, für alles. Weil vorhin die Sache mit der Schnittstelle (Interface) aufkam: Wenn solch ein System vom Markt (also uns) Akzeptiert wird, dann wird es sicherliche auch "professionelle" Angebote für so eine Schnittstelle gben, eventuell eben ohne Microsoft. Die Rechenleistung einer einzelnen CPU wird wahrscheinlich (denke ich) nicht mehr so rasant steigen wie in den letzten jahren. Einmal aufflammen wird das noch da man dann Stromsparrende und leichter zu kühlende Technologien nutzt aber dann wird es nicht mehr so extreme Vortschrite geben (stchwort exponetielles Wachstum in der Rechenleistung) weil die Kühlung einfach zum Problem wird! (siehe Pentium4)

    Last euch überraschen, Multi (GPU/CPUCell) wird unsere Zukunft sein.
    Leider?

  6. #6
    VIP Avatar von foofi
    Registriert seit
    13.05.2006
    Ort
    GER Cologne/Bonn - GR Alex/polis
    Beiträge
    15.210

    Standard

    Zitat Zitat von Roerrich
    Ich weiß ja nicht ob das ne art gesamtlösung ist (wenn ich das system richtig verstanden habe) aber Nvidia will das das nächstes Jahr schon durchsetzten. Man "erweitert" dann seine Grafikkkarte mit bestimten Modulen die Spezielle Aufgaben haben.
    Ja, aber nur für Physik und nicht KI oder anderes. Die Software ist von HAVOK und heisst HAVOK FX.

    Dasselbe macht auch ATi und dazu noch mit drei Grafikkarten. Zwei kann man für das Bild einteilen und die dritte für die Physik.

    Mit Crysis wird sowas aber vorerst nicht gehen.

  7. #7
    Professional Avatar von noxon
    Registriert seit
    12.05.2006
    Beiträge
    3.340

    Standard

    Zitat Zitat von foofi
    Mit Crysis wird sowas aber vorerst nicht gehen.
    Crysis verwendet zwar nicht die Systeme von nVidia und ATi, aber auch Crytek verwendet die Graka zu Pyhsikberechnung. Nur machen sie das selbst ohne eine Middleware zu benutzen.

  8. #8
    VIP Avatar von foofi
    Registriert seit
    13.05.2006
    Ort
    GER Cologne/Bonn - GR Alex/polis
    Beiträge
    15.210

    Standard

    Zitat Zitat von noxon
    Zitat Zitat von foofi
    Mit Crysis wird sowas aber vorerst nicht gehen.
    Crysis verwendet zwar nicht die Systeme von nVidia und ATi, aber auch Crytek verwendet die Graka zu Pyhsikberechnung. Nur machen sie das selbst ohne eine Middleware zu benutzen.
    Edit: Hab mir das Interview nochmal angeschaut, weisst du ob man da eventuell noch was einstellen kann? Also wieviel der Grafikkarte missbraucht werden darf?

  9. #9
    Professional Avatar von noxon
    Registriert seit
    12.05.2006
    Beiträge
    3.340

    Standard

    Also ich habe auch nur das aus dem Giga-Interview gesehen und dort wurde das ja leider nur mal so nebenher erwähnt.

    Mich wundert, das darüber nicht schon öfters gesprochen wurde. Das ist doch mal wieder eine ganz neue und interessante Technik, die Crytek da anwendet.

    Es stellt sich nur die Frage, ob das nur bei DX10-Karten der Fall ist oder auch bei DX9-Karten. Den Rauch, den Regen und andere nicht interaktive Partikelsysteme können auch mit DX9-Karten durchgeführt werden, aber die Bäume und alle anderen Objekte, die den Spieler verletzen können, funktionieren nur auf DX10-Karten.

    Ich schätze mal, dass ersteres der Fall sein wird und die Graka lediglich für den Rauch und Partikelsysteme hinzugezogen werden kann.

    Ich denke nicht, dass das Pflicht ist diese Option zu nutzen. Es gibt sicherlich detalierte Einstellungsmöglichkeiten dazu, wie man die Physikberechnen will.

  10. #10
    VIP Avatar von foofi
    Registriert seit
    13.05.2006
    Ort
    GER Cologne/Bonn - GR Alex/polis
    Beiträge
    15.210

    Standard

    Zitat Zitat von noxon
    Also ich habe auch nur das aus dem Giga-Interview gesehen und dort wurde das ja leider nur mal so nebenher erwähnt.

    Mich wundert, das darüber nicht schon öfters gesprochen wurde.
    Yo, das kam so ganz nebenbei erwähnt, vieleicht hat dort der Cevat irgendwas verraten, was nicht so offiziell angekündigt werden durfte, man muss beachten wie er manchmal etwas sagt, dann grinst er noch etwas

Seite 1 von 2 12 LetzteLetzte

Stichworte

Berechtigungen

  • Neue Themen erstellen: Nein
  • Themen beantworten: Nein
  • Anhänge hochladen: Nein
  • Beiträge bearbeiten: Nein
  •