Umfrageergebnis anzeigen: Welche Hardware bevorzugt IHR für die zukünftigen Physik-Berechnungen ???

Teilnehmer
29. Du darfst bei dieser Umfrage nicht abstimmen
  • MultiCore - Prozessoren (bei denen ein oder mehrere Kerne die PhysikBerechnungen übernehmen)

    22 75,86%
  • zusätzliche Grafikkarten zur PhysikBerechnung (auf Basis der HAVOK.FX-Engine)

    7 24,14%
Seite 3 von 6 ErsteErste 12345 ... LetzteLetzte
Ergebnis 21 bis 30 von 57

Thema: CELLFACTOR

Hybrid-Darstellung

Vorheriger Beitrag Vorheriger Beitrag   Nächster Beitrag Nächster Beitrag
  1. #1
    User
    Registriert seit
    19.01.2007
    Beiträge
    59

    Standard

    Hm... also ich weiß net so recht...

    Ich persönlich glaube, dass die Berechnung der Physik eigtl. nur auf einem externen (oder im MainCPU integrierten Prozessor) möglich ist....

    Die Grafikkarten berechnen schließlich nur Effekte, nicht aber "echte" Physik!
    Können denn Shader überhaupt "rechnen" oder sind das nur Pipelines, die in der Architektur, die Infos an den Kern weiterleiten ??!!
    Sind diese überhaupt dazu geeignet um soclhe Aufgaben zu übernehmen ?
    Ich dachte immer, dass die dargestellten 3D-Infos , welche die Grafikkarte ja errechnet in ihrer Struktur ganz anders zu bearbeiten sind, als komplexe Algorithmen, die ja bei Physik aufkommen...
    Bei Graik gibt es nicht soviele Variablen, oder ?!

    Die Technik der PPU von Ageia ist wiederrum durch das "hin udn her schicken von Daten" nicht optimal und somit (meine Ansicht ->) verbesserungswürdig...
    Dadurch kann also ein "Overhead" entstehen, der zu Lags führt ??

    Und ein Kern der MainCPU allein reicht nicht aus, um die Physik in ähnlich effizienter Weise zu berechnen !
    Warum eigtl. nicht ???
    Ich dachte immer, die CPU wäre der Leistungslöwe unter den PRozessoren die es sonst so gibt !
    (Sound, Grafik etc...)

    Was DIrectPhysics von Microsoft angeht - so glaube ich fast, dass diese auf HArdware setzen wird, die bisher noch nichtmal verfügbar ist (udn sei es eine eigene PPU-Karte )
    Zu überlegen wäre hier noch, wann diese vereinheitlichte API veröffentlicht wird udn wann sie nutzbar ist (DirectX12 ??? *g*)



    Andererseits frage ich mich manchmal - WIE WIRD DENN IM AUGENBLICK DIE PHYSIK IN SPIELEN berechnet ???
    Gerade bei Crysis sieht das mit den Palmen usw... schon echt schick aus, nur eines finde ich nicht so doll... die Explosionen der Häuser, da fliegen zwar Einzelteile weg (in den Videos mal drauf achten) - aber die bleiben heile, zerbersten nicht und normalerweise wäre es geiler, wenn die richtig "zerfetzen" würden, wie im richtigen Leben halt ....
    das da ein komplettes Haus in ein paar riesengroße Teile zerfällt, wenn man ne Granate reinwirft erscheint mir ein bissel... naja... enttäuschend und unzureichend !

    Nicht dass die Jungs bei CryTek Ihren Job nicht gut machen, aber ist es denn echt nicht möglich das etwas realistischer zu gestalten, bei den Helikoptern und Fahrzeugen klappts doch auch (wobei hier die Karrosserien noch etwas zu heile aussehen, die dann übrig bleiben ! Und auch hier fliegen zu wenig Teile weg ....
    Haben die denn überhaupt ein Schadensmodell...! Man brauch sich doch nur mal die guten Autorenn-Spiele anzuschauen, da gibtes ein paar zwanzig teile, die realistisch abbrechen udn "wegfetzen" bei einem derben Crash! Sowas vermisse ich noch in Shootern!)

    Naja, wie dem auch sei... hoffe ja dass jemand mir das mal erklären kann, wäre nice....

    also, gehabet Euch wohl Freunde der Sonne und bis bald dann mal... peace

  2. #2
    Professional Avatar von noxon
    Registriert seit
    12.05.2006
    Beiträge
    3.340

    Standard

    Zitat Zitat von Sensillio
    Die Grafikkarten berechnen schließlich nur Effekte, nicht aber "echte" Physik!
    Warum sollen die keine echte Phsik berechnen können? Die Hauptoperationen, die zur Physik- und Grafikberechnung verwendet wird sind MADD Operationen. Genau von diesen Operationen kann die 8800 GTX zum Beispiel 128 Stück pro Takt berechnen. Das ist ein echtes Fließkommemonster und lässt sich wunderbar für jegliche Art von Berechnungen im dreidimensionalen Räumen verwenden. Sei es Grafik oder Physik.

    Da die Graka auch direkt Zugriff auf den Hauptspeicher besitzt und seit DX10 auch direkt mit der CPU kommunizieren kann ist es auch möglich interaktive Physik auf der Graka zu berechnen, die tatsächlich das Gameplay beeinflusst.

    Mit DX9 und Havok FX ging das nur bedingt.


    Können denn Shader überhaupt "rechnen" oder sind das nur Pipelines, die in der Architektur, die Infos an den Kern weiterleiten ??!!
    Früher war es so, dass alles was die Shader berechnet haben direkt an die Grafikausgabe ging. Man konnte also Objekte berechnen und sie anzeigen, aber man konnte der CPU so ohne weiteres nicht mitteilen, wo sich die Objekte befinden.

    Mit DX0 hat MS jetzt aber die Stream-Out Funktion eingeführt. Damit ist es möglich berechnete Ergebnisse der Shader an unterschiedlichen Stellen abzuzapfen bevor sie an den Monitor geschickt werden.

    Diese Ergebnisse können dann zum Beisiel verwendet werden um sie erneut durch einen anderen Shader laufen zu lassen. Es sind jetzt also multiple und rekursive Shaderdurchläufe möglich, was ganz interessante Filtermethoden ermöglicht.

    Davon aber mal abgesehen kann man die berechneten Ergebnisse natürlich auch abzafen und an die CPU übermitteln und genau das kann man sich bei der Physikberechnung zu Nutze machen.

    Der Shader berechnet die Physik, die Ergebnisse werden abgegriffen und der CPU zur Verfügung gestellt.


    Sind diese überhaupt dazu geeignet um soclhe Aufgaben zu übernehmen ?
    DX10 Karten sind heute fast in der Lage den kompletten x86 Befehlssatz zu emulieren. Du könntest also praktisch jedes Programm auf der Graka laufen lassen, wenn du es möchtest. Natürlich wäre das höchst ineffektiv, weil die GPU nicht für diese Operationen ausgelegt ist.
    Ihre Stärken stecken in der Berechnung von 3x3 Matrizen, die sowohl zur Grafik- als auch zur Physikberechnung benötigt werden.


    Ich dachte immer, dass die dargestellten 3D-Infos , welche die Grafikkarte ja errechnet in ihrer Struktur ganz anders zu bearbeiten sind, als komplexe Algorithmen, die ja bei Physik aufkommen...
    Bei Graik gibt es nicht soviele Variablen, oder ?!
    Im Grunde genommen berechnen beide Arten der Berechnungen nur Punkte im 3D-Raum. Beide berechnen nur Gittermodelle. Die Grafikengine interessiert es, ob sich Linien an bestimmten Stellen kreuzen und die Physikengine interessiert, ob sich Kanten von Objekten kreuzen. (Mal ganz grob ausgedrückt). Im Grunde genommen sind es die gleichen Operationen, die duchgeführt werden.


    Dadurch kann also ein "Overhead" entstehen, der zu Lags führt ??
    Genau so ist es. Deshalb empfiehlt Ageia in ihem SDK auch, die Physiksimulation mit mindestens 60 fps laufen zu lassen, damit nicht all zu viel Zeit vergeht zwischen Berechnung der Objekte und dem Darstellen des Bildes.


    Und ein Kern der MainCPU allein reicht nicht aus, um die Physik in ähnlich effizienter Weise zu berechnen ! Warum eigtl. nicht ???
    CPUs sind Multi Purpose Prozessoren, die optimal sind, wenn es um vielfältige Berechnungen geht.
    Eine CPU hat viel mehr Befehle mit denen sie viel mehr Möglichkeiten hat etwas zu berechnen. Dadurch, dass es mehr Befehle sind, müssen diese auch länger sein um sie unterscheiden zu können. Die CPU braucht also schon alleine deswegen schon mehr Takte für eine Operation, weil die Befehlsvielfalt viel höher sind.

    Des Weiteren ist eine CPU dafür ausgelegt unvorhersagbare Befehlsfolgen effizient abarbeiten zu können. Programme können auf viele unterschiedliche Arten ablaufen und man weiß nie, was das Programm als nächstes macht. Die CPU macht außerdem noch sehr viele Berechnungen, die sie wieder verwerfen muss, wenn sich rausstellt, dass sie die falsche Richtung eingeschlagen hat. Dabei geht eine Menge Rechenpower "verloren".

    Es ist schwierig zu erklären, aber Branch Prediction und Pipelines dürften gute Stichworte für Wikipedia oder Google sein.


    Warum ist die GPU also schneller bei Grafikberechnungen, obwohl sie doch langsamer getaktet ist? Nun. Zum Einen ist der Befehlssatz stark reduziert und beinhaltet nur das Nötigste. Bei DX10 hat sich das schon wieder etwas geändert. Die sind nicht mehr ganz so effektiv, da sie vielseitiger sind.

    Zweitens lassen sich Grafikberechnungen viel besser vorhersagen. Die muss sich also nicht mit Cache-Algorithmen, Branch Prediction und sowas rumquälen, wie die CPU.
    Die rechnet am Stück weg und muss keine ihrer Berechnungen verwerfen, so wie es die CPU tut.


    Was DIrectPhysics von Microsoft angeht - so glaube ich fast, dass diese auf HArdware setzen wird
    Der Sinn dieser Schnittstellen ist ja, ass sie hardwaeunabhängig sind.
    Das ist genau wie bei Direct3D. Der Programmier sagt nur. "Zeichne hier ein Dreieck". DirectX leitet dass dann an den Graka Treiber weiter und der weiß dann, was er damit machen soll, ganz egal, ob da eine ATi Karten, eine nVidia Karte oder sonst etwas hinter steckt.


    Gerade bei Crysis sieht das mit den Palmen usw... schon echt schick aus, nur eines finde ich nicht so doll... die Explosionen der Häuser, da fliegen zwar Einzelteile weg (in den Videos mal drauf achten)
    Hehe. Das ist ein gutes Beispiel.
    Die Palmenbewegungen werden auf der GPU mittels eines grafischen Ticks berechnet. Die Modelle bewegen sich nicht wirklich. Die Blätter sind starr und werden mit einer Art Physiktextur belegt. Der rote Farbanteil der Textur legt fest, wie stark sich das Blatt nach oben oder unten biegen soll. Die Farbe Grün legt fest, wie stark es seitlich geneigt werden soll und Blau macht auch irgend etwas, was ich jetzt vergessen habe.

    Durch verändern der Farben kann man nun das blatt also hin und herbewegen, so wie man es möchte.

    Die Graka nimmt nachher diese Textur und verzerrt das Bild so, dass es aussieht, als ob sich die Blätter biegen würden. Tatsächlich sind die Modelle aber immer noch starr.

    Bei den Gebäuden wird die Physik auf der CPU berechnet. Deswegen ist sie auch etwas gröber und beinhaltet nicht so viele Objekte. Du musst bedenken, dass mit steigender Objektanzahl der Rechenaufwand exponenziell ansteigt, da jedes weitere Objekt mit jedem anderen auf Kollision überprüft werden muss. Ein Objekt mehr und du hast sofort wieder hunderte Kollisionsprüfungen mehr durchzuführen.

    Natürlich gibt es auch da Tricks um das deutlich zu minimieren, aber das Problem bleibt bestehen. Der Rechenaufwand steigt deutlich schneller an, als die Objektanzahl.

    Lest euch bitte unsere FAQs für grundsätzliche Fragen zu Crysis durch und beachtet bitte unsere Forenregeln.

  3. #3
    Erfahrener User Avatar von Drzoidi
    Registriert seit
    19.03.2007
    Ort
    Emden
    Beiträge
    194

    Standard

    Ja geil. den ganzen tag stand auf der page
    the revolution is on may 8.

    jetzt steht da schon

    the revolution is imminent

    also dauert net mehr lange... ich rechne so mit 20 uhr

  4. #4
    Gesperrt
    Registriert seit
    26.02.2007
    Ort
    Hamburg
    Beiträge
    2.665

    Standard

    du kannst schon lange downloaden *lach*

  5. #5
    Erfahrener User Avatar von Drzoidi
    Registriert seit
    19.03.2007
    Ort
    Emden
    Beiträge
    194

    Standard

    echt gib ma link...
    wenn ich da auf den downloadlink oder was das iss drücke, komme ich immer nur zu media downloads... und da iss nichts

  6. #6

  7. #7
    Erfahrener User Avatar von Drzoidi
    Registriert seit
    19.03.2007
    Ort
    Emden
    Beiträge
    194

    Standard

    ja hab link bei k-files...
    cellfactor seite iss doof. ^^
    naja bei krawall gibts die news erst seid 16 minuten... wenigstens kann ich dann alles zoggn ^^

  8. #8
    Erfahrener User Avatar von BoOgIeMaN
    Registriert seit
    24.09.2006
    Ort
    Offenbach
    Beiträge
    421

    Standard

    Shit,des GAme kann ich wohl mit ner ATI 9700 vergessen ... -.-
    www.3dchip.de

    Gaming is not a Crime!

  9. #9
    Erfahrener User Avatar von PIMP50
    Registriert seit
    04.07.2006
    Beiträge
    652

    Standard

    das game kannse auch mit ner highendkarte und nen c2d vergeßen.. brausch so ne ****** physik karte!!

    hab nur 10 fps

    c2d@3ghz
    2gb
    x1900xt 512

  10. #10
    Erfahrener User
    Registriert seit
    26.04.2007
    Ort
    Heide
    Beiträge
    625

    Standard

    Zitat Zitat von PIMP50
    das game kannse auch mit ner highendkarte und nen c2d vergeßen.. brausch so ne ****** physik karte!!

    hab nur 10 fps

    c2d@3ghz
    2gb
    x1900xt 512
    Dazu kann ich nur sagen: lol...
    Ich hatte damals die demo und die lief selbst bei mir hervorragend, wenn nicht grad zig tausend kleinteile durch die gegen geflogen sind.

    P4 3,2Ghz
    2Gb
    7800GS+ 512mb (7900GT)

Seite 3 von 6 ErsteErste 12345 ... LetzteLetzte

Stichworte

Berechtigungen

  • Neue Themen erstellen: Nein
  • Themen beantworten: Nein
  • Anhänge hochladen: Nein
  • Beiträge bearbeiten: Nein
  •