Seite 2 von 4 ErsteErste 1234 LetzteLetzte
Ergebnis 11 bis 20 von 36

Thema: Prozessor wird nicht ausgelastet

  1. #11
    Professional Avatar von randfee
    Registriert seit
    18.06.2007
    Beiträge
    4.095

    Standard

    ehm, es gibt ja vielleicht auch level und szenen in denen es richtig abgeht, da wirst du dir noch wünschen nicht darüber hergezogen zu sein, dass dein Quadcore nicht ausgenutzt wird... ggg
    2500K @ 4,8GHz | 5850 | 32GB DDR3

  2. #12
    Erfahrener User Avatar von Phenomeles
    Registriert seit
    31.08.2007
    Ort
    Bremen
    Beiträge
    386

    Standard

    Kann ja sein!
    Aber bei der jetzigen Performance verstehe ich nicht warum da nicht mehr cpu genutzt wird!
    Also ich glaube nicht das die Demo zu ende optimiert ist!
    Denke das bei der Vollversion noch einiges besser laufen wird!
    Und mit besseren Treibern von Nvidia sieht die Welt dann schon ganz anders aus!

    Zitat Zitat von randfee Beitrag anzeigen
    ehm, es gibt ja vielleicht auch level und szenen in denen es richtig abgeht, da wirst du dir noch wünschen nicht darüber hergezogen zu sein, dass dein Quadcore nicht ausgenutzt wird... ggg
    Randfee wird deine Cpu denn ausgenutzt?
    Wenn ja welche hast du?

  3. #13
    Erfahrener User Avatar von shadypepe
    Registriert seit
    25.06.2007
    Beiträge
    561

    Standard

    Das hab ich schon vor Wochen gesagt, dass die sich zu sehr auf die Grafikkarte konzentrieren... Jeder hat heute n Dualcore oder zumindest einen guten P4 mit über 3ghz - und die jungs kommen mit DX10 und Verlagerung der Lasten auf die GPU... ich verstehs nicht... Oder warum ist das nich so flexibel, dass einfach der Prozessor n bischen einspringt, wenn die Graka überlastet ist - n bischen wird das ja wohl bringen.
    Q6600 / EVGA e-Geforce 8800 GTS 640MB 576/1700 / 2GB OCZ 800 Ram / Thermaltake Armor Alu Big Tower / LG M228WA 22 Zoll Widescreen

  4. #14
    Professional Avatar von noxon
    Registriert seit
    12.05.2006
    Beiträge
    3.340

    Standard

    Zitat Zitat von Phoenix220184 Beitrag anzeigen
    [LEFT]Kann ja sein!
    Aber bei der jetzigen Performance verstehe ich nicht warum da nicht mehr cpu genutzt wird!
    Was soll sie denn machen? Das kleine 1&1 durchrechnen, bis sie glüht?

    Wenn die Grafikkarte mit dem Zeichnen der von der CPU berechneten Szene länger beschäftigt ist, als die CPU es berechnen kann, dann wird die CPU nunmal nicht ausgelastet. Du kannst sie auch nicht mehr auslasten. Womit denn?
    Es ist doch wohl auch klar, dass die Grafikkarte bei hohen Qualitätseinstellungen immer der limitierende Faktor sein wird und wie randfee schon sagte wird es sicherlich auch Level geben, die mehr CPU Leistung fordern.


    Ich glaube ihr versteht das Prinzip nicht ganz, wie das funktioniert. Es lassen sich keine Aufgaben, die von der Graka zu erledigen sind von der CPU berechnen. Die Leistung der CPU lässt sich wirklich nur für den Sound, die Gameplaylogik, die Physik, die KI und all das verwenden. Die Ergebnisse all dieser Berechnungen werden dann zu einer Szenen zusammengefasst und an die Graka geschickt, die diese Szenen dann zeichnen muss. Währenddessen berechnet die CPU die nächste Szenen. DX10 entlastet dabei die CPU durch einen geringeren Overhead beim übertragen der Renderdaten. Dadurch wird die GPU nicht zusäztzlich belastet.

    Das ein schneller Prozessor mit dem Berechnen der nächsten Szene schneller fertig ist, als die Grafikkarte mit dem Zeichnen ist auch gut so, sonst bräuchte man als Minimalvorraussetzung schon einen Quad-Core Prozessor. Von daher ist das schon gut so, wie es ist.


    //EDIT:

    Dieser Benchmark zeigt das Problem eigentlich ganz gut. Auf hohen Qualitätseinstellungen begrenzt lediglich die Graka. Je höher die Qualität, die Auflösung und AA oder AF Settings sind umso irrelevanter wird die CPU. Die CPU limitiert nur, wenn die GPU sehr wenig zu tun hat und niedrige Auflösungen bei minimaler Qualität berechnet.
    Geändert von noxon (28.10.2007 um 17:50 Uhr)

    Lest euch bitte unsere FAQs für grundsätzliche Fragen zu Crysis durch und beachtet bitte unsere Forenregeln.

  5. #15
    Newbie
    Registriert seit
    28.10.2007
    Beiträge
    11

    Standard

    Ok. Also ich hab mal den Test gemacht. Alles auf Low. Da sollte ne 8800 GTS xxx doch hinterherkommen, oder? Ja nur die Physikqualität hab ich auf hoch gestellt. Und trotzdem wenn ich n bischen hütten zerstör, also n Fass draufwerf oder so komm ich auf maximal 10 frames. Also jetzt kann mir doch keiner sagen dass meine 8800 GTS langsamer das ganze hässliche Zeug berechnet als mein 3 jahre alter pentium 4. Ich mein dass ein Q6600 nicht ausgelastet wird is mir klar aber mein OLD Tech Prozzessor sollte das irgendwie schon. Bei der ganzen Physikberechnung.

    Ach ja. Wenn ich jetzt alles wieder auf high stell siehts performancemäßig und prozessorauslastungsmäßig ziemlich gleich aus. Is schon n bisschen strange, oder ned??
    Geändert von noxon (28.10.2007 um 21:26 Uhr) Grund: Doppelpost

  6. #16
    Professional Avatar von noxon
    Registriert seit
    12.05.2006
    Beiträge
    3.340

    Standard

    Naja. Also irgend etwas scheint dann nicht zu stimmen, wenn es sich nicht unterscheidet. Hast du vielleicht etwas in den Config dateien verändert?

    Lest euch bitte unsere FAQs für grundsätzliche Fragen zu Crysis durch und beachtet bitte unsere Forenregeln.

  7. #17
    User Avatar von xstream
    Registriert seit
    16.07.2007
    Beiträge
    37

    Standard

    Ich glaube so oder so nicht, das alles in Ordnung ist. Andere Spiele, wie Bioshock, welche grafisch her Crysis beinahe ebenbürtig sind, lasten Prozessoren gut aus, obwohl KI, Physik etc. im Gegensatz zu Crysis nicht erwähnenswert sind.

    Die Performanceprobleme liegen meiner Meinung nach zu 100% an den Grafiktreibern und der Programmierung von Crysis..

  8. #18
    Newbie
    Registriert seit
    28.10.2007
    Beiträge
    11

    Standard

    Ganz deiner Meinung. Ich habs übrignes nur downgeloaded, installiert und gezockt. Nichts geändert. Aber ich schein ja nich der einzige mit dem Problem zu sein. Aber andere Spiele mit genau so guter Grafik und OHNE Physik benutzen meinen Prozessor ja auch bis zu 100%. Ich frag mich warum Crysis das nicht hinkriegt. Obwohl der Prozessor massig Physik zu berechnen hätte. Hoffentlich is das im fertigen Game verbessert.
    Geändert von Lightning Bolt (28.10.2007 um 22:52 Uhr)

  9. #19
    User
    Registriert seit
    27.10.2007
    Beiträge
    66

    Standard

    Ich habe mir mal den Spass gemacht das etwas zu testen.
    Habe mit dem Editor 30 Soldaten auf meine neue Map gesetzt und dazu 3 AlienScouts.
    Das gibt schöne Kampfszene

    Nach Aktivierung der AI, sah ich das mein Quad alle 4 Kerne mit 40-90% zur Berechnung der Kampfszene einsetzte. Eine Core war mit ca. 95% am limit.

    Ich hoffe zwar das später mehr Leistung durch meine CPU für MP kommt, nach dem Test eben bin ich mir da nicht mehr so sicher.

    Grüße
    Maxxi
    Asus Striker Extreme + Quad Extreme @ 3600Mhz
    4GB Corsair + 2x EVGA 8800 Ultra Black Perl Edition OC SLI
    Raid0 4x 150GB Raptor 10K RPM+Eingepackt in Lian Li A10B
    ICQ: 388141513



  10. #20
    Professional Avatar von noxon
    Registriert seit
    12.05.2006
    Beiträge
    3.340

    Standard

    Es gibt zwei verschiedene Ansätze, wie man ein Spiel programmieren kann. Einer ist es jede Szene Schritt für Schritt zu berechnen und zu zeichnen, wobei die CPU immer auf die GPU wartet und nur das berechnet, was in der nächsten Szene gezeigt werden soll. Der Andere ist es, wenn man die CPU immer so viel rechnen lässt, wie sie kann, aber nur dann die Ergebnisse verwendet, wenn man sie benötigt.

    Viele Spiele berechnen die Physik zum Beispiel so schnell wie sie nur können und erreichen dabei Geschwindigkeiten von beispielsweise 60 fps oder mehr. Wenn die Graka aber nur 30 fps zeichnen kann, dann sind die zusätzlich von der CPU berechneten 30 fps für die Katz gewesen und werden eh nicht genutzt.

    Stattdessen ist es dann so, dass die Physikengine und die Grafikengine nicht synchron laufen. Das was auf dem Bildschirm zu sehen ist, ist nicht das, was die Physikengine gerade berechnet hat.
    Das hat dann den Effekt, dass die Physikengine auf einmal Kollisionen erkennt, die auf dem Schirm gar nicht zu sehen sind.
    Das Gleiche gilt für die KI. So kann es sein, dass die KI schon auf Objekte reagiert, die auf dem Schirm noch nicht bewegt worden sind. Auf der CPU ist die KI also schon diesem Objekt ausgewichen und sie steht jetzt ganz wo anders. Auf dem Bildschirm steht der Spieler aber noch an der alten Stelle und wenn man drauf schießt trifft man ihn nicht, weil er von der Gameengine aus gesehen dort gar nicht mehr steht.
    Wenn die CPU schneller rechnet als die GPU es darstellen kann tauchen vieler solche Fehler auf. Der Spieler reagiert ja auf den Inhalt des Bildschirms und nicht auf den bereits fortgeschrittenen Status, wie sie die CPU schon berechnet hat.

    Crytek macht das schon richtig und synchronisiert die Physikengine, die KI und alles andere mit der Grafikengine. Das ist schwieriger zu programmieren, als die CPU völlig auszulasten. Das ist nämlich die Methode die man wählt, wenn man sich keine Arbeit machen will. Viele sagen sich:

    "Lass die CPU einfach so viel berechnen wie sie will und wir kümmern uns nicht weiter drum." Das ist eine schlechte Programmierung. Nicht das, was Crytek macht.

    Glaubt mir. Wer so eine gute Physikengine wie die der CE2 entwickeln kann, der hat auch Ahnung davon, wie man die Resourcen des Prozessors vernünftig verwendet. Crytek ist auch Vorreiter darin Aufgaben auf beliebig viele Kerne zu skalieren und nicht nur auf zwei, wie die Meisten. Die kennen sich schon aus und schreiben nicht so ein Käse, wie manch andere Entwickler.

    Lest euch bitte unsere FAQs für grundsätzliche Fragen zu Crysis durch und beachtet bitte unsere Forenregeln.

Seite 2 von 4 ErsteErste 1234 LetzteLetzte

Stichworte

Berechtigungen

  • Neue Themen erstellen: Nein
  • Themen beantworten: Nein
  • Anhänge hochladen: Nein
  • Beiträge bearbeiten: Nein
  •