Also mit meiner ATi läuft Mittel flüssig, höher geht nicht wegen meiner CPU. Hab ich aber auch noch nicht getestet.
Also mit meiner ATi läuft Mittel flüssig, höher geht nicht wegen meiner CPU. Hab ich aber auch noch nicht getestet.
Intel i7 4790K | MSI Nvidia GTX 980 | Crucial DDR3 RAM 16GB | Gigabyte Z97X Gaming 3 | beQuiet Dark Power Pro 11 (550W)
Bin mir nicht sicher warum viele so auf NVidia herum schimpfen. Ich hab auch ne 8800GTX nen E6850 und 4GB 1066 DDR2 RAM und Vista 64bit und bei mir läufts auch nur mit allem auf High flüssig - im Kampf 40-50 fps beim rumlaufen bis max 60 fps und bei explosionen gehts auf 35 runter.
Wenn ich Very High einstelle sackt die pre alpha Demo auf 15 - 20 fps ab. (glaub zumindest das die nur pre alpha ist und hoffe das Crytek noch an der Performence schraube gedreht hat).
Also alles was ich sagen wollte ist das Crytek wohl zeigen wollte was man mit DX 10 und ner guten Engine alles programmieren kann aber vieleicht ist die heutige Hardware einfach noch nicht bereit für so was. Da kann man nur abwarten und sehn was die nächste Graka generation bringt.
@Nutz ne, ne ich mein ja die aktuelle Demo bin mir nur nich sicher welchen status die hat - pre alpha oder schon neuer.
Aber wie gesagt mehr geht bei mir nicht. Oder ich bin nur zu blöd alles richtig einzustellen. Bin nich so'n PC profi wie einige hier, nur amateur der nich viel ahnung hat.
Eben nicht...ich weiß ja nicht wie Du auf Deine Werte kommst Nutz, aber mit ner GTX is einfach nicht mehr hinzukriegen als 15-20 fps und alles auf very high...und das nicht nur bei mir sondern bei jedem...glaub nicht, dass die alle ne fragmentierte Platte oder nen zugemöhlten Rechner haben...
@ Bateman genau das meine ich - und meine platten sind erst 2 wochen alt
und ja ich bin einer von denen die sich nur wegen Crysis nen neuen rechner gekauft haben.
Das stimmt auch. Da widerspreche ich dir nicht, aber das bedeutet nciht, dass sie damals nciht auch gerne 50 Ganzbilder pro Sekunde übertragen hätten.
Die 25 Bilder waren in zweierlei Hinsicht ein Kompromiss. Zum Einen kam man so mit der zur Verfügung stehenden Bandbreite aus und zum Anderen erreichte man mit 25 Bildern einen flüssigen Bildablauf. Naja und drittens hat das natürlich auch etwas mit unserem 50 Hz Stromnetz zu tun.
Deine technischen Erklärungen sind absolut korrekt, aber woher weißt du, dass mehr als 30 fps zu schenll für mein Gehirn sind? Wurde das irgendwo nachgewiesen?D.h. per se ruckelt da garnix bzw. das Monitorbild kann halt nicht ruckeln (das ist zu schnell fürs Auge).
Ich kann nur von dem berichten, was ich am eigenen Leib erfahre und ich kann dir sagen, ob ein Bild mit 30, 40 50 oder sogar 60 fps läuft. Hab's ja selbst festgestellt.
Das es durch die Bewegungsunschärfe in den modernen Engines nicht mehr so auffällt ist auch klar, aber auch da fällt mir immer noch auf, ob ich mit 30 fps spiele oder mit 40. Kann aber sein, dass es an dem nicht perfekten Motion-Blur Effekt liegt.
Naja. Aber das ist ja auch nur ein Trick um das Auge zu täuschen. Wenn's um eine wirkliche progressive Darstellung der Bilder geht kann man auf jedenfall erkennen, dass 30 fps ruckeln. Auch wenn es vielleicht nur unterbewusst ist, aber man merkt es deutlich, wenn man auf einmal einen Sprung auf 60 fps macht. (Kommt ja mit aktiviertem vSync öfters vor).
Jup. Das sehe ich auch so. Dummerweise ist der Motion-Blur Effekt nur in DX10 wirklich gut. Der Andere gefällt mir nicht sehr gut und da spiele ich lieber mit mehr fps und ohne Motion Blur.FAZIT: Ende des FPS Wahns und her mit gutem Motion Blur! Das wirkt auch viel realistischer denn relativ zueinander bewegte SAchen (Auto explodiert, fliegt hoch und gleichzeitig bewegt man die Maus nach links).
Ich hoffe aber, dass in Zukunft mehr Spiele ein gutes Motion-Blur aufweisen. In so einen Effekt kann man gut und gerne ein paar fps investieren und hat im Endeffekt einen flüssigeren Bildablauf.
Obwohl eine hohe Framerate nicht nur den Sinn hat den Bildablauf flüssig erscheinen zu lassen, sondern auch die Verzögerung zwischen Benutzereingabe per Maus und Tastatur und die Bildausgabe so gering wie möglich zu halten.
Nehmen wir mal an du hast 20 fps mit Motion Blur und es würde dir ausreichen. Zuerst einmal kommt ein Lag der Maus. Der Sensor muss erst eine gewisse Strecke bewegt werden, bevor er ein Bewegungsmuster und die entsprechende Richtung erkennt. Erst wenn er die hat überträgt die Maus diese Daten. Üblicherweise geht das über den USB Bus, der standardmäßig nur mit 125 Hz getaktet ist. Dort entsteht also auch ein winzig kleines Delay. Anschließend muss dieser Input erst einmal von der Game-Engine verarbeitet werden, was einige Zeit in anspruch nimmt. Danach wird das Bild über den PCIe Bus an die Grafikkarte geschickt. Diese berechnet das Bild jetzt innerhalb einer zwanzigstel Sekunde und legt es in den Backbuffer, wo es darauf wartet an den Monitor geschickt zu werden. Aktiviert man Tripple-Buffering, so wie ich das häufig mache, dann hat man sogar zwei Backbuffer, durch die das Bild laufen muss. Bei 20 fps warten die Bilder ganze 0,1 Sekunden in den Backbuffern, bevor sie die Graka verlassen. Wenn sie dann endlich an den Monitor geschickt werden, dann werden sie auch dort noch einmal zwischengepuffert, wenn der Monitor eine Overdrive Technik besitzt. Überlicherweise schwankt das zwischen 1 und 2 Bildern, aber es gibt auch Monitore, die bis zu drei Bilder zwischenspeichern. Bei einer Bildwiederholfrequenz von 60 Hz sind das auch wieder 16 - 50 ms Verzögerung. Da kommt also einiges zusammen, bevor man auf dem Monitor wirklich die Reaktion sieht, die man mit der Maus durchgeführt hat.
Das Gleiche gilt übrigens auch für den Sound. Wenn die Gameengine den Sound abspielt dauert es noch eine ganze Weile, bis das Bild dazu auch auf dem Monitor angezeigt wird. Bei hohen Frameraten merkt man kaum, dass der Sound zu früh abgespielt wird, aber bei sehr niedrigen kann es schon sein, dann man die Pistole schießen hört, bevor man das Mündungsfeuer sieht.
Wenigstens kommt der Ton zu erst. Das ist nicht so tragisch. Schlimmer wäre es, wenn man etwas sieht und den ton dazu erst später hört.
Naja. Lange Rede kurzer Sinn. Selbst wenn der Bildablauf flüssig erscheint, so sollte die Framerate trotzdem noch sehr hoch sein um diese Lags zu minimieren. Besonders Online-Gamer können mit Lags im zehntel Sekunden Bereich nicht mehr leben. Zumal man bedenken muss, das dort zusätzlich noch die Latenzzeiten der Netzwerkverbindung hinzukommen.
@Mudder:
Die Framerateneinbrüche bei schnellen Drehungen haben wohl eher etwas mit dem Datenstreaming in den Speicher zu tun. Cevat sagte einmal, dass während des Spielens insgesamt 10 GB an Daten in den Speicher gestreamt werden müssen. Der Rechner ist also ständig am Nachladen der Daten von der Platte in den Arbeitsspeicher, was natürlich hauptsächlich bei schnellen Szenenwechseln auffällt. Ich denke, dass das die Slowdowns erklärt. Bin mir natürlich auch nicht sicher, da ich die interna der Engine nicht kenne, aber ich bezweifle, dass die Grafik-Engine mehr berechnen muss, als wenn das Bild still stehen würde.
Das Datenstreaming hingegen scheint recht aufwendig zu sein, da dies einer der Threads ist, die auf die einzelnen Prozessorkerne aufgeteilt werden. Beim Quad-Core ist ein Kern zum Beispiel nur mit dem Streaming beschäftigt.
Geändert von noxon (30.10.2007 um 20:27 Uhr)
Lest euch bitte unsere FAQs für grundsätzliche Fragen zu Crysis durch und beachtet bitte unsere Forenregeln.
jau ich hab zwar weder vista noch ne dx 10 karte (x1950pro)
und ich frag mich jetzt wo ic h hier die threads lese, was denn dx 10 nun bringt? was ich bis jetzt gesehen hab ist:
-braucht vista (kotz)
-schlechtere performance bei gleichen details
-Nicht wirklich neue effekte/shader
ich meine, dass dx10 nur auf vista geht ist ja schon ne verarsche, dass crysis dx10 und dx9 spieler trennt ist mind. genauso behindert, aber dass dx10 jetzt sogar noch schlechter ist als dx9, dass ist jawohl der hammer...
btw ich hab mir bewusst ne dx9 karte geholt, da ne dx10 karte mit dem budget total sinnlos ist. kann dann nähmlich dx10, hat aber viel schlechtere performance
Geändert von pixartist (31.10.2007 um 08:45 Uhr)
Ich find das auch ziemlich Verwunderlich, dass ich mit meinem System :
ASUS M2N SLi-Deluxe
AMD X2 5400+
ASUS EN8800GTS 320MB
2GB DDR-800
3DMark Score ~ 8500
Erkundung = Avg. 30 fps
Gefecht = Avg. 30 fps
...so eine miese Performance bei Crysis habe.
Hab neuste Treiber, bzw. den genommen bei dem es am besten läuft, dann noch Vista 64, und das Spiel läuft dann logischerweise unter DX10.
Spiel auf 1280*1024, alles auf High bis auf Object und Shader, die sind auf Medium. Aber Teilweise so heftige Performance einstürze , dass ist nicht mehr feierlich. Und die Gesamtperfomarmance lässt auch zu wünschen übrig.
Ich denke doch, das es mit so einem System kein Problem sein sollte das Spiel vernünftig zu zocken, es ist ja immerhin schon ein ziemlich schnelles wie ich sagen muss!
Oder liegt es noch am Speicher-Bug der 8-er Serie? Hm ich weiß nicht, aber bin schon etwas enttäuscht...
Mit neuen Treibern sind vll. noch ein paar fps mehr drin(max. 5) aber das wars dann auch...
Das Ding ist einfach, wir worden komplett verarscht:
- DX10 (Vista) ist performancemäßig so toll -> stimmt nicht
- 64bit systeme werden einen leistungsvorteil haben -> stimmt kein stück
- mehr als 2gb macht sich deutlich bemerkbar -> stimmt nicht
Die Grafik ist toll, keine Frage. Aber was bringt das? Was bringt das wenn ich als Autohersteller ein super Luxus Sportauto herstelle, dessen optimaler Treibstoff noch nicht auf dem Markt ist (und ich deshalb normales Benzin tanken muss und mit meinem 1mio. Euro 700PS wagen nicht schneller als 100km/h fahren kann) ?
Und ein dickes lol geht an die leute die meinen "ey bei mir läufts voll flüssig, ich hab auf very high 20 fps" -> ihr seid absolute nubs. Jedenfalls was aiming angeht. Jeder der längere Zeit ersthaft ein Shooter online gespielt, weiss wie wichtig die FPS für das präzise und schnelle aiming sind.
Achja ja, zu Nvidia...Leute die eine GTS/GTX und co haben können sich schön ärgern das sie ca. 200€ mehr bezahlt haben, dank der neuen GT (die eigentlich schlechter sein sollte, ist sie aber nicht) fühlt man sich schon verarscht.