Ich bin der meinung Empfohlen heißt schon das man auch auf maximum spielen kann aber ich denke nicht das die entwickler damit meinen kloppt die auflösung so hoch wies geht, leute damit übertreibts ihr es doch wirklich...
Druckbare Version
Ich bin der meinung Empfohlen heißt schon das man auch auf maximum spielen kann aber ich denke nicht das die entwickler damit meinen kloppt die auflösung so hoch wies geht, leute damit übertreibts ihr es doch wirklich...
im endeffekt ist es jetzt auch nicht mehr so wichtig. die anforderungen sind nun mal so und fertig. und wenn jemand 100€ fuer ne graka etc. ausgibt darf er sich nunma nich wundern, viel kostet viel.
Empfohlen heißt für mich: "Flüssig Spielbar auf der gängigen Auflösung und das mit der besten Optik".
Sprich flüssig spielbar (>30 Frames) auf der gängigen Auflösung (1152x864 oder auch 1280x1024) mit besten Optik (Very High). Very High vor allem deswegen weil dies die DX10-Optiönchen von Crysis darstellen sollen.
Und die empfohlene Einstellung spricht bei Crysis wohl eindeutig von einem DX10-System (Vista, 8xxx-Karte).
Das man mit der "Empfohlen"-Einstellung nicht auf einer 1900er Auflösung spielen kann sollte schon jedem klar sein. Wenn das wirklich jemand glaubt dann sollte er sich auch mal fragen warum man zwei 8800 Ultra brauchen sollte? Sicher nicht um auf 1280 zu spielen sondern um ein riesen Bildschirm vor einem zu füllen. (Und um seine Impotenz auszugleichen?)
Tatsache ist jedenfalls das die Systemanforderungen nicht die Bedingungen der Demo erfüllen können (jedenfalls nicht bei mir.. und ich habe ein besseres System als empfohlen). Das kann sich in der Final-Version und vor allem bei einem neuen Treiber bessern. Aber bei den Problemen die nvidia offenbar hat um mit Vista umzugehen machen mich noch nicht so zuversichtlich.
wobei man das Spiel auch mit einer 100€ Karte durchaus spielen kann! Wer mehr will muss sich halb überlegen, wieviel ihm das wert ist. Ich müsste meinen Desktop total aufrüsten und denke auch mit dem Preis/Leistungsverhältnis der 8800GT, dass mir 600€ zum upgraden einfach zuviel sind... es ist nur ein Spiel, das sehe ich einfach nicht ein!
naja hoffen wir mal das du recht hast ... wobei ich mit dem gedanken spiele meine 8800 GTX zu verkaufen und mir 2 8800 GT zu kaufen aber damit warte ich bis zum final game und den neuen treiber bzw patch...
das würde ich an deiner Stelle sofort machen. Nimm was du kriegen kannst für die GTX, kauf erstmal eine GT und warte auf Treiber (dann evtl. ne zweite). Die jetzigen 8800er werden jetzt rapide im Preis fallen, weil die Nachfrage einbricht, wenn die GF9 erscheint kriegste netmal mehr GT8800 Preis dafür... weg damit :)
Genau so ist es... Da gibts sehr detailierte Theorien in der BWL über die Abschöpfung der Zahlungsbereitschaft einiger Kundensegmente.
Erstmal schön teuer, um dick Asche zu machen mit den Geeks, die bereit sind viel zu zahlen, gleichzeitig holen sie damit Zeit raus um schon die nächste Generation zu basteln. Dann, wenn die Highend Prolls versorgt sind, fallen die Preise und ne GT wird auf den Markt gebracht, damit Ottonormalverbraucher dann auch in den Genuss kommt.
Im Prinzip ist jeder selbst Schuld, wenn er High End Karten kauft. Umso ärgerlicher, wenn High End nicht mal reicht um die versprochene Qualität zu liefern.
Trotzdem, das Spiel hat ne super Grafik, ne tolle Sandbox, super Physik usw...
Wer sich nicht an den Spielchen von Nvidia beteiligen will, der studiere den Markt für Grakas beim nächsten Hype und warte dann auf die GT... und gut is...
das ist doch der G92 oder?Zitat:
weisst du (od. irgend jemand anderes), auf wann die 9er reihe angepeilt ist? evtl. 1 quartal 08?
Hi
Also wenn ich die Auflösung auf 1042x786 und 2x AA und alles auf die höchste Stufe packen, läuft es echt gut.....und es sieht verdammt geil aus....brauch mal bald keine DX10 Karte....
@Schoeniaw(koq)
nein, der G92 (also die 8800GT) ist weiterhin eine GeForce 8. Der Chip basiert auf dem G80 (8800GTX/Ultra), hat aber einige Verbesserungen erfahren. Auf einschlägigen Seiten kannst du genug darüber lesen.
Der GeForce 9 wird sicher weit mehr Performance bieten als alles derzeit Verfügbare, es gab zahlreiche Gerüchte über eine Leistung mehrerer Teraflop, ein riesen Teil.... Ich bin mir auch ziemlich sicher, dass Nvidia so richtig dick auftragen wird, die Zeit der kleinen Schritte ist vorbei, die Chips werden massiv parallelisiert, hunderte Shader-Einheiten, quasi kleine Sub-Prozessoren eignen sich gerade für Grafikkarten vorzüglich.
Angepeilt ist 1-2 Quartal 2008, das passt auch zu deren Produktzyklus. Ich könnte mir aber durchaus vorstellen, dass das Ding schon fertig ist und man die Kuh (den Highend-User) vorher noch möglichst viel melken will... :)
war grad n bisschen durcheinander, habs mir aber gleich gedacht. wusste nur die bezeichnung nimmer immer diese GxxZitat:
nein, der G92 (also die 8800GT) ist weiterhin eine GeForce 8. Der Chip basiert auf dem G80 (8800GTX/Ultra), hat aber einige Verbesserungen erfahren. Auf einschlägigen Seiten kannst du genug darüber lesen.
So ganz versteh ich hier manche Argumentationen nich......
Wenn ich lese "empfohlene"....dann war das immer so, das man damit aufs Maximum zocken konnte.....(natürlich nur mit der normalen Auflösung von 1280x1024)
Ich hoffe es passiert noch was (ob neuer Treiber, Patch oder was auch immer)......
Selbst wenn ich auf very high verzichte, finde ich 20-30 frames bei high auf meinen System echt zu wenig......
Wft ich denke es gitb im game Dynamichsc schatten vom Feuer o.O
empfohlen heisst für mich soviel wie damit kann nix schief gehen bei max. details und 1024x768 mit aa und das bei 60 fps sollte das nicht der fall sein (so ist es ja )
sollten die ihre empfehlung nochmal überdenken bei den anderen games stehen ja auch die empfohlenen einstellungen auf der packung die halten auch das was sie versprechen sprich alles hoch vernünftige auflösung und aa und das sollte crysis auch auf der packung stehen haben
60fps?!?!? was redet ihr da? Das menschliche Auge sieht Dinge flüssig bei 30fps. Crytek hat Motion Blur meiner Meinung nach auch aus diesem Grund eingebaut, da benötigt man nämlich nicht mehr als 30fps.
glaubt mir, den Unterschied sieht niemand, wenn das Motion blur richtig läuft! Niemand, weil das nicht geht. Wenn ihr das nicht glaubt dann lest mal mehr darüber...
Also ich weiß nicht, was du für Spiele meinst, aber empfohlende Hardwarevoraussetzungen liefen bei mir noch nie auf Maximum flüssig.
Empfohlen bedeutet immer, dass man das Spiel in sehr gute Qualität spielen kann. Es heißt aber nicht, dass man das letzte kleine bisschen noch durch besesere Hardware herausholen kann.
Auf Medium sieht Crysis doch absolut klasse aus und das kann man mit Durchschnittshardware wunderbar spielen. Man muss nciht immer alles auf Maximum stellen um ein schönes Spiel zu spielen. Es ist auch auf Medium schöner als manch anderes Spiel.
Außerdem macht es absolut Sinn solche anspruchsvollen Settings in Crysis zu integrieren, denn wenn in ein paar Monaten oder so, der nächste High End Chip von nVidia erscheint, dann wird es für den absolut kein Problem sein alles auf Very High flüssig darzustellen.
Es wäre doch doof, wenn man sich so eine Karte kauft und dann kein Spiel findet, dass die Leistung auch tatsächlich ausnutzt.
Nur mal angenommen Crytek hätte die Very High Settings deaktiviert. Dann wären jetzt alle zufrieden, da eine GTX alles auf "Maximum" spielen kann.
Allerdings wären dann in ein paar Monaten die Besitzer der neuen Karten enttäuscht, dass Crytek keine schöneren Settings anbietet und sie mit ihrer Leistung nichts sinnvolles anfangen können außer vielleicht die Framerate in enorme Höhen zu treiben.
@randfee:
Ich stimme dir zwar in allen Postings in diesem Thread voll und ganz zu, aber das mit den 30 fps ist Blödsinn. Natürlich ist das menschliche Aufge empfindlicher. Das Fernsehsignal ist nicht umsonst interlaced. So wird aus den 25 Bildern/sec mittels Halbbilddarstellung die Illusion von 50 Bildern/sec erzeugt. Das + die Unschärfe sorgt dann dafür, dass es flüssig erscheint. Eine progressive Darstellung benötigt definitiv mehr Bilder um flüssig zu erscheinen.
Beispiel HDTV. Interlaced Formate laufen hauptsächlich mit 25 fps und progressive Formate laufen mit 50 fps. Das ist nciht ohne Grund so.
Beim Spielen hat das Ganze außerdem noch den Vorteil, dass der Lag zwischen User-Input und Grafikausgabe reduziert wird, was sich in einer direkteren Steuerung bemerkbar macht. Das ist mir immer ganz wichtig, da ich gerne mit aktiviertem Tripple Buffering arbeite, was leider bedeutet, dass das aktuelle Bild erst zwei Bilder verzögert auf dem Schirm angezeigt wird. Zusätzlich zu den 1 bis 2 Bildern, die im Monitor durch das Overdrive zwischengepuffert werden kommen so schon schon einmal 100 ms zusammen, was die Verzögerung angeht. Es geht also nicht nur um ruckelfreie Bilder, sondnern auch um eine verzögerungsfeie Steuerung. Mehr als 30 fps sind definitiv sinnvoll und ich selbst empfinde 40 fps als recht angenehm. Alles darüber ist gut, muss aber nicht sein.
Trotzdem erwarte ich natürlich nicht, dass ich mit den empfohlenden Hardwareangaben diese framerate erreiche.
Hehe hier mitzulesen ist echt lustig!
Vorallem die Leute, die sich mit einem Dualcore 2,4Ghz +, einer GTS und 2Gig DDR2 RAM beschweren, sie hätten nur 20-30 Frames unter High, machen definitiv was falsch :-D
Da hab ich ja mit meinem verschimmeltem SINGLECore 2Ghz, 2GB DDR1 RAM und einer GTS fast auch so viel fps, auch alles auf High.
Für den Einzelspieler wird eine GTS unter DX10 Btrieb reichen, für den Multiplayer unter DX10 würde ich mehr auf stärkere CPUs setzen wegen der dynamischen Umgebung (siehe Atombombenexplosion etc. ...)
das is doch egal für mp brauchste schon 60 fps auch wenn du da schatten und sowas ausmachst ausserdem hat das ja nix mit dem empfohlenen syskomponenten zu tun da is crysis mir im momment zu low da müssen bis jetzt noch dran arbeiten (wie ich finde) wie gesagt bei den anderen game hüllen stehts so da wie man es versteht empfohlen = alles max und trotzdem flüssig spielbar mit 60 fps und ob mein auge das mitkriegt oder nicht is mir sch... egal:-D
ja die grafik is goil ich will mich ja auch nicht aufregen oder crysis mieß machen(sieht und spielt sich ja auch turbo goil) aber empfohlene sys config sieht für mich bei crysis anders aus (kann ja auch sein das ich mich vertan hab aber wenn ich empfohlene config hab muss es besser laufen finde ich
UNGLAUBLICH WAS ICH HIER VON DIR LESE!!!
OMFG!
Du hast ein MacBook Pro. Ein Mac! Mit ner mobile 8600. Wiviele PC Games hast du denn gespielt? Wahrscheinlich nur Strategiespiele, denn ansonsten würdest du wissen was 60 fps bedeutet und du hättest dir ein PC gekauft um Spiele zu zoggen! Du redest hier so als hätten wir hier alle so ansprüche wie du! Die hätt ich wahrscheinlich auch wenn ich mit dem Mac Book zoggen würde!
TOLL SIEHT GUT AUS RUCKELT ABER WIE SAU!
P.S.: Ich hab auf dem genau dem selben Mac Book wie du Medal of Honor Airborne gezoggt und auf meinem PC also sag mir nicht das ich keine Ahnung habe.
Wie du es hier in Frage stellen willst das die Performance von Crysis die ja angeblich so gut sei TOTAL FÜRN ***** IST!
Wer das wiederlegen will, muss mir Fakten zeigen und keine subjektiven Eindrücke.
Zeigt mir ein System auf dem es lagfrei und flüssig läuft auf hohen (noch nicht mal very high) details!
Ich sag euch: ES GIBT KEINS und ich bezweifle MASSIV das sich daran noch was ändern wird bis zum Release!!!
Die Brüder haben uns zum NARREN gehalten mit ihren Sprüchen das es gut laufen wird auf nem guten system, aber es läuft BESCHISSEN auf sehr guten systemen!
Wer das nicht sieht, den hat die Grafik pracht geblendet!
Vor ein par Jahren hab ich mir einen PC gekauft der genau den empfohlenen Systemvorrausetzungen von Far Cry entsprochen hat und es lief perfekt. Jetzt habe ich es wieder für Crysis gemacht und wurde verarscht.
musste grad an die ganzen trailer denken wo des game auch auf hoher auflösung flüssig lief..komisch komisch :-D
Harte Worte aber ich möchte hier auch gar nicht wiedersprechen.
Aber um die Stimmung gegen nvidia nochmal anzuheißen:
Sie überarbeiten die 8800GTS, in der kommenden Generation ( http://www.winfuture.de/news,35413.html )
was glaubst du, was die fuer n sys hatten? wahrscheinlich 4x 8800 ultra OC, n QX6950 @ 7ghz, 16gb arbeitsspeicher. und dann noch n inoffiziellen super treiber
danach kannste nicht gehen, wenn du was mit fraps aus Crysis aufnimmst, das nur mit 25 fps läuft, wirst du sehen dass das AVI im Mediaplayer flüssig läuft.Zitat:
musste grad an die ganzen trailer denken wo des game auch auf hoher auflösung flüssig lief..komisch komisch :grin:
Wenn der Treiebrr kommt werden wir es mit unserer Ultra und Gtx föüdig auf Very high mit 1280.786 mit 40 Fps zoggen können wartet nur ab ,
kann ich dann meine alte gegen die neue gts tauschen und was machen die wenn meine gts kaputt geht und die alte gts gar nicht mehr gefertigt wird? ausserdem vermisse ich immer noch spiele die mir nicht das gefühl geben das nvidia mich verarscht hat eine hand voll spiele und schon kommen wieder neue gra ka modelle auf dem markt dafür hasse ich nvidia !!! sollen erst mal optimieren mann sieht doch wie gut das auf consolen klappt aber pc besitzer sind die melkkühe der nation
@alan-wake da warte ich gerne binn nur nicht so optimistisch wie du ich glaub nicht das sich performance mäßig noch was tut
@ noxon,
das stimmt leider nicht, was du sagst. Das TV signal ist interlaced, weil vor 50 Jahren die Bandbreite über den Äther nicht ausgereicht hat die Bilder progressiv zu übertragen Das ist der wahre Grund dafür, dass das TV analog signal immer mit 50 Halbbildern übertragen wurde... lies nach :)
Zum Thema 30fps, ruckelt oder nicht:
Jein. Es liegt an Folgendem. Deine Augen können durchaus ein Flimmern einer 50Hz Neonröhre sehen, ja, sie können auch noch viel höhere Frequenzen sehen, aber das ist ein Trugschluss. Das können sie nur sehen, wenn das Signal abgehackt ist. Angenommen ich habe eine LED, die ich innerhalb einer millionstel Sekunde ein und wieder ausschalten kann. Wenn ich diese jetzt mit 30Hz jeweils für 10ms Leuchten lasse, dann leuchtet sie insgesamt 300ms. d.h. die Intensität ist nur ca 30% dessen, was sie sein könnte. In erster Linie erscheint sie dir nicht so hell, als ob sie dauernd an wäre. Viel schwerwiegender ist aber, dass das Auge halt in der Lage ist zu erkennen, wenn der Kontrast so hoch ist und das Objekt dann bewegt ist.
Man stelle sich vor. Diese LED fliegt jetzt an einem vorbei. Was passiert ist, man sieht viele helle Punkte (30 pro sekunde) auf einer Linie Das gleiche passiert wenn man unter eine neon-röhre ein stück seil mit einem Gewicht dran herumschleudert. Man sieht einen Fächer aus Seilen (50 pro Sekunde), ergo hat man das Gefühl es ruckelt. Dies ist auch der Grund, weshalb alte Röhrenmonitore den Eindruck des Flimmerns erweckten, die leuchteten kürzer als 30 mal eine dreisigstel Sekunde
Gute Monitore hingegen Leuchten nach bzw.TFTs halten den Farbwert, bis sie die Info bekommen umzuschalten. D.h. per se ruckelt da garnix bzw. das Monitorbild kann halt nicht ruckeln (das ist zu schnell fürs Auge).
Bewegte Bilder:
Wenn ein Monitor ein bewegtes Objekt darstellt, welches sich mit mehr als pixel pro Sekunde über den Monitor bewegt (was nicht sonderlich schnell ist), dann passiert genau das gleiche wie oben beschrieben. Der User sieht, wie das Objekt springt, auch wenn er die eigentliche Bewegung nicht als ruckelig empfindet (das ist ein Unterschied). Das Objekt scheint also von Position 1 zu Position 2 zu springen, ohne dass die Pixel zwischendrin jemals an waren. Deshalb scheint es zu ruckeln.
Wenn die Grafikkarte jetzt so viele frames macht, dass immer ein Bild für jeden Pixel Bewegung dargestellt wird, sieht der Mensch es wieder als nicht ruckelnd an, da das Objekt auf jedem Punkt der Bewegungsstrecke sichtbar ist.
Motion Blur:
Eine schlaue engine weiß das und interpoliert die Bewegung welche während der Zeit, in der ein Bild eingeblendet wird (also 1/30 Sekunde bei 30fps) auf das aktuelle Bild drauf. Bewegt sich ein Objekt 300 Pixel pro Sekunde, so wird ein sich bewegender Punkt, der nur einen Pixel breit ist, als 10 Pixel breit angezeigt (also als grade Linie, wenn die Bewegung grade ist). Dabei wird die Intensität verringert (das kann man genauestens ausrechnen!).
Wenn man dieses Verfahren anwendet, wirkt das Bild 100% flüssig, garantiert. Das wirkt genauso als ob das Spiel mit 1000fps läuft. Das menschliche Auge und Gehirn können das nicht Unterscheiden :)
Dies ist auch bei einem Film so, wenn die Belichtungszeit für jedes Bild bei PAL Kameras so nahe genug wie möglich an 1s/25 = 40ms dran ist. Jedes der einzelbilder ist dann zwar unscharf, aber das Video ist flüssig.
FAZIT: Ende des FPS Wahns und her mit gutem Motion Blur! Das wirkt auch viel realistischer denn relativ zueinander bewegte SAchen (Auto explodiert, fliegt hoch und gleichzeitig bewegt man die Maus nach links).
Falls ich dieses Thema genauer ausführen soll, kann ich das gerne tun, hab mich mal sehr intensiv damit befasst... :)
@ all: Wichtigstes Setting ist Motion Blur, probierts aus ( in der config). 30fps sind wirklich genug, sieht top aus wenn Motion Blur an ist!!
Ich weiß gar nich, wo das Problem liegt. Ich hab noch nichmal n High-End-System und bei mir läufts selbst auf Very High flüssig. Okay, ab und zu gehts mal runter auf 20FPS, is aber locker spielbar. Und auf High läufts durchgehend butterweich.
Übrigens an die Klugscheisser: Das menschliche Auge sieht auch schon ab 25Bildern pro Sekunde flüssig. Wer den Unterschied zwischen 30FPS und 60FPS sieht, der zockt zu viel CS, denn nur bei Online-Games macht sich dies durch einen schnelleren Refresh bemerkbar. Bei Singleplayer-Games ist dies völlig belanglos, genau so wie man keinen Unterschied bemerkt zwischen 60FPS und 300FPS.
Ich sags mal so: Wenn hier einer rumheult, weil er mit ner GTS640 nichmal auf High, ohne AA und mit maximal 1280x1024 zocken kann, dem rate ich, das Problem entweder beim schwachen Prozzi, nur 2GB Ram trotz Vista oder in den meisten Fällen einfach mal vorm Rechner zu suchen, denn 95% aller Systeme sind zugemüllt, fragmentiert, laufen heiß, wo jeder PC-Enthusiast n Augenspasti kriegen würde, wenn er es mit ansehen müsste.
Also kommt aufn Teppich, das Spiel is Next-Gen, also brauch man auch nich erwarten, es mit nem System, dessen Hardwareteile von anno 2005-2006 sind, absolut einwandfrei auf Max-Settings spielen zu können. Wer das denkt, der soll sich ne Konsole kaufen und mal gepflegt die Fresse halten!
Verstehe teilweise die Diskussion nicht so ganz. Crysis sieht auch auf Medium-Settings sehr gut aus.
Von Geldmache seitens von NVIDIA kann keine Rede sein.
Crysis setzt die Messlatte einfach hoch und vor allem neue Maßstäbe. Alle die sowas auf very-high spielen wollen müssen halt zu sehen.
Und ehrlich gesagt, die Geforce 8800 GTX ist nunmal nicht mehr up to date.
Spätestens mit dem G90 wird das Spiel auf very high vernünftig laufen.
Grafik-Fetischisten werden die sich sowieso gleich kaufen, egal was sie kosten wird.
Darüber kann man auch wieder streiten, vor allem wo das alles noch hinführen soll. Ich wollte mir eigentlich kurz nach dem Release ein neues System besorgen, aber nachdem ich die Demo jetzt gezockt habe, werde ich auf jeden Fall mindestens ein halbes Jahr warten. Das macht mir nichts, aber ich hab nunmal nicht das Geld mir jedes Jahr neue Hardware zu kaufen.
ich kann dazu nur sagen dass ich bei Crysis den Unterschied zwischen 30 und 60 fps, ob mit oder ohne Motion Blur sehr gut erkennen kann.
sorry aber das ist Schwachsinn. Es gibt höchstens eine Karte die der GTX das Wasser reichen kann und das ist die Ultra. Die GTX ist up to Date! Es gibt nichts besseres.Zitat:
Und ehrlich gesagt, die Geforce 8800 GTX ist nunmal nicht mehr up to date.
@ Loco,
2 Möglichkeiten:
a) Das System hat sehr kurzfristige lags, welche du nicht mit deiner FPS Messung siehst (gibts oft)
b) das Motion Blur der Cryengine2 ist kein richtiges (das kann natürlich sein, weiß ich nicht)
Spiele nachher mal mit dem Editor rum, dann sehe ich das
du hast in sofern recht dass motion Blur tatsächlich einen flüssigeren Eindruck vermittelt, aber ich denke mir wird so ziemlich jeder zustimmen wenn ich sage, dass man selbst damit einen deutlichen unterschied zwischen 30 und 60 fps sieht, wenn diese konstant sind.
Du siehst wahrscheinlich auch die Ringe um den Saturm mit bloßem Auge... -.-
Dass es zurzeit nix besseres gibt, heißt nicht, dass die GraKa up-to-date ist, denn die Technik ist bereits über n Jahr alt, was in Menschenjahren etwa ein halbes Leben ist. Und mit der Karte neue Grafikmonster auf Max Details flüssig zocken zu können ist mehr als man erwarten kann.
Sag mal kapieren das hier einige nicht, es gibt Leute mit ner 8800GTX bei denen läuft das Spiel mit 30 oder mehr FPS, ABER andere mit genau dem gleichen Sys haben FPS unter 20! Es kann also nicht an der hardware liegen, ich würd euch ja zustimmen wenn es überall gleich mies läuft aber das STIMMT NICHT.
Und um es nochmal zu sagen, es soll da angeblich noch eine höhere Stufe als very high geben, nämlich ultra high und die is dann für die NextGen Systeme.
Es läuft ja auch flüssig bei very high mit 16AA und ner guten Auflösung über 1280x1024 auf manchen Systemen, nur nicht auf allen! Man muß also ganz klar sagen, dass es nicht daran liegt, dass die Harware zu schwach ist, es wurde einfach schlampig programmiert, entweder bei Crytek oder bei NVidia bzgl. der Treiber.
ich denke mal dass in spätestens 3 Monaten die neue GF9 rauskommt, dann ist die GTX in der Tat nicht mehr up to Date. Und dann wird es wieder ein Jahr dauern, und alle werden schon auf die GF10er Reihe sparen um das nächste Crytec Game anständig auf Medium spielen zu können :-?
das ist ja auch völlig Hupe ganz ehrlich, es kann nicht sein, was Crytek da macht ist Mist. erst wird die Demo verschoben, weil man uns das super Erlebniss gönnen will, dann gibts dauernd Interviews wo ein Cevat Yerli behauptet das Spiel läuft auf maximalen Einstellungen mit ner 8800GTX, dann wieder nicht und schließlich wird die Demo einen Tag später rausgebracht und hat auf manchen Highend Sys ne total miese Performance.
Eine 8800GTX ist nunmal im Moment noch eine Highend Karte der neusten Generation und damit sollte das Spiel laufen, Crytek wird sich umschauen, wenn in ein paar Wochen oder Monaten andere Spiele kommen die auf älteren Systemen besser laufen als ihr Crysis.
Mit dem wahrnehmbar oder nicht.. 30fps laufen flüssig. Punkt.
Aber auch hier hat man wieder eine Berechnungsgeschwindigkeit. Denn wenn der Rechner mit 30fps am Anschlag ist dürfte es schon deutliche Probleme bereiten wenn man sich schnell dreht. Hier gehen die Framezahlen schnell in die Knie da der Rechner nicht nur das Blickfeld vorne sondern den ganzen Platz rendern muss. Das selbe wenn man sich schnell bewegt (wenn man schnell fährt oder bei Crysis wohl noch übler.. wenn man schnell fliegt).
Wenn man Standardmäßig 30fps hat gehen die bei Kämpfen und schnellen Bewegungen doch arg in die Knie. Und da ist dann eben auch der Vorteil von 60fps. Ok im Standbild ist nix sichtbar. Aber wenn man viel Action hat und sich schnell bewegt läuft es schon deswegen flüssiger weil 'Reserven' vorhanden sind ehe es an die magische 24fps-Grenze ran geht.
30fps im Kampfmodus.. Super! Aber das bedeutet eben auch 50-60fps im "Wander"-Modus..
Edit: Und @PredatorWolf
Danke! Genau das sag ich auch immer... es kann kaum an der Hardware liegen da schwächere Rechner oft Framezahlen bis 60fps haben während mein GTS-Rechner keine 24fps hinbekommt. Da fühlt man sich von nvidia verarscht. (allein schon wegen der GT und dem Nachrüsten der GTS haben sind die bei mir nun der Schuldenbock). Als Spieler kann man nur hoffen das die es ENDLICH mal hinbekommen ein anständigen Vista-Treiber raus zu bringen. Jedenfalls kann man nur hoffen das Ati doch irgendwann mal wieder konkurenzfähige Karten hergestellt bekommt..
Wie gesagt, das Game läuft bei mir auf Very High flüssig, und ich hab keine GTX und auch keinen Quad-Core...mein Sys hat mich keine 1000€ gekostet und wenn ich lese, dass manche 2Mille und mehr ausgeben, aber nicht ind er Lage sind, das Spiel ruckelfrei zum Laufen zu bekommen, dann muss ich immer um das schöne Geld weinen...Perlen für die Säue, mehr nich.
@Loco: Du hast recht, sie is momentan noch die Speerspitze, aber das ist sie auch nur, weil ATI nix gebacken bekommt. Wenn die die 3xxxer Serie schon rausgebracht hätten, wär die 9xxxer auch schon aufm Markt und Crysis wär nobodies Problem...aber warum was Altes gegen was Neues eintauschen, wenn die Leute auch noch was Altes kaufen, weil se denken,es wäre immernoch das Allergeilste?
Hab gerade von einem gelesen, dass es Leute mit zwei 8800Ultra im SLI :shock: gibt, die auch FPS Einbrüche haben... also ob da ne 9800GTX was bringt bleibt fraglich
haha, da brauch ich mich nich wundern wenn ich nur mit ~15FPS auf very high zocken kann. jetzt ma ernsthaft leute des is doch krank, ueberlegt ma was 2 ultras kosten leute ueber 1000 taken! und des nur fuer die graka der rest muss dem ja auch entsprechen und des fuer ein spiel, egal wie gut es ist, ist doch absolout uebertrieben. da nehm ich lieber die kohle und mach richtig urlaub:-DZitat:
Hab gerade von einem gelesen, dass es Leute mit zwei 8800Ultra im SLI :shock: gibt,
naja soooo viel bringt SLI ja eigentlich auch nicht, es sei denn man will irgendwelche Monsterauflösungen fahren. Die neue GF9 wird auf jeden fall um einiges flotter sein als 8800Ultra SLI, ist zwar reine Spekulation aber ich denke das ist realistisch.
Ne 8800 GTX war auch um einiges schneller als die beste GF7xxx im SLI.
Wenn Crysis mit ner Geforce aus der 9er Serie immernoch nicht anständig läuft dann aber Prost Mahlzeit!
Tja. Vielleicht sollten wir Konsumenten/Spieler einfach mal nicht mehr diesen Trend verfolgen, ständig die aktuellste Hardware zu kaufen um auf neue, bessere und schönere Grafik-Overkills zu hoffen. Dann würde sich vielleicht auch so manch ein Spiele-Entwickler mal darauf besinnen sauber zu programmieren, wenn das im Fall des PC's überhaupt so einfach ist, da ja alle verschiedene System haben.
Ich glaube ich werde in dem Bezug utopisch.
Aber Fakt ist einfach das vor allem in den letzen Jahren die Spiele nicht mehr das einhalten können, was vorher immer angepriesen wurde.
Beispiele dafür gibt es genug ( für mich vor allem Boiling Point, S.T.A.L.K.E.R, Oblivion, Gothic 2 etc.). Da werden dann Unmengen an Patches rausgehauen, die mittlerweile mittlerweile teilweise an die 500 MB an Größe erreichen.
Schade für denjenigen der über keinen oder nur einen langsamen Internet-Anschluß verfügt.
Aber ich weiche ab. Tut mir leid! :oops:
Hab nen E6420@3,46GHz
Asus P5B
4GB OCZ Platinum XTC DD2-800 @433MHz, 4-4-4-12
GTS640@600/1000MHz
Vista Ultimate 64Bit
mehr sollte nicht von Belang sein...achja, und ich zocke auf maximal 1280x1024(Monitor) und 1360x768(Fernseher), wobei sich die FPS irgendwie nix nehmen.
Superflüssig hab ich nie behauptet, zumindest nicht für Very High...es geht nur nicht unter 20FPS, is für mich aber alles spielbar. Bei High Settings läufts dauerhaft über 25FPS, was ich als butterweich bezeichne, da ich keine Ruckler und keine Lags habe.
wenn das so einfache waere... sucht...:-D ne ernsthaft ich komm kaum drum rum 1. weils einfach mein hobby und teil meines lebens ist, das ist einfach so 2. weil ich die kiste nicht nur zum spielen brauche sondern auch zum programmieren und rendern. da macht sone alte kiste einfach kein fun. nuja selbst wenns nich so waer haett ich tortzdem immer noch n high end pc oder zumindest untere high end, weil des nunma geil is. wozu braucht man z.b. einen core 2 duo oder ein 700Watt 7.1 sorround system? weils geil ist! ohne des waers doch langweilig, ich brauch POWER!!!;)Zitat:
Tja. Vielleicht sollten wir Konsumenten/Spieler einfach mal nicht mehr diesen Trend verfolgen, ständig die aktuellste Hardware zu kaufen um auf neue, bessere und schönere Grafik-Overkills zu hoffen. Dann würde sich vielleicht auch so manch ein Spiele-Entwickler mal darauf besinnen sauber zu programmieren, wenn das im Fall des PC's überhaupt so einfach ist, da ja alle verschiedene System haben.
Also mit meiner ATi läuft Mittel flüssig, höher geht nicht wegen meiner CPU. Hab ich aber auch noch nicht getestet.
Bin mir nicht sicher warum viele so auf NVidia herum schimpfen. Ich hab auch ne 8800GTX nen E6850 und 4GB 1066 DDR2 RAM und Vista 64bit und bei mir läufts auch nur mit allem auf High flüssig - im Kampf 40-50 fps beim rumlaufen bis max 60 fps und bei explosionen gehts auf 35 runter.
Wenn ich Very High einstelle sackt die pre alpha Demo auf 15 - 20 fps ab. (glaub zumindest das die nur pre alpha ist und hoffe das Crytek noch an der Performence schraube gedreht hat).
Also alles was ich sagen wollte ist das Crytek wohl zeigen wollte was man mit DX 10 und ner guten Engine alles programmieren kann aber vieleicht ist die heutige Hardware einfach noch nicht bereit für so was. Da kann man nur abwarten und sehn was die nächste Graka generation bringt.
@Logan: Teste doch einfach mal die normale Demo, dann müsste dein System bei 1280x1024 aber locker über 20FPS bleiben
@Nutz ne, ne ich mein ja die aktuelle Demo bin mir nur nich sicher welchen status die hat - pre alpha oder schon neuer.
Aber wie gesagt mehr geht bei mir nicht. Oder ich bin nur zu blöd alles richtig einzustellen. Bin nich so'n PC profi wie einige hier, nur amateur der nich viel ahnung hat.
Eben nicht...ich weiß ja nicht wie Du auf Deine Werte kommst Nutz, aber mit ner GTX is einfach nicht mehr hinzukriegen als 15-20 fps und alles auf very high...und das nicht nur bei mir sondern bei jedem...glaub nicht, dass die alle ne fragmentierte Platte oder nen zugemöhlten Rechner haben...
@ Bateman genau das meine ich - und meine platten sind erst 2 wochen alt
und ja ich bin einer von denen die sich nur wegen Crysis nen neuen rechner gekauft haben.
Das stimmt auch. Da widerspreche ich dir nicht, aber das bedeutet nciht, dass sie damals nciht auch gerne 50 Ganzbilder pro Sekunde übertragen hätten.
Die 25 Bilder waren in zweierlei Hinsicht ein Kompromiss. Zum Einen kam man so mit der zur Verfügung stehenden Bandbreite aus und zum Anderen erreichte man mit 25 Bildern einen flüssigen Bildablauf. Naja und drittens hat das natürlich auch etwas mit unserem 50 Hz Stromnetz zu tun.
Deine technischen Erklärungen sind absolut korrekt, aber woher weißt du, dass mehr als 30 fps zu schenll für mein Gehirn sind? Wurde das irgendwo nachgewiesen?Zitat:
D.h. per se ruckelt da garnix bzw. das Monitorbild kann halt nicht ruckeln (das ist zu schnell fürs Auge).
Ich kann nur von dem berichten, was ich am eigenen Leib erfahre und ich kann dir sagen, ob ein Bild mit 30, 40 50 oder sogar 60 fps läuft. Hab's ja selbst festgestellt.
Das es durch die Bewegungsunschärfe in den modernen Engines nicht mehr so auffällt ist auch klar, aber auch da fällt mir immer noch auf, ob ich mit 30 fps spiele oder mit 40. Kann aber sein, dass es an dem nicht perfekten Motion-Blur Effekt liegt.
Naja. Aber das ist ja auch nur ein Trick um das Auge zu täuschen. Wenn's um eine wirkliche progressive Darstellung der Bilder geht kann man auf jedenfall erkennen, dass 30 fps ruckeln. Auch wenn es vielleicht nur unterbewusst ist, aber man merkt es deutlich, wenn man auf einmal einen Sprung auf 60 fps macht. (Kommt ja mit aktiviertem vSync öfters vor).
Jup. Das sehe ich auch so. Dummerweise ist der Motion-Blur Effekt nur in DX10 wirklich gut. Der Andere gefällt mir nicht sehr gut und da spiele ich lieber mit mehr fps und ohne Motion Blur.Zitat:
FAZIT: Ende des FPS Wahns und her mit gutem Motion Blur! Das wirkt auch viel realistischer denn relativ zueinander bewegte SAchen (Auto explodiert, fliegt hoch und gleichzeitig bewegt man die Maus nach links).
Ich hoffe aber, dass in Zukunft mehr Spiele ein gutes Motion-Blur aufweisen. In so einen Effekt kann man gut und gerne ein paar fps investieren und hat im Endeffekt einen flüssigeren Bildablauf.
Obwohl eine hohe Framerate nicht nur den Sinn hat den Bildablauf flüssig erscheinen zu lassen, sondern auch die Verzögerung zwischen Benutzereingabe per Maus und Tastatur und die Bildausgabe so gering wie möglich zu halten.
Nehmen wir mal an du hast 20 fps mit Motion Blur und es würde dir ausreichen. Zuerst einmal kommt ein Lag der Maus. Der Sensor muss erst eine gewisse Strecke bewegt werden, bevor er ein Bewegungsmuster und die entsprechende Richtung erkennt. Erst wenn er die hat überträgt die Maus diese Daten. Üblicherweise geht das über den USB Bus, der standardmäßig nur mit 125 Hz getaktet ist. Dort entsteht also auch ein winzig kleines Delay. Anschließend muss dieser Input erst einmal von der Game-Engine verarbeitet werden, was einige Zeit in anspruch nimmt. Danach wird das Bild über den PCIe Bus an die Grafikkarte geschickt. Diese berechnet das Bild jetzt innerhalb einer zwanzigstel Sekunde und legt es in den Backbuffer, wo es darauf wartet an den Monitor geschickt zu werden. Aktiviert man Tripple-Buffering, so wie ich das häufig mache, dann hat man sogar zwei Backbuffer, durch die das Bild laufen muss. Bei 20 fps warten die Bilder ganze 0,1 Sekunden in den Backbuffern, bevor sie die Graka verlassen. Wenn sie dann endlich an den Monitor geschickt werden, dann werden sie auch dort noch einmal zwischengepuffert, wenn der Monitor eine Overdrive Technik besitzt. Überlicherweise schwankt das zwischen 1 und 2 Bildern, aber es gibt auch Monitore, die bis zu drei Bilder zwischenspeichern. Bei einer Bildwiederholfrequenz von 60 Hz sind das auch wieder 16 - 50 ms Verzögerung. Da kommt also einiges zusammen, bevor man auf dem Monitor wirklich die Reaktion sieht, die man mit der Maus durchgeführt hat.
Das Gleiche gilt übrigens auch für den Sound. Wenn die Gameengine den Sound abspielt dauert es noch eine ganze Weile, bis das Bild dazu auch auf dem Monitor angezeigt wird. Bei hohen Frameraten merkt man kaum, dass der Sound zu früh abgespielt wird, aber bei sehr niedrigen kann es schon sein, dann man die Pistole schießen hört, bevor man das Mündungsfeuer sieht.
Wenigstens kommt der Ton zu erst. Das ist nicht so tragisch. Schlimmer wäre es, wenn man etwas sieht und den ton dazu erst später hört.
Naja. Lange Rede kurzer Sinn. Selbst wenn der Bildablauf flüssig erscheint, so sollte die Framerate trotzdem noch sehr hoch sein um diese Lags zu minimieren. Besonders Online-Gamer können mit Lags im zehntel Sekunden Bereich nicht mehr leben. Zumal man bedenken muss, das dort zusätzlich noch die Latenzzeiten der Netzwerkverbindung hinzukommen.
@Mudder:
Die Framerateneinbrüche bei schnellen Drehungen haben wohl eher etwas mit dem Datenstreaming in den Speicher zu tun. Cevat sagte einmal, dass während des Spielens insgesamt 10 GB an Daten in den Speicher gestreamt werden müssen. Der Rechner ist also ständig am Nachladen der Daten von der Platte in den Arbeitsspeicher, was natürlich hauptsächlich bei schnellen Szenenwechseln auffällt. Ich denke, dass das die Slowdowns erklärt. Bin mir natürlich auch nicht sicher, da ich die interna der Engine nicht kenne, aber ich bezweifle, dass die Grafik-Engine mehr berechnen muss, als wenn das Bild still stehen würde.
Das Datenstreaming hingegen scheint recht aufwendig zu sein, da dies einer der Threads ist, die auf die einzelnen Prozessorkerne aufgeteilt werden. Beim Quad-Core ist ein Kern zum Beispiel nur mit dem Streaming beschäftigt.
jau ich hab zwar weder vista noch ne dx 10 karte (x1950pro)
und ich frag mich jetzt wo ic h hier die threads lese, was denn dx 10 nun bringt? was ich bis jetzt gesehen hab ist:
-braucht vista (kotz)
-schlechtere performance bei gleichen details
-Nicht wirklich neue effekte/shader
ich meine, dass dx10 nur auf vista geht ist ja schon ne verarsche, dass crysis dx10 und dx9 spieler trennt ist mind. genauso behindert, aber dass dx10 jetzt sogar noch schlechter ist als dx9, dass ist jawohl der hammer...
btw ich hab mir bewusst ne dx9 karte geholt, da ne dx10 karte mit dem budget total sinnlos ist. kann dann nähmlich dx10, hat aber viel schlechtere performance
Ich find das auch ziemlich Verwunderlich, dass ich mit meinem System :
ASUS M2N SLi-Deluxe
AMD X2 5400+
ASUS EN8800GTS 320MB
2GB DDR-800
3DMark Score ~ 8500
Erkundung = Avg. 30 fps
Gefecht = Avg. 30 fps
...so eine miese Performance bei Crysis habe.
Hab neuste Treiber, bzw. den genommen bei dem es am besten läuft, dann noch Vista 64, und das Spiel läuft dann logischerweise unter DX10.
Spiel auf 1280*1024, alles auf High bis auf Object und Shader, die sind auf Medium. Aber Teilweise so heftige Performance einstürze , dass ist nicht mehr feierlich. Und die Gesamtperfomarmance lässt auch zu wünschen übrig.
Ich denke doch, das es mit so einem System kein Problem sein sollte das Spiel vernünftig zu zocken, es ist ja immerhin schon ein ziemlich schnelles wie ich sagen muss!
Oder liegt es noch am Speicher-Bug der 8-er Serie? Hm ich weiß nicht, aber bin schon etwas enttäuscht...
Mit neuen Treibern sind vll. noch ein paar fps mehr drin(max. 5) aber das wars dann auch...
Das Ding ist einfach, wir worden komplett verarscht:
- DX10 (Vista) ist performancemäßig so toll -> stimmt nicht
- 64bit systeme werden einen leistungsvorteil haben -> stimmt kein stück
- mehr als 2gb macht sich deutlich bemerkbar -> stimmt nicht
Die Grafik ist toll, keine Frage. Aber was bringt das? Was bringt das wenn ich als Autohersteller ein super Luxus Sportauto herstelle, dessen optimaler Treibstoff noch nicht auf dem Markt ist (und ich deshalb normales Benzin tanken muss und mit meinem 1mio. Euro 700PS wagen nicht schneller als 100km/h fahren kann) ?
Und ein dickes lol geht an die leute die meinen "ey bei mir läufts voll flüssig, ich hab auf very high 20 fps" -> ihr seid absolute nubs. Jedenfalls was aiming angeht. Jeder der längere Zeit ersthaft ein Shooter online gespielt, weiss wie wichtig die FPS für das präzise und schnelle aiming sind.
Achja ja, zu Nvidia...Leute die eine GTS/GTX und co haben können sich schön ärgern das sie ca. 200€ mehr bezahlt haben, dank der neuen GT (die eigentlich schlechter sein sollte, ist sie aber nicht) fühlt man sich schon verarscht.
Du hast vergessen das es nun auch eine neue GTS gibt welche statt 96 künftig 112 Shader-Einheiten drauf hat.
ich seh das genauso...zumal ich gelesden hab, dass en 8800 ultra sli-gespann genauso viel fps bei der demo hat wie ich *confused*
deshalb mach ich mir da keine panik und denke dass das spiel zum release gut laufen wird...
naja die gt hat auch 112 shader, was nun?
also die neue gts wird dann wohl 128 haben müssen um sich nach den aussagen von nvidia deutlich von der gt absetzten zu können. ausserdem wird sie wohl ein größeres speicherinterface haben und mehr vram.
ich denke, die beiden karten werden dann wohl noch nen perfomance schub in crysis bringen, nicht viel aber immerhin. die ersten benches mit der gtx als vergleich gibt es ja schon, und die sprechen bei humanen auflösungen ne deutliche sprache.
was die verarsche von nvidia da angeht, ist sie nicht berechtigt.
die gts/x sind schon über ein jahr alt, also ist es zeit für einen refresh, das wurde in den generationen davor auch schon gemacht. was den permanent hohen preis der gts/x angehent: nun ja, es gab ja auch keine wirkliche konkurrenz.
so viel dazu
SLI wird ja in der demo auch nicht unterstützt..
ansonten meine ich man sollte einfach mal die final version abwarten, das ist nur ne demo und ist daher nicht in allen bereichen wie die finale, deswegen abwaretn was sich da performance mäßig alles tut.. die testen ja nicht mit allen möglichen konfigurationen, deswegen kommen mit der zeit halt immer wieder treiber und patches damit man mit jedem system die bestmögliche leistung bekommt.. also einfach noch 14tage warten dann wissen wir doch mehr ;)
Ein Nachfolger der GTS mit 128 Shadern und dem breiteren Speicherinterface wird von der Leistung her besser als eine 8800 GT. Gerüchtehalber soll das ohne großes Tamtam eingeführt werden. Also kein G92 Chip. Wenn kein G92 Chip kommt schiebt sie sich knapp an der 8800 GT vorbei, wobei der Preissprung ein Problem wird. (für 300 € für eine GTS 640, 220 € für eine 8800 GT, da erwartet man auch Leistung für).
Bringt die neue GTS die erwartete Leistung wird die GTX noch mehr unter Druck geraten. Trotzdem wird auch damit Crysis auf very high nicht flüssig laufen.
Bleibt als nur die GF 9XXX der nächsten Generation oder ein SLI-Gespann.
Könnte mir vorstellen das damit dann die gewünschte Einstellung flüssig läuft.
Fazit: Warten bis die neue Grafikkartengeneration kommt oder eine Karte als SLI Gespann dazukaufen. Ich für meinen Teil müßte eine 2. GTS kaufen. Gebraucht so um die 250 €, die echt nur von einem Spiel ausgereitzt werden. Eine Menge Geld. Oder verkaufen und 2 x 8800 GT kaufen, da eine nicht reicht. Wirschaftlich nimmt sich das nicht viel und meine übertaktete Zotac (685 statt 500 MHz) liegt sicher nur knapp unter einer 8800 GT.
Problem für Crytech: Wenn ich mich erstmal zurücklehne und warte.
Ich will die Grafik very high und die benötigte Hardware ist noch zu teuer. Also kaufe ich nicht, weil ich Spaß (Optik, Atmosphäre) beim spielen und keinen Frust haben will bez. 250 weitere € nur für ein Game echt krank ist.
Und der middle oder high in den Einstellungen sind keine Alternative.
Viele werden sich auch nicht noch eine Graka zusätzlich leisten können weil bereits kürzlich ein Rechner für Crysis angeschafft wurde, der jetzt aber zu schwach ist.
Crytech kann daran das Crysis links liegen bleibt aber kaum ein Intresse haben.
Ok, ist keine Problemlösung. Aber die Überlegung muß man einfach machen.
Crysis scheint nunmal ein NextGen Game zu sein. Das gilt dann aber auch für den Kauf :dia_confused:
Mehr als 2 GB machen sich bemerkbar !
Und zum hunderdsten mal es regen sich die leute über die leistung auf weil eine 88 GT/Ultra ATM high end sind und da kann es nicht sein das das game dann so läuft vor allem wurde doch gesagt das es ja soll mit einer gts laufen sollte.
Einfach mal abwarten bis zum Full Version und die Treiber die noch kommen...
Wie hat Crytek denn auf denn Presentationen Crysis auf DX10 presentier???? Habe ne Menge video wi Crysis auf DX10 mit SUPER FLüssigen Freames Presnterit wird .
naja, so wie ich das gelesen habe, soll die neue gts ja auch auf dem gleichen chip wie die gt basieren (65 nm), dann würde sich der performance schub auch erklären mit mehr shadern, sollte es auf dem alten chip sein, bin ich heil froh, meine alte gts abgestoßen zu haben und mir dann ne gt kaufen, was wirtschaftlich gesehen das beste wäre, weil das ding in anderen games einfach den hering vom teller reisst, und bei auflösungen die ich spiele selbst die aktuelle gtx "stellenweise" schlägt, für annähernd den halben preis. ich denke, das wird nvidia aber nicht machen.
und was mir gerade zu crysis einfällt: kann sich hier noch jemand an doom 3 erinnern? als das spiel raus kam, ich war live dabei, hieß es, dass es "damals" keine aktuelle high end karte auf very high oder gar ultra flüssig darstellen kann, ich glaube da waren die gf 4 ti karten das non plus ultra, oder schon die gf 6 er reihen?
schaut was heute sache ist, das spiel läuft mit ner gts mit mehr als 100 fps.
von der seite aus betrachtet steht crysis auch ganz gut da, obwohl ich mir auch mehr fps gewünscht hätte.
@alan: bitte nochmal rechtschreibungssoftwarte aktivieren!!!!
aber warum sollte crytek sich dann nicht einmal zu wort melden?
mit dieser demo haben sie sich viele käufer abgeworben.
halt einfach nur: weil es bei vielen zu schlecht läuft.
Kann ich bestätigen, habe gleich 10 fps bei meinem Low-End Rechner mehr, von 1gb auf 2gb.
Ich denke bzw. hoffe es liegt noch an den Treibern.
Aber die Leute bei Crytek sind auch nur Menschen, die ihr Geld irgendwie haben wollen.
Und auf Low-End Rechnern läuft kein anderes Spiel in der Grafik so gut wie Crysis.
Naja. Was heißt bestätigen. Ich denke, dass keiner bezweifelt, dass es einen Unterschied zwischen ein und zwei GB gibt, aber er sagt, dass mehr als 2 GB einen Vorteil bringen. Ich persönlich kann das nicht bestätigen. Alles über 2 GB hat bei mir keinen Unterschied mehr gemacht.
Dann sieh dir die Videos noch einmal an. Die Meisten haben eine Bildqiederholrate von 30 fps und du wirst beim Bild für Bild Durchlauf feststellen, dass oftmals Bilder doppelt vorkommen. Das heißt also, dass das Spiel mit weniger als 30 fps gelaufen ist. Das Video der G80 Präsentation lief schätzungsweise nur mit 20 fps. Das stimmt genau mit dem überein, was du heute mit einer GTX erreichst. Außerdem wissen wir nicht, welche Einstellungen damals wirklich aktiv waren. In den Videos würdest du noch nicht einmal den Unterschied zwischen Low und Very High Shadows erkennen.
ich wüsste auch nur allzu gerne, ob die Demo wie die Beta schon einige Wochen auf dem Buckel hat oder ob dies quasi gold-code ist. Nvidia hat ja bei den Treibern schon einiges verbessern können... mal sehen was noch geht. Kaum zu glauben, dass es nur noch zwei Wochen bis zum release sind. Bei Crytek ist man laut Eigenaussage ja schon am patchen.. ggg
musst einfach des spiel minimieren dann siehste des datum wann die erstellt wurde ;)
19 october 20 uhr 55 und 29 sekunden glaub ich
Naja das stümmt so nicht leute, schaut euch mal die ladezeiten mit 2 und mit 4 GB an, da ist ein sehr großer unterschied im spiel usw, alle ladezeiten werden um ein vielfaches geringer, und das nicht nur in Crysis
Und nun zum Editor, ich habe mit 4 GB schon leichte probleme beim Editor, der bruder meine freundin hat 2 GB da war ich gestern dran, nach 5 min hatte ich keine lust mehr soviel dazu !!!
Fazit:
4GB bringen doch schon eine ganze menge, und wenn es nur bei den Ladezeiten st, also ich freu mich wenn der Ladebildschirm stat 30 Sec nur 10 Sek braucht, wenn euch das nicht stört naja
-Para
Also ich hab erstens kürzere Ladezeiten und zweitens, was mich viel mehr freut: Keine nervigen Nachladeruckler mehr, zb wenn ich mich schnell drehe...bei 2GB hats dann ab und zu kurz gehakt, mit 4GB (bzw 3,6GB) ist das verschwunden...die Frames werden nicht erhöht, aber gebracht haben sie bei mir auf alle fälle was.
Außerdem versteh ich immernoch nicht, was so schlimm ist an den Hardwareanforderungen. Ich hab nen Rechner, der keine 1000€ gekostet hat und hab ihn lediglich n bissle getunt und das Spiel läuft erste Sahne. Klar wären 50FPS angenehmer, aber 25-30 reichen mir bei nem Singleplayer-Shooter vollkommen aus und so läufts bei mir auf 1280x1024 und dem Ultra-High-DX10-Mod für XP, wo nu wirklich ALLE Effekte vorhanden sind, die unter Vista auch vorhanden sind und manche sogar noch übertroffen werden! Okay, ich kann kein AA dazu schalten, dann sinkts unter 20FPS und das is nervig, aber hätt ich ne GTX würde auch das klappen, wenn auch nur maximal 4x schätze ich (was eh vollkommen ausreicht).
Dass man das Game nicht vernünftig mit ner Hardware zocken kann, die 2Jahre alt ist, ist ja wohl selbstverständlich. Crysis sollte neue Maßstäbe setzen und das geht nicht, wenn man auf die Hinterherhinkenden Rücksicht nimmt, auch wenns fies ist. N Next-Gen-Spiel brauch auch Next-Gen-Hardware...das war bei Doom3 so, das war bei Oblivion so, also heult nicht rum, dass es bei Crysis nu genau so ist (wobei das sogar weitaus besser läuft mit meiner hardware als Oblivion beim Release auf meiner damaligen HW).
Also ich kann nicht meckern und ehrlich gesagt muss ich grinsen, wenn es manche Leute nicht hin bekommen, trotz Quad-Core und GTX das Spiel nicht auf Very-High zum laufen zu bekommen, ohne unter 20FPS zu sinken...
Theoretisch vllt doch, ich kenne das prinzip leider nicht wie das mobo über die bänke mit dem ram zusammenarbeitet aber wenn es gleichzeitig alle 4 rambänke anspricht und die daten von crysis alle gleichmäßig auf alle 4 riegel verteilt sind, dann wäre es doch durchaus denkbar, dass kürzere ladezeiten entstehen.
Die Anzahl der Bänke und all das interessiert das Betriebssystem gar nicht. Davon bekommt es nichts mit. Die Aufgabe die einzelnen Riegel zu adressieren übernimmt das BIOS des Boards. Dem Betriebssystem wird nur mitgeteilt welcher Adressraum ihm zur Verfügung steht und das Spiel legt die Dateninnerhalb dieses Adressrausm ab. Es hat keinerleih Möglichkeit zu bestimmen, wo diese Daten tatsächlich gespeichert werden.
Das Spiel arbeitet einzig und allein mit diesem Adressraum, den es vom BIOS zugewiesen bekommt und wenn sie in ihrer internen Anzeige schreiben, dass sie davon 1 GB belegen, dann wird das sicherlich auch so sein.
Das ist auch mehr als genug. 1 GB sind schon riesig. Das hat noch kein Spiel bisher benötigt. Bedenke mit wie wenig Speicher die Konsolen auskommen.