musste grad an die ganzen trailer denken wo des game auch auf hoher auflösung flüssig lief..komisch komisch :-D
Druckbare Version
musste grad an die ganzen trailer denken wo des game auch auf hoher auflösung flüssig lief..komisch komisch :-D
Harte Worte aber ich möchte hier auch gar nicht wiedersprechen.
Aber um die Stimmung gegen nvidia nochmal anzuheißen:
Sie überarbeiten die 8800GTS, in der kommenden Generation ( http://www.winfuture.de/news,35413.html )
was glaubst du, was die fuer n sys hatten? wahrscheinlich 4x 8800 ultra OC, n QX6950 @ 7ghz, 16gb arbeitsspeicher. und dann noch n inoffiziellen super treiber
danach kannste nicht gehen, wenn du was mit fraps aus Crysis aufnimmst, das nur mit 25 fps läuft, wirst du sehen dass das AVI im Mediaplayer flüssig läuft.Zitat:
musste grad an die ganzen trailer denken wo des game auch auf hoher auflösung flüssig lief..komisch komisch :grin:
Wenn der Treiebrr kommt werden wir es mit unserer Ultra und Gtx föüdig auf Very high mit 1280.786 mit 40 Fps zoggen können wartet nur ab ,
kann ich dann meine alte gegen die neue gts tauschen und was machen die wenn meine gts kaputt geht und die alte gts gar nicht mehr gefertigt wird? ausserdem vermisse ich immer noch spiele die mir nicht das gefühl geben das nvidia mich verarscht hat eine hand voll spiele und schon kommen wieder neue gra ka modelle auf dem markt dafür hasse ich nvidia !!! sollen erst mal optimieren mann sieht doch wie gut das auf consolen klappt aber pc besitzer sind die melkkühe der nation
@alan-wake da warte ich gerne binn nur nicht so optimistisch wie du ich glaub nicht das sich performance mäßig noch was tut
@ noxon,
das stimmt leider nicht, was du sagst. Das TV signal ist interlaced, weil vor 50 Jahren die Bandbreite über den Äther nicht ausgereicht hat die Bilder progressiv zu übertragen Das ist der wahre Grund dafür, dass das TV analog signal immer mit 50 Halbbildern übertragen wurde... lies nach :)
Zum Thema 30fps, ruckelt oder nicht:
Jein. Es liegt an Folgendem. Deine Augen können durchaus ein Flimmern einer 50Hz Neonröhre sehen, ja, sie können auch noch viel höhere Frequenzen sehen, aber das ist ein Trugschluss. Das können sie nur sehen, wenn das Signal abgehackt ist. Angenommen ich habe eine LED, die ich innerhalb einer millionstel Sekunde ein und wieder ausschalten kann. Wenn ich diese jetzt mit 30Hz jeweils für 10ms Leuchten lasse, dann leuchtet sie insgesamt 300ms. d.h. die Intensität ist nur ca 30% dessen, was sie sein könnte. In erster Linie erscheint sie dir nicht so hell, als ob sie dauernd an wäre. Viel schwerwiegender ist aber, dass das Auge halt in der Lage ist zu erkennen, wenn der Kontrast so hoch ist und das Objekt dann bewegt ist.
Man stelle sich vor. Diese LED fliegt jetzt an einem vorbei. Was passiert ist, man sieht viele helle Punkte (30 pro sekunde) auf einer Linie Das gleiche passiert wenn man unter eine neon-röhre ein stück seil mit einem Gewicht dran herumschleudert. Man sieht einen Fächer aus Seilen (50 pro Sekunde), ergo hat man das Gefühl es ruckelt. Dies ist auch der Grund, weshalb alte Röhrenmonitore den Eindruck des Flimmerns erweckten, die leuchteten kürzer als 30 mal eine dreisigstel Sekunde
Gute Monitore hingegen Leuchten nach bzw.TFTs halten den Farbwert, bis sie die Info bekommen umzuschalten. D.h. per se ruckelt da garnix bzw. das Monitorbild kann halt nicht ruckeln (das ist zu schnell fürs Auge).
Bewegte Bilder:
Wenn ein Monitor ein bewegtes Objekt darstellt, welches sich mit mehr als pixel pro Sekunde über den Monitor bewegt (was nicht sonderlich schnell ist), dann passiert genau das gleiche wie oben beschrieben. Der User sieht, wie das Objekt springt, auch wenn er die eigentliche Bewegung nicht als ruckelig empfindet (das ist ein Unterschied). Das Objekt scheint also von Position 1 zu Position 2 zu springen, ohne dass die Pixel zwischendrin jemals an waren. Deshalb scheint es zu ruckeln.
Wenn die Grafikkarte jetzt so viele frames macht, dass immer ein Bild für jeden Pixel Bewegung dargestellt wird, sieht der Mensch es wieder als nicht ruckelnd an, da das Objekt auf jedem Punkt der Bewegungsstrecke sichtbar ist.
Motion Blur:
Eine schlaue engine weiß das und interpoliert die Bewegung welche während der Zeit, in der ein Bild eingeblendet wird (also 1/30 Sekunde bei 30fps) auf das aktuelle Bild drauf. Bewegt sich ein Objekt 300 Pixel pro Sekunde, so wird ein sich bewegender Punkt, der nur einen Pixel breit ist, als 10 Pixel breit angezeigt (also als grade Linie, wenn die Bewegung grade ist). Dabei wird die Intensität verringert (das kann man genauestens ausrechnen!).
Wenn man dieses Verfahren anwendet, wirkt das Bild 100% flüssig, garantiert. Das wirkt genauso als ob das Spiel mit 1000fps läuft. Das menschliche Auge und Gehirn können das nicht Unterscheiden :)
Dies ist auch bei einem Film so, wenn die Belichtungszeit für jedes Bild bei PAL Kameras so nahe genug wie möglich an 1s/25 = 40ms dran ist. Jedes der einzelbilder ist dann zwar unscharf, aber das Video ist flüssig.
FAZIT: Ende des FPS Wahns und her mit gutem Motion Blur! Das wirkt auch viel realistischer denn relativ zueinander bewegte SAchen (Auto explodiert, fliegt hoch und gleichzeitig bewegt man die Maus nach links).
Falls ich dieses Thema genauer ausführen soll, kann ich das gerne tun, hab mich mal sehr intensiv damit befasst... :)
@ all: Wichtigstes Setting ist Motion Blur, probierts aus ( in der config). 30fps sind wirklich genug, sieht top aus wenn Motion Blur an ist!!
Ich weiß gar nich, wo das Problem liegt. Ich hab noch nichmal n High-End-System und bei mir läufts selbst auf Very High flüssig. Okay, ab und zu gehts mal runter auf 20FPS, is aber locker spielbar. Und auf High läufts durchgehend butterweich.
Übrigens an die Klugscheisser: Das menschliche Auge sieht auch schon ab 25Bildern pro Sekunde flüssig. Wer den Unterschied zwischen 30FPS und 60FPS sieht, der zockt zu viel CS, denn nur bei Online-Games macht sich dies durch einen schnelleren Refresh bemerkbar. Bei Singleplayer-Games ist dies völlig belanglos, genau so wie man keinen Unterschied bemerkt zwischen 60FPS und 300FPS.
Ich sags mal so: Wenn hier einer rumheult, weil er mit ner GTS640 nichmal auf High, ohne AA und mit maximal 1280x1024 zocken kann, dem rate ich, das Problem entweder beim schwachen Prozzi, nur 2GB Ram trotz Vista oder in den meisten Fällen einfach mal vorm Rechner zu suchen, denn 95% aller Systeme sind zugemüllt, fragmentiert, laufen heiß, wo jeder PC-Enthusiast n Augenspasti kriegen würde, wenn er es mit ansehen müsste.
Also kommt aufn Teppich, das Spiel is Next-Gen, also brauch man auch nich erwarten, es mit nem System, dessen Hardwareteile von anno 2005-2006 sind, absolut einwandfrei auf Max-Settings spielen zu können. Wer das denkt, der soll sich ne Konsole kaufen und mal gepflegt die Fresse halten!
Verstehe teilweise die Diskussion nicht so ganz. Crysis sieht auch auf Medium-Settings sehr gut aus.
Von Geldmache seitens von NVIDIA kann keine Rede sein.
Crysis setzt die Messlatte einfach hoch und vor allem neue Maßstäbe. Alle die sowas auf very-high spielen wollen müssen halt zu sehen.
Und ehrlich gesagt, die Geforce 8800 GTX ist nunmal nicht mehr up to date.
Spätestens mit dem G90 wird das Spiel auf very high vernünftig laufen.
Grafik-Fetischisten werden die sich sowieso gleich kaufen, egal was sie kosten wird.
Darüber kann man auch wieder streiten, vor allem wo das alles noch hinführen soll. Ich wollte mir eigentlich kurz nach dem Release ein neues System besorgen, aber nachdem ich die Demo jetzt gezockt habe, werde ich auf jeden Fall mindestens ein halbes Jahr warten. Das macht mir nichts, aber ich hab nunmal nicht das Geld mir jedes Jahr neue Hardware zu kaufen.
ich kann dazu nur sagen dass ich bei Crysis den Unterschied zwischen 30 und 60 fps, ob mit oder ohne Motion Blur sehr gut erkennen kann.
sorry aber das ist Schwachsinn. Es gibt höchstens eine Karte die der GTX das Wasser reichen kann und das ist die Ultra. Die GTX ist up to Date! Es gibt nichts besseres.Zitat:
Und ehrlich gesagt, die Geforce 8800 GTX ist nunmal nicht mehr up to date.