Seite 4 von 4 ErsteErste ... 234
Ergebnis 31 bis 39 von 39

Thema: FPS Messer!

  1. #31
    R.I.P. Avatar von Black_Death
    Registriert seit
    01.02.2007
    Ort
    Schwarzbach (bei Fulda)
    Beiträge
    3.031

    Standard

    juhu ich kenn die antwort^^

    Also: Unser Auge sieht mit ca. 20-26 frames pro secunde. Das heist das Auge nimmt in einer Sekunde 20-26 bilder auf. Dies geschiet in einem gleichmäßigem takt. So der Bildschirm zeigt wiederum 60 - 75 Bilder an.

    Zwischen 60 und 75 hz liegen für unsere Augen welten. Wenn der bildschirm nur 60 Bilder pro sek. zeigt kommt es zu oft vor das man mal nur den halben bildschirm sieht. Wir merken das nicht weil unser hirn das ausgleicht. So 75 bilder pro sek ist scon einiges schneller und so kommt es weniger vor das das auge mal schwarz sieht oder schwaze streifen. ( tipp: Nehmt mal mit nem Video Handy was vom bildschirm auf und ihr werdet auch schwarze streifen sehen. AUser bei guten neuen Handys die machen wies gehirn und gleichens aus.

    edit : ach ja zu den frames geschichte n mit fraps . Fraps zählt so viel ich weiß nur die frames die die graka sendet . das natürlich zeigt der Bildschirm nicht an. Und da für is dann dieses Vsync. Dies sinkt die frames die die graka sendet ab damit das bild flüssiger läuft . Das hat übrigens auch wieder was mit dem Auge zu tun eine ungleichmäßige reihenfolge kann schleier im bild verursachen. Wie beim auge und das strengt das auge an und es tränt.

    Svarte_Dauden ᛋᚡᚨᚱᛏᛖ_ᛞᚨᚢᛞᛖᚾ
    Last.fm

  2. #32
    Professional Avatar von noxon
    Registriert seit
    12.05.2006
    Beiträge
    3.340

    Standard

    Zitat Zitat von Black_Death
    Also: Unser Auge sieht mit ca. 20-26 frames pro secunde. Das heist das Auge nimmt in einer Sekunde 20-26 bilder auf.
    Wie kommst du denn auf den Wert? Also wenn ein Auge bei 60 Hz ein Flimmern erkennt, dann heißt das auch, dass es mindestnes mit 60 Hz auflösen kann.

    Was du meinst ist das flüssige Wahrnehmen von Bildfolgen und selbst da muss die Frequenz weit höher sein als 20-26 fps.

    Zwar arbeitet man im Film und Fernsehn auch nur mit 24 und 25 Bildern pro Sekunde, aber dabei sollte man beachten, dass es sich dabei um Bilder mit Bewegungsunschärfe handelt. Das erscheint immer um einiges flüssiger, als wenn man total scharfe Bilder hat. Spiele wie Crysis erscheinen also bei gleicher Framerate flüssiger als welche ohne Bewegungsunschärfe.

    Beim Fernseher kommt noch hinzu, dass er das Bild in Halbzeilen aufbaut. Es sind zwar in Wirklichkeit 25 Bilder, die pro Sekunde dargestellt werden, aber der Fernseher baut sie in 50 Halbbilder in der Sekunde auf. Das Auge sieht es also praktisch mit 50 fps.

    Eine ähnliche Frequenz brauchen wir bei progressiver Darstellung, wie zum Beispiel auf TFTs um Abläufe flüssig wahrzunehmen. Für mich persönich reichen 40 fps. Darunter fängt es aber bei mir schon an zu ruckeln.


    PS:
    Man sollte übrigens auch Bildwiederholrate, von der Bildaufbaurate unterscheiden.

    Das sind zwei völlig unterschiedliche Dinge. Das erste beschreibt wie viele unterschiedliche Bilder pro Sekunde berechnet und dargestellt werden und das Andere beschreibt, wie oft pro Sekunde diese Bilder auf dem Monitor erneuert werden.

    Bei Röhrenmonitoren sollte aufgrund der zeitlich unterschiedlichen Ausleuchtung die Frequenz daher mindestens bei 85 Hz liegen, damit das Auge nicht ermüdet, auch wenn die Bildwiederholrate deutlich darunter liegt.

    Lest euch bitte unsere FAQs für grundsätzliche Fragen zu Crysis durch und beachtet bitte unsere Forenregeln.

  3. #33
    VIP Avatar von foofi
    Registriert seit
    13.05.2006
    Ort
    GER Cologne/Bonn - GR Alex/polis
    Beiträge
    15.210

    Standard

    Noxon hat das schön korrigiert, das mit den 20-26 fps fand ich nicht richtig beschrieben.

    @noxon, man sagt ja beim tft, dass wenn es 60 herz hat, ist das vergleichsweise beim crt sodann das doppelte, also im vergleich. ich weiss, ich drücke mich grad unprofessionell aus..

  4. #34
    R.I.P. Avatar von Black_Death
    Registriert seit
    01.02.2007
    Ort
    Schwarzbach (bei Fulda)
    Beiträge
    3.031

    Standard

    @noxon Thx das du mich verbessert hast. Ich dachte eigendlich das es so wäre . also danke

    Svarte_Dauden ᛋᚡᚨᚱᛏᛖ_ᛞᚨᚢᛞᛖᚾ
    Last.fm

  5. #35
    Professional Avatar von noxon
    Registriert seit
    12.05.2006
    Beiträge
    3.340

    Standard

    Zitat Zitat von foofi
    @noxon, man sagt ja beim tft, dass wenn es 60 herz hat, ist das vergleichsweise beim crt sodann das doppelte, also im vergleich. ich weiss, ich drücke mich grad unprofessionell aus..
    Der TFT hat den Vorteil, dass er auch mit 1 Hz laufen kann und nicht flimmert. Bei ihm leuchtet das Bild ständig in voller Helligkeit und wechselt nur, wenn sich das Bild ändern. Es flimmert und flackert also nichts.

    Beim CRT wird das Bild immer zeilenweise aufgebaut. Dafür wandert ein Elektonenstrahl immer von links nach rechts zeilenweise von oben nach unten über den Schirm und beschießt die Röhrenoberfläche. Dadurch fängt eine Leuchtschicht an zu leuchten und der Elektronenstrahl geht über zum nächsten Pixel.

    Nun ist es aber so, dass diese angeregte Leuchtschicht sofort wieder an Leuchtkraft verliert und wieder schwarz wird, wenn der Elektronenstrahl die Stelle nicht erneut beschießt. Damit es also so aussieht, als ob die Stelle ständig leuchtet muss man den Pixel so oft wie möglich pro Sekunde beschießen, damit er kaum noch Zeit hat dunkler zu werden.

    Für das träge Menschliche Auge sieht es dann so aus, als ob er ständig leuchten würde. In Wirklichkeit flackert er aber und seine Leuchtkraft ändert sich ständig.


    Der Fernseher macht es übrigens ganz intelligent. Der baut immer nur jede zweite Zeile auf. Zuerst nimmt er alle ungeraden Zeilen und bringt sie Pixel für Pixel zum Leuchten und wenn diese Pixel anfangen dunkler zu werden, dann nimmt er sich die geraden Zeilen vor und bringt diese Pixel zu leuchten.

    So liegen immer ein Pixel mit momentan maximaler Leuchtkraft und einer mit minimaler Leuchtkraft direkt übereinander und das Auge erkennt dort nur den Mittelwert aus beiden Heligkeiten und es scheint nicht all zu sehr zu flackern. Das merkt man auch ganz deutllich, wenn man mal einen Computermonitor mit 50 Hz ansieht und dann einen Fernseher mit 50 Hz.


    Crysis-Online hat übrigens ein schönes Video zu dem Blur-Effekt bereitgestellt. Dort sieht man genau, dass bei identischer Framerate, dass weichgezeichnete Bild flüssiger erscheint.

    Lest euch bitte unsere FAQs für grundsätzliche Fragen zu Crysis durch und beachtet bitte unsere Forenregeln.

  6. #36
    Erfahrener User Avatar von Bullet-time
    Registriert seit
    27.01.2007
    Ort
    `ne Brücke
    Beiträge
    574

    Standard

    Wie kann es sein, dass zB du findest, dass es unter 40 FPS ruckelt, wenn man sowieso nur 26 sehen kann? Für mich ergibt das nicht ganz Sinn.
    If you want to see them cry, poke `em in the eye!
    Put their fingers in the socket and watch them fry.
    Taxi drivers must die!

  7. #37
    Professional Avatar von noxon
    Registriert seit
    12.05.2006
    Beiträge
    3.340

    Standard

    Wer sagt denn, dass du nur 26 sehen kannst?

    Für eine progressive Darstellung der Bilder brauche ich mindestens 40 fps bevor es für mich flüssig erscheint und für dich wahrscheinlich auch.

    Eine Halbbilddarstellung im TV erscheint mir auch mit 25 fps flüssig. Das liegt aber daran, dass bei der Halbbilddarstellung die Framerate durch einen Trick quasi verdoppelt wird. Es sind also praktisch 50 fps.

    Es sind zwar nur 25 Bildinformationen vorhanden, aber das Bild wird 50 mal in der Sekunde aufgebaut, dafür aber jeweils nur zur Hälfte.

    Lest euch bitte unsere FAQs für grundsätzliche Fragen zu Crysis durch und beachtet bitte unsere Forenregeln.

  8. #38
    Newbie
    Registriert seit
    29.07.2006
    Beiträge
    10

    Standard

    Zu den Augen:
    -----------------
    Das Auge sieht im Fokusbereich (genau die Mitte, dort, wo wir Sachen scharf sehen) mit ungefähr 26fps bei mittlerer Ausleuchtung. Im Randbereich, dort, wo wir unscharf sehen, regeneriert das Auge schneller und erreicht so bis zu 85fps. Das Gehirn taktet allerdings mit 25Hz (ungefährer Wert für unsere Gehirnzellen). Ein Bild, dass nun mit 60 FPS auf einem Röhrenbildschirm wiedergeben flimmert. Noch schlimmer flimmert es, wenn wir schräg am Bildschirm vorbeigucken, und zwar sieht man da das Flimmern noch bis ungefähr 85Hz. Wir sehen allerdings nur das Flimmern selbst.

    Einzelne Bilder, zB. von einem Film, sehen wir nicht, bzw. können nicht mehr voneinander unterscheiden, wenn sie schneller als eben die 25Hz sind. Da allerdings das Auge selbst minimal schneller ist im Schärfebereich, sollte man 30fps für Filme nehmen.

    Augen trocknen zudem aus, da unsere Blinzelfrequenz sehr stark abnimmt. Das ist auch der Grund, warum sie manchmal wehtun. Wenn ein Bild zudem noch unruhig ist, spricht flimmert, strengen sich die Augen noch mehr an (durch unser Gehirn gesteuert, da es ziemliche Arbeit hat die Teilbilder zusammen zu setzen und versucht mit den Augen alles zu erfassen was geht).

    Zu VSync:
    -----------------
    Der Bildschirm baut ja die Bilder von oben nach unten auf. Wenn er es mit 60Hz tut, die Grafikkarte aber mit 120fps neue Bilder generiert, dann ist klar, dass zur Hälfte Bild 1 angezeigt werden würde und ab der Hälfte schon Bild 2 käme. So würde man ja immer nur die Hälfte von einem Frame sehen. Macht man nun VSync an, bremst die Grafikkarte die Berechnung auf 60fps ab. Nun sieht man jedes Frame komplett.

    ABER: Wenn die Grafikkarte nur 59fps schafft, dann ist klar, dass wenn der Bildschirm weiterhin mit 60Hz zeichnet, der folgende Fehler auftreten würde: Der Monitor zeichnet Frame 1 komplett und fängt schon neues Bild an, da wird erst die Grafikkarte mit Frame 2 fertig. Der Monitor hat aber schon 1/60tel weitergemalt, so dass ein dünner Streifen vom Frame 1 oben noch sichtbar ist, und unten Frame 2 käme. Im nächsten Frame ist die Verschiebung dann sogar schon 2/60stel usw. Was tut also die Grafikkarte? Richtig! Sie bremst die Berechnung nun auf 30fps runter. So hat man die Trennung auf dem Bildschirm genau in der Mitte und daher kaum bemerkbar.

    VSync bremst also nur ab und zwar immer auf einen bestimmten ganzzahligen Bruchteil der Frequenz des Monitors. Wenn man VSync an hat, sollte man deswegen möglichst mit 60Hz Bildwiderholfrequenz zocken und damit möglichst auf einem Flachbildschirm, der flimmerfrei ist (da die Pixel mindestens solange nachleuchten, bis sie mit neuen Daten überschrieben werden). Erst bei Spielen, bei dennen die (Berechnungs-)Framerate garantiert über 60fps liegt kann man höhere Bildwiderholfrequenzen für den Bildschirm nehmen. Bei Röhrenmonitoren empfehle ich maximale Bildwiderholfrequenz ohne VSync.

  9. #39
    Professional Avatar von noxon
    Registriert seit
    12.05.2006
    Beiträge
    3.340

    Standard

    Zitat Zitat von Kasimir
    VSync bremst also nur ab und zwar immer auf einen bestimmten ganzzahligen Bruchteil der Frequenz des Monitors.
    Das kann man aber durch Triple Buffering verhindern. Während beim normalen Double Buffering immer nur zwei Puffer hat, die bei jedem neuen Bild ausgetauscht werden hat man beim Triple Buffing drei Puffer.

    Beim Double Buffering wird immer eine Seite angezeigt und im Hintergrund wird das nächste Bild auf die andere Seite gezeichnet. Diese beiden Seiten werden mit jedem neu gezeichneten Bild gewechselt. Dadurch ergibt sich das von Kasimir angesprochene Problem, dass dies immer nur in bestimmten ganzzahligen Bruchteilen der bildwiederholfrequenz geschehen kann.


    Beim Tripple Buffering kommt jetzt noch eine dritte Seite hinzu. Die Erste wird auf dem Schirm angezeigt. Die Zweite enthält ein komplettes Bild, dass zwischengespeichert wird und auf der dritten Seite wird das neue Bild gezeichnet.

    Der Vorteil davon ist, dass die Graka immer genügend Buffer zur Verfügung hat um durchgehend Bilder zu rendern ohne das sie auf den Monitor warten muss.

    Damit ist nun eine Framerate möglich, die praktisch jede Frequenz unterhalb der Bildwiederholfrequenz des Monitors annehmen kann und dabei trotzdem den Tearing Effekt verhindert.

    Der Nachteil ist allerdings, dass die Bildabläufe nicht immer ganz gleichmäßig sind. Während beim normalen Double Buffering immer gleichmäßige Anzeigedauern zwischen dem Bildaufbau stattfinden ist sie beim Triple Buffering ungleichmäßig.

    Ich erkläre es am Besten mal an einem Beispiel. Angenommen der Monitor läuft mit 60 Hz.

    Mit dem Double Buffering kann ich Frequenzen von 60, 30 oder auch 20 fps erreichen. Im ersten Fall wird mit jedem neuen Bildaufbau auch ein neues Bild angezeigt. Im zweiten Fall baut der Monitor das Bild zwar zwei mal auf, aber es wird zwei mal das gleiche Bild angezeigt. Im dritten Fall erscheint nur bei jedem dritten Bildaufbau ein neues Frame.

    Wenn man die Bilder durchnummeriert und sie für jeden Neuaufbau aufschreibt, dann sieht das also so aus:

    60 fps: Bild 1,2,3,4,5,6,7,8,9 (Jeder Aufbau ein neues Bild)
    30 fps: Bild 1,1,2,2,3,3,4,4,5 (Jeder zweiter Aufbau ein neues Bild)
    20 fps: Bild 1,1,1,2,2,2,3,3,3 (Jeder dritter Aufbau ein neues Bild)

    Wie man sieht ist die Anzeigedauer für jedes Bild immer gleich lang. Entweder wird es mit jedem Aufbau neu gezeichnet, mit jedem Zweiten oder mit jedem Dritten.


    Beim Triple Buffering ist es anders. Dort werden so viele Frames wie möglich gezeichnet und wenn die Grafikkarte nicht mit dem Zeichnen hinterher kommt, dann wird ab und zu ein Bild doppelt angezeigt, während die Karte im Hintergrund noch das neue Bild berechnet.

    Nehmen wir wieder unseren 60 Hz Monitor und sagen wir mal, dass die Graka das Bild 40 mal pro Sekunde berechnen kann. Sie schaft es also die ersten vier Male ein komplettes Bild an den Monitor. Dann wird der Monitor zu schnell für die Karte und sie kann nicht mehr mithalten. Sie kann kein neues Bild liefern und der Monitor ist gezwungen das letzte Bild doppelt anzuzeigen. Danach hat die Graka wieder so viel Luft, dass sie 4 ganze Frames liefern kann, bevor der Monitor sie wieder überholt.

    In dem Zahlenbeispiel würde das bei unserem 60 Hz Monitor bei 40 fps so aussehen:

    40 fps: 1,2,3,4,4,5,6,7,8,8,9

    Jedes vierte Bild muss also gedoppelt werden. Das führt natürlich zu einem ungleichmäßigen Ablauf der Bewegungen und man kann bei ungünstigen Widerholraten und sehr gleichmäßigen Bewegungen ein Ruckeln erkennen, denn jede vierte 60'stel Sekunde bleibt das Bild für einen kurzen Moment stehen.

    Wie strark diese Ruckler sind hängt stark von den FPS ab, die man erreicht. Je näher sie sich an einem ganzzahligen Vielfachen befinden umso besser ist es.

    Einen weiteren großen Nachteil hat das Triple Buffering auch noch. Es verbraucht mehr Speicher auf der Graka, als das Double Buffering.

    Nehmen wir mal an, ich habe eine Auflösung von 1680x1050, die ich mit 32 bit Farbtiefe betreibe. Das sind also 1764000 Pixel * 4 Byte pro Pixel für die Farbinformationen. Das sind fast 18 MB, die das Bild dann groß ist.

    Um ein einziges Bild zu speichern brauche ich also schon 18 MB Videospeicher. Verwendet man nun das normale Double Buffering, dann müssen nur zwei dieser Bilder gespeichert werden und die belegen also 36 MB im Ram. Beim Triple Buffering kommt jetzt noch ein weiterer Puffer hinzu und belegt noch einmal 18 MB, wobei wir alleine für's Zwischenspeichern der Bilder schon 58 MB Ram benötigen.

    Das ist das optimalste, was man bei der auflösung erreichen kann.

    Jetzt nehmen wir aber mal an, wir hätten HDR aktiviert und statt 32 bit eine 64 Bit Farbtiefe aktiviert. Dann wäre ein Bild nicht 18 MB, sondern 36 MB groß. Alle drei Bilder würden also schon 108 MB im Ram belegen.

    Würde man noch Antialiasing hinzufügen, dann wird der Effekt noch extremer. Ich bin mir über die Faktoren nciht ganz sicher, aber ich glaube beim 4xAA vervierfacht sich auch der Speicherverbrauch eines Pixels.

    Mit HDR und 4xAA belegt ein Pixel also 32 Byte. Das gesamte Bild würde dann 144 MB groß sein. Mit aktiviertem Triple Bufering würde sich das dann verdreifachen und der Vram wäre um satte 432 MB kleiner.

    Triple Buffering ist also nur etwas für Grakas mit viel Speicher. Wenn man zu wenig hat und trotzdem Triple Buffering verwenden möchte, dann sollte man aufpassen, dass man mit den AA, AF und HDR Settings sparsam umgeht oder die Auflösung gering hält.


    Alle die, die jetzt das Triple Buffering aktivieren wollen, damit sie auch mit aktiviertem vSync die maximale Framerate erreichen, sollten aber wissen, dass man das nicht in den Treibereinstellungen einstellen kann. Soweit ich weiß geht das weder bei ATi noch bei nVidia.

    Es gibt zwar eine Checkbox für das Triple Buffering, aber die wirkt sich nur auf OpenGL Anwendungen aus und nicht auf D3D Anwendungen.

    Um Triple Buffering auch für D3D-Anwendungen zu aktivieren muss man sich den RiveTuner runterladen. Mit dem neusten RivaTuner werden diverse Tools mitgeliefert (im Tools Verzeichnis).

    Dort muss man den D3D Overrider starten. Der sorgt dafür, dass das Triple Buffering auch bei D3D Spielen aktiv wird. Natürlich sollte man im Setup den Haken bei "Run at Windows Startup" auch aktivieren, damit das Programm automatisch gestartet wird.

    Von nun an ist das Triple Buffering immer aktiv, wenn ihr vSync aktiviert. Das es jetzt beim initialisieren eines neuen grafikmoduses piept ist normal und zeigt, dass das Progamm aktiv ist.

    Es kann allerdings sein, dass es bei einigen Anwendungen zu Problemen kommt. Die kann man dann im Setup des D3D Overriders ausschließen. Dann wird beim vSync wieder das normale Double Buffering verwendet.

    Lest euch bitte unsere FAQs für grundsätzliche Fragen zu Crysis durch und beachtet bitte unsere Forenregeln.

Seite 4 von 4 ErsteErste ... 234

Stichworte

Berechtigungen

  • Neue Themen erstellen: Nein
  • Themen beantworten: Nein
  • Anhänge hochladen: Nein
  • Beiträge bearbeiten: Nein
  •