Archiv verlassen und diese Seite im Standarddesign anzeigen : FPS Messer!
Hallo,wollte gerade pennen gehen und dann habe ich mich an was erinnert was ich euch schonmal fragen wollte^^.Womit kann man noch die FPS im spielen messen außer mit fraps?Da Fraps ziemlich ungenau ist...
mfg
Born_Brainless
18.01.2007, 22:02
Es gibt noch anderes Programm welches sich "Game Cam" nennt.
http://www.planetgamecam.com/?locid=download
Grinsemann
18.01.2007, 22:20
ist das nun besser, oder noch ungenauer.? :lol:
Wieso soll Fraps ungenau sein?
Eine ungenaue Messung ist gar nicht möglich. Die Framewechsel lassen sich genau ermitteln und da gibt's auch keine Fehlmessungen oder so etwas.
Da Fraps ziemlich ungenau ist...
Fraps ist sehr genau ;) ungenau gehts sowieso nicht :!:
Ist so, als würde man sagen, dass der Windows Calculator ungenau rechnet ;)
Naja also bei AOE3 und bei COD2 und bie CARBON habe ich immer 75 FPS sagt mir Fraps,das kann nicht sein....
BoOgIeMaN
19.01.2007, 13:35
Mit ner 8800GTX kann das net sein?
Kann doch gut sein...
naja also bei aoe3 kann ich das nicht glauben...und was kommich ist das immer 75 FPS rauskommt?
VSync aktiviert? Wenn ja, dann deaktivier mal VSync.
Ich wette drauf dass du VSync aktiviert hast...
Monitor: 19" Samsung SyncMaster 901b
max. Aufl.: 1280x1024 @ 75 Hz <- :!:
Das erklärt die 75 fps
PS: Also ich würde es aber weiter aktiv lassen, sonst flackert das Bild ;)
Ohne VSync spiele ich nicht,das ist eine ganz wichtige option beim zocken.Und es kann ja net sein das jedes Spiel eine FPS Sperre hat oder?bzw. wie kann ich es freischalten?
Sorry, mit VSync erreichst du halt nur 75 fps
Höhö
@DNA:
Warum willst du auf einem Monitor, der 75 Bilder in der Sekunde darstellt mehr als 75 Bilder die Sekunde darstellen? Lass vSync aktiviert und du hast das Optimum erreicht.
Noch mehr FPS, als der Monitor darstellen kann sorgen schon wieder für einen unregelmäßigen Bildablauf.
@noxon ich habe kein problem damit das er 75 bilder pro sec. dartellt sondern das kommt mir sehr kommich vor das er bei fast jedem game er 75 bilder misst,deswegen auch meine frage ob es ein anderes program gibt das FPS misst :wink:
deaktiier VSync und das Problem ist behoben!
Was sind Frames? Bilder - und dein Monitor kann nun mal nur 75, mehr nicht.
Wenn du VSync deaktivierst, so erhälst du mehr frames, das Bild flackert dann.
@foffi ichhabe schonmal spiele gehabt wie doom 3 wo ich über 100 FPS hatte...ich habe nen 19 zoll TFT.Und wenn ich Vsync deaktivire krige ich mehr FPS das ist klar aber dann flackert das Bild deswegen will ich es nicht deaktivieren...
Hmm du schriebst das nun mal mein Monitor 75 bilder geben kann.Und dann schreibst du wenn ich Vsync deaktiviere das ich mehr bilder kriege?LOL :D
Lol, du verstehst das nicht :roll:
Mit Vsync wird die FPS zahl so begrentzt das sie mit der Hz zahl deines Monitors übereinstimmt, somit flackert es dann nicht ;)
hmm,also brauche ich einen 150 HZ Monitor um 150 FPS zu haben fals es mein PC schafft.Das wusste ich jetzt nicht *gg*.
Hä?
Wo liegt denn jetzt eigentlich dein Problem? Ich versteh so langsam gar nichts mehr.
Natürlich ist ein Spiel in der Lage die Grafik öfters zu berechnen, als der Monitor es anzeigen kann. Deswegen ist es auch möglich mehr als 75 FPS zu erreichen, wenn vSync deaktiviert ist. Es sei denn die Spiele begrenzen sich selbst auf die maximale Monitorfrequenz.
Die Folge ist allerdings, dass die Bewegungen nicht mehr flüssig ablaufen. Bei deinen 100 FPS in Doom wäre es ungefähr so, als wenn ein Objekt immer abwechseln mal zwei Schritte nach vorn machen würde und danach wieder nur Einen, danach wieder zwei, danach wieder einen und so weiter.
Schon gut,Das Thema hat sich erledigt.Danke an alle!
@foffi ichhabe schonmal spiele gehabt wie doom 3 wo ich über 100 FPS hatte...ich habe nen 19 zoll TFT.Und wenn ich Vsync deaktivire krige ich mehr FPS das ist klar aber dann flackert das Bild deswegen will ich es nicht deaktivieren...
Hmm du schriebst das nun mal mein Monitor 75 bilder geben kann.Und dann schreibst du wenn ich Vsync deaktiviere das ich mehr bilder kriege?LOL :D
erstens schreibst du bitte in Zukunft meinem Nick richtig und sorry, was ist daran LOL? Sorry, du hast keine Ahnung! Denk mal mit oder hast du das wirklich gar nicht verstanden?
Stell einfach VSync mal aus und messe sodann die echten FPS, die dein System erreichen kann. Das wird auf dem Monitor halt flackern, aber das ist normal dass es sodann zu Bildstörungen kommt.
Wenn du satt bist, kannst du VSync ja wieder aktivieren ;)
Und noch was: Es gibt noch keine 150 Hz LCDs und - du bist ein Mensch - also wirst du den Unterschied zwischen 60 und 250 fps nicht sehen, es sei denn du bist der Superaugenmann.
@FooFI so gut?Mein gott du regst dich aber auch wegen kleinigkeiten auf.Keiner ist perfekt.Ich wusste das vorher nicht das wenn ich Vsync an habe das ich dann nur so viele bilder pro sec. habe wie mein monitor HZ.Und das hast du ja vorher net geschrieben deswegen hat mir dein Beitrag kein sin gemacht^^.Und das mit dem 150 HZ war natürlich aus spaß gemeint ich habe ja auch ein *gg* dahinter gemacht.Du bist aber spiesig^^,ich glaub du hast was gegen mich,du meckerst immer über meien Beiträge :? :(
Und dieser Beitrag ist eigentlich garnicht böshe gemeint!
Du bist aber spiesig^^,ich glaub du hast was gegen mich,du meckerst immer über meien Beiträge :? :(
ja, ich bin etwas spiessig, weil ich denke dass man das doch klar verstanden hat. Aber keine Sorge, ich habe nichts gegen dich, bisher noch nie - ausser gegen Leute die ich auch kenne und wo es einen Grund gibt ;)
Ich kann dich gut leiden, zudem verstehe ich auch deinen Ärger mit den FPS.
Als ich damals FEAR zockte wunderte ich mich auch: Hm... 60 fps, nicht normal? Hab das in ein Forum gepostet und dort hat man mir das sodann erklärt. War dann froh dass ich halt die doppelte fps Anzahl hatte, mir sind aber sodann Bildfehler aufgefallen in Form von Flackern und Linien in dunkelen Oberflächen. Hab davon Screenshots gemacht, aber auf den Screenshots war nichts zu sehen, dachte dann dass der Monitor kaputt ist - 500 EUR fürn Eizo - dann fürn Ars** Naja, das war so meine Erfahrung mit dem VSync.
Zusammenfassend: VSync passt die fps an die maximale Monitorherzanzahl an. FPS, Freaks stellen VSync kurz aus und machen ihre Benchmarks, sodann auch Screenshots von den Ergebnissen - sodann schalten die VSync wieder an.
jo okay danke für deien andwort.Du muss verstehen das ich erst seit 4 Jahren hier in Deutschland bin und vorher kein wort deutsch konnte.Und manchmal tuhe ich halt rechtschreib fehler reinmachen oder es falch formulieren so das ihr mich falch versteht^^.Das tut mir leid aber ich kann auch nix dafür :( .Also ich bitte um verständnis.Danke
Yozshura
19.01.2007, 21:15
Man, da bekommt man ja Kopfweh wenn man den Thread liesst. :D
Bei der Darstellung von Grafiken auf einem Computer-Bildschirm kann es dazu kommen, dass die Grafik flimmert, weil während des Aufbaus der Grafik das Bild auf dem Monitor neu aufgebaut wird. Während der Elektronenstrahl von rechts unten nach links oben zurückspringt, wird ein Signal generiert, das zur vertikalen Synchronisation der Grafik genutzt werden kann. Dieses Signal wird als VSYNC bezeichnet.
Das Signal wird zur Synchronisierung des Bildaufbaus mit der Berechnung der Grafiken benutzt. Grafikkarten haben zwei hierbei wichtige Puffer (Zwischenspeicher) – die sogenannten Framebuffer (Bildspeicher). Aus dem einen, dem Primärpuffer (primary buffer), liest der Digital-analog-Konverter (DAC) bzw., bei einer DVI-Verbindung, der Monitor seine Daten aus – und zwar Pixel für Pixel. In den anderen Puffer, den Sekundärpuffer (secondary buffer), schreibt währenddessen der Grafikchip seine Berechnungen.
Zu einem bestimmten Zeitpunkt wechseln die beiden Puffer einfach ihre Rollen:
Ohne VSync: Sobald ein Bild fertig berechnet ist, erfolgt der Wechsel der Puffer. Dabei wird der (neue) Primärpuffer einfach dort weiter ausgelesen, wo vorher der alte stand. An dem einen Pixel wird noch das alte Bild ausgelesen, und am nächsten bereits das Neue. Dadurch kommt es zu Schlieren (glitches), d. h. die Geometrie auf zwei benachbarten Bildteilen passt nicht mehr aufeinander (Kanten gebrochen).
Mit VSync: Der Empfänger liest die Daten aus, bis das Bild fertig aufgebaut ist, erst dann wechseln die Framebuffer die Funktion. Das VSync-Signal zeigt das Ende des Bildaufbaus an. Der Grafikchip pausiert so lange mit der Bildberechnung, bis die Puffer vertauscht wurden. Ist der Grafikchip mit der Berechnung noch nicht fertig, wird nicht gewechselt und der Empfänger liest noch einmal das selbe Bild aus.
Daher:
* ohne VSync: immer die aktuellen Daten auf dem Monitor.
* mit VSync: keine glitches.
(Quelle: Wikipedia)
Sry, aber daß mußte mal sein .... :wink:
Gruß Yozsh
Ja, natürlich - das notiert man sich dann und ich werde in Zukunft drauf achten alles etwas präzieser zu erklären! :)
Egal welche Fragen du hast, kannst sie gerne in unserem Forum posten, auch wenn diese nichts mit PCs zu tun haben, wir werden sehr gerne weiterhelfen!
Wünsche dir noch einen schönen Framesreichen Abend ;)
Man, da bekommt man ja Kopfweh wenn man den Thread liesst. :D
Also das verwirrende Zeugs bei Wikipedia ist nicht wirklich sofort verständlich...
Yozshura
19.01.2007, 21:35
Also das verwirrende Zeugs bei Wikipedia ist nicht wirklich sofort verständlich...
Ja, ich weiss aber technisch korrekt. Ich dachte mir evtl. versteht er es ja so.
Also im Prinzip ist es das selbe, als wenn ich im VW Forum fragen würde: "Warum fährt mein Auto nur 120 Km/h wenn ich den Tempomat einschalte"
:wink:
So, ich wünsche euch allen ein schönes Wochenende ....
Gruß Yozsh
Also das verwirrende Zeugs bei Wikipedia ist nicht wirklich sofort verständlich...
Naja. Einige Dinge sind halt nicht immer so einfach in ein, zwei Sätze zu fassen. Wenn man wissen will, wie diese Tearing Effekte zustande kommen und was vSync damit zu tun hat muss man sich schon ein wenig damit befassen und verstehen wie das Bild auf den Monitor kommt.
hallo
wie viel kostet eig die vollw. von fraps wei in der demo kamma ja nur 30 sek aufzeichnen...................
kennt jemand ein kostenloses programm zum aufnehmen :?:
is des normal das ma nichmal beim windows media player mehr als 28 fps herbringt????????? :?:
Bullet-time
14.05.2007, 18:25
Andere Frage: wieso tränen bei manchen leuten dann die Augen, wenn die hz Zahl unter nen bestimmten wert geht? Das raff ich net. Oder hat das garnix mit FPS zu tun?
das hat was mit frames per second zu tun.
Die Augen ermüden, das ist zudem ungesund.
Mit meinem Augenproblem hab ich jede menge gelernt...
Black_Death
14.05.2007, 19:42
juhu ich kenn die antwort^^
Also: Unser Auge sieht mit ca. 20-26 frames pro secunde. Das heist das Auge nimmt in einer Sekunde 20-26 bilder auf. Dies geschiet in einem gleichmäßigem takt. So der Bildschirm zeigt wiederum 60 - 75 Bilder an.
Zwischen 60 und 75 hz liegen für unsere Augen welten. Wenn der bildschirm nur 60 Bilder pro sek. zeigt kommt es zu oft vor das man mal nur den halben bildschirm sieht. Wir merken das nicht weil unser hirn das ausgleicht. So 75 bilder pro sek ist scon einiges schneller und so kommt es weniger vor das das auge mal schwarz sieht oder schwaze streifen. ( tipp: Nehmt mal mit nem Video Handy was vom bildschirm auf und ihr werdet auch schwarze streifen sehen. AUser bei guten neuen Handys die machen wies gehirn und gleichens aus.
edit : ach ja zu den frames geschichte n mit fraps . Fraps zählt so viel ich weiß nur die frames die die graka sendet . das natürlich zeigt der Bildschirm nicht an. Und da für is dann dieses Vsync. Dies sinkt die frames die die graka sendet ab damit das bild flüssiger läuft . Das hat übrigens auch wieder was mit dem Auge zu tun eine ungleichmäßige reihenfolge kann schleier im bild verursachen. Wie beim auge und das strengt das auge an und es tränt.
Also: Unser Auge sieht mit ca. 20-26 frames pro secunde. Das heist das Auge nimmt in einer Sekunde 20-26 bilder auf.
Wie kommst du denn auf den Wert? Also wenn ein Auge bei 60 Hz ein Flimmern erkennt, dann heißt das auch, dass es mindestnes mit 60 Hz auflösen kann.
Was du meinst ist das flüssige Wahrnehmen von Bildfolgen und selbst da muss die Frequenz weit höher sein als 20-26 fps.
Zwar arbeitet man im Film und Fernsehn auch nur mit 24 und 25 Bildern pro Sekunde, aber dabei sollte man beachten, dass es sich dabei um Bilder mit Bewegungsunschärfe handelt. Das erscheint immer um einiges flüssiger, als wenn man total scharfe Bilder hat. Spiele wie Crysis erscheinen also bei gleicher Framerate flüssiger als welche ohne Bewegungsunschärfe.
Beim Fernseher kommt noch hinzu, dass er das Bild in Halbzeilen aufbaut. Es sind zwar in Wirklichkeit 25 Bilder, die pro Sekunde dargestellt werden, aber der Fernseher baut sie in 50 Halbbilder in der Sekunde auf. Das Auge sieht es also praktisch mit 50 fps.
Eine ähnliche Frequenz brauchen wir bei progressiver Darstellung, wie zum Beispiel auf TFTs um Abläufe flüssig wahrzunehmen. Für mich persönich reichen 40 fps. Darunter fängt es aber bei mir schon an zu ruckeln.
PS:
Man sollte übrigens auch Bildwiederholrate, von der Bildaufbaurate unterscheiden.
Das sind zwei völlig unterschiedliche Dinge. Das erste beschreibt wie viele unterschiedliche Bilder pro Sekunde berechnet und dargestellt werden und das Andere beschreibt, wie oft pro Sekunde diese Bilder auf dem Monitor erneuert werden.
Bei Röhrenmonitoren sollte aufgrund der zeitlich unterschiedlichen Ausleuchtung die Frequenz daher mindestens bei 85 Hz liegen, damit das Auge nicht ermüdet, auch wenn die Bildwiederholrate deutlich darunter liegt.
Noxon hat das schön korrigiert, das mit den 20-26 fps fand ich nicht richtig beschrieben.
@noxon, man sagt ja beim tft, dass wenn es 60 herz hat, ist das vergleichsweise beim crt sodann das doppelte, also im vergleich. ich weiss, ich drücke mich grad unprofessionell aus..
Black_Death
14.05.2007, 22:23
@noxon Thx das du mich verbessert hast. Ich dachte eigendlich das es so wäre . also danke :wink:
@noxon, man sagt ja beim tft, dass wenn es 60 herz hat, ist das vergleichsweise beim crt sodann das doppelte, also im vergleich. ich weiss, ich drücke mich grad unprofessionell aus..
Der TFT hat den Vorteil, dass er auch mit 1 Hz laufen kann und nicht flimmert. Bei ihm leuchtet das Bild ständig in voller Helligkeit und wechselt nur, wenn sich das Bild ändern. Es flimmert und flackert also nichts.
Beim CRT wird das Bild immer zeilenweise aufgebaut. Dafür wandert ein Elektonenstrahl immer von links nach rechts zeilenweise von oben nach unten über den Schirm und beschießt die Röhrenoberfläche. Dadurch fängt eine Leuchtschicht an zu leuchten und der Elektronenstrahl geht über zum nächsten Pixel.
Nun ist es aber so, dass diese angeregte Leuchtschicht sofort wieder an Leuchtkraft verliert und wieder schwarz wird, wenn der Elektronenstrahl die Stelle nicht erneut beschießt. Damit es also so aussieht, als ob die Stelle ständig leuchtet muss man den Pixel so oft wie möglich pro Sekunde beschießen, damit er kaum noch Zeit hat dunkler zu werden.
Für das träge Menschliche Auge sieht es dann so aus, als ob er ständig leuchten würde. In Wirklichkeit flackert er aber und seine Leuchtkraft ändert sich ständig.
Der Fernseher macht es übrigens ganz intelligent. Der baut immer nur jede zweite Zeile auf. Zuerst nimmt er alle ungeraden Zeilen und bringt sie Pixel für Pixel zum Leuchten und wenn diese Pixel anfangen dunkler zu werden, dann nimmt er sich die geraden Zeilen vor und bringt diese Pixel zu leuchten.
So liegen immer ein Pixel mit momentan maximaler Leuchtkraft und einer mit minimaler Leuchtkraft direkt übereinander und das Auge erkennt dort nur den Mittelwert aus beiden Heligkeiten und es scheint nicht all zu sehr zu flackern. Das merkt man auch ganz deutllich, wenn man mal einen Computermonitor mit 50 Hz ansieht und dann einen Fernseher mit 50 Hz.
Crysis-Online hat übrigens ein schönes Video zu dem Blur-Effekt (http://tinyurl.com/2f5xv7) bereitgestellt. Dort sieht man genau, dass bei identischer Framerate, dass weichgezeichnete Bild flüssiger erscheint.
Bullet-time
15.05.2007, 14:54
Wie kann es sein, dass zB du findest, dass es unter 40 FPS ruckelt, wenn man sowieso nur 26 sehen kann? Für mich ergibt das nicht ganz Sinn.
Wer sagt denn, dass du nur 26 sehen kannst?
Für eine progressive Darstellung der Bilder brauche ich mindestens 40 fps bevor es für mich flüssig erscheint und für dich wahrscheinlich auch.
Eine Halbbilddarstellung im TV erscheint mir auch mit 25 fps flüssig. Das liegt aber daran, dass bei der Halbbilddarstellung die Framerate durch einen Trick quasi verdoppelt wird. Es sind also praktisch 50 fps.
Es sind zwar nur 25 Bildinformationen vorhanden, aber das Bild wird 50 mal in der Sekunde aufgebaut, dafür aber jeweils nur zur Hälfte.
Zu den Augen:
-----------------
Das Auge sieht im Fokusbereich (genau die Mitte, dort, wo wir Sachen scharf sehen) mit ungefähr 26fps bei mittlerer Ausleuchtung. Im Randbereich, dort, wo wir unscharf sehen, regeneriert das Auge schneller und erreicht so bis zu 85fps. Das Gehirn taktet allerdings mit 25Hz (ungefährer Wert für unsere Gehirnzellen). Ein Bild, dass nun mit 60 FPS auf einem Röhrenbildschirm wiedergeben flimmert. Noch schlimmer flimmert es, wenn wir schräg am Bildschirm vorbeigucken, und zwar sieht man da das Flimmern noch bis ungefähr 85Hz. Wir sehen allerdings nur das Flimmern selbst.
Einzelne Bilder, zB. von einem Film, sehen wir nicht, bzw. können nicht mehr voneinander unterscheiden, wenn sie schneller als eben die 25Hz sind. Da allerdings das Auge selbst minimal schneller ist im Schärfebereich, sollte man 30fps für Filme nehmen.
Augen trocknen zudem aus, da unsere Blinzelfrequenz sehr stark abnimmt. Das ist auch der Grund, warum sie manchmal wehtun. Wenn ein Bild zudem noch unruhig ist, spricht flimmert, strengen sich die Augen noch mehr an (durch unser Gehirn gesteuert, da es ziemliche Arbeit hat die Teilbilder zusammen zu setzen und versucht mit den Augen alles zu erfassen was geht).
Zu VSync:
-----------------
Der Bildschirm baut ja die Bilder von oben nach unten auf. Wenn er es mit 60Hz tut, die Grafikkarte aber mit 120fps neue Bilder generiert, dann ist klar, dass zur Hälfte Bild 1 angezeigt werden würde und ab der Hälfte schon Bild 2 käme. So würde man ja immer nur die Hälfte von einem Frame sehen. Macht man nun VSync an, bremst die Grafikkarte die Berechnung auf 60fps ab. Nun sieht man jedes Frame komplett.
ABER: Wenn die Grafikkarte nur 59fps schafft, dann ist klar, dass wenn der Bildschirm weiterhin mit 60Hz zeichnet, der folgende Fehler auftreten würde: Der Monitor zeichnet Frame 1 komplett und fängt schon neues Bild an, da wird erst die Grafikkarte mit Frame 2 fertig. Der Monitor hat aber schon 1/60tel weitergemalt, so dass ein dünner Streifen vom Frame 1 oben noch sichtbar ist, und unten Frame 2 käme. Im nächsten Frame ist die Verschiebung dann sogar schon 2/60stel usw. Was tut also die Grafikkarte? Richtig! Sie bremst die Berechnung nun auf 30fps runter. So hat man die Trennung auf dem Bildschirm genau in der Mitte und daher kaum bemerkbar.
VSync bremst also nur ab und zwar immer auf einen bestimmten ganzzahligen Bruchteil der Frequenz des Monitors. Wenn man VSync an hat, sollte man deswegen möglichst mit 60Hz Bildwiderholfrequenz zocken und damit möglichst auf einem Flachbildschirm, der flimmerfrei ist (da die Pixel mindestens solange nachleuchten, bis sie mit neuen Daten überschrieben werden). Erst bei Spielen, bei dennen die (Berechnungs-)Framerate garantiert über 60fps liegt kann man höhere Bildwiderholfrequenzen für den Bildschirm nehmen. Bei Röhrenmonitoren empfehle ich maximale Bildwiderholfrequenz ohne VSync.
VSync bremst also nur ab und zwar immer auf einen bestimmten ganzzahligen Bruchteil der Frequenz des Monitors.
Das kann man aber durch Triple Buffering verhindern. Während beim normalen Double Buffering immer nur zwei Puffer hat, die bei jedem neuen Bild ausgetauscht werden hat man beim Triple Buffing drei Puffer.
Beim Double Buffering wird immer eine Seite angezeigt und im Hintergrund wird das nächste Bild auf die andere Seite gezeichnet. Diese beiden Seiten werden mit jedem neu gezeichneten Bild gewechselt. Dadurch ergibt sich das von Kasimir angesprochene Problem, dass dies immer nur in bestimmten ganzzahligen Bruchteilen der bildwiederholfrequenz geschehen kann.
Beim Tripple Buffering kommt jetzt noch eine dritte Seite hinzu. Die Erste wird auf dem Schirm angezeigt. Die Zweite enthält ein komplettes Bild, dass zwischengespeichert wird und auf der dritten Seite wird das neue Bild gezeichnet.
Der Vorteil davon ist, dass die Graka immer genügend Buffer zur Verfügung hat um durchgehend Bilder zu rendern ohne das sie auf den Monitor warten muss.
Damit ist nun eine Framerate möglich, die praktisch jede Frequenz unterhalb der Bildwiederholfrequenz des Monitors annehmen kann und dabei trotzdem den Tearing Effekt verhindert.
Der Nachteil ist allerdings, dass die Bildabläufe nicht immer ganz gleichmäßig sind. Während beim normalen Double Buffering immer gleichmäßige Anzeigedauern zwischen dem Bildaufbau stattfinden ist sie beim Triple Buffering ungleichmäßig.
Ich erkläre es am Besten mal an einem Beispiel. Angenommen der Monitor läuft mit 60 Hz.
Mit dem Double Buffering kann ich Frequenzen von 60, 30 oder auch 20 fps erreichen. Im ersten Fall wird mit jedem neuen Bildaufbau auch ein neues Bild angezeigt. Im zweiten Fall baut der Monitor das Bild zwar zwei mal auf, aber es wird zwei mal das gleiche Bild angezeigt. Im dritten Fall erscheint nur bei jedem dritten Bildaufbau ein neues Frame.
Wenn man die Bilder durchnummeriert und sie für jeden Neuaufbau aufschreibt, dann sieht das also so aus:
60 fps: Bild 1,2,3,4,5,6,7,8,9 (Jeder Aufbau ein neues Bild)
30 fps: Bild 1,1,2,2,3,3,4,4,5 (Jeder zweiter Aufbau ein neues Bild)
20 fps: Bild 1,1,1,2,2,2,3,3,3 (Jeder dritter Aufbau ein neues Bild)
Wie man sieht ist die Anzeigedauer für jedes Bild immer gleich lang. Entweder wird es mit jedem Aufbau neu gezeichnet, mit jedem Zweiten oder mit jedem Dritten.
Beim Triple Buffering ist es anders. Dort werden so viele Frames wie möglich gezeichnet und wenn die Grafikkarte nicht mit dem Zeichnen hinterher kommt, dann wird ab und zu ein Bild doppelt angezeigt, während die Karte im Hintergrund noch das neue Bild berechnet.
Nehmen wir wieder unseren 60 Hz Monitor und sagen wir mal, dass die Graka das Bild 40 mal pro Sekunde berechnen kann. Sie schaft es also die ersten vier Male ein komplettes Bild an den Monitor. Dann wird der Monitor zu schnell für die Karte und sie kann nicht mehr mithalten. Sie kann kein neues Bild liefern und der Monitor ist gezwungen das letzte Bild doppelt anzuzeigen. Danach hat die Graka wieder so viel Luft, dass sie 4 ganze Frames liefern kann, bevor der Monitor sie wieder überholt.
In dem Zahlenbeispiel würde das bei unserem 60 Hz Monitor bei 40 fps so aussehen:
40 fps: 1,2,3,4,4,5,6,7,8,8,9
Jedes vierte Bild muss also gedoppelt werden. Das führt natürlich zu einem ungleichmäßigen Ablauf der Bewegungen und man kann bei ungünstigen Widerholraten und sehr gleichmäßigen Bewegungen ein Ruckeln erkennen, denn jede vierte 60'stel Sekunde bleibt das Bild für einen kurzen Moment stehen.
Wie strark diese Ruckler sind hängt stark von den FPS ab, die man erreicht. Je näher sie sich an einem ganzzahligen Vielfachen befinden umso besser ist es.
Einen weiteren großen Nachteil hat das Triple Buffering auch noch. Es verbraucht mehr Speicher auf der Graka, als das Double Buffering.
Nehmen wir mal an, ich habe eine Auflösung von 1680x1050, die ich mit 32 bit Farbtiefe betreibe. Das sind also 1764000 Pixel * 4 Byte pro Pixel für die Farbinformationen. Das sind fast 18 MB, die das Bild dann groß ist.
Um ein einziges Bild zu speichern brauche ich also schon 18 MB Videospeicher. Verwendet man nun das normale Double Buffering, dann müssen nur zwei dieser Bilder gespeichert werden und die belegen also 36 MB im Ram. Beim Triple Buffering kommt jetzt noch ein weiterer Puffer hinzu und belegt noch einmal 18 MB, wobei wir alleine für's Zwischenspeichern der Bilder schon 58 MB Ram benötigen.
Das ist das optimalste, was man bei der auflösung erreichen kann.
Jetzt nehmen wir aber mal an, wir hätten HDR aktiviert und statt 32 bit eine 64 Bit Farbtiefe aktiviert. Dann wäre ein Bild nicht 18 MB, sondern 36 MB groß. Alle drei Bilder würden also schon 108 MB im Ram belegen.
Würde man noch Antialiasing hinzufügen, dann wird der Effekt noch extremer. Ich bin mir über die Faktoren nciht ganz sicher, aber ich glaube beim 4xAA vervierfacht sich auch der Speicherverbrauch eines Pixels.
Mit HDR und 4xAA belegt ein Pixel also 32 Byte. Das gesamte Bild würde dann 144 MB groß sein. Mit aktiviertem Triple Bufering würde sich das dann verdreifachen und der Vram wäre um satte 432 MB kleiner.
Triple Buffering ist also nur etwas für Grakas mit viel Speicher. Wenn man zu wenig hat und trotzdem Triple Buffering verwenden möchte, dann sollte man aufpassen, dass man mit den AA, AF und HDR Settings sparsam umgeht oder die Auflösung gering hält.
Alle die, die jetzt das Triple Buffering aktivieren wollen, damit sie auch mit aktiviertem vSync die maximale Framerate erreichen, sollten aber wissen, dass man das nicht in den Treibereinstellungen einstellen kann. Soweit ich weiß geht das weder bei ATi noch bei nVidia.
Es gibt zwar eine Checkbox für das Triple Buffering, aber die wirkt sich nur auf OpenGL Anwendungen aus und nicht auf D3D Anwendungen.
Um Triple Buffering auch für D3D-Anwendungen zu aktivieren muss man sich den RiveTuner runterladen. Mit dem neusten RivaTuner werden diverse Tools mitgeliefert (im Tools Verzeichnis).
Dort muss man den D3D Overrider starten. Der sorgt dafür, dass das Triple Buffering auch bei D3D Spielen aktiv wird. Natürlich sollte man im Setup den Haken bei "Run at Windows Startup" auch aktivieren, damit das Programm automatisch gestartet wird.
Von nun an ist das Triple Buffering immer aktiv, wenn ihr vSync aktiviert. Das es jetzt beim initialisieren eines neuen grafikmoduses piept ist normal und zeigt, dass das Progamm aktiv ist.
Es kann allerdings sein, dass es bei einigen Anwendungen zu Problemen kommt. Die kann man dann im Setup des D3D Overriders ausschließen. Dann wird beim vSync wieder das normale Double Buffering verwendet.
Powered by vBulletin® Version 4.2.5 Copyright ©2025 Adduco Digital e.K. und vBulletin Solutions, Inc. Alle Rechte vorbehalten.