Geschwindigkeit auf dem Monitor

kuhlmaehn

Erfahrenes Mitglied
Hi!
Ich hoffe die Frage passt hier hin..

Und zwar habe ich mich gerade folgendes gefragt:

Angenommen auf dem Bildschirm wird ein Bild oder ein Pixel oder so immer genau mit jedem Refresh des Bildschirms um einen Pixel nach rechts verschoben und das ganze 10 Sekunden lang. Dann ergibt sich ja daraus eine Geschwindigkeit. Und nun soll unter diesem Pixel ein zweiter Pixel sich auch 10 Sekunden nach rechts bewegen, allerdings mit einer etwas geringeren Geschwindigkeit. Da ja der erste Pixel sich pro Refresh einen Pixel bewegt muss ja der zweite Pixel logischerweise, da er ja langsamer sein soll, sich manchmal wärend einer "Refreshphase" nicht bewegen.
Was ich mich nun frage ist, wie berechent die Grafikkarte oder der Monitor (nagut eher die Grafikkarte ^^) die optimale "Ballance" zwischen einen Pixel weiter oder stehenbleiben um eine möglichst flüssige Begewegung zu erziehlen.

Ich mach hier nochmal ein Beispiel:

1.Pixel: GO GO GO GO GO GO GO usw.
2.Pixel GO GO STOP GO GO STOP usw.
oder 2.Pixel GO GO GO STOP GO GO GO STOP usw.

Also wie wird dieses "GO STOP" Muster berechnet.

Ich hoffe meine Frage macht überhaupt Sinn und ich hab nicht irgendwas übersehn ^^
 
Mh hat dann keiner ne Idee und irgendeinen Anatz der mich weiterbringen könnte?
Oder vielleicht wird das ja auch gar nicht so gemacht!?
 
Ich kenn mich zwar auch nicht wirklich aus und rate jetzt einfach mal ins blaue hinein. Am ehesten, denke ich, berechnet die GPU den genauen Standort (den man ja mit Pixel nicht darstellen kann) und rundet dann auf Pixel. Aber frag lieber noch einen Experten :D
 
Das Digitale Bild wird gerastert, also in Pixel aufgeteilt. Also war das mit den Runden der Pixel gar nicht so falsch :). Um so höher die Auflösung, um so flüssiger scheinen Bewegung, außerdem spielt die Bildwiederholrate(bzw. die Bilder pro Sekunden, FPS) eine recht hohe Rolle.
 
Zurück