Hi @ll,
in letzter Zeit ist das Stichwort HDR (High Dynamic Range) Rendering zumindest in der Spielewelt ja in aller Munde, so dass ich neugierig auf diese neue "Technik" wurde. Leider hat sich mir der Sinn des Ganzen noch nicht so richtig erschlossen und da diese Technik (zumindest in verwandter Form) auch in 3D Programmen verwendet wird, dachte ich, dass meine Fragen hier gut aufgehoben sind.
Am besten führe ich einfach mal kurz auf, was ich bisher verstanden habe (wenn ich etwas falsch intepretiert habe, so korrigiert mich bitte). Also, zumindest im GamesBereich werden bei HDR Rendering statt 32bit (wie bisher) 128bit Informationen pro Pixel verarbeitet. Dadurch kann anstatt der bisherigen ca. 4.3 Milliarden verschiedenen Farben bis zu 3.4 * 10^38 Farben zur Verfügung. Diese Technik wird jetzt z.B. verwendet (schön zu sehen im Demo von F.E.A.R. denk ich mal) um Überblendeffekte realistisch zu simulieren (so "addieren" sich die Helligkeit von Wandlampen und Taschenlampe gewissermassen und das resultierende Licht erscheint "heller").
Soweit die Theorie, jetzt aber zu meinen Fragen. Wie ich bisher angenommen habe, funktionieren die handelsüblichen Monitore nach dem RGB-Modell in dem 16.7 Millionen Farben möglich sind. Das heisst doch, dass egal wie hoch die interne Genauigkeit ist, im Endeffekt denoch auf diese 24bit heruntergerechnet werden muss. Falls ich nicht völlig falsch liege, so heisst dieser Vorgang bei HDR doch Tone-mapping (oder so ähnlich).
Kernfrage: Wenn aber am Ende sowieso auf 24bit umgerechnet werden muss, wieso dann überhaupt diese Umweg über 128bit?
Ich wäre wirklich überaus froh, wenn mich da jemand fachkundig aufklären könnte und keine Angst, ein kleines bisschen Fachchinesisch verstehe ich schon
.
in letzter Zeit ist das Stichwort HDR (High Dynamic Range) Rendering zumindest in der Spielewelt ja in aller Munde, so dass ich neugierig auf diese neue "Technik" wurde. Leider hat sich mir der Sinn des Ganzen noch nicht so richtig erschlossen und da diese Technik (zumindest in verwandter Form) auch in 3D Programmen verwendet wird, dachte ich, dass meine Fragen hier gut aufgehoben sind.
Am besten führe ich einfach mal kurz auf, was ich bisher verstanden habe (wenn ich etwas falsch intepretiert habe, so korrigiert mich bitte). Also, zumindest im GamesBereich werden bei HDR Rendering statt 32bit (wie bisher) 128bit Informationen pro Pixel verarbeitet. Dadurch kann anstatt der bisherigen ca. 4.3 Milliarden verschiedenen Farben bis zu 3.4 * 10^38 Farben zur Verfügung. Diese Technik wird jetzt z.B. verwendet (schön zu sehen im Demo von F.E.A.R. denk ich mal) um Überblendeffekte realistisch zu simulieren (so "addieren" sich die Helligkeit von Wandlampen und Taschenlampe gewissermassen und das resultierende Licht erscheint "heller").
Soweit die Theorie, jetzt aber zu meinen Fragen. Wie ich bisher angenommen habe, funktionieren die handelsüblichen Monitore nach dem RGB-Modell in dem 16.7 Millionen Farben möglich sind. Das heisst doch, dass egal wie hoch die interne Genauigkeit ist, im Endeffekt denoch auf diese 24bit heruntergerechnet werden muss. Falls ich nicht völlig falsch liege, so heisst dieser Vorgang bei HDR doch Tone-mapping (oder so ähnlich).
Kernfrage: Wenn aber am Ende sowieso auf 24bit umgerechnet werden muss, wieso dann überhaupt diese Umweg über 128bit?
Ich wäre wirklich überaus froh, wenn mich da jemand fachkundig aufklären könnte und keine Angst, ein kleines bisschen Fachchinesisch verstehe ich schon
