HDR über AdvancedRenderer

Bering

Mitglied
Was ist eigentliche Unterschied zwischen einer kostenpflichtigen Hdr-Map und einer Textur die man über den AdvancedRenderer HDR-Cross umwandelt
MFG Bering
 
Hi Bering,

mit diesem Advanced Render Plugin lassen sich einfach nur HDR Bilder "zum Mappen" vorbereiten..lad doch mal ein Bild einmal per "HDR Cross" ein ..und einmal per "HDR Probe" ..dann wirst du sehen was ich meine. Das ändert nichts daran das du vorher trotzdem ein Bild mit einer 64 Bit-Auflösung brauchst anstatt eines normalen Jpg (24 Bit ) z.B
Ich benutze das Plugin eigentlich nie, sondern immer das freeware Tool HDR Shop ..denn dort lässt sich zusätzlich auch noch die Helligkeit angleichen und es gibt noch mehrere Mappingmöglichkeiten :)

Liebe Grüße
Nina
 
Hi nochmal,

nein hast du nicht, wie schon oben erwähnt, du brauchst ein 64 Bit Image dafür und wie die erstellt werden, dafür zitiere ich nur mal kurz die Light Probe Image Gallery:

"One of the easiest ways to create a light probe image is to acquire a high dynamic range image of a mirrored ball; other techniques involve stitching multiple images together (such as with RealViz's Stitcher), or using a scanning panoramic camera such as the ones available from Panoscan or Spheron.

.....by taking two pictures of a mirrored ball at ninety degrees of separation and assembling the two radiance maps into this registered dataset. The coordinate mapping of these images is such that the center of the image is straight forward, the circumference of the image is straight backwards, and the horizontal line through the center linearly maps azimuthal angle to pixel coordinate.
Thus, if we consider the images to be normalized to have coordinates u=[-1,1], v=[-1,1], we have theta=atan2(v,u), phi=pi*sqrt(u*u+v*v). The unit vector pointing in the corresponding direction is obtained by rotating (0,0,-1) by phi degrees around the y (up) axis and then theta degrees around the -z (forward) axis. If for a direction vector in the world (Dx, Dy, Dz), the corresponding (u,v) coordinate in the light probe image is (Dx*r,Dy*r) where r=(1/pi)*acos(Dz)/sqrt(Dx^2 + Dy^2).

Note that each light probe image represents a full 360 × 360 degrees, or 4pi steridians. Also note that the mapping being used is different than the mapping one observes in a mirrored ball -- the mapping we're using avoids the problems of poor sampling near the backwards-facing directions around the circumference of the image."

Also, ich glaub das würde ich mir echt überlegen ob ich Lust drauf hätte sowas selbst zu erstellen ..oder was meinst du? ;)
Aber es gibt doch auch so schöne HDRI Gallerien im Netz..in denen man eigentlich alles findet.

Liebe Grüße
Nina
 
Hey, diesen Algorithmus haben wir gerade in Bildverarbeitung besprochen *gg*

Aber kann Nina nur zustimmen. Es gibt so viele Galerien im Internet und eigentlich reicht es auch aus wenn du ein Bild nimmst das keine 64 Bit aufweist, dafür aber besonders hochaufgelöst ist.
Oder was meinst du Ninalein? :)

Gruß,
Manuel ;-]
 
Imho nein.
Egal wie gut aufgelöst dfas jpeg ist.

Der Vorteil bei den HDR Images ist ja, das die Helligkeit unabhängig von der Farbe zusätzlich gespeichert wird. Und das ist bei nem jpeg eben nicht so.
 
Hi Leute..

ich war mir unsicher ob "normale" jpgs es auch tun..aber ich glaube das sie nicht den Effekt haben wie ein richtiges HDRI....Zwar wird die Szene dann auch beleuchtet..aber ich denke das liegt wiederum alleinig am Leuchtenkanal indem das jpg dann liegt?
Aber nagelt mich nicht drauf fest das es 100% stimmt..ich glaub da muß ich nochmal recherchieren ;)

Liebe Grüße
Nina
 
Ich glaube nicht das Jpegs gehen, da HDR ja Helligkeiten speichert, die im RGB nicht darstellbar sind. Das Jpeg ist ja nicht dafür ausgelegt.
 
Hi!

Ansatz I
Maxon "bewirbt" HDR als etwas tolles. Und Maxon hat immer recht. Somit kann HDR durch kein "hochauflösendes Jpeg" ersetzt werden. Logisch :)

Ansatz II
Tutorial auf maxon.de:
The difference between HDR (High Dynamic Range) images and normal RGB images is basically the amount of information the format can hold. Since HDR images can hold so much more information you are able to get extreme contrast within the image and use that contrast to provide your scene with true reflective specularity and accurate illumination.
Es geht also um die "Spannbreite" der Helligkeitsmöglichkeiten. HDR "kennt" nicht nur hell (255/255/255), sondern auch "viel heller" (als ein "Monitor" darzustellen bereit wäre). Für die Berechnungen in einem 3D-Programm macht dies aber eben Sinn. :)

Schön ist diesbezüglich ein weiterführender Link von Nina's angebener Site:
http://athens.ict.usc.edu/Research/HDR/
-> das geblurrte weiss eines "normalen Bildes" wird grau". Die "Überhelligkeit" einer HDR bleibt "weiss"...

Liebe Grüße,
Mark.
 
wookenny hat gesagt.:
Der Vorteil bei den HDR Images ist ja, das die Helligkeit unabhängig von der Farbe zusätzlich gespeichert wird. Und das ist bei nem jpeg eben nicht so.

Man kann RGB aber auch durch ganz einfache Formeln in den HSI Farbcode umrechnen und da hat die Farbe einen eindeutigen Helligkeitswert. Daher stimmt es nicht, dass die Helligkeit nicht gespeichert wird ;)

Aber Mark hat meine Frage ganz gut beantwortet und jetzt sind wir alle wieder ein wenig schlauer *g*

Gruß,
Manuel ;-]
 
Zurück