Sie sind hier: Verschiedenes Kommentare (Essays) HDRI-Missverständnisse

Kommentare (Essays)

HDRI-Missverständnisse

Hin und wieder sehe ich Bilder im Web, die unrichtig als HDRI bezeichnet werden. Manche schreiben, es gäbe einen "HDRI-Look", einige mögen keine HDR-Bilder, da diese "unnatürlich" aussähen.

Dieser Artikel beschreibt, warum wir im Web praktisch keine HDR-Bilder sehen, wieso HDR-Bilder "natürlicher" sind als Bilder niedriger Bitzahl wie beispielsweise JPEGs und warum ambitionierte Fotografen HDRI den LDRI vorziehen sollten.

Komprimiert ist die Aussage: In der Natur gibt es größere Helligkeitsunterschiede, als unsere Kamerasensoren aufzeichnen können. Durch Belichtungsreihen lassen sich alle Helligkeitsunterschiede eines Motivs in eine Datei als HDRI speichern. Kein Medium ist in der Lage, den gesamten Helligkeitsumfang eines HDR-Bilds wiederzugeben. Das HDR-Bild muss deshalb an den geringeren Helligkeitsumfang eines Bildschirms oder Fotopapiers angepasst werden. Diese Anpassung kann auf vielfältige Weise geschehen – einige Varianten werden uns gefallen, andere nicht. Wir können aus einem HDR-Bild eines erzeugen, dass genau so aussieht wie eine Einzelbelichtung oder eines mit viel mehr Information. Diese Flexibilität ist der Vorzug von HDR-Bildern gegenüber "üblichen" Fotos.

Helligkeitskontraste in der Natur, in der "Wirklichkeit"

Der Unterschied zwischen dunkelster und hellster Stelle eines Motivs ist sein Helligkeitskontrast, auch Motivkontrast, kurz Kontrast. Ist die hellste Stelle 1.000 mal heller als die dunkelste, ist der Motivkontrast 1:1.000 (1 zu 1.000). Die Extreme sind Schwarz und Weiß: Schwarz ist die Abwesenheit von Licht und Weiß das Maximum einer Lichtquelle bei gleichen Rot-/Grün-/Blau-Anteilen.

Das Maximum an Licht, das ein Bild-Darstellungsmedium ausstrahlen oder reflektieren kann – ein Bildschirm oder Ausdruck – bestimmt wesentlich den Maximalkontrast des Bilds.

Maximaler Kontrast in einer Bilddatei

In einer Bilddatei wird für jeden Bildpunkt dessen Helligkeitswert gespeichert. Bei RGB-Farbbildern sind es drei Helligkeitswerte, je einer für den Anteil der Farben Rot, Grün und Blau, bei RAW-Dateien ist es in der Regel ein Helligkeitswert, die Farbe ergibt sich aus dem Farbfilter über dem Pixel und den Helligkeitswerten und Farbfiltern über den umgebenden Pixeln. Der maximale Kontrast ergibt sich daraus, wieviele unterschiedliche Zahlen für einen Bildpunkt gespeichert werden können und wie Helligkeitswerte umgerechnet werden.

Bei linearer Umrechnung der Helligkeitswerte wird die doppelte Helligkeit als doppelt so große Zahl gespeichert. Werden Schwarz und Weiß berücksichtigt, ist somit der Maximalkontrast 1:(2Farbtiefe-1). Hat ein Farbkanal 8 Bit, ist der maximale Kontrast 1:(28-1) = 1:255.

Ist die Umrechnung nicht linear – das ist die Regel –, kann ein größerer Helligkeitsunterschied gespeichert werden. Ein Beispiel dazu ist die Gammakorrektur.

HDR-Bilder sind Bilder, in die sehr hohe Kontraste gespeichert werden können. Prinzipiell sollen in 32 Bit alle sichtbaren Helligkeitsunterschiede gespeichert werden können. Deshalb sehen wir im Web wohl selten HDR-Bilder, insbesondere JPEG-Bilder sind mit ihren 8 Bit Farbtiefe keine HDRI. In der Regel hat der Farbkanal eines HDR-Bilds 32 Bit und die Werte sind als Fließkommazahlen gespeichert. Da der kleinste Bereich, beispielsweise zwischen 0,5 und 0,6 unendlich oft weiter unterteilt werden kann, z.B. in Hundertstel Abstufungen 0,51, 0,52, 0,53, ..., Tausendstel 0,511, 0,512, ..., Zehntausendstel usw., ist der Kontrastumfang eines HDR-Bilds nur durch die Genauigkeit der Speicherung begrenzt. Da ich mich nicht mit diesem Thema mathematisch ausführlich beschäftigt habe, kann ich nichts genaues angeben, aber mir erscheint es einleuchtend, dass bei sehr hohen möglichen Kontrasten die minimalsten Helligkeitsunterschiede größer (gröber) sind; sollen diese kleiner (feiner) ausfallen, ist der maximale Kontrast weniger hoch, da zur Speicherung einer Zahl nur 32 Bit zur Verfügung stehen, vielleicht auch 48 oder 64 Bit. Anders ausgedrückt: Entweder sind hohe Maximalkontraste möglich bei gröberen minimalen Helligkeitsunterschieden oder geringere Maximalkontraste bei feineren minimalen Helligkeitsabstufungen.

Maximaler Kontrast dargestellter Bilder

Die Bilddateien sind prinzipiell nichts anderes als eine Folge von Zahlen. Was wir sehen, ist deren Interpretation/Darstellung auf Bildschirmen, Ausbelichtungen, Ausdrucken. Der maximale Helligkeitskontrast hängt ab von den Eigenschaften, den Fähigkeiten des Darstellungsmediums. Ein "üblicher" Bildschirm kann im günstigsten Fall Kontraste bis etwa 1:1.000 darstellen – dies mag in Zukunft anders sein (es gibt auch teure HDR-Bildschirme). Ein Ausdruck auf Papier hat einen sehr viel geringeren Maximalkontrast, vielleicht 1:100 bis 1:200, abhängig vom Material, auf dem gedruckt wurde, vom Tintenauftrag und von der Helligkeit der Beleuchtung.

Können in einer Bilddatei Kontraste bis 1:65.535 gespeichert werden, übersteigt dies die Möglichkeiten aller Bildschirme: Keiner kann mehr als 65.000 mal helleres Licht ausstrahlen gegenüber seiner geringsten Lichtausstrahlung oberhalb Schwarz (keine Lichtausstrahlung). Deshalb ist die Kontrastinformation von Bildern mit hoher Farbtiefe zu verringern, herunterzurechnen. Bei HDR-Bildern wird das als tone mapping bezeichnet: Eine Farbe, ein RGB-Pixel aus einem Farbraum mit hoher Bit-Farbtiefe ist abzubilden auf einen RGB-Pixel mit geringer Farbtiefe für einen Ausdruck, eine JPEG-Datei oder einen Nicht-HDRI-Bildschirm. Der Farbton eines Pixels ist seine Farbe, definiert durch die Helligkeitswerte in dessen drei RGB- oder CMYK-Farbkanälen.

Verglichen mit JPEG-Bildern ließen sich bereits 14-Bit-RAW-Dateien als HDRI bezeichnen, ebenso 16-Bit-TIFF-Dateien: Ihre höheren Tonwerte müssen heruntergerechnet werden, damit sie in einer JPEG-Datei gespeichert werden können.

Ein HDRI kommt der "Wirklichkeit" näher

Ein HDRI ist "naturgetreuer" als ein Bild mit geringerer Farbtiefe, da es den in der Natur vorkommenden Kontrast getreuer abbilden kann, diesen nicht "einebnet", nicht verringert, keine Information eliminiert. Im HDRI sind Details zu sehen, die "in Wirklichkeit" existieren und die in Bildern geringerer Farbtiefe undifferenziertes Schwarz oder Weiß sind.

Aufzeichnung durch den Sensor, Belichtung

Motive reflektieren/strahlen Licht unterschiedlicher Helligkeit auf die Objektive unserer Kameras. Die Objektive projizieren Abbilder der Motive auf die Kamerasensoren, wobei die Helligkeitsunterschiede der Projektion (Kontrast) geringer sind als im Motiv. Sensoren zeichnen die Helligkeitsunterschiede in gleichem Verhältnis (linear) auf, die doppelte Helligkeit resultiert in einer doppelten Helligkeitszahl des Bildpunkts.

Meinen Tests zufolge können Sensoren "üblicher" Kameras maximal 10 bis 11 Lichtwerte (Blendenstufen) ausreichend differenziert aufzeichnen. Es gibt (teure) Sensoren, die einen größeren Kontrastumfang haben, mit diesen habe ich keine Erfahrung. Das Sensorbild wird beispielsweise in eine 14-Bit-RAW-Datei gespeichert, falls die Kamera nicht automatisch ein JPEG- oder TIFF-Bild daraus erzeugt. 10 bis 11 Lichtwerte sind ein Maximalkontrast von 1:1.024 bis 1:2.048: Die hellste Stelle darf 1.024 mal bis 2.048 mal heller sein als die dunkelste. Helleres wird undifferenziert als Weiß wiedergegeben, dunkleres als Schwarz.

Es gilt, eine Belichtung zu finden, die eine ausreichende oder maximale Qualität garantiert: Ausreichend bedeutet, ich stelle Blende und Verschlusszeit so ein, dass bei "normaler" Bearbeitung die Bildhelligkeit ist, wie gewünscht. Will ich maximale Bildqualität, stelle ich die Belichtung so ein, dass das Histogramm möglichst weit nach rechts verschoben ist – so weit, dass die hellsten mir wichtigen Motivstellen noch nicht als Weiß aufgezeichnet werden (Expose to the Right). So enthält das Bild wenig Rauschen.

Wann nutze ich HDRI?

Eine befriedigende Belichtung kann ich finden, falls die im Motiv wichtigen Bereiche einen Kontrast haben, den der Sensor meiner Kamera aufzeichnen kann: Nicht größer als etwa 1:1.024 (aktuell). Ist der Motivkontrast größer und es stört mich nicht, dass bestimmte Bildbereiche schwarz werden oder weiß – oder ich beabsichtige dies (besonders Schatten können fotogen wirken) – brauche ich kein HDRI. Das ist meistens der Fall. Fotografiere ich nun ein Motiv, bei dem der Kontrast größer ist und ich will Details in den Schatten (dunkle Bildstellen) und Lichtern (helle Bildstellen), fotografiere ich eine Belichtungsreihe und lasse von einer Software ein HDRI erzeugen. Wie ich dabei vorgehe, steht in der Artikelserie "HDRI aus unterschiedlich belichteten Bildern".

Ist der Kontrast zu groß für den Sensor, kann ich mehrere Bilder fotografieren mit unterschiedlicher Belichtung: Eines oder mehrere mit längeren Verschlusszeiten, welche dem Sensor die dunklen Stellen aufzeichnen lassen und eines oder mehrere mit kürzeren Verschlusszeiten, dem Sensor die Details in den hellen Stellen festhalten lassen. Diese Einzelbilder kombiniert eine Software zu einem HDRI.

Tone mapping

Programme wie Adobe Photoshop oder Photomatix Pro können unterschiedliche belichtete Bilder zusammenfügen zu einem (einzigen) HDR-Bild und dies umrechnen in ein LDRI.

Bei dieser Umrechnung, dem tone mapping, können Bilder entstehen, deren Aussehen manche als "HDRI-Look" bezeichnen. Da nun ein saftig grüner Rasen auf einem Bild einer Belichtungsreihe auch saftig grün erscheint und nicht dunkelgrau, wie das vielleicht bei einer Einzelbelichtung der Fall wäre, kann eine HDRI-Software diesen ebenso abbilden. Die Information über die Farben jedes Pixels einer Belichtungsreihe sind sehr viel größer als bei einer Einzelbelichtung. Wird die Farbinformation einer helleren Belichtung unverändert übernommen ins LDRI, wirkt das Ergebnis artifiziell.

Ich kann jedoch auch HDRI zu LDRI hohen Kontrasts umrechnen, kann die Kontraste und Farben so anpassen, bis das Ergebnis meinen Vorstellungen entspricht.

HDRI-Software kann Vorgaben anbieten mit unterschiedlichen Umrechnungen, unterschiedlichem tone mapping. Ich denke, viele LDR-Bilder, die wir im Web sehen, sind weitgehend unverändert übernommene Vorlagen.

Beispiel

Das Bildbeispiel soll nicht fotogen sein, das Motiv braucht nur einen hohen Maximalkontrast haben, höher als der Kamerasensor aufzeichnen kann. Der Bequemlichkeit wegen fotografierte ich abends aus meinem Zimmerfenster eine Belichtungsreihe mit 9 Bildern mit je 1 Lichtwert Unterschied, 6 davon benutzte ich für das HDRI, von dem hier die LDRIs abgebildet sind.

Abbildung: Belichtungsreihe. Die Belichtungsreihe umfasst 6 Lichtwerte, aus den Einzelbildern wurde das HDRI berechnet.

Führe ich die 6 Bilder zusammen in Photomatix Pro, zeigt es mir unterschiedliche tone mapping-Vorgaben an. Ich kann eine auswählen und gleich ein LDRI erzeugen lassen oder besser, einige Regler verstellen, die das tone mapping beeinflussen, bis mir das Ergebnis passt.

Abbildung: Photomatix Pro-Vorgaben. Erklärung siehe oben. Ein Klick auf das Bild zeigt den Bildschirmschnappschuss in Originalgröße.

Gelegentlich sehe ich Bilder, die aussehen wie sie die Photomatix Pro-Vorgabe "Enhancer – Grunge" erzeugt. Hier sind vor allem die Farben zu erkennen, die durch unterschiedliche Belichtungen präzise aufgezeichnet wurden. Allerdings wirkt das Ergebnis auf mich "unnatürlich", zum einen werden tatsächlich vorhandene Helligkeitskontraste zu stark verringert, zum anderen entspricht es nicht im geringsten meiner Wahrnehmung während des Fotografierens. Dieses tone mapping ist eine Geschmacksfrage.

Abbildung: Photomatix Pro-Vorgabe "Enhancer – Grunge". Erklärung siehe oben.

Mit der gleichen Software – Photomatix Pro – wählte ich eine andere Vorgabe aus: "Enhancer – Standard". Das Ergebnis entspricht eher dem Eindruck, den ich während des Fotografierens hatte: Es war kurz vor Sonnenuntergang, die Häuser lagen im Schatten, der Himmel wurde dunkler, einzig die Sonne strahlte hell durch die Wolken.

Abbildung: Photomatix Pro-Vorgabe "Enhancer – Standard". Erklärung siehe oben.

Abschließend bearbeitete ich mit Adobe Photoshop Lightroom ein 32-Bit-HDRI-TIFF der Belichtungsreihe, wie es Adobe Photoshop erzeugen kann oder Photomatix Pro. Gegenüber der letzten Interpretation habe ich die Farbtemperatur so verändert, dass die Abendröte besser zur Geltung kam, die Häuser ließ ich noch dunkler erscheinen und den Himmel blauer.

Abbildung: Bearbeitung mit Adobe Photoshop Lightroom eines 32-Bit-HDRI der Belichtungsreihe. Erklärung siehe oben.

Die Helligkeitswerte des Sensors werden immer umgerechnet

Die Helligkeitswerte des Sensors werden auch bei LDR-Bildern umgerechnet, andernfalls sähe ein LDR-Bild ungewohnt aus, da der Sensor linear aufzeichnet, die doppelte Helligkeit hat den doppelten Zahlenwert. Meistens erschiene es zu "flau". Das zweite Bild obiger Belichtungsreihe dient als Beispiel folgender Bildserie.

Abbildung: Zweites Bild der Belichtungsreihe oben mit DCRaw wie üblich nicht linear umgerechnet.

Abbildung: Zweites Bild der Belichtungsreihe oben mit DCRaw linear umgerechnet und nicht weiter bearbeitet (dcraw -4 RAW-Datei).

Abbildung: Zweites Bild der Belichtungsreihe oben mit DCRaw linear umgerechnet und Gradation bearbeitet. Hier ist zu sehen, dass alleine durch Umrechnung der dunklen Pixel die dunklen Stellen anders erscheinen: Ich habe mit GIMP die Gradationskurve dort steil nach oben verlaufen lassen.

Abbildung: Zweites Bild der Belichtungsreihe oben mit DCRaw linear umgerechnet und Gradation bearbeitet. Hier habe ich mit GIMP für die dunklen Stellen die Gradationskurve steil nach oben verlaufen lassen und für die helleren (Himmel) dunkle und helle Pixel über die Gradationskurve etwas steiler verlaufen lassen (Kontrast leicht verstärkt). Dabei habe ich jeweils die eine oder andere Bildhälfte so maskiert, dass die Bearbeitung nur auf dieser geschah.

Die Pixel des Sensorbilds werden in jedem Fall umgerechnet. Das ist erforderlich, damit das Bild natürlicher aussieht, das heißt weniger flau und weil weder Bildschirm noch Fotopapier den hohen Kontrastumfang eines Sensors wiedergeben können. Wie das Umrechnen ohne Hinzutun geschieht, ist Konvention, andernfalls vom Bearbeiter beabsichtigt.

Die Umrechnung von HDR-Bildern ist nichts anderes als die von Sensorbildern in LDRI, nur dass die Dateien hier sehr viel mehr Helligkeitsunterschiede und Informationen enthalten und damit mehr Gestaltungsmöglichkeiten.

Fazit

Die "HDRI-Debatte" wäre keine, könnten unsere Kamerasensoren alle Kontrastunterschiede getreu aufzeichnen, die in der Natur vorkommen. Dann wäre jedes Bild automatisch ein HDRI, ob wir das wollten oder nicht. In Zukunft mag es solche Sensoren geben, vielleicht in dem Maße, dass die Belichtung keine große Rolle mehr spielt und wir Verschlusszeit und Blende nach Belieben wählen können.

Aktuell können unsere Sensoren nur einen beschränkten Helligkeitskontrast aufzeichnen. Das ist kein wünschenswerter Zustand. Ein HDRI aus einer Belichtungsreihe ist wie das Bild eines Sensors, der alle Helligkeitsunterschiede, die in der Natur vorkommen können, differenziert aufzeichnet. Wir müssen nun dieses extrem kontrastreiche Bild auf ein Medium bringen – auf Bildschirm und Papier –, das nicht annähernd so hohe Kontraste wiedergeben kann.

Fotografen früherer Zeiten hatten ein ähnliches Problem, falls sie Diafilmbilder auf Papier vergrößern mussten: Diafilme haben einen größeren Maximalkontrast und Kontrastunterschiede, als Fotopapiere wiedergeben können. Vergrößerungen vom Diafilm waren nur unproblematisch, falls das Bild auf dem Dia nicht sehr kontrastreich war, wie beispielsweise bei Gegenlichtaufnahmen mit dunklem Vorder- und hellem Hintergrund.

Wann immer wir Details in den Schatten und Lichtern haben wollen und der Kontrast höher ist, als der Sensor wiedergeben kann, sollten wir HDRIs aus Belichtungsreihen erzeugen, falls das möglich ist.

Entscheidend ist, dass wir das tone mapping so vornehmen, dass die Bilder auf dem Ausgabemedium – den Bildschirmen und Ausdrucken – so erscheinen, wie wir das gerne hätten. Bei HDRIs haben wir die Wahl, Details aus den Lichtern und Schatten hervorzuholen, wir können diese aber auch in Weiß oder Schwarz verschwinden lassen, wir können das gleiche bewirken wie eine zusätzliche künstliche Lichtquelle, die Schatten aufhellt oder wie Verlaufsfilter, die hellen Himmel abdunkeln. Bei LDRIs haben wir keine Wahl, sie schränken die Ausdrucksmöglichkeiten für Fotografen unerwünscht ein, für die die Bildbearbeitung ein weiterer erforderlicher, nicht automatischer Schritt ist hin zur Präsentation des Bilds.

Elmar Baumann, 09.06.2012.

Letzte Bearbeitung: 15.09.2013.