RAW – was ein paar Bit mehr pro Kanal ausmachen 4


Ich werde immer mal gefragt, warum ich Bilder beim Fotografieren ausschließlich im RAW-Modus speichere. Zum einen liegt das ein bisschen an meiner „Geschichte“, die ich hier in meinem Blog letztens ausführlich erzählt hatte. Zum anderen aber, natürlich, hat es sehr praktische Gründe.

RAW-Daten haben, neben dem Umstand, dass noch kein Komprimierungsverlust vorliegt, eine höhere Bit-Tiefe pro Kanal als JPGs. Es kommt ein wenig auf die Kamera an, welche genau, manche haben 11 Bit, meine alte D90 hatte 12 Bit und die aktuelle D800 hat maximal 14 Bit, wobei sie die nur in den Tiefen nutzt, da im Mittel- und Höhenbereich da eh nur „Noise“ gespeichert würde.

Worums mir aber jetzt erst einmal geht ist die Frage, was das grundsätzlich bringen soll, dafür sind die Unterschiede in den Details der RAW-Daten der verschiedenen Kameras (bei Nikon haben die z.B. die Dateiendung „NEF“, andere Hersteller nennen sie wieder anders) relativ wurscht, drum gehe ich auf solche hier nicht weiter ein.

Die Information eines Bildes setzt sich ja aus drei Kanälen zusammen, nämlich Rot, Grün und Blau (Das steckt hinter dem Kürzel „RGB“). Einem „normalen“ JPG, wie man es kennt, stehen pro Kanal 8 Bit „Informationsbreite“ zur Verfügung, das heißt, jeder dieser drei Kanäle ist quasi ein Graustufenbild mit 256 Helligkeitsstufen zwischen Weiß und Schwarz. Das ergibt sich aus der binären Natur von digitalen Daten: 1 Bit kann entweder 0 oder 1 sein, 8 Bit heißt, dass 2 hoch 8 Kombinationen möglich sind, also 256.

In der Überlagerung dieser drei „Bilder“ in ihren jeweiligen Farben Rot, Grün und Blau entstehen dann wiederum 265 hoch 3 mögliche Mischungen, sprich, „Farben“. Also 16,7 Millionen zwischen 0 R, 0 G und 0 B = Schwarz und 255 R, 255 G und 255 B = Weiß. Da ein Monitor eh nicht mehr als das darstellen kann reicht das dann auch. Das heißt, was analog ein „Abzug“ war ist digital eben ein solches normales 8 Bit JPG, denn es enthält genau so viele Informationen wie das Ausgabegerät auch anzeigen kann, so wie ein auf ein Fotopapier belichtetes Negativ eben auch das anzeigt, was es anzeigt. (Dass man natürlich auch bei diesem JPG noch in einem gewissen Rahmen „nachjustieren“ kann, im Gegensatz zu einem echten Abzug, lasse ich hier jetzt mal unter den Tisch fallen)

Ein RAW hat jetzt pro Kanal mehr als diese 8 Bit zur Verfügung: 12 Bit 2 hoch 12, ergibt 4096 Grauwerte pro Kanal, bei 14 Bit sind es wahnsinnige 16384 pro Kanal. Was in der Kombination der Kanäle für 12 Bit 68,7 Milliarden und für 14 Bit 4,4 Trillionen mögliche Kombinationen, sprich, „Farben“ ergibt. Die als Information vorliegen, von denen man aber dennoch nur 16,7 Millionen auf einem Monitor darstellen lassen, den Rest „sieht man nicht“.

Und da fragt sich dann auch die Logik erstmal: warum soll ich denn so viele mehr Bildinformationen speichern als ich sehe bzw. als ein Monitor darstellen kann? Ganz einfach: weil ich daraus auswählen kann, welche ich darstellen lassen möchte. Das menschliche Auge „sieht“ ja viel besser als ein Kamerasensor, was vor allem an den überragenden dynamischen Möglichkeiten des Auges liegt.

Am deutlichsten wird das in Gegenlichtsituationen: während das menschliche Auge ein Gesicht auch gegen einen hell leuchtenden Hintergrund problemlos herausheben kann, kann man einen Sensor entweder auf den Hintergrund ausrichten, um zum Beispiel noch blauen Himmel oder gar Wolken sichtbar zu haben, dann wird so ein Gesicht im Vordergrund aber sehr dunkel oder gar nur noch als schwarze Silouette zu sehen sein. Oder man stellt den Sensor auf das Gesicht, dann ist der Hintergrund aber schnell grell-weiß, eventuelle Landschaft wird schnell stark überbelichtet und im schlimmsten Fall wird deren Rand zum Himmel überblendet, sprich, das Licht „frisst“ sich in die Kanten, und was weiß ist bleibt weiß, das lässt sich meist nicht mehr reparieren. Weshalb es sich empfiehlt, lieber einen Teil des Bildes „unterzubelichten“ – sprich, die Justierung auf den hellsten Bereich auszurichten – um ein Ausbluten der hellen Bildbereiche zu vermeiden.

130411 1337 DSC0557

1/640 • f/13.0 • 24.0 mm • ISO 100

Gerade bei solchen Lichtverhältnissen spielt RAW seine große Stärke aus. Wenn man eine Gegenlichsituation an den hellen Bereichen ausrichtet, also Überbelichtungen vermeidet, liegen dann, wie man auch am obigen Bild gut sieht, dynamisch im Extremfall die schattigen Bereiche des Motives sagen wir mal in den 5% des dunkelsten Helligkeitsbereiches. Das ist nicht viel, drum kommt es jetzt auf die Informationsdichte an. Also auf die Bit-Auflösung.

Bei 8 Bit stehen dafür gerade mal 12 Detailstufen pro Kanal zur Verfügung, was theoretisch 1728 Farbmöglichkeiten zwischen Schwarz und Weiß ergibt. Praktisch weit weniger, denn natürlich will man ja für so ein Motiv nicht das volle Farbspektrum nutzen, ein Gesicht zum Beispiel hat ja nur einen sehr engen Farbbereich. Wer schon einmal versucht hat, so ein Gesicht aus einem Gegenlichtbild rauszuholen, bei einem normalen JPG, kennt das sicher: das Ergebnis wird entweder sehr farblos/grau, wenn man versucht, mehr Farben darzustellen, verrauscht es nur völlig.

Mit 12 Bit haben wir aber schon rund 200 Detailstufen pro Kanal und mit 14 Bits sagenhafte 800. Also, bei 14 Bit, 512 Millionen Farbstufen, also allein in den dunkelsten 5% des „Negativs“ 35 mal mehr Farbabstufungen als in einem kompletten „Abzug“, sprich JPG. Bei 12 Bit haben wir immerhin mit einer Range von 8 Millionen auf grade einmal 1/20 der möglichen vollen Dynamik die knappe Hälfte dessen, was ein ganzes 8 Bit JPG bzw. ein Monitor überhaupt darstellen kann, zur Verfügung.

Mit der RAW-Bearbeitung macht man jetzt nichts anderes, als aus der gespeicherten Bildinformation die Teile in den „sichtbaren Bereich“ für die 8 Bit-Darstellung auszuwählen, die man für die einzelnen dynamischen Bereiche (Tiefen, dunkle und helle Mitten, Lichter) sehen möchte. Und da RAW eben in diesen Bereichen viel mehr Informationen speichern konnte als der Sensor bzw. dessen Standard-Darstellung im Monitor (der ja nur 8 Bit darstellen kann) anzeigte, kann ich das, was das menschliche Auge automatisch macht, in der Nachbearbeitung simulieren: verschiedene Dynamikbereiche verschieden sichtbar machen. Und damit eine Abbildung auf den Monitor bringen, die viel näher an das herankommt, wie ich es vor Ort mit meinen natürlichen Augen gesehen habe.

Denn im Gegenlicht sehe ich ja auch beides: den strahlend blauen Himmel, die leuchtend Grüne Landschaft im Hintergrund, auch wenn die Sonne in dieser Richtung am Himmel steht – und aber auch das durch das Hintergrundlicht im Schatten stehende Motiv im Vordergrund in allen Details inklusive dessen Farbigkeit.

Und wie so etwas in der Praxis aussehen kann möchte ich hier an einem Beispiel demonstrieren. Das Bild da oben am Anfang dieses Artikels machte ich in England, unter schwierigen Lichtverhältnisen. Zum einen gab es starkes Gegenlicht, denn die Wolken ließen die Sonne, die in Fotografie-Richtung stand, stellenweise noch so stark durchscheinen, dass sie ein diffuses, aber deutliches Gegenlicht erzeugte, aber an andererseits waren sie dicht genug, um sie abzuschatten und so dennoch einen starken Schatten auf die Landschaft zu werfen, der die Gegenlichtabschattung des allgemien vorhandenen diffusen Gegenlichtes noch verstärkte.

Dass bei ISO 100 und einer mit 1/13 schon ziemlich deutlich geschlossenen Blende noch immer eine Verschlussgeschwindigkeit von 1/640 nötig war, um in den hellen Bereichen eine Überbelichtung zu vermeiden zeigt das, denke ich, deutlich. Und dieses „Überbelichtung vermeiden“ in den Lichter-Bereichen bedeutet für den Rest des Bildes: Unterbelichtung Galore.

Die Standard-Dynamikeinstellung der Kamera, die bei Nikon „D-Lighting“ heißt und schon versucht, zu starke Dynamikschwankungen in einem Bild automatisch etwas auszugleichen (und das in „normalen“ Lichtverhältnissen auch gut hinbekommt), ergab also erst einmal das obere Bild.

Das Bild da oben wäre also der „Abzug“ gewesen, also das fertige JPG, würde die Kamera so eingestellt sein, dass sie gemachte Bilder als JPG und nicht als RAW speichert. Mit den Zahlen von oben im Kopf, welche möglichen Farbabstufungen in verschiedenen Dynamikbereichen des Bildes zur Verfügung stehen, hier vor allem nicht nur in den dunklen 5% sondern in den Tiefen bis dunklen Mitten, also grob geschätzt den dunklen 20% des Bildes ist glaube ich nachvollziehbar, dass ich aus dem 8 Bit JPG in den dunklen Bereichen vielleicht schon noch ein wenig hätte nachjustieren können, aber grade farbdynamisch schnell an Grenzen gestoßen wäre. Ich habe deshalb die RAW-Daten in einem Programm, das RAWs bearbeiten kann (in meinem Fall Adobe Lightroom) nachjustiert und dann erst einen „8 Bit Abzug“ gemacht – nochmal die Zahlen von oben in Erinnerung gerufen und es wird klar, woher die Farben und Details, die im oberen Bild kaum erkennbar waren, kommen.

Denn nachdem ich in diesem dunklen Dynamikbereich die anzuzeigenden Farben näher an das eingestellt hatte, wie ich sie selbst vor Ort mit meinen natürlichen Auge habe sehen können kann sich das, denke ich, jetzt auch auf einem Monitor mit seiner eigenen, speziellen und beschränkten, Dynamik sehen lassen….

Torcross - 20130411

1/640 • f/13.0 • 24.0 mm • ISO 100


Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

4 Gedanken zu “RAW – was ein paar Bit mehr pro Kanal ausmachen