JPEG oder RAW das ist hier die Frage.

Hallo liebe Freunde der Mikrokristalle,

noch vor wenigen Jahren war das RAW-Format nur hochwertigen Kameras vorbehalten. Inzwischen lassen sich aber auch bei vielen preiswerten Kameramodellen Bilder im RAW-Format abspeichern. Von Seiten der Kameratechnik erfordert das Speichern im RAW-Format keinerlei zusätzlichen apparativen Aufwand. Die Zurückhaltung gegenüber dem RAW-Format erklärt sich wohl eher aus zwei anderen Gründen:

  1. Der Speicherbedarf von RAW-Dateien ist erheblich größer als der von JPEG-Dateien.
  2. Ein Nachbearbeitungsprogramm ist für RAW-Dateien zwingend erforderlich.

Vor dem Hintergrund dieser Nachteile stellt sich natürlich die Frage, warum man sich dann überhaupt mit dem RAW-Format beschäftigen soll.  Um es gleich vorweg zu nehmen: Der Fotograf besitzt bei der Bearbeitung von RAW-Dateien einen erheblich größeren Freiraum als bei JPEG-Dateien.

Um den Unterschied zwischen beiden Formaten zu verstehen, möchte ich zunächst die grundlegende Arbeitsweise eines Kamera-Sensors darstellen. Die meisten Kameras verwenden heute CMOS-Flächensensoren. Hier der prinzipielle Aufbau:

CMOS-Flächensensor

CMOS-Flächensensor

 

Man kann sich den Sensor wie ein Schachbrett vorstellen. Jedes Feld ist ein Pixel und besteht aus einer Fotodiode mit einer darüber liegenden Mikrolinse. Die Mikrolinsen fokussieren das einfallende Licht, das von den Fotodioden in elektrische Ladungen umgewandelt wird. Es wird hier also die Energie des einfallenden Lichts in elektrische Energie umgewandelt. Das geschieht in jeder der Fotodioden separat. Jede Fotodiode wird also separat ausgewertet. Fällt auf eine Fotodiode viel Licht, entsteht eine starke elektrische Ladung, fällt wenig darauf, ist sie entsprechend schwächer. Immer aber ist sie proportional der einfallenden Lichtmenge. Diese setzt sich zusammen aus der Zeit in der das Licht auf die Fotodiode fällt (Belichtungszeit) und der Lichtintensität.Die von jeder der Fotodioden erzeugte elektrische Ladung wandert durch eine Ausleseelektronik, einen Analog/Digital-Wandler und einen Verstärker. Soweit so gut.

Eine solche Anordnung wäre farbenblind. Es könnten nur Grauwerte generiert werden. Um den Flächensensor farbsichtig zu gestalten, kam bei der Firma Eastman Kodak B. E.  Bayer 1975 auf die Idee, zwischen Mikrolinsen und Fotodioden Farbfilter in den Grundfarben Rot Grün und Blau einzufügen. (RGB-Farben). Die Anordnung der Farbfilter folgt einem ganz bestimmten Schema, das nach seinem Erfinder Bayer-Muster genannt wird. Den Sensor nennt man daher auch Bayer-Pattern-Sensor.

 

Bayer Pattern

Bayer Pattern

In diesem Farbschema sind die Farben Rot und Blau zu 25% und Grün zu 50% vertreten. Diese Prozentzahlen tragen den Eigenschaften des menschlichen Auges Rechnung, dessen Farbrezeptoren eine ähnliche prozentuale Verteilung besitzen.

Fällt nun Licht auf die einzelnen Sensorzellen (Fotodioden), so lassen die grünen nur den Grünanteil, die roten nur den Rotanteil und die blauen nur den Blauanteil des Lichts passieren und wandeln diesen in äquivalente elektrische Ladungen um. Nun wissen wir aber, daß jedes Pixels im fotografischen Bild eine Rot- Grün- und Blau-Anteil besitzt. Die durch den Bayer-Pattern-Sensor erzeugten Pixel besitzen aber nur jeweils eine Farbe: Rot Grün oder Blau. Sie müssen daher um die beiden jeweils fehlenden Farbanteile ergänzt werden. Dieses geschieht durch ein aufwendiges mathematisches Verfahren, das man Demosaicing, Bayer-Interpolation oder schlicht Farbinterpolation nennt. Interpolationsverfahren wendet man immer dann an, wenn zwischen Messwerten eine Lücke besteht. Nehmen wir an, jemand möchte abnehmen und mißt jede Woche einmal sein Gewicht. In der 1. Woche wiegt er 70,0 kg in der 2. Woche hat er vergessen sich zu wiegen und in der 3. Woche wiegt er 69,50 kg. Jetzt kann er den vergessenen Wert durch Interpolation annähernd ermitteln, indem er den Mittelwert aus den beiden Randwerten berechnet, also (70,0+69,5)/2=69,75 kg. Das wäre eine einfache lineare Interpolation. Grundsätzlich ähnlich, aber mathematisch viel komplizierter, verläuft die Bayer-Interpolation. Aber das Ziel ist klar: Jedem Pixel werden die jeweils fehlenden Farbanteile mit Hilfe der ihn umgebenden Pixel hinzugerechnet. Einem grünen Pixel, das z.B. von 2 starken roten Pixeln umgeben ist, wird eine relativ hoher Rotanteil hinzugerechnet. Sind die beiden umgebenden blauen Pixel hingegen sehr schwach, so wird  auch nur ein geringer Blauanteil hinzugerechnet. Am Ende des Interpolationsverfahrens besitzt jedes Pixels auf dem Bayer-Schema einen vollständigen RGB-Wert. (Wer sich mit RGB-Werten und Farbtiefe nicht auskennt, findet Infos in meinem Blogbeitrag über HDRI-Fotografie).

Nach der Bayer- Interpolation ist ein Bild entstanden, das in der Kamera noch weitere Schritte durchläuft. Dazu zählen u.a. Anpassung von Weißabgleich, Kontrast, Sättigung und Nachschärfen. Zusätzlich wird das Bild komprimiert, um den Speicherbedarf zu verringern. Das so entstandene Bild ist dann eine JPEG-Datei  und wird mit der Endung .JPG abgespeichert.

Worin liegt nun die Besonderheit der RAW-Datei?  Bei der Speicherung als RAW-Datei, wird der kamerainterne Verarbeitungsprozess schon vor der Bayer-Interpolation abgebrochen. Sowohl die Bayer-Interpolation als auch die weiteren Verarbeitungsschritte wie Weißabgleich, Sättigung u.s.w. erfolgen nicht wie bei JPEG-Dateien in der Kamera, sondern erst später am Computer mit der passenden Bearbeitungssoftware. Damit hat der Fotograf die volle Kontrolle über die Rohdaten und sehr viel mehr Spielraum bei der Bildbearbeitung. Leider gibt es keinen Standard für das RAW-Format. Selbst innerhalb verschiedener Kamera-Typen des gleichen Herstellers kann es Unterschiede geben. Das muss man beim Kauf eines Bildbearbeitungsprogramms beachten.

Ich habe hier den am weitesten verbreiteten CMOS-Sensor beschrieben. Es gibt aber noch andere Sensoren, z.B. vom Sigma und Fujifilm, die nach anderen Prinzipien arbeiten.

Nach soviel Theorie hier mal ein ganz praktisches Beispiel, das den Vorzug von RAW-Dateien zeigt. Das im Folgenden beschriebene Verfahren läßt sich nicht mit einer JPEG-Datei durchführen. Ich fotografiere Mikrokristalle im polarisierten Licht immer mit einer Nikon, die auf das RAW-Format eingestellt ist. Manchmal bearbeite ich diese Dateien mit meinem Standard-Bildbearbeitungsprogramm Corel PaintShop Pro.

Mein Ziel ist es, bei meinen Aufnahmen die Wirkung zu erzielen, die ich am Mikroskop wahrnehme. Manchmal kommen erst  HDR-Aufnahmen diesem Ziel nahe. Dazu sind mindestens 3 Aufnahmen unterschiedlicher Belichtung erforderlich. Mit Corel PaintShop Pro kann man aber auch aus einer korrekt belichteten RAW-Datei 3 Aufnahmen generieren, indem das Programm durch Manipulation der RAW-Daten 2 zusätzliche Aufnahmen unterschiedlicher Belichtung erzeugen. Den Grad der Unter- bzw. Überbelichtung kann man vorgeben. Danach werden von den 3 Aufnahmen die jeweils optimal belichteten Bereiche zu einer Pseudo-HDR-Aufnahme zusammengefügt. (Pseudo- weil nicht 3 Original-Aufnahmen verwendet werden). Zunächst muß aber die RAW-Datei der Bayer-Interpolation unterworfen werden. In Corel PaintShop Pro ist ein Programm namens Camera RAW Editor enthalten, das diesen Vorgang durchführt.

Die RAW-Datei wird zunächst in Corel PaintShop Pro eingelesen, man landet direkt im Camera-Raw Editor. Hier wird die Bayer-Interpolation durchgeführt. Man kann, falls erforderlich, verschiedene Korrekturen vornehmen.

Camera Raw Editor

Durch Klicken auf „ok“ gelangt dann in das eigentliche Bearbeitungsprogramm.

 

Bearbeitungsprogramm

Hier klickt man ganz oben links „Datei“ an, es öffnet sich ein Pulldown-Menü und man wählt dort „HDR“ und „Einzelnes Foto“

 

"Datei" und "HDR" wählen

 

Jetzt müssen zunächst die 2 zusätzlichen Bilder generiert werden. Auf der unteren Leiste sieht man das Ausgangsbild. Links ist ein Menü, in dem man den Grad der Unter-/Überbelichtung festlegen kann.

Man wählt zunächst mit „EV-Intervall“ den Grad der Belichtungsabweichung vom Original. Klickt man dann auf „Foto teilen“,  werden die 2 zusätzlichen Bilder generiert, die man auf der unteren Leiste sehen kann, (im übernächsten Screenshot).

 

Links Interval auswählen und Harken setzen.

 

 

Bild001.4

Klickt man auf „Verarbeiten“ wird aus den 3 Bildern ein Pseudo-HDR-Bild erzeugt.

 

Bild001.5

 

Links sieht man verschiedene Vorschläge für die Farbe des endgültigen Bildes. Ich habe hier das mittlere rechte gewählt, man kann im linken Menü noch eine Reihe weiterer Einstellungen vornehmen. Ohne weitere Einstellungen sieht das endgültige Bild dann so aus:

 

Mikrokristalle von Naproxen, fotografiert im polarisierten Licht. Bearbeitet mit Corel Paint Shop Pro X8

Mikrokristalle von Naproxen, fotografiert im polarisierten Licht. Bearbeitet mit Corel Paint Shop Pro X8.

 

Wer die Möglichkeit hat, Fotos im RAW-Format abzuspeichern und die Arbeit mit Bildbearbeitungsprogrammen nicht scheut, sollte die große Flexibilität des Raw-Formats unbedingt nutzen, es lohnt sich.

So, liebe Freunde der Mikrokristalle, das war ein ziemlich langer Weg. In meinem nächsten Blogbeitrag widme ich mich mal wieder meinem geliebten Schülermikroskop. Ich möchte zeigen, wie man mit minimalen Mitteln, Smartphone-Kamera, Schülermikroskop und einfachen Polarisationsfilterfolien, erstaunlich gute Mikrofotos im polarisierten Licht erzeugen kann. Die Fotos werden mit Kristallen des Kopfschmerzmittels Paracetamol gemacht, das man sich leicht aus der Apotheke beschaffen kann.

Bis dahin wünsche ich eine gute Zeit.

H-D-S