Digitales Negativ

digitales-negativ

In Zusammenarbeit mit SIGMA

Der Begriff Negativ

Digitale Fotografie und Negativ, wie passen diese beiden Begriffe zusammen?

Eigentlich stammt der Begriff Negativ noch aus Zeiten der analogen Fotografie. Unter einem Negativ versteht man einen entwickelten Film, schwarz-weiß oder farbig, bei dem das Foto mit umgekehrter Helligkeit (helle Stellen sind dunkel, dunkle Stellen sind hell) und die Farben komplementär dargestellt sind. Erst durch einen Abzug auf zum Beispiel Papier entsteht das wirkliche Foto. Diesen Vorgang nennt man auch Entwicklung.

Macht man mit einer Digitalkamera ein Foto, dann erscheint wenige Augenblicke nach der Aufnahme das Foto auf dem Monitor der Kamera und dieses Foto macht eigentlich einen fertigen Eindruck, kann also kein Negativ sein. Trotzdem wird dieser Begriff immer wieder verwendet, was durchaus plausible Gründe hat, die wir Euch in diesem Beitrag erläutern wollen.

Digitale Sensoren speichern die tatsächlichen Informationen zu dem aufgenommenen Motiv. Allerdings nimmt ein Sensor kein fertiges Foto auf. Der Sensor zeichnet eigentlich pro Pixel nur einen (Zahlen-)wert für die an dieser Stelle gemessene Helligkeit auf. Das einzelne Pixel kann noch nicht einmal Farben unterscheiden. Aber wie kommt es nun zum fertigen Farbfoto?

Der Weg zum fertigen Farbfoto

Der Bayerpattern sorgt für Farbe im Bild.
Der Bayerpattern sorgt für Farbe im Bild. Es gibt inzwischen auch immer wieder mal andere Anordnungen der Farben zueinander, die sollen aber in diesem Beitrag keine Rolle spielen.
Um dies zu erklären, müssen wir ein wenig ausholen. Ein Sensor ist sehr komplex aufgebaut. Vor jedem Pixel sitzen kleine Linsen, die Mikrolinsen, die das Licht für jeden Pixel einzeln einsammeln. Zwischen Linse und Pixel sitzt zusätzlich ein Farbfilter in einer der Grundfarben Rot, Grün oder Blau. Bei fast allen Digitalkameras sind die einzelnen Farbfilter nach dem Bayerpattern“ angeordnet, 50% Grün, 25% Blau und 25% Rot. Grün hat deshalb einen so hohen Anteil,  weil das menschliche Auge besonders empfindlich auf die Farbe Grün reagiert. Der Bayerpattern entspricht also in etwa unseren Sehgewohnheiten.

Der Ausschnitt eines Farbbilds - soweit vergrößert, dass die einzelnen Pixel gut zu sehen sind.
Der Ausschnitt eines Farbbilds auf Pixelebene vergrößert.
Insofern findet tatsächlich immer noch eine reine Helligkeitsmessung durch die einzelnen Pixel statt, allerdings – bedingt durch den Farbfilter vor dem Pixel – nur für jeweils einen Farbkanal. Die eigentliche Zuordnung der Farbe findet erst später statt, weil bei der Berechnung und Auswertung der Messdaten die Kamera (bzw. der Bildprozessor) anhand der Position des Pixels auf dem Bildsensor weiß, welche Farbfilter vor welchem Pixel gesessen hat.

Zum näheren Verständnis haben wir mal einen kleinen Bildausschnitt soweit vergrößert, dass die einzelnen Pixel zu sehen sind und dieses Farbbild dann in reine Helligkeiten umgewandelt, bei der Umwandlung dann aber die Filter der drei Grundfarben angewendet. Ihr könnt deutlich die Unterschiede erkennen, die sich bei der gefilterten Helligkeitsmessung ergeben:

Allerdings zeichnet jedes Pixel immer nur die Werte für eine Farbe auf. Im fertigen Foto hat jedes Pixel wieder Werte für alle drei Grundfarben. Dazu müssen sozusagen für jedes Pixel die beiden fehlenden Farbwerte berechnet werden. Dies geschieht durch die Bayer-Interpolation.

Die Bayer-Interpolation

Der Bildprozessor sucht sich also für jedes Pixel die Werte der umliegenden Pixel der anderen Farben, berücksichtigt dabei Helligkeitsverläufe und Kontrastkanten und interpoliert nach einem mathematisch sehr aufwendigen Verfahren die fehlenden Werte.

Trotzdem liegen nach der Aufnahme die Bilddaten nur in einer Rohform vor, die dann im Signalprozessor der Kamera in ein fertiges Digitalfoto umgewandelt werden. Während dieses Umwandlungsprozesses findet zum Beispiel ein Weißabgleich statt, die Gradation wird angepasst und die Bilder werden geschärft.

20120723-195549
Das fertige Bild nach Abschluss aller Berechnungen
Es ist möglich mit speziellen Tools die einzelnen Schritte in der Bildberechnung der Kamera sichtbar zu machen. Obige Bilderserie zeigt, wie es funktioniert. Im ersten Schritt werden die reinen Messwerte ausgelesen. Im zweiten Schritt erfolgen Korrekturen in Helligkeit und Kontrast, die sich durch die unterschiedlichen Farbfilter ergeben. Im dritten Schritt wird die Farbinformation zugefügt – allerdings nur die gemessene für jedes Pixel, daher hat das Foto noch einen deutlichen Grünstich. Erst jetzt erfolgt die Interpolation und es entsteht das fertige Foto.

Dieser Prozess ist nicht umkehrbar. Da moderne Computer wesentlich leistungsfähiger sind, als die Signalprozessoren von Digitalkameras, macht es durchaus Sinn, diese Umwandlung der Rohdaten erst nach der Aufnahme am PC durchzuführen und die Einstellungen für jedes Foto individuell vorzunehmen, um so auch kleine Aufnahmefehler auszugleichen.

Hinweise zum RAW-Format

Daher bieten viele Kameras die Option an, die Fotos nicht nur in einem endgültigen Format (meist JPEG) zu speichern, sondern auch in einem Rohformat. Man bezeichnet Fotos in diesem Format generell als RAW (raw (engl. – roh)) – auch wenn die tatsächliche Dateiendung davon abweichen kann. Aber Achtung: Auch wenn Ihr in RAW fotografiert, kann die Kamera das Foto auf dem Monitor anzeigen. Ihr seht aber nicht das RAW selbst, sondern ein in das RAW eingebettetes JPEG, das alle Einstellungen anzeigt, die aber in diesem Fall nachträglich geändert werden können

Da diese Daten ähnlich einem Negativ noch weiter entwickelt werden müssen, um sie ansehen zu können, spricht man dann auch von einem digitalen Negativ.

Du möchtest Dein Fotowissen vertiefen?

Lerne jetzt unser neues Kursangebot kennen!



Wie hat Dir dieser Artikel gefallen?

Wie gefällt Dir dieser Lerninhalt?

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Teile diesen Link mit einem Freund