Motive mit hohem Kontrastumfang bewältigen: Die Grundlagen

Kontrastumfang: Die Grundlagen
FavoriteLoadingAuf Deine Leseliste in Meine Fotoschule setzen

Du hast diese Begriffe sicher schon mehrfach gelesen oder gehört:

  • Kontrastumfang
  • und Dynamik

Jeweils im Zusammenhang mit der Fotografie natürlich. Beide Begriffe hängen eng miteinander zusammen und doch hat jeder eine eigene Bedeutung. In diesem Beitrag werden wir uns mit den Grundlagen auseinandersetzen und die Basis dafür legen, dass Du das Thema soweit verstehst. Damit werden wir im nächsten Teil die Praxis näher beleuchten und Dir Tipps geben, wie Du Motive mit hohem Kontrast gut bewältigst.

Einfach fotografieren lernen mit unseren Online-Fotokursen

Für nur 6,99€ im Monat kannst Du auf über 70 Online-Fotokurse zugreifen. Lerne die Grundlagen der Fotografie - verständlich und mit vielen Praxisbeispielen. Inklusive Test und Fotokurs-Zertifikat.

Mehr Infos zu den Fotokursen
Einfach fotografieren lernen
Motive mit hohem Kontrastumfang haben sehr helle Bereiche (in diesem Fall die Reflexionen des Himmels in dem Tümpel) und sehr dunkle Zonen (der Stamm im Schatten). Die Belichtung der hellen Bereiche ist selten ein Problem, die Spreu vom Weizen trennt sich in den Schatten. Die Frage ist, ob es der Kamera gelingt dort noch genug Zeichnung hinein zu bekommen, die sich später noch weiter herausarbeiten lässt.
Fujifilm X-T2 | 56 mm | 1/80 Sek. | f/1,2 | ISO 400

Lange Zeit war die native Auflösung der Bildsensoren das Schlüsselkriterium, wenn es darum ging deren Qualität zu beurteilen. Nachdem die Auflösung immer größer wurde und in Bereiche vorstieß, in denen die zusätzliche Auflösung keine praktische Relevanz mehr hatte (unter anderem, weil die Optik der Linsen gar nicht mehr in der Lage ist, die volle Auflösung zu nutzen), kam das Rauschen als zusätzliches Qualitätskriterium.

Es ist dabei wohl eine Besonderheit der Spezies Fotograf, dass das Thema Rauschen oft in Bereichen diskutiert wird, die für den praktischen Alltag des Hobbyfotografen nahezu keine Relevanz haben.

Ich werde darauf noch in dem einen oder anderen Absatz kurz eingehen.

Das neue Qualitätskriterium

Neuestes Qualitätskriterium in der Diskussion von Hobbyfotografen ist oft die „Dynamik“ des Bildsensors, bei der eine Steigerung von zum Beispiel 12,4 auf 13,1 Blendenstufen auf einmal so sensationell bessere Möglichkeiten bez. erreichbarer Bildqualität bietet, dass der Kauf fast zwingend ist. Was jetzt ein wenig spöttisch klingen mag, soll nur der Hinweis darauf sein, dass ein solch einzelnes Kriterium niemals ausreichend ist, um die erreichbare Qualität zu beurteilen. Natürlich lohnt sich immer auch ein Blick auf neue Sensoren und was sie leisten. Die Summe aus Dynamik, Farbtreue, Feinheit der Zwischenstufen und Rauschverhalten ist deutlich interessanter, als nur die Dynamik allein.

Du findest meine Darstellung überzeichnet? Ja, definitiv. Ich möchte versuchen mit den folgenden Artikeln zu einer Versachlichung beizutragen, indem ich die technischen und fotografischen Hintergründe erläutere, so dass Du in der Lage bist, selbst zu entscheiden:

Was ist wichtig für mich und was nicht?

Neben der Leistung der einzelnen Pixel spielt schlussendlich auch die Anordnung der Farbfilter eine erhebliche Rolle für das anschließende Ergebnis. Aus diesem Grund bringe ich Dir am Ende des Artikels zum Vergleich den Aufbau des mittlerweile klassischen Bayer-Sensors und eines recht neuen Konzeptes (X-Trans), das zum Beispiel Fujifilm mit beeindruckenden Ergebnissen verfolgt, näher.

Die wichtigsten Begriffe

Über das Bildrauschen haben wir in der Fotoschule in den Artikeln:

schon geschrieben. Den Zusammenhang zwischen Rauschen und Auflösung setze ich für diesen Artikel als bekannt voraus. Wichtig für die folgenden Betrachtungen sind Begriffe Kontrastumfang und Dynamik, die ich Dir an dieser Stelle erläutern möchte. Vorweg möchte ich noch anfügen, dass ich hier auch ein wenig meine eigene Sichtweise und Begriffsinterpretation ins Spiel bringe, weil sich manche Dinge so einfacher und plausibler erklären lassen, als zum Beispiel bei Wikipedia.

Kontrastumfang

Den Begriff „Kontrastumfang“ beziehe ich immer auf das Motiv. Ein Motiv hat immer einen hellsten Punkt und einen dunkelsten Punkt (oder Fläche). Nun betrachten wir diese beiden Punkte als jeweils einheitliche Fläche, die wir messen würden (bei konstanten ISO). Jede dieser Flächen ergibt ein Ergebnis, das wir auf einen Lichtwert zurückführen können (Der Lichtwert wird im hinteren Teil des Artikels näher erklärt). Nehmen wir einfach an, dass die hellste Stelle einen Lichtwert von 16 hat und die dunkelste Stelle einen Lichtwert von 3.

Ist der Kontrastumfang zu groß für den Sensor, werden nicht alle Teile des Fotos korrekt belichtet. In diesem Fall hat die Kamera den das anfokussierte Teil des Motivs korrekt als Hauptmotiv erkannt und optimal belichtet. Das Fenster selbst ist viel zu hell, hat aber für das Motiv keine Relevanz.
Fujifilm X-T2 | 56 mm | 1/160 Sek. | f/1,2 | ISO 200

Vereinfacht gesagt: Die Differenz aus den beiden Lichtwerten (im Beispiel 16 – 3 = 13) ergibt den Kontrastumfang des Motivs. Der Lichtwert wird auch oft in Blendenstufen ausgedrückt und hätte im Beispiel also 13 Blendenstufen. Der Kontrastumfang eines Motivs kann in Wirklichkeit deutlich höher, aber auch deutlich kleiner sein.

Nebel zum Beispiel verringert den Kontrastumfang, die Kombination aus Mittagssonne und Strand oder Schnee erhöht ihn wesentlich. Für Deine Beurteilung des Kontrastumfangs eines Motivs ist allerdings nicht der absolute Kontrastumfang wichtig, sondern der motivisch relevante Kontrastumfang.

Was ist jetzt relevant? Eigentlich musst Du es eher umgekehrt betrachten: Was ist nicht relevant?

Nehmen wir ein Foto einer Landschaft, bei dem in einer Ecke auch die Sonne im Bild ist. Die Sonne ist extrem hell und erweitert den Kontrastumfang wesentlich. Allerdings erwartet keiner der Betrachter, auf einem Landschaftsbild in der Sonne die Sonnenflecken erkennen zu können. Der durch die Sonne selbst ins Bild eingefügte Kontrastumfang ist daher für das Foto nicht relevant.

Zu viel ist zu viel. Durch das direkte Tageslicht auf den Globus und die fehlende Beleuchtung des Innenraums ist hier mit einer einzelnen Aufnahme nichts mehr zu machen.
Fujifilm X-T2 | 56 mm | 1/120 Sek. | f/1,2 | ISO 400

Nehmen wir an auf dem Foto ist an irgendeiner Stelle ein kleines Häuschen, das sich malerisch in die Landschaft einfügt. In diesem Häuschen steht ein Fenster offen. In dem Fenster ist es schwarz. Rein theoretisch wird es möglich sein in diesem Fenster Teile der Einrichtung differenzieren zu können: Für das Foto und dessen Aussage hat es aber keinerlei Relevanz. Auch hier kannst Du einen Teil des Motivkontrastes beschneiden, ohne die Bildaussage zu reduzieren.

Das menschliche Auge macht es übrigens nicht anders. Durch die ständige Adaption an die Umgebungshelligkeit (die Pupille ist ja nichts anderes, als eine sich ständig öffnende und schließende Blende) stellt sich das Auge auf das jeweilig fokussierte Objekt ein (relevantes Motiv) und vernachlässigt bei der biologischen Belichtungsmessung (im Rahmen der Möglichkeiten) hellere oder dunklere Motivteile, die sich im seitlichen Sichtfeld befinden (nicht relevante Motivteile).

Dynamik(-umfang)

Du wirst beide Bezeichnungen (Kontrast-und Dynamikumfang) sowohl mit Sensor- als auch mit Motivbezug finden. Die Zusammenhänge sind so ähnlich, dass es auch nachvollziehbar zu Überschneidungen kommt. Ein Motiv hat allerdings einen physikalisch vorhandenen Kontrastumfang (bedingt durch Licht, Form und Farbe). Der Sensor einen Dynamikumfang, der sich auch darauf bezieht, welchen Kontrastumfang eines Motivs er überhaupt abbilden kann.

Wie kommt nun der Dynamikumfang eines Sensors zustande?

Um dies zu erklären, muss ich ein wenig ausholen. Wie kommt dieser „ominöse“ Umfang der Sensoren denn überhaupt zustande? Nun wird kein Hersteller die speziellen Details veröffentlichen, die die Sensoren der unterschiedlichen Hersteller voneinander unterscheiden. Es gibt aber grundsätzliche Zusammenhänge, die man sich anlesen und die man sich als Ingenieur (ich bin zufällig einer) erschließen kann.

Aus meiner Sicht trennt sich bei den Bildsensoren die Spreu vom Weizen bei den hohen bis sehr hohen ISO. Rein rechnerisch geht jede ISO-Stufe einher mit einer Blende Verlust an Dynamik. Sensoren die bei so hohen ISO noch ein rauscharmes Foto ermöglichen und dazu noch so viel Detailzeichnung in den kritischen Lichtern und Schatten erlauben, spielen in der oberen Liga mit
Fujifilm X-T2 | 56 mm | 1/80 Sek. | f/1,4 | ISO 6.400

Du musst Dir das einzelne Pixel eines Sensors als Sammelbehälter vorstellen. Gesammelt wird Licht. Um das Licht speichern zu können, wird das Licht in eine elektrische Ladung umgewandelt. Der Grund ist einfach: Elektrische Ladung lässt sich digital verarbeiten.

Nun ist es leider so, dass diese Ladung auch einfach so entsteht (durch Ungenauigkeiten in der Produktion, durch Wärme usw.). Insofern muss eine Mindestmenge an Licht einfallen und in elektrische Ladung umgewandelt werden, um sich so ausreichend von den zufälligen Ladungen zu unterscheiden, damit ein verwertbares Signal entsteht. Die Untergrenze der Dynamik ist entstanden. Durch genauere Fertigungsverfahren ist es gelungen, diese Grenze immer weiter nach unten zu verschieben, so dass moderne Sensoren im Bereich von vielleicht einer Blende früher in der Lage sind ein Signal zu differenzieren, das später im Foto als Schattenzeichnung qualifizierbar ist.

Nehmen wir nun an, dass dieses minimale Signal 100 Ladungen beträgt (rein fiktive Zahl). Kommen wir zum nächsten Punkt. Mit jeder Blendenstufe verdoppelt sich die Lichtmenge und damit verdoppelt sich auch die in dem Pixel erzeugte Ladung. Der Schritt von 100 auf 200 ist dabei noch nicht so groß, im zweiten Schritt werden es dann aber schon 400, dann 800 und 1.600 usw.

Hast Du mir bis hier folgen können?

Genau an dieser Reihe wird die Krux sehr schnell klar, wieso es sehr schwierig ist, den Dynamikumfang eines Sensors spürbar zu erhöhen. Um auch nur eine Blendenstufe mehr Dynamik zu gewinnen ist es nötig, die Fähigkeit eines Pixels zur Sammlung elektrischer Ladung zu verdoppeln (und zwar den Maximalwert und nicht den Minimalen).

Von einer Baureihe von Canon habe ich noch die ungefähren Zahlen im Kopf: Die EOS 7D konnte rund 17.000 Ladungen sammeln, bevor das Pixel „voll“ war. Die EOS 7D II kann schon rund 35.000 Ladungen sammeln. So gewaltig dieser Sprung in Zahlen aussieht, der tatsächliche Gewinn beträgt aufgrund der exponentiellen Steigerung gerade mal eine Blendenstufe. Aus diesem exponentiellen Verlauf ergibt sich übrigens zwangsläufig, dass bei dem derzeitigen Standard von 14bit-RAW die maximale Dynamik eines Sensors auch 14 Blendenstufen betragen wird (realistisch eher bei ca. 13 aufgrund der Fehlertoleranzen).

Nicht nur die Betrachtung der Lichter und Schatten spielt bei der Bewertung eines Sensors eine Rolle, sondern auch die Farbtreue und wie fein der Sensor diese Farben auflösen kann. Hier lohnt dann auch ein Blick in die vergrößerte Ansicht.
Fujifilm X-T2 | 56 mm | 1/1.900 Sek. | f/1,4 | ISO 200

Nach diesen Ausführungen sollte Dir nun klar sein wie die Dynamik eines Sensors entsteht und wo sie ihre Grenzen findet. Bei all diesen Ausführungen solltest Du aber immer im Hinterkopf behalten: Die Dynamik heutiger Sensoren übertrifft im Grunde durchweg die Fähigkeiten aller üblichen Ausgabemedien (egal ob Druck oder Bildschirm) diesen Umfang auch nur näherungsweise darzustellen.

Die technische Seite

Um die Komplexität in seiner Gesamtheit zu erfassen, möchte ich mit Dir noch einen Blick auf die technische Seite werfen. Seitens der Hersteller gibt es unterschiedliche Art und Weisen, an das Thema der Dynamik heranzugehen. Es geht dabei übrigens nicht nur um die maximale Bandbreite, die erreicht werden kann. Es geht auch um die Qualität der Zwischenschritte innerhalb des Dynamikumfangs. Gemeint sind die Abstufungen der Helligkeit auch im mittleren Bereich. Sie spielen dabei eine Rolle, ob es insbesondere in großen Flächen ähnlicher Farbe und Helligkeit zu Tonwertabrissen kommt oder nicht. Einen ganz erheblichen Einfluss hat dabei der Aufbau des Sensors.

Der Aufbau des Bildsensors

Der Sensor spielt für die erreichbare Bildqualität und Auflösung neben der Optik die größte Rolle. Die Fujifilm X-T2 verfügt zum Beispiel über einen X-Trans-Sensor mit einem neuartigen Aufbau.

Grundsätzlich kann jedes Pixel nur einfarbig sehen. Wenn man es ganz genau nimmt, kann das einzelne Pixel eigentlich gar nicht „farbig“ sehen. Es macht nichts anderes, als die Menge des eingefallenen Lichts in eine messbare Ladung umzuwandeln.

Wie entsteht die Farbe?

Vor dem Pixel sitzt ein Farbfilter, jeweils einer der drei Grundfarben

  • Rot
  • Blau
  • und Grün.

Das Pixel misst also die Menge an Licht, die durch den Filter der jeweiligen Farbe auf das Pixel fällt. Der Sensor (bzw. der Bildprozessor) kennt die Farbe des Filters vor dem jeweiligen Pixel und kann darüber nachträglich die Farbinformation zufügen.

Meistens sind die Pixel im Bayer-Pattern angeordnet. In jeder Zeile finden sich wechselweise Rot-Grün, bzw. Blau-Grün. Der Überhang an grünen Pixeln entspricht ungefähr dem menschlichen Sehen, so dass sich aus der Interpolation der Farben und Helligkeiten ein für uns passendes Farbempfinden entsteht. (R:G:B <=> 1:2:1)

Neben der maximalen Dynamik eines Bildsensors spielt die Qualität der Abstufungen eine wesentliche Rolle, wenn es um die Maximierung der Bildqualität und die resultierende Zeichnung in insbesondere den kritischen Bereichen (Lichter und Schatten) geht. So beschreitet zum Beispiel Fujifilm mit ihren Kameras völlig eigene Wege bezüglich des Sensordesigns (Anordnung der Farbfilter).

Ein analoger Farbfilm arbeitet auch mit den drei Grundfarben. Die einzelnen Körnchen (dem Pendant zu dem Pixel) sind allerdings völlig beliebig auf der Fläche verteilt, keine der Anordnungen wiederholt sich auf der Fläche. Beim Bayersensor besteht die Grundfläche aus vier Pixeln, die sich dann ständig wiederholen, was den Sensor anfällig macht für Moiré und Tonwertabrisse (sichtbar als Farbkanten zum Beispiel im blauen Himmel).

Bei der Anordnung des X-Trans-Sensors wird das Verhältnis der Farben zueinander verschoben (R:G:B <=> 2:5:2). Die Farbauflösung wird dadurch optimiert und die Anfälligkeit gegenüber Moiré ist bei weitem nicht so groß. Dadurch entsteht eine feinere Detailzeichnung, die sich auch in den kritischen Bereichen bemerkbar macht. Zudem wird für die komplette Interpolation eine größere Anzahl von Pixeln benötigt, was auf der einen Seite hohe Ansprüche an den Bildprozessor stellt, auf der anderen Seite die Qualität der Ergebnisse fördert.

Funktionale Aspekte

Aus den vorherigen Ausführungen solltest Du mitgenommen haben, was der Dynamikumfang ist, wo er seine Grenzen findet und welche Bedeutung der Aufbau des Bildsensors hat.

Die physikalischen Grenzen eines Bildsensors setzen dem Foto selbst (als Ergebnis eines Aufnahmeprozesses) aber keine absoluten Grenzen. Moderne Kameras stellen dem Fotografen dazu Bracketing-Funktionen zur Verfügung. Zwar ist auch oft schon eine Verrechnung in der Kamera selbst möglich, allerdings hast Du in solchen Fällen kaum eine Möglichkeit, wirklich Einfluss auf das Ergebnis zu nehmen, so dass ich reines Bracketing bevorzuge, um dann im nachgelagerten Prozess selbst zu entscheiden, wie ich die Bilder am Ende zusammenfüge.

Wie dies genau funktioniert, erkläre ich im zweiten Teil. Wichtig ist an dieser Stelle nur: Die Funktion sollte automatisch funktionieren, die Bildfolge sehr schnell sein (dann geht Bracketing auch Freihand). Und die Belichtungsmessung muss bei der Bildfolge „arretiert“ sein, da sonst das Bracketing keinen Sinn ergibt.

Ausblick

Nachdem wir uns gemeinsam die technischen Grundlagen erarbeitet haben, solltest Du die physikalischen Zusammenhänge soweit erfasst haben, dass wir im nächsten Schritt in die praktische Umsetzung gehen können.  Dabei lernst Du mit einem Minimum an Planung, wie Du die Aufnahmequalität Deiner Fotos deutlich steigern kannst (auch bei schwierigen Motiven).

Folgendes solltest Du Dir vorab schon merken. Auch wenn Du über die Bildbearbeitung heutzutage schon viele Belichtungsfehler gut korrigieren kannst: Je besser und genauer Du die Originalaufnahme gemacht hast, umso mehr verwertbare Informationen enthält die Aufnahme, um daraus am Computer ein detailreiches Bild zu entwickeln.

7 Kommentare

  1. Zitat „Ein “höheres” Bildprogramm scheue ich wegen deren Komplexizität.“
    Das kann man alles lernen, nur Mut. Versuche es mal mit Gimp (Ist eigentlich für Linux entwickelt worden, gibt es aber schon lange auch für Windows). Das ist kostenlos und kann sehr viel, ist dem berühmten Photoshop in etwa gleichwertig. Man muss ja nicht (gleich) alles können. Und es gibt auch eine Wiki dafür im Netz.
    Falls du wirklich nicht damit klar kommst, hast du kein Geld zum Fenster rausgeworfen.
    Ich habe übrigens, da ich immer nur das nutze, was ich brauche, auch noch lange nicht alle Möglichkeiten ausgeschöpft.

  2. Ich glaube, du hast bezüglich des Auges noch was vergessen. Ich habe noch in der Schule gelernt, dass auf der Netzhaut vor den lichtempfindlichen Zellen abhängig von der eingestrahlten Lichtmenge eine Abdunklungsschicht aufgebaut werden kann, um die Empfindlichkeit zu verringern, also eine Art ISO- Regulierung für jede einzelne Zelle (wäre beim Kamerasensor Pixel).

  3. Vielen Dank – sehr gut und praxisnah erklärt, in einer klaren schnörkellosen Sprache! Eine gute Hilfe, um bewusster zu fotografieren, weil jetzt ausgestattet mit dem nötigen Hintergrundwissen, ohne überflüssigen technischen Ballast. Nur weiter so!

Wie gefällt Dir dieser Lerninhalt?

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Teile diesen Link mit einem Freund