Motive mit hohem Kontrastumfang bewältigen: Die Grundlagen

Kontrastumfang: Die Grundlagen

Du hast diese Begriffe sicher schon mehrfach gelesen oder gehört:

  • Kontrastumfang
  • und Dynamik

Jeweils im Zusammenhang mit der Fotografie natürlich. Beide Begriffe hängen eng miteinander zusammen und doch hat jeder eine eigene Bedeutung. In diesem Beitrag werden wir uns mit den Grundlagen auseinandersetzen und die Basis dafür legen, dass Du das Thema soweit verstehst. Damit werden wir im nächsten Teil die Praxis näher beleuchten und Dir Tipps geben, wie Du Motive mit hohem Kontrast gut bewältigst.

Motive mit hohem Kontrastumfang haben sehr helle Bereiche (in diesem Fall die Reflexionen des Himmels in dem Tümpel) und sehr dunkle Zonen (der Stamm im Schatten). Die Belichtung der hellen Bereiche ist selten ein Problem, die Spreu vom Weizen trennt sich in den Schatten. Die Frage ist, ob es der Kamera gelingt dort noch genug Zeichnung hinein zu bekommen, die sich später noch weiter herausarbeiten lässt.
Fujifilm X-T2 | 56 mm | 1/80 Sek. | f/1,2 | ISO 400

Lange Zeit war die native Auflösung der Bildsensoren das Schlüsselkriterium, wenn es darum ging deren Qualität zu beurteilen. Nachdem die Auflösung immer größer wurde und in Bereiche vorstieß, in denen die zusätzliche Auflösung keine praktische Relevanz mehr hatte (unter anderem, weil die Optik der Linsen gar nicht mehr in der Lage ist, die volle Auflösung zu nutzen), kam das Rauschen als zusätzliches Qualitätskriterium.

Es ist dabei wohl eine Besonderheit der Spezies Fotograf, dass das Thema Rauschen oft in Bereichen diskutiert wird, die für den praktischen Alltag des Hobbyfotografen nahezu keine Relevanz haben.

Ich werde darauf noch in dem einen oder anderen Absatz kurz eingehen.

Das neue Qualitätskriterium

Neuestes Qualitätskriterium in der Diskussion von Hobbyfotografen ist oft die „Dynamik“ des Bildsensors, bei der eine Steigerung von zum Beispiel 12,4 auf 13,1 Blendenstufen auf einmal so sensationell bessere Möglichkeiten bez. erreichbarer Bildqualität bietet, dass der Kauf fast zwingend ist. Was jetzt ein wenig spöttisch klingen mag, soll nur der Hinweis darauf sein, dass ein solch einzelnes Kriterium niemals ausreichend ist, um die erreichbare Qualität zu beurteilen. Natürlich lohnt sich immer auch ein Blick auf neue Sensoren und was sie leisten. Die Summe aus Dynamik, Farbtreue, Feinheit der Zwischenstufen und Rauschverhalten ist deutlich interessanter, als nur die Dynamik allein.

Du findest meine Darstellung überzeichnet? Ja, definitiv. Ich möchte versuchen mit den folgenden Artikeln zu einer Versachlichung beizutragen, indem ich die technischen und fotografischen Hintergründe erläutere, so dass Du in der Lage bist, selbst zu entscheiden:

Was ist wichtig für mich und was nicht?

Neben der Leistung der einzelnen Pixel spielt schlussendlich auch die Anordnung der Farbfilter eine erhebliche Rolle für das anschließende Ergebnis. Aus diesem Grund bringe ich Dir am Ende des Artikels zum Vergleich den Aufbau des mittlerweile klassischen Bayer-Sensors und eines recht neuen Konzeptes (X-Trans), das zum Beispiel Fujifilm mit beeindruckenden Ergebnissen verfolgt, näher.

Die wichtigsten Begriffe

Über das Bildrauschen haben wir in der Fotoschule in den Artikeln:

schon geschrieben. Den Zusammenhang zwischen Rauschen und Auflösung setze ich für diesen Artikel als bekannt voraus. Wichtig für die folgenden Betrachtungen sind Begriffe Kontrastumfang und Dynamik, die ich Dir an dieser Stelle erläutern möchte. Vorweg möchte ich noch anfügen, dass ich hier auch ein wenig meine eigene Sichtweise und Begriffsinterpretation ins Spiel bringe, weil sich manche Dinge so einfacher und plausibler erklären lassen, als zum Beispiel bei Wikipedia.

Kontrastumfang

Den Begriff „Kontrastumfang“ beziehe ich immer auf das Motiv. Ein Motiv hat immer einen hellsten Punkt und einen dunkelsten Punkt (oder Fläche). Nun betrachten wir diese beiden Punkte als jeweils einheitliche Fläche, die wir messen würden (bei konstanten ISO). Jede dieser Flächen ergibt ein Ergebnis, das wir auf einen Lichtwert zurückführen können (Der Lichtwert wird im hinteren Teil des Artikels näher erklärt). Nehmen wir einfach an, dass die hellste Stelle einen Lichtwert von 16 hat und die dunkelste Stelle einen Lichtwert von 3.

Ist der Kontrastumfang zu groß für den Sensor, werden nicht alle Teile des Fotos korrekt belichtet. In diesem Fall hat die Kamera den das anfokussierte Teil des Motivs korrekt als Hauptmotiv erkannt und optimal belichtet. Das Fenster selbst ist viel zu hell, hat aber für das Motiv keine Relevanz.
Fujifilm X-T2 | 56 mm | 1/160 Sek. | f/1,2 | ISO 200

Vereinfacht gesagt: Die Differenz aus den beiden Lichtwerten (im Beispiel 16 – 3 = 13) ergibt den Kontrastumfang des Motivs. Der Lichtwert wird auch oft in Blendenstufen ausgedrückt und hätte im Beispiel also 13 Blendenstufen. Der Kontrastumfang eines Motivs kann in Wirklichkeit deutlich höher, aber auch deutlich kleiner sein.

Nebel zum Beispiel verringert den Kontrastumfang, die Kombination aus Mittagssonne und Strand oder Schnee erhöht ihn wesentlich. Für Deine Beurteilung des Kontrastumfangs eines Motivs ist allerdings nicht der absolute Kontrastumfang wichtig, sondern der motivisch relevante Kontrastumfang.

Was ist jetzt relevant? Eigentlich musst Du es eher umgekehrt betrachten: Was ist nicht relevant?

Nehmen wir ein Foto einer Landschaft, bei dem in einer Ecke auch die Sonne im Bild ist. Die Sonne ist extrem hell und erweitert den Kontrastumfang wesentlich. Allerdings erwartet keiner der Betrachter, auf einem Landschaftsbild in der Sonne die Sonnenflecken erkennen zu können. Der durch die Sonne selbst ins Bild eingefügte Kontrastumfang ist daher für das Foto nicht relevant.

Zu viel ist zu viel. Durch das direkte Tageslicht auf den Globus und die fehlende Beleuchtung des Innenraums ist hier mit einer einzelnen Aufnahme nichts mehr zu machen.
Fujifilm X-T2 | 56 mm | 1/120 Sek. | f/1,2 | ISO 400

Nehmen wir an auf dem Foto ist an irgendeiner Stelle ein kleines Häuschen, das sich malerisch in die Landschaft einfügt. In diesem Häuschen steht ein Fenster offen. In dem Fenster ist es schwarz. Rein theoretisch wird es möglich sein in diesem Fenster Teile der Einrichtung differenzieren zu können: Für das Foto und dessen Aussage hat es aber keinerlei Relevanz. Auch hier kannst Du einen Teil des Motivkontrastes beschneiden, ohne die Bildaussage zu reduzieren.

Das menschliche Auge macht es übrigens nicht anders. Durch die ständige Adaption an die Umgebungshelligkeit (die Pupille ist ja nichts anderes, als eine sich ständig öffnende und schließende Blende) stellt sich das Auge auf das jeweilig fokussierte Objekt ein (relevantes Motiv) und vernachlässigt bei der biologischen Belichtungsmessung (im Rahmen der Möglichkeiten) hellere oder dunklere Motivteile, die sich im seitlichen Sichtfeld befinden (nicht relevante Motivteile).

Dynamik(-umfang)

Du wirst beide Bezeichnungen (Kontrast-und Dynamikumfang) sowohl mit Sensor- als auch mit Motivbezug finden. Die Zusammenhänge sind so ähnlich, dass es auch nachvollziehbar zu Überschneidungen kommt. Ein Motiv hat allerdings einen physikalisch vorhandenen Kontrastumfang (bedingt durch Licht, Form und Farbe). Der Sensor einen Dynamikumfang, der sich auch darauf bezieht, welchen Kontrastumfang eines Motivs er überhaupt abbilden kann.

Wie kommt nun der Dynamikumfang eines Sensors zustande?

Um dies zu erklären, muss ich ein wenig ausholen. Wie kommt dieser „ominöse“ Umfang der Sensoren denn überhaupt zustande? Nun wird kein Hersteller die speziellen Details veröffentlichen, die die Sensoren der unterschiedlichen Hersteller voneinander unterscheiden. Es gibt aber grundsätzliche Zusammenhänge, die man sich anlesen und die man sich als Ingenieur (ich bin zufällig einer) erschließen kann.

Aus meiner Sicht trennt sich bei den Bildsensoren die Spreu vom Weizen bei den hohen bis sehr hohen ISO. Rein rechnerisch geht jede ISO-Stufe einher mit einer Blende Verlust an Dynamik. Sensoren die bei so hohen ISO noch ein rauscharmes Foto ermöglichen und dazu noch so viel Detailzeichnung in den kritischen Lichtern und Schatten erlauben, spielen in der oberen Liga mit
Fujifilm X-T2 | 56 mm | 1/80 Sek. | f/1,4 | ISO 6.400

Du musst Dir das einzelne Pixel eines Sensors als Sammelbehälter vorstellen. Gesammelt wird Licht. Um das Licht speichern zu können, wird das Licht in eine elektrische Ladung umgewandelt. Der Grund ist einfach: Elektrische Ladung lässt sich digital verarbeiten.

Nun ist es leider so, dass diese Ladung auch einfach so entsteht (durch Ungenauigkeiten in der Produktion, durch Wärme usw.). Insofern muss eine Mindestmenge an Licht einfallen und in elektrische Ladung umgewandelt werden, um sich so ausreichend von den zufälligen Ladungen zu unterscheiden, damit ein verwertbares Signal entsteht. Die Untergrenze der Dynamik ist entstanden. Durch genauere Fertigungsverfahren ist es gelungen, diese Grenze immer weiter nach unten zu verschieben, so dass moderne Sensoren im Bereich von vielleicht einer Blende früher in der Lage sind ein Signal zu differenzieren, das später im Foto als Schattenzeichnung qualifizierbar ist.

Nehmen wir nun an, dass dieses minimale Signal 100 Ladungen beträgt (rein fiktive Zahl). Kommen wir zum nächsten Punkt. Mit jeder Blendenstufe verdoppelt sich die Lichtmenge und damit verdoppelt sich auch die in dem Pixel erzeugte Ladung. Der Schritt von 100 auf 200 ist dabei noch nicht so groß, im zweiten Schritt werden es dann aber schon 400, dann 800 und 1.600 usw.

Hast Du mir bis hier folgen können?

Genau an dieser Reihe wird die Krux sehr schnell klar, wieso es sehr schwierig ist, den Dynamikumfang eines Sensors spürbar zu erhöhen. Um auch nur eine Blendenstufe mehr Dynamik zu gewinnen ist es nötig, die Fähigkeit eines Pixels zur Sammlung elektrischer Ladung zu verdoppeln (und zwar den Maximalwert und nicht den Minimalen).

Von einer Baureihe von Canon habe ich noch die ungefähren Zahlen im Kopf: Die EOS 7D konnte rund 17.000 Ladungen sammeln, bevor das Pixel „voll“ war. Die EOS 7D II kann schon rund 35.000 Ladungen sammeln. So gewaltig dieser Sprung in Zahlen aussieht, der tatsächliche Gewinn beträgt aufgrund der exponentiellen Steigerung gerade mal eine Blendenstufe. Aus diesem exponentiellen Verlauf ergibt sich übrigens zwangsläufig, dass bei dem derzeitigen Standard von 14bit-RAW die maximale Dynamik eines Sensors auch 14 Blendenstufen betragen wird (realistisch eher bei ca. 13 aufgrund der Fehlertoleranzen).

Nicht nur die Betrachtung der Lichter und Schatten spielt bei der Bewertung eines Sensors eine Rolle, sondern auch die Farbtreue und wie fein der Sensor diese Farben auflösen kann. Hier lohnt dann auch ein Blick in die vergrößerte Ansicht.
Fujifilm X-T2 | 56 mm | 1/1.900 Sek. | f/1,4 | ISO 200

Nach diesen Ausführungen sollte Dir nun klar sein wie die Dynamik eines Sensors entsteht und wo sie ihre Grenzen findet. Bei all diesen Ausführungen solltest Du aber immer im Hinterkopf behalten: Die Dynamik heutiger Sensoren übertrifft im Grunde durchweg die Fähigkeiten aller üblichen Ausgabemedien (egal ob Druck oder Bildschirm) diesen Umfang auch nur näherungsweise darzustellen.

Die technische Seite

Um die Komplexität in seiner Gesamtheit zu erfassen, möchte ich mit Dir noch einen Blick auf die technische Seite werfen. Seitens der Hersteller gibt es unterschiedliche Art und Weisen, an das Thema der Dynamik heranzugehen. Es geht dabei übrigens nicht nur um die maximale Bandbreite, die erreicht werden kann. Es geht auch um die Qualität der Zwischenschritte innerhalb des Dynamikumfangs. Gemeint sind die Abstufungen der Helligkeit auch im mittleren Bereich. Sie spielen dabei eine Rolle, ob es insbesondere in großen Flächen ähnlicher Farbe und Helligkeit zu Tonwertabrissen kommt oder nicht. Einen ganz erheblichen Einfluss hat dabei der Aufbau des Sensors.

Der Aufbau des Bildsensors

Der Sensor spielt für die erreichbare Bildqualität und Auflösung neben der Optik die größte Rolle. Die Fujifilm X-T2 verfügt zum Beispiel über einen X-Trans-Sensor mit einem neuartigen Aufbau.

Grundsätzlich kann jedes Pixel nur einfarbig sehen. Wenn man es ganz genau nimmt, kann das einzelne Pixel eigentlich gar nicht „farbig“ sehen. Es macht nichts anderes, als die Menge des eingefallenen Lichts in eine messbare Ladung umzuwandeln.

Wie entsteht die Farbe?

Vor dem Pixel sitzt ein Farbfilter, jeweils einer der drei Grundfarben

  • Rot
  • Blau
  • und Grün.

Das Pixel misst also die Menge an Licht, die durch den Filter der jeweiligen Farbe auf das Pixel fällt. Der Sensor (bzw. der Bildprozessor) kennt die Farbe des Filters vor dem jeweiligen Pixel und kann darüber nachträglich die Farbinformation zufügen.

Meistens sind die Pixel im Bayer-Pattern angeordnet. In jeder Zeile finden sich wechselweise Rot-Grün, bzw. Blau-Grün. Der Überhang an grünen Pixeln entspricht ungefähr dem menschlichen Sehen, so dass sich aus der Interpolation der Farben und Helligkeiten ein für uns passendes Farbempfinden entsteht. (R:G:B <=> 1:2:1)

Neben der maximalen Dynamik eines Bildsensors spielt die Qualität der Abstufungen eine wesentliche Rolle, wenn es um die Maximierung der Bildqualität und die resultierende Zeichnung in insbesondere den kritischen Bereichen (Lichter und Schatten) geht. So beschreitet zum Beispiel Fujifilm mit ihren Kameras völlig eigene Wege bezüglich des Sensordesigns (Anordnung der Farbfilter).

Ein analoger Farbfilm arbeitet auch mit den drei Grundfarben. Die einzelnen Körnchen (dem Pendant zu dem Pixel) sind allerdings völlig beliebig auf der Fläche verteilt, keine der Anordnungen wiederholt sich auf der Fläche. Beim Bayersensor besteht die Grundfläche aus vier Pixeln, die sich dann ständig wiederholen, was den Sensor anfällig macht für Moiré und Tonwertabrisse (sichtbar als Farbkanten zum Beispiel im blauen Himmel).

Bei der Anordnung des X-Trans-Sensors wird das Verhältnis der Farben zueinander verschoben (R:G:B <=> 2:5:2). Die Farbauflösung wird dadurch optimiert und die Anfälligkeit gegenüber Moiré ist bei weitem nicht so groß. Dadurch entsteht eine feinere Detailzeichnung, die sich auch in den kritischen Bereichen bemerkbar macht. Zudem wird für die komplette Interpolation eine größere Anzahl von Pixeln benötigt, was auf der einen Seite hohe Ansprüche an den Bildprozessor stellt, auf der anderen Seite die Qualität der Ergebnisse fördert.

Funktionale Aspekte

Aus den vorherigen Ausführungen solltest Du mitgenommen haben, was der Dynamikumfang ist, wo er seine Grenzen findet und welche Bedeutung der Aufbau des Bildsensors hat.

Die physikalischen Grenzen eines Bildsensors setzen dem Foto selbst (als Ergebnis eines Aufnahmeprozesses) aber keine absoluten Grenzen. Moderne Kameras stellen dem Fotografen dazu Bracketing-Funktionen zur Verfügung. Zwar ist auch oft schon eine Verrechnung in der Kamera selbst möglich, allerdings hast Du in solchen Fällen kaum eine Möglichkeit, wirklich Einfluss auf das Ergebnis zu nehmen, so dass ich reines Bracketing bevorzuge, um dann im nachgelagerten Prozess selbst zu entscheiden, wie ich die Bilder am Ende zusammenfüge.

Wie dies genau funktioniert, erkläre ich im zweiten Teil. Wichtig ist an dieser Stelle nur: Die Funktion sollte automatisch funktionieren, die Bildfolge sehr schnell sein (dann geht Bracketing auch Freihand). Und die Belichtungsmessung muss bei der Bildfolge „arretiert“ sein, da sonst das Bracketing keinen Sinn ergibt.

Ausblick

Nachdem wir uns gemeinsam die technischen Grundlagen erarbeitet haben, solltest Du die physikalischen Zusammenhänge soweit erfasst haben, dass wir im nächsten Schritt in die praktische Umsetzung gehen können.  Dabei lernst Du mit einem Minimum an Planung, wie Du die Aufnahmequalität Deiner Fotos deutlich steigern kannst (auch bei schwierigen Motiven).

Folgendes solltest Du Dir vorab schon merken. Auch wenn Du über die Bildbearbeitung heutzutage schon viele Belichtungsfehler gut korrigieren kannst: Je besser und genauer Du die Originalaufnahme gemacht hast, umso mehr verwertbare Informationen enthält die Aufnahme, um daraus am Computer ein detailreiches Bild zu entwickeln.

Wie hat Dir dieser Artikel gefallen?

15 Kommentare

  1. pixselphilsov
      April 17, 2018 at 6:07 PM
    Kommentar bewerten

    iflagranti dillitanti, der Bereich mit den Ladungen ist falsch, der Satz mit der Farbtreue beim X-Transsensor ist falsch, die Eitelkeit des Autors ist umgekehrt proportional zur Fehlerquote – wer hat hier bei den „Fachautoren“ von wem abgeschrieben? die Physikalische Gesetze sind eine Seite, die AD-Wandlung und die weitere Signalverarbeitung etwas anderes.

  2. Pingback: So gelingen Dir Fotos bei wenig Licht – Teil 1: Belichtungszeit – Fotoschule

  3. Pingback: Motive mit hohem Kontrastumfang: Praxistipps – Fotoschule

  4.   Dezember 17, 2017 at 9:39 AM
    Kommentar bewerten

    Vielen Dank – sehr gut und praxisnah erklärt, in einer klaren schnörkellosen Sprache! Eine gute Hilfe, um bewusster zu fotografieren, weil jetzt ausgestattet mit dem nötigen Hintergrundwissen, ohne überflüssigen technischen Ballast. Nur weiter so!

  5. Norbert
      Dezember 16, 2017 at 6:35 PM
    Kommentar bewerten

    An Thomas Werner
    Ich finde die Artikelserien, die uns hier kostenlos geboten werden gut und meistens auch sehr nützlich. Schön ist es auch, wenn man sich in diesem Forum unter Gleichgesinnten gleichberechtigt austauschen kann, unabhängig davon, auf welcher Entwicklungsstufe jeder steht.Traurig ist es allerdings, dass sich auch hier einige permanent Schlechtgelaunte eingenistet haben, die ständig etwas zu meckern haben, die ständig nach dem Haar in der Suppe suchen. Dieses Oberlehrergetue kotzt mich ehrlich gesagt langsam an. Wenn Ihr sowieso alles besser wisst, dann lest die Artikel doch besser gar nicht erst und haltet einfach den Mund.
    Ich empfinde den Artikel z.B. nicht als „Werbeveranstaltung“ nur weil Martin Schwabe für seine Fotos eine Fujifilm-Kamera verwendet hat. Hätte er eine andere genommen, hättest Du ihm wahrscheinlich den gleichen Vorwurf gemacht. (Meckern ist Pflicht, der Grund ist nebensächlich.) Und wenn Du richtig hingesehen hättest, wäre Dir aufgefallen, dass der Autor in der Einleitung ausdrücklich darauf hinweist, dass in diesem ersten Artikel nur die Grundlagen behandelt werden und weitergehende Ausführungen im nächsten Teil folgen werden. Soweit zu Deiner Kritik, dass nichts „zum Raw“ gesagt wurde.

    1. Justin Koller
        Dezember 17, 2017 at 11:09 AM
      Kommentar bewerten

      Ich stimme deinen Ausführungen zu.

    2. EBERL jörg
        Dezember 20, 2017 at 4:26 PM
      Kommentar bewerten

      KURZ..Norbert hat recht,einfach nicht auf unterentwickelte MÄCKERER eingehen.jörg

  6. Tramp Hartland
      Dezember 16, 2017 at 8:11 AM
    Kommentar bewerten

    Hallo,
    ein sehr interessanter Artikel über die Grenzen der Dynamik. Ich selber bin kein Ingenieur sondern Mediziner und stelle mir schon seit einiger Zeit die Frage, warum ich es im Allgemeinen nicht hinbekomme, den optischen Eindruck, den ich mit dem Auge wahrnehme und im Gehirn zusammensetze mit der Kamera nicht wiedergegeben kann.
    Leider ist der biologische Teil in dem Artikel recht kurz ausgefallen.
    Das Auge ist nämlich anders aufgebaut als die Sensoren der Kameras. Das Auge hat mit der Iris auch nicht nur eine Blende. Auf der Netzhaut haben wir Stäbchen und Zapfen, die in ihrer Funktion unterschiedlichen ISO-Zahlen entsprechen. Stäbchen entsprechen dabei (fiktiv) einer ISO-Zahl von 1000, Zapfen einer ISO von 100. Beide Rezeptoren haben in sich selber aber auch noch einen erheblichen Dynamikbereich. Im Auge dazu die Verteilung von Stäbchen und Zapfen auch nicht gleichmäßig, die Stäbchen sind eher in der Peripherie, die Zapfen eher im Zentrum. Dadurch und durch das dahinter geschaltete Gehirn sind wir in der Lage neben dem hellen Mond auch Sterne, die eine viel geringere Leuchtkraft haben wahrzunehmen. Versucht man diesen optischen Eindruck mit der Kamera aufzunehmen, ist man im Allgemeinen enttäuscht.
    Die Technik versucht das mit der HDR-Technik zu kopieren, was aber nicht so gut gelingt und einen recht künstlichen Effekt erzeugt.
    Wahrscheinlich sitzen schon Ingenieure in den Labors und versuchen einen Sensor zu erfinden, der in der Lage ist jedes Pixel mit einem anderen ISO-Wert zu belegen. Zunächst kommt dabei wahrscheinlich optischer Matsch raus, beim Menschen ist das dahinter geschaltete Gehirn in der Lage ein vernünftiges Bild zu generieren.
    Ich bin gespannt, wann die Prozessoren und Sensoren so weit sind um das zu simulieren. Vielleicht erlebe ich das ja noch.

    1.   Dezember 20, 2017 at 4:44 PM
      Kommentar bewerten

      Ich glaube, du hast bezüglich des Auges noch was vergessen. Ich habe noch in der Schule gelernt, dass auf der Netzhaut vor den lichtempfindlichen Zellen abhängig von der eingestrahlten Lichtmenge eine Abdunklungsschicht aufgebaut werden kann, um die Empfindlichkeit zu verringern, also eine Art ISO- Regulierung für jede einzelne Zelle (wäre beim Kamerasensor Pixel).

  7. Thomas Werner
      Dezember 15, 2017 at 7:07 PM
    Kommentar bewerten

    Schade, dass es eine Werbeveranstaltung geworden ist. Der Titel lässt davon noch nichts erkennen und hatte mich interessiert. Und kaum etwas zum Raw, was überhaupt erst höhere Dynamik ermöglicht.
    Versucht es Fuji also schon wieder mal mit revolutionären Ansätzen. Meine FinePix 4900 mit Wabensensor war qualitativ kein bedeutender Fortschritt seiner Zeit und hat sich auch nicht durchgesetzt. Soll dieser X-Sensor nun bereits eine technische Grundlage sein, wie es der Ausblick suggeriert? Weiterhin fehlt es an objektiven, vergleichbaren und reproduzierbaren Tests sowie Ergebnissen, ehe man einen Sensor in die Höhe lobt.
    Übrigens habe ich auch ein Diplom in der Tasche.
    Gruß
    Thomas

  8. Bernd Nießen
      Dezember 15, 2017 at 6:30 PM
    Kommentar bewerten

    Super, wie klar dieser Artikel diese komplexe Materie darlegt und nachvollziehbare Gedankengänge einüben lässt. Ich bin begeistert!

  9. helu559
    Heinz Lutz-Kretzberg
      Dezember 15, 2017 at 6:20 PM
    Kommentar bewerten

    Dem Ingenör iss nix zu schwör … ( Komm ausm Maschinenbau, fotografiere und entwickle seit 1972 )
    und dennoch hab ich den Beitrag verstanden … ich danke für die Auffrischung meines Wissens ..
    gr heinz

  10. Hans Peter Krähenbühl
      Dezember 15, 2017 at 4:55 PM
    Kommentar bewerten

    Ich bin schon ein etwas alter „Hase“ mit 72 Lenzen, aber immer noch sehr interessiert an den Möglichkeiten, die mir ein entsprechender Sensor bieten kann. Da ich noch in die Zeit der rein analogen Fotografie geboren wurde, ist mir diese auch nicht fremd. Ich bin aber schon sehr dankbar, dass es nun digital auch gut weitergeht, die Anfänge waren ja äusserst schwach.
    Und so lese und verfolge ich nun immer lieber auch mal diese Artikel der „fotoschule“. Mit zur Zeit „nur“ einer „Brusttaschenkamera“ immerhin mit Leica-Objektiv aber eben sehr kleinem Sensor kämpfe ich immer wieder mit zu hohen Lichtern und zu tiefen dunklen Werten. Mir als Laien hilft dazu recht gut die von Microsoft entwickelte Windows Life Photogallery. Wobei ich auch hier die Grenzen recht gut ersehen kann.
    Ein „höheres“ Bildprogramm scheue ich wegen deren Komplexizität.

    1.   Dezember 20, 2017 at 4:53 PM
      Kommentar bewerten

      Zitat „Ein “höheres” Bildprogramm scheue ich wegen deren Komplexizität.“
      Das kann man alles lernen, nur Mut. Versuche es mal mit Gimp (Ist eigentlich für Linux entwickelt worden, gibt es aber schon lange auch für Windows). Das ist kostenlos und kann sehr viel, ist dem berühmten Photoshop in etwa gleichwertig. Man muss ja nicht (gleich) alles können. Und es gibt auch eine Wiki dafür im Netz.
      Falls du wirklich nicht damit klar kommst, hast du kein Geld zum Fenster rausgeworfen.
      Ich habe übrigens, da ich immer nur das nutze, was ich brauche, auch noch lange nicht alle Möglichkeiten ausgeschöpft.

Wie gefällt Dir dieser Lerninhalt?

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Teile diesen Link mit einem Freund