In Zusammenarbeit mit
Du hast in den zwei ersten Artikeln dieser Reihe (So gelingen Dir Fotos bei wenig Licht – Teil 1: Belichtungszeit, So gelingen Dir Fotos bei wenig Licht – Teil 2: Lichtstarke Objektive) bereits gelernt, dass es verschiedene technische und gestalterische Ansätze gibt, in Situationen mit wenig Licht noch gute Fotos zu machen. In diesem Artikel geht es um die Möglichkeiten, die sich durch die Sensoren ergeben. Bei diesen Sensoren sind die physikalischen Gegebenheiten, also die sogenannte Empfindlichkeit oder auch der ISO-Wert, die nutzbaren Grenzen Deiner Kamera.
Einfach fotografieren lernen mit unseren Online-Fotokursen
Für nur 6,99€ im Monat kannst Du auf über 70 Online-Fotokurse zugreifen. Lerne die Grundlagen der Fotografie - verständlich und mit vielen Praxisbeispielen. Inklusive Test und Fotokurs-Zertifikat.
Mehr Infos zu den FotokursenISO = Empfindlichkeit ≠ Qualität
Einer der größten Irrtümer vieler Fotografen ist die Gleichsetzung hoher ISO-Einstellungen mit sinkender Qualität.
Warum ist das so?
Sensortechnik entwickelt sich immer weiter und so sind „alte“ ISO 800 nicht gleich „moderne“ ISO 800“. Das betrifft nicht nur die Menge und Art des Rauschens, sondern auch die bessere Dynamik. Auch die oft generell gemachte Aussage, dass kleinere Sensorflächen automatisch schlechter sind als große Flächen, ist ohne Angabe der genutzten Sensoren nicht belastbar.
Was ist dieser ISO-Wert überhaupt?
Ich erkläre Dir den ISO-Wert in diesem Artikel nur oberflächlich. Wenn Du präzisere Informationen möchtest, solltest Du Dir einmal die folgenden Artikel unserer Online-Fotokurse anschauen:
- Wird Rauschen wirklich überbewertet?
- Meine Kamera ist drei Jahre alt, brauche ich eine neue? – Teil 2: Makro und Rauschen
Jeder Sensor besteht im Grunde aus vielen einzelnen Sensoren (den einzelnen Pixeln). Diese werden während der Belichtungszeit mit Licht/Energie gefüllt. Ist der Sensor gefüllt, ist es für die Elektronik und Logik dahinter einfach, den resultierenden Farbwert zu definieren.
Ist ein Teil der Sensorelemente zu 100% gefüllt und ein anderer Teil gar nicht, dann hat das resultierende Foto einen völlig weißen Bereich und einen völlig schwarzen.
Aber was ist, wenn die Belichtungszeit nicht ausreicht, überhaupt 100% zu erreichen? Dann muss der Logik mitgeteilt werden, dass er das Sensorelement mit der höchsten Ladung (Photonenfüllung) als 100% interpretieren soll. Dies spiegelt eine Art Verstärkung wieder und die Verstärkung ist die ISO-Zahl. Verdoppelst Du die ISO-Zahl, wird aus einem zu 50% gefüllten Sensorelement wieder ein 100% gefülltes (in der Bewertung der Aufnahme, nicht bei der Aufnahme selbst). Ein leeres Pixel bleibt leer (Schwarzwert). Der Rest wird zwischen 0% bis 100% neu verteilt. Man verringert also bereits mathematisch die mögliche Breite der Werte. Man verringert ergo die Dynamik.
Warum rauscht es?
Leider springen die von den Photonen entstandenen/angeregten Elektronen gerne von A nach B, C oder D… und so gibt es je nach Sensor falsche Füllungen der einzelnen Pixel. Dieser Tunneleffekt steigert sich noch bei Wärme. Und so ist ein in der Winternacht gemachtes Foto rauschärmer, als das mit denselben Einstellungen, welches in einer lauen Sommernacht gemacht wurde. Zudem gibt es das rein statistische Rauschen (auch weißes Rauschen genannt), also rein zufällig entstehende Ladungen in den einzelnen Pixeln, die mit keinem Lichteinfall korrespondieren.
Muss das Signal nun verstärkt werden, hat dies auch Auswirkungen auf das Rauschen. Es wird sozusagen mit verstärkt. Sichtbar wird es dann als starkes Rauschen im Foto, sofern es nicht durch verschiedene Maßnahmen nachher wieder reduziert oder eliminiert wird.
Großer Sensor = Kleinere ISO-Werte
Diese Aussage erklärt sich fast von allein. Große Sensoren haben (meist) größere Pixel. Diese können also mehr „echtes“ Licht aufnehmen. Gleichzeitig gelingt es den Ingenieuren auch die Aufnahmefähigkeit der einzelnen Pixel trotz gleicher Größe deutlich zu erhöhen. Zahlen, die ich noch grob im Kopf habe, sprechen davon, dass das Pixel eines früheren Modells ca. 17.000 Ladungen aufnehmen kann, die Neuentwicklung erlauben schon über 30.000 Ladungen.
Durch Verbesserungen der Mikrolinsen vor dem Pixel wird dabei auch die Menge des pro Zeit eingefangenen Lichts weiter erhöht. Aus diesen Zahlen ergibt sich direkt schon, dass solche Sensoren deutlich rauschärmer sein werden, weil der Signal-/Rauschabstand deutlich größer ist und auch für die Zwischenstufen mehr Information vorhanden ist.
Großer Sensor = Bessere Ladungstrennung
Auch dies erklärt sich bereits aus der Logik. Große Fotodioden trennen sich besser von den Nachbardioden. Und so springen weniger Elektronen ins falsche Sensorelement. Die Daten sind im Grunde sauberer.
Großer Sensor = Mehr Pixel
Ja, dies stimmt und dadurch werden auch einige der oben genannten positiven Effekte konterkariert. Denn ein kleiner Sensor und ein großer Sensor könnten sich absolut identisch verhalten, wenn zum Beispiel ein kleiner Sensor wie ein Mosaik nebeneinandergelegt wird.

Neuere Sensoren = Bessere Sensoren
Die Fertigung hat sich herstellerunabhängig verbessert. So sind heutige Smartphones in der Lage frühe D-SLR Kameras in Sachen Dynamik und Rauschen in die Schranken zu verweisen. Natürlich gibt es auch bei der Sensorherstellung günstig hergestellte Bildsensoren, dies möchte ich nicht ausklammern. Aber im Großen und Ganzen hat sich die Qualität erheblich gesteigert.
Mehr Pixel = Weniger Rauschen?
Diese Aussage ist mit einem Fragezeichen versehen. Denn mehr Pixel haben statistisch gesehen mehr Potential, die „richtigen“ Werte darzustellen. Und zwar, wenn die Elektronik/Logik dahinter Vergleiche mit Nachbarpixeln mit einberechnen lässt. Anhand einer Hüllkurve/Glockenkurve (Gaußsche Normalverteilungskurve) können „Ausrutscher“ erkannt werden und mit Nachbarwerten in Einklang gebracht werden. Der dann interpolierte/interpretierte Wert ist aber schlussendlich kein echter empirisch ermittelter Wert. Bei der hohen Pixeldichte heutiger Sensoren fallen diese Ausrutscher aber weniger auf.
Hier spielt neben dem Bildsensor der Bildprozessor eine große Rolle. Es gibt für die Berechnung und „Beseitigung“ statistischer Fehler, wie das Wärmerauschen und andere unerwünschte Effekte, mathematisch gesehen gute Verfahren. Dazu ist es nötig, dass für jedes Pixel die Umgebung (also die anderen Pixel) mit betrachtet wird.
Solche Berechnungen fordern den Bildprozessor sehr stark. Im Laufe der letzten Jahre wurde die Rechenleistung der Bildprozessoren wesentlich gesteigert. Aktuelle Prozessoren hätten vor wenigen Jahren von der reinen Rechenleistung her so manchem PC zur Ehre gereicht.
Heutzutage beziehen die modernen Prozessoren eine deutlich größere Menge an Umgebungspixeln in die Berechnung und Beseitigung statistischer Fehler mit ein. Je größer dieser Bereich, um so unauffälliger wird das Rauschen. So kann das Rauschen sogar dann deutlich reduziert werden, wenn der Bildsensor selbst sich gar nicht verändern würde.
Da aber beides meist zeitgleich passiert, wirkt sich die Reduzierung deutlicher aus, als Du vielleicht erwarten würdest.
Es gibt nicht nur innerhalb der Kameralogik Möglichkeiten, das Rauschen zu reduzieren. Viele Bildbearbeitungsprogramme, insbesondere die RAW-Konverter, haben Einiges zu bieten, um im Nachhinein Rauschen zu beseitigen.
Was sie aber nur begrenzt beherrschen, ist die verlorene Dynamik auszugleichen. Abgeschnittene (ausgefressene) Lichter und „abgesoffene“ (nicht durchgezeichnete) Tiefen sind nicht zu rekonstruieren.
Mehr Pixel pro gezeigter Fläche = Weniger Rauschen
Ja, die Aussage ist korrekt. Wenn viele Werte zu Verfügung stehen, kann durch Verkleinerung ein rauschfreieres Foto entstehen. Denn bei der Verkleinerung werden immer mehrere direkt nebeneinanderliegende Pixel zu einem Bildpunkt zusammengefasst.
Dies ist übrigens einer der Gründe, warum DSLR so gerne auch als Videokameras genutzt werden. Ein Video in Full-HD hat pro Bild rund 2 Millionen Pixel, entsteht aber auf einem Sensor, der deutlich über 20 Millionen Pixel hat. Selbst bei hohen ISO bleiben die einzelnen Videobilder daher extrem rauscharm und es ist daher möglich, mit der vergleichsweise günstigen DSLR Videos in einer Qualität aufzuzeichnen, die vor kurzem noch teuren Spezialkameras vorbehalten war.
Wie Du im oberen Beispiel siehst, ist das ein sehr gutes Foto, obwohl mit alter Ausrüstung aufgenommen. Du siehst nur die „verdichtete“ Version mit den zusammengefassten Pixeln. Das immense Rauschen in den Tiefen nach der Aufhellung geht durch die geringe Größe unter.
Dieses Urlaubsfoto ist zwar im sehr hellen Sonnenlicht entstanden, dennoch erkennst Du vielleicht das Problem. Es geht um die korrekte Belichtung, um den Dynamikumfang der Kamera auch nutzen zu können. Hätte ich die Belichtung so geregelt, dass die dunklen Bildteile korrekt belichtet worden wären, wäre hier keinerlei Rauschen zu sehen. Doch der Himmel wäre eine durchgehend weiße Fläche gewesen. Rein fotografisch würde man dieses Problem durch ein HDR oder einen Grauverlaufsfilter lösen.
ISO-Rauschen reduzieren – Dynamik erhöhen
Um also das Rauschen und die Dynamik Deiner Kamera im Griff zu haben, musst Du korrekt belichten. Um dies zu gewährleisten, ist ein wenig Übung angesagt. Mach Dich abends, ab der blauen Stunde, einfach auf den Weg und fotografiere viel. Nutze die Möglichkeiten Deiner Kamera. Teste die verschiedenen Belichtungsmessungen, wenn es dämmert oder dunkel ist.
Dreh an der ISO-Schraube oder nutze die vielleicht vorhandene ISO-Automatik. Riskiere viele schlechte Fotos, nur so bekommst Du ein Gefühl dafür, was Dein jetziges Equipment leisten kann.
Verzichte dabei auf ein Stativ, auch wenn Du es normalerweise in dieser Situation verwenden würdest. So lernst Du, was Du aus der Hand bei Dunkelheit noch ohne Verwacklung hinbekommst. Nutze Dein Stativ anschließend, um zu erkennen, wie gut Deine Kamera mit welchen ISO-Werten umgehen kann.
Fazit
Wer zu analytisch ist, wird keine guten Fotos machen. „Gut“ ist nicht nur ein technischer Aspekt, sondern in meinen Augen vornehmlich ein gestalterischer. Moderne Bildbearbeitungsprogramme bieten Dir ausreichend Möglichkeiten, auch verrauschte Fotos gut für viele Anwendungsbereiche zu nutzen. Daher ist eine Neuanschaffung nicht zwingend.
Dennoch haben neue Sensoren/Kameras auch große Vorteile. Mehr Dynamik, weniger Rauschen, mehr Pixel und nicht zu vergessen die höhere Auslesegeschwindigkeit sprechen vielleicht dann doch irgendwann für einen Neukauf. Im letzten Teil dieser Reihe beschäftige ich mich mit der Interpretation und der Bearbeitung der Bilder.
Informativ, gut zu lesen. Danke dafür. Werde mal ein Objektiv entsprechend sowohl mit meiner Pentax K 50 als auch mit der Canon EF-M 100 testen, bin auf die Ergebnisse gespannt.
Guter Artikel.Ich versteige mich nicht so sehr in die Mathematik bzw. Physik, und ich würde auch nie der gestaltungsfernen Logik folgen „dies oder muss das mathematisch-physikalisch bessere Foto sein“ – ich schliesse mich Martin Schwabes Fazit und Pragmatismus-Empfehlung an, und schaue, dass ich nicht verwackele…bei Hochzeitsfotos kommt es mir im dämmrigen Lokal beim Tanzen nicht so sehr darauf an, dass die Bilder Rausch aufweisen, eher darauf zu zeigen, wie Onkel Karl mit seiner Jugendliebe immer noch wie berauscht tanzt. Ich spreche dieses mögliche Manko anhand von Beispielfotos mit potentiellen Auftraggebern von Events an – wer das nicht akzeptiert, mag sich einen teuren Linealknipser für sterile Bildaussagen bestellen.
Für mich älteres Semester sind die 3 Beiträge zu „So gelingen Dir Fotos bei wenig Licht“ sehr lehrreich und informativ. Ich wünschte, ich wäre viel früher auf diese Plattform „fotocommunity “ gekommen. Danke! Darf man erfragen welche Kopaktkamera jetzt zur Zeit die drei Kriterien Belichtungszeit, Lichtstarke Objektive und entsprechende Sensoren sehr gut erfüllen?
Vom Titel her hätte ich mir hier etwas anderen Inhalt erwartet und das Thema Sensoren könnte auch tiefer behandelt werden.
Die Aussage „Einer der größten Irrtümer vieler Fotografen ist die Gleichsetzung hoher ISO-Einstellungen mit sinkender Qualität.“ sehe ich als falsch. Selbst bei neueren und technisch weiterentwickelten Sensoren bleibt die Kausalität erhalten – hoher ISO ergibt sinkende Qualität. Sicher verschieben sich die Möglichkeiten nach oben. Doch besser wird die Qualität niemals bei Anhebung des ISO-Wertes. Der Aussage des Autors kann ich mich also nicht anschließen.
Hallo Thomas, ich kann gerne einen Artikel ins Auge fassen, der sich intensiver mit der Physik der Sensoren beschäftigt und plausibel das „ISO“-Wachstum darstellt.
Die Aussage, die Du kritisierst würde ich im Kontext der Ergebnisbetrachtung lesen. Korrekt ist sicher, dass höhere ISO immer Verluste in irgendeiner Form bedeuten. Was sich aber in den letzten Jahren deutlich verändert hat, ist die Relevanz dieses Qualitätsverlustes bezogen auf das Ergebnis.
Nehmen wir an eine Kamera hat einen Dynamikumfang von 14 Blendenstufen, den er differenziert aufzeichnen kann und nehmen wir an der Sensor verliert pro ISO-Stufe eine Stufe Blendenumfang an Dynamik.
Dein Motiv hat aber nur einen Kontrastumfang von 8 Blendenstufen. Dann kannst Du die ISO um 6 Stufen (also bis ISO 6.400) erhöhen, bis der Verlust an Dynamik eine Ergebnisrelevanz hat. Dies ist allerdings die Betrachtungsweise eines Pragmatikers und weniger die eines Puristen.
Nebenbei steht in dem Artikel nirgendwo, dass die Qualität bei höheren ISO steigen würde ;)
Man kann das nicht so pauschal sagen wie sie das tun.
Zu beachten wäre dabei auch die Basis-ISO des Sensors. Moderne Sensoren ohne Tiefpassfilter sind lichtempfindlicher. Die Basis ISO liegt da bei 200 oder höher. Niedrigere ISO100 werden hier durch nachträgliches Herunterziehen mit entsprechenden Dynamikverlust erreicht.
Bildqualität ist nicht nur am Rauschen und an der Dynamik festzumachen.
Es nützt nichts wenn ich zwanghaft auf eine geringe ISO regele und damit die bildwirksamen Belichtungsparameter Verschlusszeit (Bewegungsunschärfe) und Blende (Schärfentiefe) zurückstelle.
Da zerstört dann ungewollte Unschärfe das Bild. Verschlusszeit und Blende sind die bestimmenden Belichtungsparameter. Die ISO ist letztlich nur der Parameter der hier kompensierend wirkt und sollte deshalb nicht überbewertet werden. Rauschen bekommt man nachträglich besser in den Griff als Unschärfe. Die richtige ISO fürs Bild ist nicht die Niedrigste, sondern immer die, die nötig ist eine ausgewogene Belichtung bei der geforderten Verschlusszeit und Blende hinzubekommen.
Habe über den Tippfehler richtig gegrübelt (80 ISO).
Das ist ein komplexes Thema, welches auch infolge der ständigen Weiterentwicklung der Sensoren dazu führt, dass pauschale Aussagen sehr schnell relativiert werden. Ich bin nur über einen Punkt gestolpert:
„Mehr Pixel pro gezeigter Fläche = Weniger Rauschen“. Wahrscheinlich habe ich es nur falsch aufgefasst, weil die Erklärung dann doch in eine etwas andere Argumentation geht.
Nach meine Kenntnisstand, verhält sich das mit dem Rauschen bei einem Sensor so, dass je mehr Pixel ich auf gleiche Fläche „zusammenpresse“, desto größer ist die Gefahr für Rauschen bei hohen ISO-Zahlen. Hohe Iso-Zahl heißt, dass es zur eine Signalverstärkung kommt. Dadurch kommt es zu eine Beeinflussung der Sensorelementen untereinander. Sie stören sich gegenseitig und dies macht sich im Rauschen bemerkbar. Je enger die Pixel zueinander liegen, desto größer dieser Effekt.
Die Entwicklung immer mehr Pixel auf die Sensoren zu quetschen, führt dazu, dass diese prinzipiell rauschanfälliger werden.
Als vor vielen Jahren bei den kleinen Kompaktkameras der Pixelwahn los ging, konnte dieser Effekt sehr gut festgestellt werden. Neue Kameras waren von den Aufnahmen teilweise schlechter als der Vorgänger. Allerdings, und somit wären wir wieder bei meiner Einleitung, haben sich die Hersteller sehr darauf konzentriert in der Hinsicht viel zu entwickeln.
Von hat sich auch diese Aussage im Zuge der Entwicklung relativiert.
Meine D800 macht im normalen Isobereich sehr gute Aufnahmen. Aber bei ISO 2000-5000 ist mir meine D3s doch viel lieber (Ja ich weiß Äpfel und Birnen :-)). Nicht desto trotz spielt die Pixeldicht auf dem Sensor hier schon eine nicht zu unterschätzende Rolle.
Das fand ich an diesem Artikel gerade gut, dass darauf eingegangen wurde.
Größere Pixel sind rein physikalisch im Vorteil. Mehr Pixel haben jedoch den mathematischen Vorteil.
So wie im Artikel richtig beschrieben, lassen sich durch komplexe statistische Berechnungen moderner, schneller Bildprozessoren aus den Daten vieler kleiner Pixel genauere Bildinformationen errechnen, und sich dadurch der physikalische Nachteil gegenüber weniger großer Pixel wettmachen.
Ein Bild eines 24Mp Sensors wird auch auf 16Mp geschickt runtergerechnet mehr Details und weniger Rauschen zeigen als ein 16Mp Sensor mit gleicher Fläche.
Letztlich kommt’s natürlich auch auf das Auflösungsvermögung des Objektivs an und zum guten Schluss auf die Druckqualität in wie weit die „Qualität“ der Sensordaten überhaupt relevant wird.
Mehr Pixel auf die Fläche sind vorteilhaft für die Bildqualität. Nachteilig sind mehr Pixel auf die Auslesegeschwindigkeit.