Guetzli – Eine neue effektive JPG-Komprimierung

guetzli-effektive-jpg-komprimierung
FavoriteLoadingAuf Deine Leseliste in Meine Fotoschule setzen

In Zusammenarbeit mit SIGMA

Das wohl am häufigsten eingesetzte Bildformat in der digitalen Welt ist das JPG-Format. Über dieses Format haben wir bereits ausführlich in einem Artikel berichtet. In diesem Artikel geht es aber tiefer ins Eingemachte. Denn es ist ein neues Verfahren der Codierung erschienen, das – wie es scheint – JPG-Daten noch effektiver komprimieren kann.

Einfach fotografieren lernen mit unseren Online-Fotokursen

Für nur 6,99€ im Monat kannst Du auf über 70 Online-Fotokurse zugreifen. Lerne die Grundlagen der Fotografie - verständlich und mit vielen Praxisbeispielen. Inklusive Test und Fotokurs-Zertifikat.

Mehr Infos zu den Fotokursen
Einfach fotografieren lernen

Der neue Algorithmus „Guetzli“ von Google ist vornehmlich für den Einsatz von Fotos auf Webseiten ausgelegt. Doch macht es Sinn dieses Verfahren auch für nicht pixelreduzierte Bilddaten, also JPG direkt aus der Kamera, oder aus dem Smartphone zu verwenden? Dieser Idee gehe ich genauer in diesem Artikel nach.

Ich zeige Dir in diesem eher theoretischen Artikel, welche Vor- und Nachteile dieses neue Verfahren von Google hat, und wie auch andere Firmen und Programmierer versuchen das Format effizienter auszureizen.

Der Artikel ist sicher nicht für Dich geeignet, wenn Du Dich selber als Anfänger siehst. Aber dennoch ist das Thema spannend und sicher auch für jeden Anfänger interessant. Ich versuche daher die Erkenntnisse leicht verdaulich zu beschreiben.

Für mich als Profi ist es ein toller Schritt, um Datenmengen weiter zu begrenzen ohne etwas an meinem oder besser gesagt unserem Nutzerverhalten zu ändern.

JPG – Die Basis

Das 1992 vorgestellte Dateiformat (Präziser: Norm ISO/IEC 10918-1 bzw. CCITT Recommendation T.81) beschreibt ein Verfahren zur Speicherung von Pixeln in einer Datei, meist, aber nicht ausschließlich, komprimiert. Die Bezeichnung „JPEG“ geht auf die Joint Photographic Experts Group zurück.

Offiziell heißt diese Norm außerdem: „Information technology – Digital compression and coding of continuous-tone still images: Requirements and guidelines.“

Diese Gruppe schlägt bei diesem Verfahren unterschiedliche Komprimierungs- und Kodierungsmethoden vor, darunter unterschiedlich starke verlustbehaftete Kodierungen sowie auch verlustfreie Kompression. Sogar verschiedene Farbtiefen sind möglich, aber weitestgehend unbekannt oder besser gesagt werden andere Farbtiefen als 8-Bit selten genutzt. Verbreitet ist nur die verlustbehaftete Komprimierung und 8-Bit-Farbkanälen.

Kodieren/Dekodieren

Wichtig für uns normale Anwender ist nicht das Kodieren, sondern das Dekodieren. Es wäre nämlich ziemlich ärgerlich ein neues Kodierungsverfahren zu nutzen, wenn nur bestimmte Programme oder Systeme diese anzeigen oder sonst wie lesen könnten. Jeder, der eine Datei mit der Endung *.jpg sieht, denkt beim Nutzen nicht über Inkompatibilitäten nach. Er klickt einfach drauf und das Programm seiner Wahl öffnet daraufhin diese Datei. Aber auch die Geschwindigkeit des Dekodierens spielt eine Rolle. Wenn Du ein Verzeichnis öffnest, um ein Bild zu suchen, möchtest Du nicht stundenlang warten, bis eine Vorschau generiert worden ist.

Um es vorweg schon zu sagen: Dekodieren einer JPG-Datei, die mit einem neuen Verfahren eingedampft worden ist, ist genauso schnell auf dem Bildschirm, wie die mit den älteren Verfahren kodierten.

Es könnte sogar ein Geschwindigkeitsvorteil entstehen, denn eine kleinere Datei benötigt, im Gegensatz zu einer größeren Datei, nicht so viel Zeit zum Laden. Aber dies habe ich in diesen folgenden Tests nicht geprüft.

Wieso kann ein neues Verfahren kompatibel funktionieren?

Die Norm hierzu umfasst eine große Anzahl an Möglichkeiten die Pixel zu transformieren und neu anzuordnen. Dazu zählt auch die sogenannte Quantisierung. Sie ist per se verlustbehaftet und funktioniert im Groben folgendermaßen:

Nach einer Umwandlung in ein anderes Farbmodell (sogenanntes YCbCr-Farbmodell) werden Informationen in Gruppen von 8*8 Informationen in Wertegruppen sortiert. Die Unterteilung geschieht je nach „Frequenz“ und bildet so schließlich eine Art Matrix. Die Gruppen werden dann ganzzahlig gerundet. Diese Frequenzen haben für Menschen visuell unterschiedliche Wichtigkeiten. Diese Gruppen werden dann vereinfacht. Dies nennt man die Irrelevanzreduktion. Und diese ist vornehmlich für die Stärke der Komprimierung verantwortlich. Danach erfolgen noch mehr Schritte, die aber für diese Neuentwicklungen keine Rolle spielen.

Und weil die Quantisierung einen optischen Maßstab besitzt, kann man dort einiges verbessern oder ändern ohne inkompatibel zu werden. Die Dekodierung erfolgt quasi andersherum und bedingt nur einfache Mathematik und Prozessorpower.

Daher ist die Kodierung viel langsamer als die Dekodierung. Und bei dem Guetzli-Algorithmus ist es nochmals viel langsamer.

Was machen die neuen Verfahren besser?

Die Bereiche in einem Foto, in denen wir eine Datenreduzierung visuell erfassen, sind sehr unterschiedlich. So sehen wir in flächigen Bereichen eher Reduzierungs-Artefakte als in Bereichen, wo viel los ist, aber da auch in unterschiedlicher Stärke je nach Farbe und wie schon erwähnt in unterschiedlichen Frequenzen.

Psychovisuelles Modell zur Verkleinerung

Guetzli nutzt zur Datenreduktion der Fotos diese beschriebene Quantisierung. Guetzli versucht zwischen Verlust und Dateigröße einen ausgewogenen Weg zu finden, indem unser Sehen und die Verarbeitung unseres Sehens im Gehirn berücksichtigt wird. Witzigerweise basiert das auf einen Vorläufer mit dem Projektnamen Butteraugli.

Der Trick nennt sich „Visual Masking“ und bezeichnet das Verschleiern oder Modifizieren eines Bildbereichs durch einen nahe befindlichen Reiz. Diese Technik ist noch nicht mal wirklich neu, sie wurde bereits von Tuchmachern und Teppichknüpfern genutzt. Natürlich sind die neuen psychovisuellen Verfahren weitaus besser erforscht.

Weitere Verfahren in der Entwicklung

Lepton

Lepton ist ein Verfahren, das für das Programm Dropbox genutzt wird. Das Unternehmen reduziert ebenfalls JPG-Dateien, wie auch in der Fotoschule, aber ohne die Möglichkeit des Users dabei einzugreifen. Die Firma Dropbox dokumentiert in einem Bericht, dass Fotos dabei um durchschnittlich 22 Prozent verkleinert werden. Diese Reduktion wurde bei 16 Milliarden Fotos durchgeführt und hat mehrere Petabyte Speicherplatz eingespart.

Mozjpeg

Mit dem Projekt „Mozjpeg“ will Mozilla (bekannt für den Browser Firefox) einen eigenen JPEG-Encoder (Encoder = Kodierer) entwickeln, der ebenfalls eine bessere Kompression von Fotos bringen soll. Laut ihren eigenen Angaben hat in einem Test mit 1500 bereits sehr stark komprimierten Fotos (Quelle waren Fotos aus Wikipedia) das Verfahren schon rund zehn Prozent niedrigere Dateigrößen erzielt.

Die Praxis

Hier ein wichtiger Hinweis vorweg:

Wenn Du selbst einmal ausprobieren möchtest, ob Dir die neuen Verfahren persönlich einen Vorteil bringen, solltest Du vorher ein Backup machen. Tools wie ImageOptim fragen oft erst gar nicht, ob sie die Ausgangsdatei überschreiben dürfen – sie tun es einfach!

Ich habe für den ersten Test eine Situation fotografiert, in der optisch viel passiert. Es gibt eine breite Farbwelt, viel Lichter und Schatten und eben auch scharfe und unscharfe Bereiche. Fotografiert habe ich aus der Hand mit einer Nikon D810 und dem sehr scharfen Festbrennweiten Objektiv SIGMA 85mm 1.4. Ich habe extra mit einem höheren ISO-Wert fotografiert, um auch leichtes ISO-Rauschen im Testbild zu haben.

Die Kameraeinstellungen waren: F/5,6 | 1/250 sek. | ISO 1600 | RAW 14bit Unkomprimiert | 7360px * 4912px |

Dieses Bild dient in dieser Form nur zur Darstellung des eigentlichen Motivs. Denn auch die Fotoschule, oder besser das zugrundeliegende WordPress optimiert Fotos für das Internet, um Dateiladezeiten klein zu halten. Ich speichere meine Fotoschulenfotos für den Upload immer folgendermaßen ab: Adobe-Camera-RAW Export als 2048px breites und mit der Qualitätsstufe 7 gesichertes JPG. Ausgangsgröße vor dem Upload dieses Muster-Fotos war 329kb.

Detailverlust der Qualitätsstufen

Da ich in ACR recht gut bestimmen kann, wie ein Bild konvertiert wird, habe ich ein paar unterschiedliche Exporte gemacht. Folgende Dateigrößen kamen dabei heraus:

Wie Du siehst, ist die Dateigröße des RAW schon üppig, aber ein unkomprimiertes TIFF schlägt es nochmals um Längen. Dieser TIFF-Export dient aber nur für Dich als Vergleich, wie effektiv das JPG-Format bereits ohne Guetzli ist. Die JPG-Datei als verlustfreies JPG (Qualität 12) ist bereits um ein Vielfaches geschrumpft. Eine gute Mitte bietet die Qualitätsstufe 8, sie dampft die Dateigröße nochmal signifikant runter, ohne viel Detailverlust zu haben.

Der Vergleich der Qualitätsstufen von ACR als Gegenüberstellung:

In der Vollansicht gibt es keinerlei Unterschied, auch nicht bei der Qualitätsstufe 1. Aber bedenke: Es knubbeln sich bei dieser Ansicht auch viele Pixel des Fotos auf einen Pixel des Monitors.
In der sogenannten 100% Ansicht sollte jeder Pixel des Fotos auf einen Pixel des Monitors treffen. Auch hier ist kaum ein Qualitätsunterschied zu erkennen, bis auf ein etwas körniges Gesamtbild. Denn die Effektivität der JPG-Komprimierung basiert ja auch auf der Darstellungsgröße und 100% ist der Ausgangspunkt der Programmierer.
Erst bei 300% wird es deutlich, wo an Informationen gespart wird. In der Qualitätsstufe 4 sind bereits die notwendigen Werteblöcke als Artefakte zu erkennen.
Im Blaukanal des RGB-Fotos wird es dann richtig deutlich. Dennoch musst Du bedenken, dass die Vollansicht keinerlei Unterschiede aufzeigt und zwischen den Dateigrößen von Qualität 12 und Qualität 1 liegen 17mb!

Wie effektiv ist nun das Guetzli Verfahren?

Als Basis nutze ich das tolle und simple Programm ImageOptim das versuchsweise dieses neue Verfahren bereits zum Ausprobieren einsetzt. Der Autor weist aber darauf hin, dass die Kodierung extrem lange dauert. Und das sollte man ernst nehmen. Auch mit meinem sehr guten Computer ist ein flüssiges Arbeiten noch nicht gegeben. Aber das liegt sicher an der jetzigen Implementierung und wird bestimmt noch optimiert.

Wenn Du das selbst ausprobieren möchtest kannst Du Dir das Programm in verschiedenen Versionen hier herunterladen: https://imageoptim.com/

Als Basis der Komprimierung nutze ich natürlich das JPG in der verlustfreien Qualitätsstufe 12.

ImageOptim kann bereits 4,8% Dateigröße einsparen ohne Qualitätsverlust! Denn ImageOptim benutzt bereits andere/neuere Verfahren als ACR.

 

ImageOptim hat verschiedene Einstellungen für verschiedene Dateiformate. Verlustbehaftet ist natürlich nur ab 99% möglich.

Aber um Guetzli wirklich zu testen, bedarf es natürlich einer Reduktion. Ich starte mit 99% Qualität. Dies ist die beste Qualität, die nutzbar ist. Danach reduziere ich die Qualitätseinstellung des Tools. Leider sind diese nicht direkt vergleichbar mit den Stufen von ACR. Eine Software nutzt Prozentwerte, die anderen Programme wiederum Stufen.

Der Sprung an Dateigrößenreduzierung ist bei 81% schon erheblich.

Der Vergleich

Um nun einen optischen Vergleich der Effektivität zu machen, ist es nicht sinnvoll nur die Stufen zu vergleichen, sondern vergleichbare Dateigrößen. Ich habe mich für folgende Dateien entschieden:

Natürlich gibt es auch hier eine Größendifferenz, aber diese sind sich am ähnlichsten.

Warnung: Du betrachtest jetzt Bildschirmfotos, die wiederum komprimiert worden sind beim Erstellen dieser, und nochmals komprimiert werden durch diese Website. Alle meine folgenden Aussagen basieren auf meine native Ansicht. Um Dir selbst einen Eindruck zu machen musst Du den Test bei Dir nachstellen.

Ansicht 100%

In der 100% Ansicht ist bereits einiges zu bemerken. Im Guetzli-Bild ist das Rauschen etwas weicher, oder besser gesagt anders. Die Details in den Federbällen sind im Guetzli-Bild präziser, aber es gibt bereits eine kleine, aber visuell kaum wahrnehmbare Farbverschiebung. Schau Dir mal das Fell unterhalb des roten Federballs an. Guetzli mischt dort schon Rot hinein aber ist dafür nicht so artefaktlastig.

Ansicht 400%

In der 400% Ansicht sieht man den Effekt schon deutlich. Das Guetzli Bild ist etwas harmonischer als das von ACR. Es ist aber eher akademischer Natur solche Differenzen zu erkennen. Besonders, wenn man die starke Vergrößerung in Betracht zieht.

Ansicht 1600% Blau-Kanal

 

In der absurden Zoom-Stufe 1600% und in der Betrachtung nur des Blau-Kanals werden die unterschiedlichen Verfahren deutlicher. Aber ist dieser Vergleich noch sinnvoll?

Der Verzeichnis-Test

Um die Sinnhaftigkeit all dieser oben gemachten Tests zu überprüfen, ist es natürlich besser eine große Menge an Fotos zu komprimieren.

Alle mit unterschiedlichen Eigenschaften.

Darunter zählen nicht nur die eigentlichen Motive, sondern eben auch solche Dinge wie ISO-Werte, Blendenöffnung, Schärfe und Kontraste. Ich habe hierzu einen gemischten Ordner aus unterschiedlichen Fotos erstellt, die allesamt mit unterschiedlichen Kameras, Objektiven, und Aufnahmeeinstellungen gemacht worden sind.

Dazu exportiere ich alle als RAW vorliegenden Bilder mit ACR (Adobe Camera RAW) mit der Qualitätsstufe 12, also unkomprimiert, um eine Basis für Guetzli zu haben, da dieses Tool keine RAW verarbeiten kann. Danach exportiere ich diese Fotos nochmals in der JPG Qualitätsstufe 4 von ACR, da diese mit der Dateigröße von Guetzli 60% vergleichbar ist.

Mit ImageOptim komprimiere ich dann die JPG mit der Qualitätsstufe 12 – ergo Verlustfreie JPG-Daten – mit der Einstellung 60% Qualität.

Hier das Ergebnis:

  • Verzeichnis mit 131 Fotos über ACR ohne Qualitätsverlust exportiert: 2,19 Gigabyte
  • Verzeichnis mit 131 Fotos über ACR mit Qualitätsverlust exportiert (Qualitätsstufe 4): 199 Megabyte
  • Verzeichnis mit 131 Fotos über ImageOptim mit Qualitätsverlust exportiert (Qualitätsstufe 60%): 190 Megabyte

Das entspricht einer enttäuschenden 4,5 % Ersparnis gegenüber dem ACR Ergebnis.

Warum so wenig Ersparnis?

Ich musste selbst erstmals erforschen, was in meinem Versuchsaufbau mit den vielen Fotos gegenüber dem Einzelfoto Test falsch war. Der Grund ist simpel, aber eben auch logisch. Ich habe bei der Zusammenstellung des Testverzeichnisses komprimierte DNG RAW-Daten genutzt. Adobe bietet bei der Konvertierung von Nikon-RAW in das gern genutzte DNG-Format eine gute, und fast nicht sichtbare Komprimierung mit leichten Detailverlusten an. Diese nutze ich bei der Endablage von RAW Daten.

In einem neuen Test habe ich schnell ein paar Fotos gemacht in der vollen Auflösung und ohne Komprimierung, um zu schauen ob das Guetzli Verfahren effektiver ist als das von ACR bei der Speicherung in das JPG-Format.

Ergebnis erneuter Test:

  • Verzeichnis mit 23 Fotos über ACR ohne Qualitätsverlust exportiert: 399 Megabyte
  • Verzeichnis mit 23 Fotos über ACR mit Qualitätsverlust exportiert (Qualitätsstufe 4): 72,9 Megabyte
  • Verzeichnis mit 23 Fotos über ImageOptim mit Qualitätsverlust exportiert (Qualitätsstufe 60%): 32,3 Megabyte

Das entspricht 55,7 % Ersparnis gegenüber dem ACR Ergebnis!

Jetzt erkennt man doch deutlich die Effektivität des Guetzli Verfahrens. Es dauert aber ewig, bis die Fotos mit dem von mir genutzten Tool rekomprimiert sind. Selbst auf meinem recht potenten Rechner.

Ist eine Rekodierung/Neukomprimierung sinnvoll?

Wie Du bereits bei dem schief gegangenen Verzeichnistest erkennst, ist der Nutzen von Verfahren wie der von Google’s Guetzli in eine bereits im RAW komprimierte Datei, ob nun DNG oder JPG, nicht sinnvoll. Jeder, ob nun der Guetzli oder auch der zu dem Test genutzte JPG -Export, ist immer nur vom nativen Foto sinnvoll.

Doch für bestimmte Fälle ist es durchaus angebracht seine JPG Daten mit einem Guetzli kompatiblen Programmen neu zu komprimieren (davon werden sicherlich in der Zukunft einige hinzukommen). Gerade im Internet sind im Durchschnitt 30% Datenersparnis eine Welt! Bedenken solltest Du aber, dass ich in dem folgenden Test alle Bilder über einen Kamm geschoren habe und alle mit Guetzli 60% komprimiert habe. Es kann dann sogar zu einer Verschlechterung des Fotos kommen.

Verzeichnistest mit Handyfotos

Aber alles ist blanke Theorie ohne einen Test. Zum Glück habe ich noch fast alle Handyfotos, die ich je gemacht habe und einige Attachments, die mir von Freunden per Email, Skype und SMS in der Vergangenheit gesendet wurden. Darunter finden sich sowohl Sony 610 Mini-Bildchen, aber auch iPad-Pro Giganten. Die Dateigrößen variieren von 5,74 Megabyte bis runter zu 6 Kilobyte. Inhaltlich ist alles dabei, also auch Bildschirmfotos, Logos, Grafiken und allerlei unterschiedliche Fotos. Also nutze ich auch hier eine wilde Mischung von Fotos zum Rekodieren ein ganzes Verzeichnis. Dieses Mal aber unter dem Gesichtspunkt, was Guetzli bei bereits extrem reduzierten Daten noch so rausbekommt.

Hier eine kleine Bitte an einen vielleicht mitlesenden Programmierer. Werden bei der Rekodierung die Daten erst vollständig „entpackt“, oder werden die einzelnen Teile der vorherigen Kodierung optimiert?

  • Verzeichnis mit 474 Bildern aus unterschiedlichen Quellen:  141 Megabyte
  • Verzeichnis mit 474 Bildern aus unterschiedlichen Quellen nach dem Rekodieren mit Guetzli:  33,2 Megabyte

Das ergibt eine 76,5% Ersparnis! Also hier zeigt sich sehr gut, dass es sich unter bestimmten Bedingungen lohnen kann, seinen Bestand an Fotos neu zu kodieren!

Weitere Vor- und Nachteile?

Ich persönlich mag die artefaktlosere Kodierung sehr, da ich bei einer Bildbearbeitung hier mehr Freiheiten habe. Dazu hier nochmals aus dem neuen – und diesmal richtig gemachten – Verzeichnistest eine paar Gegenüberstellungen:

Links: Guetzli 60% – Rechts: ACR Qualitätsstufe 4
Links: Guetzli 60% – Rechts: ACR Qualitätsstufe 4
Links: Guetzli 60% – Rechts: ACR Qualitätsstufe 4

Gerade bei der Gitarre wird deutlich, dass eine Weiterverarbeitung mit dem Guetzli-JPG besser ist. Wenn Du zum Beispiel eine nachträgliche Softwareschärfung hinzurechnetest, würden im ACR bereits die Artefakte stärker scharfgezeichnet, da dies für die Schärfung bereits „echte“ Strukturen sind.

Wie Du siehst, reagiert das übliche JPG bereits empfindlich auf einen Filter wie den hier verwendeten „Unscharf maskieren“

Fazit

Vielleicht werden zukünftig auch Prozessoren in einer Kamera für solche pyschovisuellen Kodierungsverfahren optimiert und so bekommt man bereits direkt aus der Kamera kleinere Dateien. Das wäre bei steigenden Pixelzahlen der Sensoren allemal wünschenswert.

Bedenke aber bitte, dass dieser Artikel nur ein recht früher Hinweis auf eine noch nicht überall zu findende Implementierung aufzeigt. Ich finde es dennoch toll, dass ein „altes“ Verfahren kompatibel neu überdacht wird.

13 Kommentare

  1. Ich finde deinen Test sehr merkwürdig. Du wählst die Qualitätsstufen nach folgendem Kriterium aus:
    „Danach exportiere ich diese Fotos nochmals in der JPG Qualitätsstufe 4 von ACR, da diese mit der Dateigröße von Guetzli 60% vergleichbar ist.“
    Und dann vergleichst du, wieviel du mit Guetzli einsparen kannst, obwohl du die Komprimierung nicht nach der Qualität sondern der Dateigröße gewählt hast? Das macht doch keinen Sinn.

    Du müsstest die Qualitätsstufen doch so auswählen, dass im Durchschnitt von vielen Bildern diese die selbe Qualität aufweisen. (wie auch immer das gemacht werden kann) Dann kommt bei JPG vllt. 6 bei Guetzli vielleicht 70% raus, oder sonst wie. Aber du wählst die Komprimierung nach der Dateigröße aus, bei einem einzigen Testbild übrigens, und vergleichst dann die Dateigröße bei vielen Bildern, das ist doch recht sinnlos.

  2. Sehr schön, dass neben den praktischen Fotografietipps auch mal über den Tellerrand geschaut wird. Mit dem praktischen Vergleich der Codierungen kann auch ein Nicht-Programmierer leicht verstehen, wo die Vor- und Nachteile liegen. Natürlich wird Festplattenspeicher immer günstiger, aber Einsparungen von ca. 50% bleiben 50% auch bei großen Platten. Als Backuplösung könnte man so seine Bilder automatisiert über Nacht umcodiert auf einer externen Platte sichern.

    Hier noch der technische Teil des „mitlesenden Programmierers“:
    Ohne mich tief in den JPEG-Standard eingelesen zu haben würde ich sagen, dass ein „sowohl als auch“ die Antwort auf die Frage nach der Entpackung ist. Bei der Komprimierung werden Methoden der Quellen- und Entropiecodierung genutzt. Bei der Quellencodierung (Tiefpassfilter, Einteilung in Blöcke) gehen Informationen unwiederbringlich verloren. Daher kann man diese auch nicht wieder entpacken. Die Entropiecodierung speichert platzsparender, ohne, dass Informationen verloren gehen. Um Bilder nun von einer Codierung in eine andere zu überführen, müssen sie vorab decodiert werden. Das betrifft dann aber nur den entropiecodierten Teil. Da der Huffman-Code informationstechnisch unschlagbar ist, wird Guetzli wahrscheinlich „nur“ eine bessere Quellencodierung verwenden.

    Mit freundlichen Grüßen,
    Manuel Groh
    B.Sc. Informatik

    1. Cool, danke für den Einblick. Ich ergänz den Artikel aber nicht mit deiner Info. Das wär dem Leser sicher zu wuchtig.
      ;-)

  3. Interessant, dass man mit der Vorstellung neuer Algorithmen wie in diesem Artikel auch einmal über den eigenen Tellerrand hinausschauen kann, selbst wenn man lieber fotografiert als sich mit technischen Feinheiten zu befassen.

    Falls jemand selbst mit Guetzli experimentieren möchte aber keinen Mac zur Verfügung hat (das von Norbert genannte ImageOptim gibt es nicht für den PC), kann er hier eine aktuelle Kommandozeilen-Version für den PC finden:

    https://github.com/google/guetzli/releases

    Ich habe ein bisschen damit herumgespielt und festgestellt, dass es sich für meine Bedürfnisse nicht lohnt, Bilddateien unter hohem Zeitaufwand mit Guetzli umzukodieren, zumal vom Programmierer empfohlen wird, unkomprimiertes Ausgangsmaterial zu verwenden. Für jemanden, dem es auf effektive Speicherplatznutzung online und die Übertragung von möglichst viel Bildern in kürzester Zeit ankommt, z. B. Betreiber von Foto-Websites, mag dieser Algorithmus hingegen durchaus ein Schritt in die richtige Richtung sein.

    Beste Grüße
    Gerald

  4. Ich finde es klasse, dass ihr auch mal tiefer in ein Thema eintaucht. Wie schon geschrieben wurde, kann man sich die Artikel aussuchen, welche man lesen möchte.
    Auch für mich kommt eine Testphase nicht in betracht, sollte ich aber mal knapp mit Speicherplatz sein, so weiß ich jetzt aber, dass es unterschiedliche Komprimierungen gibt und ich ggf. Speicher einsparen kann.

    Gruß Ivo

  5. Eigentlich möchte ich doch „nur fotografieren“!!
    Dieses technische „Geschwafel“ versteht vielleicht ein ausgewiesener Fachmann, der Anspruch eines fortgeschrittenen Amateurs ist doch ein ordentliches Bild mit der entsprechenden Gestaltung in den „Kasten“ zu bringen und mit etwas Nachbearbeitung ist alles gut.
    Wenn man wie ich jahrzehntelang analog fotografiert hat, wo es noch keine Bildbearbeitung im heutigen Sinne gab, hat man für diesen technischen Schnickschnack nur ein müdes Lächeln übrig.
    Es ist doch so wie immer im Leben: Man sollte sich auf das wesentliche konzentrieren.
    Sorry, das musste ich mal loswerden.
    Ich wünsche Euch allen einen schönen Maifeiertag.

    Mit freundlichen Grüßen
    Roland Bauer

    1. Sorry, ich muss dir als Autor des Artikels ein wenig widersprechen: Analog kann – muss aber nicht einfach sein wie Du es aus deiner Erfahrung berichtest.

      Ich bin vermutlich ebenso wie Du so alt, dass ich mit der fotografie analog angefangen habe…. Es gab einfach noch nicht die digitale Fotografie.

      Ich hab vor meiner Ausbildung vermutlich ebenso wie Du fotografiert: Film kaufen, einlegen, abdrücken, entwickeln lassen, inklusive mit Papierabzug…. irgendwie…. wird schon….FERTIG…..

      Aber alles andere, ob aus interesse und später beruflich, war um längen aufwändiger und technisch eine komplizierter Frimmelei als das, was die digitale Fotografie heute einem Fotografen abfordert.
      Zum Artikel selbst: Wir haben bisher ca. 250 Artikel in dieser Fotoschule veröffentlicht. Gut sortiert und per Schlagwort auffindbar und das alles werbefrei, anmeldefrei und kostenlos. Wenn Du, wie ich es vermuten muss, übergreifend mitliest hast Du bestimmt mitbekommen, dass wir Autoren keine freakige Technikjünger sind und sogar unisono über die wesentlichen Dinge der Fotografie schreiben.

      Dir jetzt durch Links diese Aussage zu belegen find ich nicht angebracht. Aber vielleicht solltest Du nur die Artikel konsumieren, die Dir schon durch ihre Beschreibung sinnvolles enthalten könnten.

      Dieser Artikel beschreibt tatsächlich eine für wenige aber dennoch sehr wichtige technische Errungenschaft. Zugegebenermaßen ein komplexes Randthema, aber das ist die Lagertemperatur von Meische auch. Dennoch kann einem das Bier am Ende schmecken. Daher Prost!

  6. Kann es ev. an meinem Bildschirm liegen, dass ich kaum Unterschiede bei den Vergleichsbildern sehe?
    Was nutzt ihr da so?
    Ein wenig sehe ich von den Artefakten- aber Farbunterschiede oder Streuungen kann ich beim besten Willen keine erkennen :(

    1. Wenn Du ein wenig Geduld hast kannst Du dich auf zwei Artikel zu diesem Thema freuen. Nur kurz erklärt…. ist echt ein schwieriges Thema…. wie erkläre ich einem tauben Menschen, dass das neue Album von XYZ nicht gut ist….

      Mit den kommenden Artikeln will ich jedem Schüler Möglichkeiten aufzeigen erstmal zu verstehen warum was wie angezeigt oder gesehen wird (oder eben auch nicht). Und ich beginne weit früher als das schon so oft in Zeitschriften oder Webseiten erklärte „Kalibrieren“.

      Bleib bitte am Ball!

  7. Ich fotografiere immer noch wie „analog“ aber digital.
    Meine „Erste“ war eine Camedia3030!! Habe ich immer noch.
    Kann mich von dem Bildwunder einfach nicht trennen.
    Mittlerweile bin ich über eine E-1, E-5 , zur OMD E-1 gekommen.
    Musste feststellen das es gar nicht so tolle Unterschiede gibt.
    Da ich nicht viel Ausschnitt mache–also Vergrößerungen..
    Habe in der analogen Welt immer so gearbeitet das es auf den Film passt.
    So mache ich es jetzt auch immer.. Und siehe da, braucht man keine
    Pixelwunder für.
    Der Verkauf der Firmen steht hier im Vordergrund.
    Ist legitim. Aber wer will schon mehr ausgeben als nötig???
    Also schaut euch im Gebrauchtmarkt um. Es gibt so gute alte Digitale
    welche besser rechnen als gedacht.

  8. Hi Matthe , ich kann mich Deiner Ansicht nur voll anschließen, inbesondere
    kostenloser Bildbearbeitungsprogramme, da bleibt man doch lieber bei PS6
    und mehr Bytes

    mit freundlichen Grüßen
    Hanseat42

  9. Für den Laien ist dieser Artikel sehr fachspezifisch. Interessant kann das Format beim Vergrößern kleiner Dateien werden (u.a. cutout, photozoom o.ä). In diesen Programmen sind mir die verschiedenen Verfahren für Laien zu unübersichtlich und gar nicht erklärt.

    Bei den heute so verschwenderischen GB auf mobiler Festplatte usw. kommt es doch gar nicht auf mehr oder weniger Bytes an. Lieber mehr Bytes und ordentliche Fotos. Für Web-Seiten ist das Geizen mit Bytes sicher angebracht und der schnelle Aufbau einer Seite. Bei der Bildbearbeitung und einem schnellen Rechner wohl eher nicht. Von Google Bildbearbeitungsprogrammen (kostenlos) bin ich restlos bedient. Bei neuen Verfahren und hochgelobten Kompatibilitätsversprechungen läuten bei mir deshalb alle Alarmglocken. Je mehr Lob umso mehr Vorsicht ist geboten….Auch hier zeigten mir die Tests: Je schärfer ein Foto ist, umso mehr verrauscht ist es….muss nicht sein, ist mir bekannt.

    Mit den besten Grüßen
    Dieter Matthe

Wie gefällt Dir dieser Lerninhalt?

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Teile diesen Link mit einem Freund