Vor ein paar Tagen hat Google auf seinem Research Blog Guetzli als neuen JPEG Encoder als Open Source freigegeben und wenn man da über Platzersparnisse in Größenordnung bis zu 35% redet, wird man neugierig.
Einleitung
Google sieht es als Service für ihr eigenes Unternehmen 😉 aber für andere an den Guetzli JPEG Encoder als Open Source freizugeben. Der neue Encoder soll Platzersparnisse um ca. 35% gegenüber den bisherigen Verfahren bringen und insgesamt zu weniger Artefakten oder sagen wir besser, zu Artefakten führen, die nach Versuchen von Google von den Nutzern als weniger störend empfunden werden. Zum Hintergrund des Alogarithmus ist bei der Cornell Universität ein Grundlagenpapier veröffentlicht.
Praxis
Zur Untermauerung zeigt Google in dem Artikel mehrere Bilder, die belegen sollen, dass Guetzli bessere Ergebnisse als z.B. die vielfach verwendete libJPEG liefert.
Links das Original, in der Mitte das Resultat von libJPEG und rechts das Ergebnis von Guetzli. Das war aber jetzt ein Beispiel, was mich gerade nicht so sehr überzeugt hat 🙁 Da aber auf GitHub sowohl die Quelldateien, aber entsprechende ausführbare Programme u.a. für Windows zur Verfügung stehen, kann man ja selbst ausprobieren.
Hintergrund einer solchen Entwicklung ist natürlich gerade bei Webseiten und vor allem bei Zugriffen per Mobilnetzwerk die Menge der zu übertragenden Daten zu reduzieren.
Ich habe mir einmal ein relativ detailreiches Bild von meiner Lumix genommen, und es wie meine Vergleiche zu JPEGMini mit einer Qualitätseinstellung von 100 mit Lightroom exportiert. Die resultierende Datei ist dabei 6.989Kb gross. Wird eine solche Datei über Guetzli behandelt, dann kommen wir eine Dateigröße von 5.686 Kb. Damit komme ich aber auf eine Platzersparnisse von knapp 19% und das ist schon recht weit von den versprochenen 35 % entfernt.
Man hat an einigen Stellen des Bildes den Eindruck, dass das mit Guetzli erzeugte Bild geringfügig unschärfer erscheint, aber das ist nur ein Eindruck. Diese Größenreduzierung um knapp 19% in diesem Fall wird aber mit Rechenzeiten um die 11 min. erkauft (bei einem anderen Bild habe ich den Versuch nach knapp 40 min. abgebrochen). Das ist aber für die Praxis eines Fotografen kaum tauglich. Der Prozess macht keinen Gebrauch von den vorhandenen CPU-Kernen und dann muss ja noch berücksichtigt werden, dass man seine Bilder ja vielleicht nur mit einer max. Größe von ca. 2000px an der langen Kante hochlädt/veröffentlicht, und dann fällt auch die Ersparnisse geringer aus.
Fazit
Zu berücksichtigen ist, dass Google hier Forschungsergebnisse veröffentlicht hat, und jede Menge zu tun bleibt. Der Algorithmus muss in jedem Fall schneller werden, so wie er jetzt implementiert ist, bezweifle ich den praktischen Nutzen. Dann kommt noch hinzu, dass sich gerade die Mobilfunkbetreiber auf immer größere Datenvolumen einstellen (und leider hier in Deutschland nur sehr langsam mit vernünftigen Preisen an die Nutzer weitergeben) und da fragt man sich, ob das für Google, Flickr, Facebook und andere Dienste, die Millionen Uploads/Tag verzeichnen wirklich einen Nutzen bringt.
Ich möchte diese Veröffentlichung nicht als nutzlos bezeichnen, aber bis zu einem praktischen Nutzen wird noch eine Zeit vergehen, auch wenn das Hochladen sicherlich nur ein einmaliger Prozess ist. Wie denkt ihr darüber, nützlich, interessant oder her etwas, was dem Fotografen in der Praxis eher wenig nutzt?
ciao tuxoche