Kameraprofilierung u. Workflow (FMS)

Thread Status
Hello, There was no answer in this thread for more than 30 days.
It can take a long time to get an up-to-date response or contact with relevant users.
Du magst mir verzeihen, dass ich Mac-Life nicht kenne

Verziehen :)

und mir auch nicht kaufen werde.:) Deshalb meine Fragen,

Vielleicht hast Du ja einfach nicht darüber nachgedacht, aber das ist ein bisschen problematischer.

Ich selbst verdiene absolut nix daran, wenn Du eine Mac Life kaufst. Aber es kostet mich Zeit, Dinge hier nochmals zu erklären, die ich bereits woanders hoffentlich allgemeinverständlich erklärt habe. Die Artikel gibt's alle einzeln für 1,50 Euro oder so als PDF zu kaufen. Wenn Du von mir erwartest, dass ich hier Deine Fragen beantworte, statt einfach die paar Kröten zu investieren, dann heißt das im Endeffekt, dass Du meinst, dass die halbe Stunde oder so Lebenszeit, die mich das dann kostet, weniger Wert ist als für Dich 1,50 Euro. Und das finde ich dann nicht so nett.

welche RAW-Konverter hast du getestet

Apple, Adobe, Capture One, SilverFast

und war auch UFRaw dabei?

Nein, das gibt's nicht nativ für Mac OS X.

Hast du auch das Kamera-Target von Wolf Faust getestet?

Ja.

Ist es nicht ein wenig widersprüchlich einerseits Capture One PRO als einziges, "taugliches" Programm fett hervorzuheben und andererseits selbst mit JEPEG erzeugten Bildern eine deutliche Verbesserung durch eine Profilierung zuzuschreiben?

Wo ist der Widerspruch? Für RAW-Bilder brauchst Du (wenn Du keine Kompromisse eingehen willst) Capture One PRO, für JPEG-Bilder brauchst Du natürlich keinen RAW-Konverter ...

Tschau
Uli
 
Kommentar
Anzeigen
Ich selbst verdiene absolut nix daran, wenn Du eine Mac Life kaufst. Aber es kostet mich Zeit, Dinge hier nochmals zu erklären, die ich bereits woanders hoffentlich allgemeinverständlich erklärt habe. Die Artikel gibt's alle einzeln für 1,50 Euro oder so als PDF zu kaufen. Wenn Du von mir erwartest, dass ich hier Deine Fragen beantworte, statt einfach die paar Kröten zu investieren, dann heißt das im Endeffekt, dass Du meinst, dass die halbe Stunde oder so Lebenszeit, die mich das dann kostet, weniger Wert ist als für Dich 1,50 Euro. Und das finde ich dann nicht so nett.
1,50 Euro ist noch zu verkraften, möchte nur keine Zeitung kaufen mit der ich sonst nix anfangen kann. :)

Apple, Adobe, Capture One, SilverFast
Capture One 4 wäre ja relativ preisgünstig, du sprachst aber nur von der Pro-Version, demnach taugt CO4 wohl auch nicht so viel?

Nein, das gibt's nicht nativ für Mac OS X.
Dann gibts dazu also auch keine Bewertung deinerseits.

Wo ist der Widerspruch? Für RAW-Bilder brauchst Du (wenn Du keine Kompromisse eingehen willst) Capture One PRO, für JPEG-Bilder brauchst Du natürlich keinen RAW-Konverter ...
Hörte für sich für mich so an als ob man von allen anderen Rawkonvertern außer COPro lieber die Finger lassen sollte und mit JEPEGs demnach ein besseres Ergebnis erreichen kann als mit den übrigen Rawkonvertern. Ich würde aber nun vermuten, dass eine Profilierung auch mit anderen Rawkonvertern als COPro eine Verbesserung der Farbgenauigkeit ergeben kann.

Martin
 
Kommentar
1,50 Euro ist noch zu verkraften, möchte nur keine Zeitung kaufen mit der ich sonst nix anfangen kann. :)

Das ist nachvollziehbar. :)

Capture One 4 wäre ja relativ preisgünstig, du sprachst aber nur von der Pro-Version, demnach taugt CO4 wohl auch nicht so viel?

Naja, "nicht taugen" ist der falsche Ausdruck, nur dieses für Farbmanagement kritische Feature hat die Nicht-Pro-Version eben leider nicht.

Die Situation ist etwas unbefriedigend, deshalb habe ich weiter herumgesucht und bin nunmehr auf eine Shareware gestoßen, die das vielleicht kann (noch nicht sicher), aber die ist Mac only, und Du bist ja wohl auf einem anderen System.

Dann gibts dazu also auch keine Bewertung deinerseits.

Nein. Der Test hat sich um Vollständigkeit bei den Profilierungsprogrammen und Targets bemüht; die RAW-Konverter sind ja eigentlich ein Nebenschauplatz; als ich merkte, dass es da Probleme gibt, habe ich versucht, die wichtigsten auf dem Mac zu testen, war aber sicher, gerade angesichts von Shareware und Open Source, nicht vollständig.

Hörte für sich für mich so an als ob man von allen anderen Rawkonvertern außer COPro lieber die Finger lassen sollte und mit JEPEGs demnach ein besseres Ergebnis erreichen kann als mit den übrigen Rawkonvertern. Ich würde aber nun vermuten, dass eine Profilierung auch mit anderen Rawkonvertern als COPro eine Verbesserung der Farbgenauigkeit ergeben kann.

Ja, das ganz sicher. Die Aussage war eher unter dem Gesichtspunkt "wenn schon RAW, dann auch optimal" zu sehen. Die Qualitätsreihenfolge ist sicher:

– RAW mit korrektem Workflow (d.h. noch keine "Zwangskonvertierung" in einen Arbeitsraum erfolgt)
– RAW mit inkorrektem Workflow (d.h. Profilierung von einem Farbraum aus, in den der RAW-Konverter schon konvertiert hatte)
– JPEG (das ja immer schon in einen Farbraum konvertiert ausgegeben wird)

Auch bei letzterer Variante lässt sich noch eine Verbesserung erzielen, aber die anderen sind natürlich besser.

Tschau

Uli
 
Kommentar
Hallo Uli,

an dieser Stelle nochmals Dank für deine Geduld und Unterstützung,
die mir wirklich weiterhilft!

Mittels diesen Freds ist mir schon einiges klarer geworden. Vielleicht liegen die "Fehler" bei mir und ich habe die Aussagen fehlerhaft interpretiert?!


Das ist – entschuldige die klaren Worte – einfach vollkommener Blödsinn. (Es gibt leider im Bereich des Farbmanagements sehr viel verbreitetes Halb- und Nichtwissen ...)

Grundsätzlich sollte man die Farben, die die Kamera einfangen konnte, natürlich so gut wie möglich bewahren und so wenig wie irgend möglich beschneiden, so lange, bis es am Ende für ein bestimmtes Ausgabemedium (z.B. einen Drucker) leider zwingend nötig wird.

Im Prinzip ist ein idealer Arbeitsfarbraum also so groß wie möglich, noch viel größer als Adobe 1998! (ProPhoto ist z.B. ein solcher, sehr großer Arbeitsfarbraum, der größer ist als praktisch alle Farben, die auch die besten Kameras liefern können.

Warum zieht man dann kleinere Farbräume auch nur in Erwägung?

Dafür gibt es nur zwei denkbare Gründe:

1. Die geringe Farbauflösung von 8-Bit-(pro Farbe)TIFFs. 8 Bit heißt ja, dass Du pro Farbe nur 256 Abstufungen darstellen kannst. Das geht wahrnehmungsphysiologisch gerade so, aber weniger würde kritisch. Wenn Du nun einen sehr großen Farbraum hast, bedeutet das natürlich auch, dass der auch mehr von solchen Farben enthält, die Deine konkrete Kamera gar nicht darstellen kann (oder die überhaupt sehr selten vorkommen). Du "verschenkst" also einen gewissen Prozentsatz darstellbarer Farben, und für die Farben, die Deine Kamera darstellen kann, bleiben dann nur deutlich weniger als 256 Abstufungen übrig, und das ist dann eben u.U. ein Problem. Deswegen sollte man bei 8-Bit-TIFFs keine allzu großen Farbräume wählen; Adobe 1998 ist da ein ganz guter Kompromiss. Wenn Du aber die Möglichkeit hast, mit 16-Bit-TIFFs zu arbeiten, dann tue das unbedingt, und dann kann der Farbraum nach der RAW-Entwicklung "gar nicht groß genug sein" (ProPhoto oder ähnliches)! Einen sehr guten Überblick über mögliche Farbräume und ihre Eigenschaften in Bezug auf den Kompromiss zwischen "beschnittenen Farben" und "verschenkten Farben" gibt es auf http://brucelindbloom.com/index.html?WorkingSpaceInfo.html.)

2. Du willst sehen, wie es bei der Ausgabe auf z.B. einem Drucker aussehen wird, damit Du bei der Bearbeitung nicht wunderschöne Blaus zauberst, die dann später beim Druck gar nicht zu sehen sind. Zu einem solchen Zweck sollte man aber niemals dauerhaft in den Druckerfarbraum konvertieren und damit das Bildoriginal zerstören, sondern nur zum Test (sogenannter "Softproof"; viele Programme ermöglichen das als temporäre Ansicht, ohne die Bilddatei dauerhaft zu verändern). Auch wenn billige Drucker heute nur sRGB können – wer weiß, wie das in 10 Jahren aussieht, wenn die Bilder von heute kostbare Erinnerungen beinhalten?

Für alles andere als eine Schnappschusskamera ist sRGB jedenfalls eine geradezu groteske Empfehlung; Adobe 1998 sollte das allermindeste sein.

Wenn ich deinen Ausführungen folge, und sie hoffentlich richtig verstehe, dann könnte, auf die Praxis bezogen, folgendes 'saloppe' Resümee
gelten:

sRGB (8 Bit Farbtiefe pro Kanal) ist ausreichend für Web-Applikationen
und somit sinnvoll für die Erstellung von JPGs. Für die Erstellung von
JPGs kann man dann in der Kamera gleich den sRGB-Raum wählen. Sollten
die JPGs hinterher mittels EBV (Photoshop) noch bearbeitet werden, dann bleibt man auch dort im sRGB-Farbraum. Die fertigen Bilder können dann Online gehen. (Webgalerien etc.)

Habe ich RAW im Blick, dann sollte ich die höchstmögliche Farbtiefe der Kamera wählen, da mir zu diesem Zeitpunkt die best mögliche
Ausgangsqualität zu Teil wird. (12-/16-Bit) Fotografiere ich in RAW, dann wird der voreingestellte Farbraum der Kamra nicht berücksichtigt, sondern ausschließlich die volle physikalische Möglichkeit des Sensors bei der Aufnahme herangezogen. Bei dem Aufnahmemodus 'RAW + JPG' wird der voreingestellte Farbraum der Kamra nur für die JPG-Interpretation verwendet.

Die angefertigte RAW-Datei wird zur Entwicklung im RAW-Konwerter
geöffnet - eben digitales Negativ - und erst jetzt wird dieser Datei ein Farbraum zugewiesen. Welchen, dies hängt eben vom Ausgabeziel ab und obliegt ganz allein der Entscheidung des Users.

Kann diese Zusammenfassung als "korrekt" bezeichnet werden? Sollte das der
Fall sein so denke ich, dass ich es vom Prinzip her verstanden habe.
 
Kommentar
Hallo Nicki,

an dieser Stelle nochmals Dank für deine Geduld und Unterstützung, die mir wirklich weiterhilft!

Bitte :)

Mittels diesen Freds ist mir schon einiges klarer geworden. Vielleicht liegen die "Fehler" bei mir und ich habe die Aussagen fehlerhaft interpretiert?!

Also, was ich mir vorstellen könnte, ist, dass diese pro-sRGB-Aussagen als Empfehlung für Leute gemeint waren, die gerade kein Farbmanagement machen bzw. davon gar nichts wissen wollen. sRGB ist, wie schon gesagt wurde, eben der kleinste gemeinsame Nenner, der jedenfalls keine vollkommen schrägen Ergebnisse liefert, wenn man Farbmanagement ignoriert (weil die meisten Consumer-Drucker, -Monitore etc. eben in etwa sRGB annehmen, wenn sie kein Farbprofil im Bild vorfinden). Aber das wäre dann auch der einzige zu verzeihende Grund für diese Empfehlung. ;)

sRGB (8 Bit Farbtiefe pro Kanal) ist ausreichend für Web-Applikationen und somit sinnvoll für die Erstellung von JPGs. Für die Erstellung von JPGs kann man dann in der Kamera gleich den sRGB-Raum wählen.

Wenn man sich denn sicher ist, dass diese Bilder niemals anders Verwendung finden werden ... Sonst ist es wieder besser, erst direkt vor der Veröffentlichung im Web in sRGB "runterzukonvertieren" und selbst die besseren Originale zu behalten. Ich betrachte sRGB gerne als das "Ausgabeprofil fürs Web", sprich, ich arbeite in einem größeren Farbraum, und unmittelbar vor der Ausgabe wird das Bild im Falle des Ausdrucks eben ins Druckerprofil und im Falle der Veröffentlichung im Web in sRGB konvertiert. (Der einzige Unterschied ist dann, dass man sich um die Konvertierung ins Druckerprofil nicht kümmern muss (sollte beim Ausdruck automatisch geschehen, jedenfalls unter Mac OS X ist das so), während man bei sRGB fürs Web eben selbst "Hand anlegen" muss.)

Sollten die JPGs hinterher mittels EBV (Photoshop) noch bearbeitet werden, dann bleibt man auch dort im sRGB-Farbraum. Die fertigen Bilder können dann Online gehen. (Webgalerien etc.)

Yep.

In Zukunft werden Webbrowser hoffentlich auch korrekt mit Farbprofilen umgehen können, und dann können ambitionierte Fotografen ihre Bilder auch in einem besseren Farbraum veröffentlichen (auch JPEGs profitieren noch von Adobe1998). Safari und Firefox 3 können das schon heute, aber Standard ist es eben noch nicht, und für alle Browser, die nix von Farbprofilen verstehen, sehen Adobe1998-Bilder total flau aus.

Habe ich RAW im Blick, dann sollte ich die höchstmögliche Farbtiefe der Kamera wählen, da mir zu diesem Zeitpunkt die best mögliche Ausgangsqualität zu Teil wird. (12-/16-Bit) Fotografiere ich in RAW, dann wird der voreingestellte Farbraum der Kamra nicht berücksichtigt, sondern ausschließlich die volle physikalische Möglichkeit des Sensors bei der Aufnahme herangezogen. Bei einer Einstellung RAW + JPG wird der voreingestellte Farbraum der Kamra nur für die JPG-Interpretation verwendet.

Die angefertigte RAW-Datei wird zur Entwicklung im RAW-Konwerter geöffnet - eben digitales Negativ - und erst jetzt wird dieser Datei ein Farbraum zugewiesen. Welchen, dies hängt eben vom Ausgabeziel ab und obliegt ganz allein der Entscheidung des Users.

Yep. Ich würde höchstens einschränken, dass der Arbeitsfarbraum eben nicht so sehr von einem bestimmten, im Augenblick ins Auge gefassten Ausgabeziel abhängen sollte, sondern eher so sein sollte, dass man sich für die Zukunft möglichst keine Ausgabemöglichkeiten verbaut. Aber wie Du zu Recht sagst, das obliegt der Entscheidung des Users. :)

Tschau
Uli
 
Kommentar
Das ist aber kein Farbprofil nach ICC-Standard, sondern ein proprietäres Adobe-Format, mit dem auch kein Farbmanagement-System etwas anfangen kann, bevor das Bild von dort in einen ICC-Arbeitsfarbraum konvertiert wurde.

ICC-Profile kennen zwei Sätze von Parametern nicht, und nur die kannst Du selbst erstellen. Gute selbsterstellte ICC-Profile führend dabei zu (jedenfalls messtechnisch) besseren Ergebnissen als der Adobe-Ansatz. (Adobes vorgefertigte Profile sind eh nicht sehr gut; Apples in Aperture verwendete Profile sind messtechnisch z.B. deutlich besser.)

Welche Version und welchen Workflow hast Du bei den Adobe Produkten verwendet? Ich habe gerade gelernt, dass die bei ACR 4.5 und vor allem bei LR 2.0 mächtig nachgelegt haben. Insbesondere die Möglichkeit in LR 2.0 eigene Kameraprofile zu erstellen finde ich sehr interessant.


Gruß,
Burkhard
 
Kommentar
Hallo Uli... :)

Yep. Ich würde höchstens einschränken, dass der Arbeitsfarbraum eben nicht so sehr von einem bestimmten, im Augenblick ins Auge gefassten Ausgabeziel abhängen sollte, sondern eher so sein sollte, dass man sich für die Zukunft möglichst keine Ausgabemöglichkeiten verbaut. Aber wie Du zu Recht sagst, das obliegt der Entscheidung des Users. :)

Abschließend noch ein Gedanke zum Workflow, der bei mir
zukünftig via Adobe Photoshop Lightroom 2.0 erfolgen soll.

Vorab ein "Dickes Sorry" für die laienhafte Frage, aber ich
habe bis dato noch nicht mit einem RAW-Konverter gearbeitet.

Wird die im Konverter geladene RAW-Datei zunächst entwickelt und dann in den gewünschten Zielfarbraum konvertiert, oder konvertertiert man das RAW als Erstes in den Zielfarbraum, um es dort auszuarbeiten. (zu entwickeln)

Wenn RAW zuerst entwickelt, und dann erst bei Bedarf in einen Zielfarbraum konvertiert wird, dann kann ich doch nach dieser möglichen Konvertierung,
z. B. sRGB (Web), die Datei als JPG speichern. Wieso dann die Kamerafunktion 'RAW+JPG'?

Die einzige Möglichkeit, die mir einfällt, ist die der unmittelbaren Bereitstellungen/Präsentation mittels JPG zur Kontrolle; und zwar direkt
"Out of Cam", ohne das JPG vorher bearbeiten zu müssen. Das JPG quasi als abgespecktes Pendant zum RAW. Wohl ein Feature, das für
Berufsfotografen gedacht ist, um Kunden schnell einen Ersteindruck zu ermöglichen; liege ich da richtig?
 
Kommentar
Welche Version und welchen Workflow hast Du bei den Adobe Produkten verwendet? Ich habe gerade gelernt, dass die bei ACR 4.5 und vor allem bei LR 2.0 mächtig nachgelegt haben.

Ich habe Lightroom 2.0 mit ACR 4.4 verwendet. Für die Messungen wurden die Target-Fotografien im RAW-Format in Lightroom geöffnet, der Weißpunkt gesetzt, im ProPhoto-Farbraum gesichert, und dann das gesicherte TIFF von ProPhoto absolut kolorimetrisch nach Lab konvertiert, um so die Differenz der Farben zu den Referenzwerten vermessen zu können.

Insbesondere die Möglichkeit in LR 2.0 eigene Kameraprofile zu erstellen finde ich sehr interessant.

Das war mir nicht bekannt und klingt in der Tat interessant. Um gute Kameraprofile zu erstellen, sind die 24 Farben des ColorCheckers ziemlich knapp, aber wenn ich das recht verstehe, geht es ja auch eher darum, vorhandene Profile zu optimieren, und dafür könnte es langen. Wenn das zu vernünftigen Ergebnissen führt, ist das preislich natürlich äußerst attraktiv, obwohl man andererseits Beleuchtungen für 6500 und 2850 Kelvin braucht, die man mit geringerer Wahrscheinlichkeit als eine Studioblitzanlage zur Verfügung haben wird.

Was mich immer noch an Adobes Ansatz irritiert, ist, dass deren Dual-Matrix-Profile bei dem Messtest ausgerechnet bei Fotos in Halogenlicht (ca. 3000 Kelvin) deutlich schlechtere Ergebnisse als die selbst (mit Studioblitzlicht) erstellten ICC-Profile lieferten, obwohl doch 3000 Kelvin ganz nah an den von Adobe für das zweite Teilprofil verwendeten 2850 Kelvin liegt.

Aber vom Prinzip her klingt Adobes Ansatz zweifellos technisch wie ökonomisch zukunftsweisend.

Tschau
Uli
 
Kommentar
Wird die im Konverter geladene RAW-Datei zunächst entwickelt und dann in den gewünschten Zielfarbraum konvertiert, oder konvertertiert man das RAW als Erstes in den Zielfarbraum, um es dort auszuarbeiten. (zu entwickeln)

Die Reihenfolge ist immer:
1. "Entwickeln"
2. Weißabgleich
3. Zuweisung des Profils (das kann technisch immer erst nach dem Weißabgleich erfolgen, sonst gibt es Murks, weil das Profil von einem korrekt abgeglichenen Bild ausgeht, aber Du als User merkst von der Reihenfolge nicht unbedingt etwas, weil ein Programm wie Lightroom halt zunächst mal einen provisorischen Weißabgleich vornimmt, und wenn Du den verbesserst, dann halt nochmal die Profilzuweisung durchrechnet)

Wenn RAW zuerst entwickelt, und dann erst bei Bedarf in einen Zielfarbraum konvertiert wird, dann kann ich doch nach dieser möglichen Konvertierung, z. B. sRGB (Web), die Datei als JPG speichern.

Klar, kein Problem.

Wieso dann die Kamerafunktion 'RAW+JPG'?

Gute Frage. :)

Bei meinem Test habe ich die Funktion gebraucht, weil ich die Qualität eines Kamera-JPEGs (was ja für Leute, die keinen Raw-Konverter haben, die einzige Möglichkeit ist) mit einem Raw-Bild derselben Aufnahme vergleichen wollte, und da war das nützlich. Aber eine "normale" Anwendung dafür fällt mir nicht ein.

Die einzige Möglichkeit, die mir einfällt, ist die der unmittelbaren Bereitstellungen/Präsentation mittels JPG zur Kontrolle; und zwar direkt
"Out of Cam", ohne das JPG vorher bearbeiten zu müssen.

Naja, wenn Du das Bild auf Deinen Rechner spielst, wird die Raw-Version in z.B. Lightroom ja auch sofort angezeigt (Du kannst sie später noch genauer justieren, aber sichtbar ist sie sofort), dasfür brauchst Du kein extra JPEG.

Tschau
Uli
 
Kommentar
Die Reihenfolge ist immer:
1. "Entwickeln"
2. Weißabgleich
3. Zuweisung des Profils (das kann technisch immer erst nach dem Weißabgleich erfolgen, sonst gibt es Murks, weil das Profil von einem korrekt abgeglichenen Bild ausgeht, aber Du als User merkst von der Reihenfolge nicht unbedingt etwas, weil ein Programm wie Lightroom halt zunächst mal einen provisorischen Weißabgleich vornimmt, und wenn Du den verbesserst, dann halt nochmal die Profilzuweisung durchrechnet)

...ich hätte nun vermutet, dass der Weißpunkt als Erstes nach dem Öffnen des RAWs erfolgt, dann die Bearbeitung und dann das Konvertieren -> Speichern... - so kann man sich täuschen!


Naja, wenn Du das Bild auf Deinen Rechner spielst, wird die Raw-Version in z.B. Lightroom ja auch sofort angezeigt (Du kannst sie später noch genauer justieren, aber sichtbar ist sie sofort), dasfür brauchst Du kein extra JPEG.

...ja, aber das mögliche Schicken per Mail/DFÜ an Dritte geht wohl im JPG-Format - schon allein wegen das Datenvoluminas - wesentlich schneller als dies mit RAW der Fall ist. Ich denke hier mitunter auch an Presse- od. Sportfotografen. Mehr Sinn erschließt sich mir momentan nicht, denn auch JPGs für das Web, die künstlerischen Ansprüche haben, (Galerien etc.) werden sicherlich meist erst im sRGB bearbeitet, bevor sie letztendlich hochgeladen werden. Das kann man doch zunächst, wie weiter oben erwähnt, in RAW professioneller erledigen und hat dann zum Schluß immer noch die Möglichkeit für das Web zu konvertieren und zu speichern.
 
Kommentar
...ja, aber das mögliche Schicken per Mail/DFÜ an Dritte geht wohl im JPG-Format - schon allein wegen das Datenvoluminas - wesentlich schneller als dies mit RAW der Fall ist. Ich denke hier mitunter auch an Presse- od. Sportfotografen. Mehr Sinn erschließt sich mir momentan nicht, denn auch JPGs für das Web, die künstlerischen Ansprüche haben, (Galerien etc.) werden sicherlich meist erst im sRGB bearbeitet, bevor sie letztendlich hochgeladen werden. Das kann man doch zunächst, wie weiter oben erwähnt, in RAW professioneller erledigen und hat dann zum Schluß immer noch die Möglichkeit für das Web zu konvertieren und zu speichern.

Über irgendeine fremde Raw-Datei freut sich kein Empfänger, wenn er in ACR die Farbgebung erraten muss. Dann lieber Standardformat profiliertes Tiff.

JPG ist ein z.B. für Print oder Web geeignetes Ausgabe-Endformat für Halbtonbilder. Als Format für weitere Bearbeitung auch wegen sich addierender Verluste bei jedem Speichern (nach Bearbeitungsschritten) ist es nicht gemacht. Die JPG-Erstellung - auf Ausgabegröße skalieren, evtl. sRGB-Konvertierung wg. Web, Schärfung - sind die letzten Schritte nach erfolgter Bildbearbeitung.

Ein geschärftes sRGB-JPG ist ausgebacken. Sicher sinnvoll für Web-Galerien etc., unbrauchbar für Weiterbearbeitung.

Gruß,
Thomas
 
Kommentar
Das war mir nicht bekannt und klingt in der Tat interessant. [...] Aber vom Prinzip her klingt Adobes Ansatz zweifellos technisch wie ökonomisch zukunftsweisend.

So, das hat mir jetzt keine Ruhe gelassen und ich habe das Ganze mal probiert und durchgemessen. Leider ist das Ergebnis ernüchternd: unter dem Strich bringt das Ganze nix.

Bei meinem Messverfahren überprüfe ich die Farbqualität von 7 Aufnahmen, die unter verschiedenen Beleuchtungsszenarien entstanden (Sonnentag Schatten, Sonnentag Sonne, Sonnentag Innenraum, Sonnentag Abend (kein Abendrot), Kunstlicht Halogen, Kunstlicht Neon, Kamerablitz).

Die durchschnittlichen und maximalen Farbabweichungen (in deltaE 1976), gemittelt über alle 7 Aufnahmen, sind für Lightroom 2.0/ACR 4.4:

10,03 20,78

Wenn ich mit Adobe Profile Editor ein Single-Matrix-Profil erstelle, kriege ich:

9,19 22,51

Ein Dual-Matrix-Profil mit 6500 und 2850 Kelvin ergibt:

9,26 25,70

Das zeigt erneut, dass die Idee mit den zwei Farbtemperaturen in einem Profil vereint in der Theorie schön klingt, aber in der Praxis nicht funktioniert.

Zum Vergleich: Apple Apertures Werte sind:

8,99 19,53

Da komme ich also ohne Eigenleistung besser weg. Und ein eigenes Profil mit ProfileMaker erstellt sieht so aus:

6,02 14,27

Da habe ich dann wirklich eine erhebliche Verbesserung, für die der Aufwand eigener Profilierung lohnt.

Schade, die Idee klang schön ...

Tschau
Uli
 
Kommentar
Danke für Deine Messungen. Ich hätte da noch ein paar Fragen zur Durchführung:

Wie erzeugst Du die verschiedenen Beleuchtungssituationen? "Synthetisch" oder ist das dann tatsächlich Sonnenlicht im Schatten mit den entsprechenden Schwankungen bei der Reproduktion?

Beim Vergleich der Profile, vergleichst Du da den Adobeansatz mit einem selbstgemessenen Profil bei sieben Aufnahmebeleuchtungen oder sieben Profile bei sieben Beleuchtungen?

Woher kommen die hohen Fehlerbeiträge bei Adobe? Sind sie gleichverteilt über die Aufnahmesituationen? Oder treten sie außerhalb des Interpolationsbereich zwischen 2750K und 6500K auf? (Anders formuliert: Wie verhält sich die Situation wenn man nur Aufnahmen zwischen 2750K und 6500K macht bzw. tatsächlich nur die Belichtungen 2750K und 6500K betrachtet? )

Viele Grüße,
Burkhard

PS: Ach ja, noch eine ganz wichtige Sache: Weißt Du wie groß der Fehler Deiner Messung ist bzw. hast eine Abschätzung dafür?
 
Kommentar
Hallo Uli,

beim zweiten Durchlesen tut sich eine kleine Unsicherheit auf

Die Reihenfolge ist immer:
1. "Entwickeln"
2. Weißabgleich
3. Zuweisung des Profils (das kann technisch immer erst nach dem Weißabgleich erfolgen, sonst gibt es Murks, weil das Profil von einem korrekt abgeglichenen Bild ausgeht, aber Du als User merkst von der Reihenfolge nicht unbedingt etwas, weil ein Programm wie Lightroom halt zunächst mal einen provisorischen Weißabgleich vornimmt, und wenn Du den verbesserst, dann halt nochmal die Profilzuweisung durchrechnet)

Meinst du mit "Entwicklen" (Anführungszeichen) das Modul 'Entwickeln' in LR, oder tatsächlich die eigentliche Bearbeitung des RAW?

Ich dachte immer:

1. Öffen des RAW
2. Weißpunkt setzen
3. Korrigíeren (Bearbeiten)
4. Konvertieren/Farbraum (wenn erwünscht)
5. Abspeichern (in das gewünschte Format)

Bin verunsichert...

Des Weiteren lese ich immer TIFF (Tagged Image File Format) als Speicherformat. Ist denn TIFF dem DNG vorzuziehen?

Meine zukünftige "Strategie" sollte eigentlich wie folgt ausfallen:

1. Originale NEFs direkt auf DVD als Archiv
2. Importieren,mit gleichzeitiger Konvertierung *.DNG, in LR.

Hmmm... typische Newbie-Fragen, die aber für den Einsteiger immens wichtig sind verstanden zu werden, denn wenn am Anfang schon durch Mißverständnisse Fehler gemacht werden, ist am Ende der Workflow für die Katz'...
 
Kommentar
Hallo Nicki,

Meinst du mit "Entwicklen" (Anführungszeichen) das Modul 'Entwickeln' in LR, oder tatsächlich die eigentliche Bearbeitung des RAW?

Ich dachte immer:

1. Öffen des RAW
2. Weißpunkt setzen
3. Korrigíeren (Bearbeiten)
4. Konvertieren/Farbraum (wenn erwünscht)
5. Abspeichern (in das gewünschte Format)

Das stimmt auch. "Entwickeln" ist ja eh nur ein metaphorischer Ausdruck, ich meinte das, was Du mit "Öffnen das RAW" beschreibst. Ein RAW lässt sich ja gar nicht als sichtbares Bild am Bildschirm darstellen, bevor es in ein lesbares Bildformat konvertiert (also "entwickelt") ist, daher ist das immer das Allererste.

Des Weiteren lese ich immer TIFF (Tagged Image File Format) als Speicherformat. Ist denn TIFF dem DNG vorzuziehen?

Das sind zwei verschiedene Sachen. Die Idee von RAW-Programmen wie Lightroom ist ja gerade, das Kameraoriginal unangetastet (also im RAW-Format) zu speichern, damit alle denkbaren Bearbeitungsschritte wieder rückgängig gemacht werden können, falls man es später mal anders will.

Diese "RAW"-Formate sind nun dummerweise pro Kamerahersteller unterschiedlich, sodass man Angst haben kann, dass, wenn so ein Hersteller mal Pleite geht, in fernerer Zukunft auf Computern keine Programme mehr existieren, mit denen Fotos, die mit Kameras dieses Herstellers gemacht wurden, noch lesbar sind. Daher wäre ein standardisiertes RAW-Format gut, und das versucht Adobe mit DNG (natürlich nicht ganz uneigennützig) zu etablieren, bislang allerdings mit eher geringer Resonanz von Seiten der Kamerahersteller. Ein DNG bleibt aber eine RAW-Datei, in der Du keinerlei Bearbeitung eines Bildes speichern kannst, nur das Original. Und wer kein Programm besitzt, das DNG lesen kann, kann sich die Bilder auch nicht ansehen.

TIFF hingegen ist der professionelle, verlustlose Standard für ("entwickelte", bearbeitete) Bilder, den wirklich jedes Programm, das was mit Bildern zu tun hat, versteht. Wenn man jemand anderem seine Bilder geben will, würde man das in der Regel immer in TIFF tun.

Meine zukünftige "Strategie" sollte eigentlich wie folgt ausfallen:

1. Originale NEFs direkt auf DVD als Archiv
2. Importieren,mit gleichzeitiger Konvertierung *.DNG, in LR.

Da spricht im Prinzip nix dagegen. NEF und DNG sind wie oben gesagt beides noch RAW-Formate und also solche sehr verwandt (Du kannst bei DNG ja sogar einstellen, dass das ganz unangetastete RAW – also bei Dir NEF – mit eingebettet wird), ob man Adobe oder Nikon mehr Langlebigkeit zutraut, ist einfach "Geschmackssache"; beide Formate abspechern schadet sicher nicht. :)

Tschau
Uli
 
Kommentar
Hallo Burkhard,

Danke für Deine Messungen. Ich hätte da noch ein paar Fragen zur Durchführung:

Wie erzeugst Du die verschiedenen Beleuchtungssituationen? "Synthetisch" oder ist das dann tatsächlich Sonnenlicht im Schatten mit den entsprechenden Schwankungen bei der Reproduktion?

Die Lichtverhältnisse sind reale "Schnappschusssituationen", also tatsächlich Sonnenlicht. Da ich aber stets dieselben Ausgangsbilder verwende, gibt es (innerhalb meines Tests) kein Reproduktionsproblem.

Beim Vergleich der Profile, vergleichst Du da den Adobeansatz mit einem selbstgemessenen Profil bei sieben Aufnahmebeleuchtungen oder sieben Profile bei sieben Beleuchtungen?

Ein Testprofil für alle Situationen.

Woher kommen die hohen Fehlerbeiträge bei Adobe? Sind sie gleichverteilt über die Aufnahmesituationen? Oder treten sie außerhalb des Interpolationsbereich zwischen 2750K und 6500K auf? (Anders formuliert: Wie verhält sich die Situation wenn man nur Aufnahmen zwischen 2750K und 6500K macht bzw. tatsächlich nur die Belichtungen 2750K und 6500K betrachtet? )

Adobes Default-Werte sind nirgends besonders gut, aber absurderweise besonders schlecht bei Halogenlicht, also ziemlich genau den 2850 K, für die das zweite Teilprofil existiert. Letzteres ist auch die einzige Situation, wo das durch das mit DNG-Profil-Editor selbsterstellte Profil klar besser wird als beim Adobe-Default (aber immer noch nicht besser als die Defaults der Konkurrenz).

Für weitere Messwerte-Details bitte ich Dich aber wirklich, Dir dann ab nächster Woche die Diagramme in dem Mac-Life-Artikel anzusehen (kann man wie gesagt online als PDF kaufen), sonst tippe ich mich hier die Finger wund. ;)

PS: Ach ja, noch eine ganz wichtige Sache: Weißt Du wie groß der Fehler Deiner Messung ist bzw. hast eine Abschätzung dafür?

Die Frage verstehe ich nicht ganz, denn es findet ja keine Messung mit einem Messgerät statt. Die Abweichungen sind die vom Computer berechneten Abweichungen der Farben auf dem entwickelten Bild von denen der Referenzdatei, die das Target beschreibt. Oder meinst Du die Genauigkeit der Referenzdatei relativ zu dem physischen Target (einem GretagMacbeth Digital ColorChecker SG)? Die ist etwa Durchschnitt delta E = 0,5.

Tschau
Uli
 
Kommentar
@Uli

Hallo Uli,

okay, dann scheine ich das Ganze doch kapiert zu haben.

Lightrooms implementierter RAW-Konverter öffnet die Kamera-RAW-Datei des jeweilgen Herstellers, soweit dieser sie schon interpretieren und lesen kann, und läd die Daten in das Programm. Beim Import kann ich bestimmen ob das Original-RAW unangetastet bleibt, oder ob gleich in das Adobe eigene DNG konvertiert werden soll. (Digital Negative)

Alle nun folgenden Änderungen an dem Original-RAW/DNG werden eben nicht tatsächlich physikalisch vorgenommen, sondern verhalten sich quasi wie ein "Filter", welcher über dem Original-RAW liegt. All diese Änderungen/Einstellungen werden mittels Metadaten in der Bibliothek (Library) von Lightroom gespeichert und dort gehalten. Erst wenn man in ein anderes Format wechselt, also z.B. explizit in ein anderes Format speichert, werden die bis dahin erfolgten Bearbeitungen in das neue Format verrechnet. (übernommen)

Ich nehme mal an, dass durch das Speichern in eine neue Datei die Metadaten von Adobe keine Gültigkeit mehr haben und nicht mehr im neuen Format von Lightrrom interpretiert werden können; kann das sein? Wie vehält sich das mit TIFFs - würden die Metadaten, die bei einer Bildbearbeitung unter DNG entstehen, später auch weiterhin für Lightroom zu interpretieren sein, falls sie in TIFF abgespeichert würden? (quasi eine Art "Reimport")


@ll

Ich hoffe nicht, dass ich euch mit meiner Fragerei auf die Nerven gehe, aber beim 'Resümieren' kann ich die Umstände am besten begreifen. Viele Lücken konnte ich schon mittels diesen Freds schließen. Man kommt sich manchmal vor wie ein Stürmer vor einem leeren Tor, dem es jedoch nicht gelingt den Ball über die Linie zu drücken... ;-)

Danke für euer Verständnis!
 
Kommentar
Ich nehme mal an, dass durch das Speichern in eine neue Datei die Metadaten von Adobe keine Gültigkeit mehr haben und nicht mehr im neuen Format von Lightrrom interpretiert werden können; kann das sein? Wie vehält sich das mit TIFFs - würden die Metadaten, die bei einer Bildbearbeitung unter DNG entstehen, später auch weiterhin für Lightroom zu interpretieren sein, falls sie in TIFF abgespeichert würden? (quasi eine Art "Reimport")

Nein, das ist eben genau der Unterschied. In RAW/DNG gespeichert, hast Du sozusagen ein unbegrenztes "Undo" auf all Deine Bearbeitungsschritte seit dem RAW-Import, ein TIFF ist, wie es ist (kann natürlich noch weiter bearbeitet werden, aber kein Undo).

Tschau
Uli
 
Kommentar
Nein, das ist eben genau der Unterschied. In RAW/DNG gespeichert, hast Du sozusagen ein unbegrenztes "Undo" auf all Deine Bearbeitungsschritte seit dem RAW-Import, ein TIFF ist, wie es ist (kann natürlich noch weiter bearbeitet werden, aber kein Undo).

Hoffentlich stifte ich jetzt keine unnötige Verwirrung, aber mir ist gerade aufgefallen, dass das so allzu missverständlich formuliert war.

RAW-Konverter wie Lightroom (oder auch Apples Aperture) speichern alle Veränderungen an einem Bild nicht als Ergebnis in diesem Bild, sondern als Beschreibung der vorgenommenen Bearbeitungsschritte in einer Datenbank. Diese Datenbank ist nicht in der Bilddatei enthalten, weder bei TIFFs noch bei RAW-Dateien. Verschiebt man die Bilddatei eigenmächtig auf der Festplatte an eine andere Stelle, sind alle in der Datenbank protokollierten Bearbeitungsschritte "verloren". Verschiebt man das Bild zurück, sind sie (im RAW-Konverter betrachtet) "plötzlich wieder da".

Das funktioniert prinzipiell unabhängig vom Bildformat. Ich kann also auch ein TIFF oder gar ein JPEG in Lightroom oder Aperture importieren und bearbeiten, und es wird genauso wenig verändert wie eine RAW-Datei; wieder sind die Veränderungen nur in der Datenbank des RAW-Konverters gespeichert.

Der Unterschied besteht wirklich nur beim Export: da Bilder im RAW-Format de facto keine (in diesem Format speicherbaren) Bearbeitungen erlauben, können die auch gar nicht exportiert werden. Das können nur TIFFs, JPEGs etc., die im Moment des Exports eben in ihrer bearbeiteten Form exportiert werden. Bei dem exportierten TIFF ist also kein Undo mehr möglich, auch nicht, wenn ich es in den RAW-Konverter reimportiere. Das ursprüngliche TIFF, das ggf. statt einer RAW-Datei importiert wurde, behält aber sehr wohl seine Undo-Fähigkeit innerhalb des RAW-Konverters.

Tschau
Uli
 
Kommentar
Guten Tag Uli... :)

Mensch, 03:48 Uhr -> befindest du dich etwa zur Zeit in einer anderen Zeitzone?

.
Der Unterschied besteht wirklich nur beim Export: da Bilder im RAW-Format de facto keine (in diesem Format speicherbaren) Bearbeitungen erlauben, können die auch gar nicht exportiert werden. Das können nur TIFFs, JPEGs etc., die im Moment des Exports eben in ihrer bearbeiteten Form exportiert werden. Bei dem exportierten TIFF ist also kein Undo mehr möglich, auch nicht, wenn ich es in den RAW-Konverter reimportiere. Das ursprüngliche TIFF, das ggf. statt einer RAW-Datei importiert wurde, behält aber sehr wohl seine Undo-Fähigkeit innerhalb des RAW-Konverters.

Ja, verstanden - das war's, was ich wissen wollte. Das mit der Datenbank ist mir bewußt, jeodch war ich mir unsicher wegen des "Reimportes".

Auch hier noch mal recht herzlichen Dank für deine Mühe, die so nicht selbstverstädnlich ist. Es ist sehr schön zu wissen das es doch noch Leute gibt, die ernsthaft bereit sind anderen 'Kollegen' unter die Arme zu greifen und zu helfen; und dies ganz uneigennützig - klasse!
(vielleicht kann ich mich irgendwann einmal revanchieren) :hallo:
 
Kommentar
-Anzeige-
Zurück
Oben Unten