Hallo allerseits,
leider bin ich auf diesen Thread erst mit großer Verspätung durch den Email-Newsletter aufmerksam geworden. Ich lese sonst selten im Forum, da ich mit Nikon nichts zu tun habe und nur vor fast einem Jahrzehnt in dieses Forum geraten bin, weil hier ein sehr ausführlicher damaliger Farbmanagement-Test von mir (in der Zeitschrift Mac Life) intensiv diskutiert wurde.
Auch wenn ich nicht auf alles eingehen kann, möchte ich doch zumindest ein paar Bemerkungen zu den hier aufgeworfenen Fragen machen.
Hier geht es schon los. Nichts an einer funktionierenden Farbmanagement-Kette kann willkürlich gewählt werden.
Nur leider – das ist richtig – stellt die Software der einschlägigen Hersteller die Anwender vor solche Entscheidungen, die sie vernünftig gar nicht treffen können. Das kommt daher, dass die Produkte der Industrie in ihrer jetzigen Form letztlich meist untauglich sind und entscheidende Einstellungen nicht selbst korrekt vornehmen können und sie daher dem Anwender als Willkürakt überlassen, womit eigentlich das Thema Farbmanagement bereits als gescheitert abgehakt werden kann.
Der absolut entscheidende Punkt bei der Monitorkalibration ist, dass der Weißpunkt von Umgebungslicht und Monitor exakt übereinstimmen. Alles andere verblasst dagegen an Bedeutung.
Warum ist das so? Der menschliche Gesichtssinn beherrscht über einen erstaunlich weiten Farbtemperaturbereich die Kunst der chromatischen Adaption, also der Fähigkeit des Weißabgleichs. Ein weißes Blatt Papier sieht für uns immer weiß aus. Aber: Evolutionär ist diese Fähigkeit lediglich auf beleuchtete Flächen ausgerichtet, nicht auf selbstleuchtende. Das ist ja einsichtig: In der Natur gibt es genau eine Lichtquelle – die Sonne – und alles andere ist von ihr mit derselben Farbtemperatur beleuchtet. Bei selbstleuchtenden Objekten wie einem Monitor, der eine andere Farbtemperatur als das Umgebungslicht hat, versagt die menschliche Fähigkeit zu chromatischer Adaption. Jeder, der meint, er könne Farben bei unterschiedlichen Farbtemperaturen von Monitor und Umgebungslicht noch gut beurteilen, unterliegt schlicht einer Selbsttäuschung; das könnte in einem wahrnehmungspsychologischen Test in wenigen Minuten nachgewiesen werden.
Das Umgebungslicht schlicht wegzulassen, ist aber ebenso wenig eine Lösung, denn extreme Hell-Dunkel-Kontraste beeinträchtigen die korrekte Kontrastwahrnehmung; Bilder auf dem Monitor erscheinen dann weniger kontrastreich, als sie in Wahrheit sind. (Das ist der Grund, warum man bei klassischen Fernsehbildern, bei denen man früher davon ausging, dass sie in einem abgedunkelten Raum rezipiert werden, den Kontrast stets künstlich erhöhte.)
Tageslicht wäre natürlich als Umgebungslicht eigentlich ideal, da es aber unentwegt wechselt, ist es ebenso wenig zu gebrauchen, um einen Monitor darauf einzustellen. Die einzige Lösung für farbverbindliches Arbeiten an einem Monitor ist daher ein ein abgedunkelter Raum mit konstantem Kunstlicht in Tageslichtqualität (idealerweise zwischen 5000K und 6500K). Helligkeit und Farbtemperatur von Monitor und Umgebungslicht müssen exakt aufeinander abgestimmt sein, sodass der Monitor für das menschliche Auge nicht anders aussieht als wäre er ein bedrucktes Blatt Papier, das vom Raumlicht erleuchtet wird. Nur dann kann das menschliche Auge Farben und Kontrast korrekt beurteilen.
Wenn diese Bedingungen nicht gegeben sind, ist die Farbkalibration eines Monitors völlig für die Katz und eine teure, sinnlose Spielerei; die „verbesserten Ergebnisse“ sind nichts als Autosuggestion, weswegen es auch so endlose Debatten über „richtige Einstellungen“ gibt: ohne die oben genannten Bedingungen ist keine richtig, alle sind subjektive „Notlösungen“.
Das Problem für die Industrie dabei: Die Abstimmung von Monitor auf Umgebungslicht ist aufwändig und daher als billige Lösung nicht zu verkaufen. Früher war das Hauptproblem das Kunstlicht in Tageslichtqualität. Das ist im LED-Zeitalter erfreulicherweise kein Problem mehr, man kann sich strahlend helle LEDs mit einem Weißpunkt zwischen 5000K und 6500K und einem CRI (gibt die Ebenmäßigkeit der Spektralverteilung und damit die „Lichtqualität“ an; 100 ist der Idealwert) >95 kaufen.
Aber das Problem, das bleibt, ist, dass der Weißpunkt des Umgebungslichts nur mit einem (teuren) Spektralphotometer gemessen werden kann, nicht mit einem (billigen) Kolorimeter. Zur Abstimmung von Monitorlicht auf das Umgebungslicht sind Kolorimeter daher ungeeignet, auch wenn sie den Weißpunkt des Monitors selbst (auf den hin sie konstruiert sind) messen könnten. Letztlich, man muss das in aller Deutlichkeit so sagen, sind daher alle Kolorimeter für die Katz, weil sie die eine der beiden für die Monitorkalibration erforderlichen Messungen – die des Umgebungslichts – gar nicht ausführen können.
Das passt der Industrie natürlich nicht, da sie wohl zu Recht die Einschätzung hat, dass der Käuferkreis für teuere Spektralphotometer weit kleiner ausfiele als für billige Kolorimeter. Also „behilft“ sie sich damit, dem Nutzer den schwarzen Peter zuzuschieben und ihn die korrekte Farbtemperatur manuell wählen zu lassen – als ob er das irgendwie könnte.
Ja, es gibt gewisse „Standard“-Farbtemperaturen, wie D50 (5000K) und D65 (6500K). Die haben aber ausschließlich juristische Relevanz – der Druck kann z.B. nicht vom Auftraggeber zurückgewiesen werden, wenn die Farben unter D50 betrachtet stimmen – aber selbstverständlich muss auch hier das Raumlicht dann ebenfalls D50 sein.
Von solchen juristischen Fisimatenten abgesehen gilt: Worauf es einzig und allein ankommt, ist die möglichst perfekte Übereinstimmung von Monitor-Weißpunkt und -Helligkeit mit dem Umgebungslicht. Die Feinabstimmung der Farben während der Kalibration verblasst in ihren Auswirkungen bei modernen Monitoren gegenüber diesem Punkt völlig.
Wenn Ihr also irgendwo eine der ebenso verbreiteten wie hirnrissigen Empfehlungen lest wie D50 für Fotodrucke, D65 für Webbilder (als ob alle Welt Webseiten immer bei 6500K betrachten würde … ), werft das Buch sofort in den Müll, schließt umgehend das Browserfenster etc: Wer so etwas schreibt, hat nicht die geringste Ahnung von Farbmanagement und trägt nur weiter zur allgemeinen Verwirrung und Hilflosigkeit bei.
Der Gammawert ist die nächste Quelle endloser Missverständnisse. Denn für funktionierendes Farbmanagement spielt der Gammawert gerade überhaupt gar keine Rolle. Der Gag an Farbmanagement ist doch schließlich gerade, dass die Eigenheiten der einzelnen Geräte in ICC-Profilen festgehalten und dann die Farben entsprechend angepasst werden. Sprich: Ob ein Monitor nun einen Gammawert von 1,8, 2,2 oder 2,5 oder was auch immer hat, macht für die Darstellung eines Bildes in einer Software mit Farbmanagement absolut keinen Unterschied. (Bei 8-Bit-Monitoren könnten Farbverläufe bei extremen Gamma-Werten stufig werden, aber das ist ein technisches Detail, das mit 10-Bit-Monitoren ohnehin hinfällig wird.)
Eine Rolle spielt der Gammawert gerade nur bei Programmen ohne Farbmanagement. Denn dann (und nur dann) ändern die Bilder mit dem Gammawert ihren Kontrast. Bei Mac-Software kommt so etwas praktisch nicht mehr vor, bei Windows gibt es noch etliche Programme ohne Farbmanagement, namentlich Video-Player. Da ist es dann wichtig, den richtigen Gammawert eingestellt zu haben, und da Videos in der Regel 2,2 voraussetzen, ist es für Windows-Nutzer tatsächlich eine gute Idee, das Gamma auf 2,2 zu setzen. Mac-Nutzern kann es letztlich egal sein, solange sie nicht Cross-Plattform-Video-Player ohne Farbmanagement wie z.B. VLC einsetzen.
Auch hier kann man sich nur an den Kopf langen, dass die Hersteller von Farbmanagement-Software diese technische Einstellung auf den Anwender abwälzen.
Wie gesagt: Das ist so egal wie nur was. Worauf es einzig ankommt, ist, dass der gewählte Wert exakt mit dem Umgebungslicht übereinstimmt.
Nicht der Königsweg, sondern der einzige. Und ich hoffe, grob erklärt zu haben, warum.
Doch, das tust Du. Dein Gesichtsfeld ist viel weiter als der Bildteil, den Du bewusst fokussierst.
In jeder Lebenslage, in der alle Gegenstände von einer Lichtquelle beleuchtet werden. Und in keiner Lebenslage, wo ein selbstleuchtender Monitor mit einem anderen Weißpunkt als dem Umgebungslicht strahlt. Letzteres zu verarbeiten haben wir in der Evolution schlicht nicht gelernt.
Das ist, wie jetzt hoffentlich klar ist, vollkommener Unsinn. Optimal sind 6300K genau dann und nur dann, wenn das Umgebungslicht 6300K hat.
Ja, ich zum Beispiel. (Fast; im Moment 5071K.)
Weil mein Umgebungslicht nach 6 Jahren Betriebsdauer 5071K hat.
Absolut perfekt. So perfekt, dass ich damit schon subtile Fehler in Farbmanagement-Algorithmen aufspüren konnte.
Ja.
Weil Du sonst den Bildkontrast nicht korrekt wahrnimmst.
Dann hat die Szene entweder keine Ahnung oder nicht hinreichend helle LEDs. Mein Monitor ist auf 200 cd/qm eingestellt, und mein Raumlicht erzeugt an meinem Arbeitsplatz ebenfalls 200 cd/qm (ca. 700 lx). Sehr angenehm für die Augen.
Die Technischen Regeln für Arbeitsstätten – Beleuchtung (ASR A3.4) schreiben für die Farbkontrolle bei Mehrfarbendruck übrigens sogar 400cd/qm vor …
Ich hoffe, ich konnte ein wenig mehr Klarheit schaffen.
Uli
leider bin ich auf diesen Thread erst mit großer Verspätung durch den Email-Newsletter aufmerksam geworden. Ich lese sonst selten im Forum, da ich mit Nikon nichts zu tun habe und nur vor fast einem Jahrzehnt in dieses Forum geraten bin, weil hier ein sehr ausführlicher damaliger Farbmanagement-Test von mir (in der Zeitschrift Mac Life) intensiv diskutiert wurde.
Auch wenn ich nicht auf alles eingehen kann, möchte ich doch zumindest ein paar Bemerkungen zu den hier aufgeworfenen Fragen machen.
Ja, und leider ist noch immer unglaublich viel davon einfach Müll. Ich weiß nicht warum, aber ich kenne kaum ein anderes technisches Thema, über das in Internet und Literatur derart viele Fehlinformationen im Umlauf sind.nachlesen (und womöglich sogar verstehen) kann man ja vieles in der einschlägigen Literatur bzgl. Kalibrierung / Profilierung von Geräten in der fotografischen Bildkette.
Möglicherweise aus gutem Grund, möglicherweise sitzt man aber auch selbst Missverständnissen auf …Aber manchmal gibt es Themen, die kann man mit dem Kopf verstanden haben, aber der Bauch rebelliert dennoch weiter.
Bei der Erstellung eines Monitorprofils messen wir ja gerne mal mit Geräten, die damit werben, bis in den Sub-Prozent-Bereich hinein genau zu sein. Dennoch gibt es den einen oder anderen Parameter, der einigermaßen willkürlich gewählt werden kann
Hier geht es schon los. Nichts an einer funktionierenden Farbmanagement-Kette kann willkürlich gewählt werden.
Nur leider – das ist richtig – stellt die Software der einschlägigen Hersteller die Anwender vor solche Entscheidungen, die sie vernünftig gar nicht treffen können. Das kommt daher, dass die Produkte der Industrie in ihrer jetzigen Form letztlich meist untauglich sind und entscheidende Einstellungen nicht selbst korrekt vornehmen können und sie daher dem Anwender als Willkürakt überlassen, womit eigentlich das Thema Farbmanagement bereits als gescheitert abgehakt werden kann.
Der absolut entscheidende Punkt bei der Monitorkalibration ist, dass der Weißpunkt von Umgebungslicht und Monitor exakt übereinstimmen. Alles andere verblasst dagegen an Bedeutung.
Warum ist das so? Der menschliche Gesichtssinn beherrscht über einen erstaunlich weiten Farbtemperaturbereich die Kunst der chromatischen Adaption, also der Fähigkeit des Weißabgleichs. Ein weißes Blatt Papier sieht für uns immer weiß aus. Aber: Evolutionär ist diese Fähigkeit lediglich auf beleuchtete Flächen ausgerichtet, nicht auf selbstleuchtende. Das ist ja einsichtig: In der Natur gibt es genau eine Lichtquelle – die Sonne – und alles andere ist von ihr mit derselben Farbtemperatur beleuchtet. Bei selbstleuchtenden Objekten wie einem Monitor, der eine andere Farbtemperatur als das Umgebungslicht hat, versagt die menschliche Fähigkeit zu chromatischer Adaption. Jeder, der meint, er könne Farben bei unterschiedlichen Farbtemperaturen von Monitor und Umgebungslicht noch gut beurteilen, unterliegt schlicht einer Selbsttäuschung; das könnte in einem wahrnehmungspsychologischen Test in wenigen Minuten nachgewiesen werden.
Das Umgebungslicht schlicht wegzulassen, ist aber ebenso wenig eine Lösung, denn extreme Hell-Dunkel-Kontraste beeinträchtigen die korrekte Kontrastwahrnehmung; Bilder auf dem Monitor erscheinen dann weniger kontrastreich, als sie in Wahrheit sind. (Das ist der Grund, warum man bei klassischen Fernsehbildern, bei denen man früher davon ausging, dass sie in einem abgedunkelten Raum rezipiert werden, den Kontrast stets künstlich erhöhte.)
Tageslicht wäre natürlich als Umgebungslicht eigentlich ideal, da es aber unentwegt wechselt, ist es ebenso wenig zu gebrauchen, um einen Monitor darauf einzustellen. Die einzige Lösung für farbverbindliches Arbeiten an einem Monitor ist daher ein ein abgedunkelter Raum mit konstantem Kunstlicht in Tageslichtqualität (idealerweise zwischen 5000K und 6500K). Helligkeit und Farbtemperatur von Monitor und Umgebungslicht müssen exakt aufeinander abgestimmt sein, sodass der Monitor für das menschliche Auge nicht anders aussieht als wäre er ein bedrucktes Blatt Papier, das vom Raumlicht erleuchtet wird. Nur dann kann das menschliche Auge Farben und Kontrast korrekt beurteilen.
Wenn diese Bedingungen nicht gegeben sind, ist die Farbkalibration eines Monitors völlig für die Katz und eine teure, sinnlose Spielerei; die „verbesserten Ergebnisse“ sind nichts als Autosuggestion, weswegen es auch so endlose Debatten über „richtige Einstellungen“ gibt: ohne die oben genannten Bedingungen ist keine richtig, alle sind subjektive „Notlösungen“.
Das Problem für die Industrie dabei: Die Abstimmung von Monitor auf Umgebungslicht ist aufwändig und daher als billige Lösung nicht zu verkaufen. Früher war das Hauptproblem das Kunstlicht in Tageslichtqualität. Das ist im LED-Zeitalter erfreulicherweise kein Problem mehr, man kann sich strahlend helle LEDs mit einem Weißpunkt zwischen 5000K und 6500K und einem CRI (gibt die Ebenmäßigkeit der Spektralverteilung und damit die „Lichtqualität“ an; 100 ist der Idealwert) >95 kaufen.
Aber das Problem, das bleibt, ist, dass der Weißpunkt des Umgebungslichts nur mit einem (teuren) Spektralphotometer gemessen werden kann, nicht mit einem (billigen) Kolorimeter. Zur Abstimmung von Monitorlicht auf das Umgebungslicht sind Kolorimeter daher ungeeignet, auch wenn sie den Weißpunkt des Monitors selbst (auf den hin sie konstruiert sind) messen könnten. Letztlich, man muss das in aller Deutlichkeit so sagen, sind daher alle Kolorimeter für die Katz, weil sie die eine der beiden für die Monitorkalibration erforderlichen Messungen – die des Umgebungslichts – gar nicht ausführen können.
Das passt der Industrie natürlich nicht, da sie wohl zu Recht die Einschätzung hat, dass der Käuferkreis für teuere Spektralphotometer weit kleiner ausfiele als für billige Kolorimeter. Also „behilft“ sie sich damit, dem Nutzer den schwarzen Peter zuzuschieben und ihn die korrekte Farbtemperatur manuell wählen zu lassen – als ob er das irgendwie könnte.
Ja, es gibt gewisse „Standard“-Farbtemperaturen, wie D50 (5000K) und D65 (6500K). Die haben aber ausschließlich juristische Relevanz – der Druck kann z.B. nicht vom Auftraggeber zurückgewiesen werden, wenn die Farben unter D50 betrachtet stimmen – aber selbstverständlich muss auch hier das Raumlicht dann ebenfalls D50 sein.
Von solchen juristischen Fisimatenten abgesehen gilt: Worauf es einzig und allein ankommt, ist die möglichst perfekte Übereinstimmung von Monitor-Weißpunkt und -Helligkeit mit dem Umgebungslicht. Die Feinabstimmung der Farben während der Kalibration verblasst in ihren Auswirkungen bei modernen Monitoren gegenüber diesem Punkt völlig.
Wenn Ihr also irgendwo eine der ebenso verbreiteten wie hirnrissigen Empfehlungen lest wie D50 für Fotodrucke, D65 für Webbilder (als ob alle Welt Webseiten immer bei 6500K betrachten würde … ), werft das Buch sofort in den Müll, schließt umgehend das Browserfenster etc: Wer so etwas schreibt, hat nicht die geringste Ahnung von Farbmanagement und trägt nur weiter zur allgemeinen Verwirrung und Hilflosigkeit bei.
Während man sich beim Gamma-Wert wohl allgemein auf 2,2 geeinigt hat,
Der Gammawert ist die nächste Quelle endloser Missverständnisse. Denn für funktionierendes Farbmanagement spielt der Gammawert gerade überhaupt gar keine Rolle. Der Gag an Farbmanagement ist doch schließlich gerade, dass die Eigenheiten der einzelnen Geräte in ICC-Profilen festgehalten und dann die Farben entsprechend angepasst werden. Sprich: Ob ein Monitor nun einen Gammawert von 1,8, 2,2 oder 2,5 oder was auch immer hat, macht für die Darstellung eines Bildes in einer Software mit Farbmanagement absolut keinen Unterschied. (Bei 8-Bit-Monitoren könnten Farbverläufe bei extremen Gamma-Werten stufig werden, aber das ist ein technisches Detail, das mit 10-Bit-Monitoren ohnehin hinfällig wird.)
Eine Rolle spielt der Gammawert gerade nur bei Programmen ohne Farbmanagement. Denn dann (und nur dann) ändern die Bilder mit dem Gammawert ihren Kontrast. Bei Mac-Software kommt so etwas praktisch nicht mehr vor, bei Windows gibt es noch etliche Programme ohne Farbmanagement, namentlich Video-Player. Da ist es dann wichtig, den richtigen Gammawert eingestellt zu haben, und da Videos in der Regel 2,2 voraussetzen, ist es für Windows-Nutzer tatsächlich eine gute Idee, das Gamma auf 2,2 zu setzen. Mac-Nutzern kann es letztlich egal sein, solange sie nicht Cross-Plattform-Video-Player ohne Farbmanagement wie z.B. VLC einsetzen.
Auch hier kann man sich nur an den Kopf langen, dass die Hersteller von Farbmanagement-Software diese technische Einstellung auf den Anwender abwälzen.
Geschätzte 90% der Profilierer wählen die Lichtnorm D50 oder D65 (also ein Spektum mit der Betonung auf 5000 K bzw. 6500 K) sehr viel weniger wählen etwas dazwischen oder außerhalb.
Wie gesagt: Das ist so egal wie nur was. Worauf es einzig ankommt, ist, dass der gewählte Wert exakt mit dem Umgebungslicht übereinstimmt.
Der Königsweg wäre wohl, die tatsächliche Umgebungs-Farbtemperatur zu messen und diese dann für die Monitorkalibrierung zu verwenden. Ich frage mich nur: Warum?
Nicht der Königsweg, sondern der einzige. Und ich hoffe, grob erklärt zu haben, warum.
Wenn ich auf den Monitor sehe, dann sehe ich auf den Monitor ... und nicht auf eine Lichtquelle in der Umgebung.
Doch, das tust Du. Dein Gesichtsfeld ist viel weiter als der Bildteil, den Du bewusst fokussierst.
Ich habe in jeder Lebenslage eine ziemlich konkrete Vorstellung von der Farbe "weiß".
In jeder Lebenslage, in der alle Gegenstände von einer Lichtquelle beleuchtet werden. Und in keiner Lebenslage, wo ein selbstleuchtender Monitor mit einem anderen Weißpunkt als dem Umgebungslicht strahlt. Letzteres zu verarbeiten haben wir in der Evolution schlicht nicht gelernt.
Subjektiv optimal wäre vermutlich (ich hab es nicht ausprobiert) irgendwas um die 6300 K. Und zwar bei jedem Umgebungslicht.
Das ist, wie jetzt hoffentlich klar ist, vollkommener Unsinn. Optimal sind 6300K genau dann und nur dann, wenn das Umgebungslicht 6300K hat.
Hat von Euch jemand den Monitor auf 5000 K eingestellt?
Ja, ich zum Beispiel. (Fast; im Moment 5071K.)
Und wen ja: warum?
Weil mein Umgebungslicht nach 6 Jahren Betriebsdauer 5071K hat.
Und könnt Ihr damit Farben beurteilen?
Absolut perfekt. So perfekt, dass ich damit schon subtile Fehler in Farbmanagement-Algorithmen aufspüren konnte.
Ähnliches gilt für die Helligkeit. Empfohlen wird (je nach Quelle) meist von 60-100 bis etwa 80-120 cd/qm. Ich frage mich auch hier: Was ist eigentlich das Ziel dieser Helligkeitseinstellung. Soll die Monitorhelligkeit der Umgebungshelligkeit angepasst werden?
Ja.
Und wenn ja ... warum?
Weil Du sonst den Bildkontrast nicht korrekt wahrnimmst.
160 cd/qm sind besser. Das gilt aber in der Szene als "viel zu hell".
Dann hat die Szene entweder keine Ahnung oder nicht hinreichend helle LEDs. Mein Monitor ist auf 200 cd/qm eingestellt, und mein Raumlicht erzeugt an meinem Arbeitsplatz ebenfalls 200 cd/qm (ca. 700 lx). Sehr angenehm für die Augen.
Die Technischen Regeln für Arbeitsstätten – Beleuchtung (ASR A3.4) schreiben für die Farbkontrolle bei Mehrfarbendruck übrigens sogar 400cd/qm vor …
Ich hoffe, ich konnte ein wenig mehr Klarheit schaffen.
Uli