Hallo liebe Profilierer und Profiliererinnen
nachlesen (und womöglich sogar verstehen) kann man ja vieles in der einschlägigen Literatur bzgl. Kalibrierung / Profilierung von Geräten in der fotografischen Bildkette. Aber manchmal gibt es Themen, die kann man mit dem Kopf verstanden haben, aber der Bauch rebelliert dennoch weiter.
Bei der Erstellung eines Monitorprofils messen wir ja gerne mal mit Geräten, die damit werben, bis in den Sub-Prozent-Bereich hinein genau zu sein. Dennoch gibt es den einen oder anderen Parameter, der einigermaßen willkürlich gewählt werden kann ... oder bei dem zumindest keine einhellige Meinung über die "richtige" Vorgehensweise existiert. Während man sich beim Gamma-Wert wohl allgemein auf 2,2 geeinigt hat, gehen die Meinungen bei der Farbtemperatur ziemlich auseinander.
Geschätzte 90% der Profilierer wählen die Lichtnorm D50 oder D65 (also ein Spektum mit der Betonung auf 5000 K bzw. 6500 K) sehr viel weniger wählen etwas dazwischen oder außerhalb. Dabei muss man allerdings wissen, dass sich die Differenz von 1500 Kelvin extrem auf die Farbgebung auswirkt. Sicher nicht im Sub-Prozentbereich, sondern eher tief im zweistelligen Bereich. Der Königsweg wäre wohl, die tatsächliche Umgebungs-Farbtemperatur zu messen und diese dann für die Monitorkalibrierung zu verwenden. Ich frage mich nur: Warum?
Wenn ich auf den Monitor sehe, dann sehe ich auf den Monitor ... und nicht auf eine Lichtquelle in der Umgebung. Zwar gewöhnt sich das Auge ein Stück weit an die herrschende Farbtemperatur der Umgebung und kann "weiß" auch unter widrigsten Lichtbedingungen erkennen (oder sagen wir besser "erahnen"), aber man gewöhnt sich nicht komplett daran. Warum macht man diese ungünstigen Bedingungen zur Wunsch-Methode?
Ich habe in jeder Lebenslage eine ziemlich konkrete Vorstellung von der Farbe "weiß". So kann ich (wie Ihr sicher auch) ein Blatt Papier als "weiß" erkennen, wenn ich es bei Kerzen-Schummerlicht in den Händen halte. Wirklich "weiß" ist es auch dann natürlich nicht, sondern eben stark gelbstichig. Auch nach einer gewissen Gewöhnungsphase an die herrschende Umgebungs-Farbtemperatur ändert sich daran nicht wirklich sehr viel. Wenn ich meinen Monitor auf die Lichtnorm D50 einstelle (was offensichtlich viele tun), dann wird mir irgend wann schlecht. Ich assoziiere diese Farbgebung mit Kerzenlicht, aber überhaupt nicht mit einem kalibrierten Monitor. D65 ist subjektiv sehr viel besser, aber nicht optimal, weil schon leicht blaustichig. Subjektiv optimal wäre vermutlich (ich hab es nicht ausprobiert) irgendwas um die 6300 K. Und zwar bei jedem Umgebungslicht. Hat von Euch jemand den Monitor auf 5000 K eingestellt? Und wen ja: warum? Und könnt Ihr damit Farben beurteilen?
Ähnliches gilt für die Helligkeit. Empfohlen wird (je nach Quelle) meist von 60-100 bis etwa 80-120 cd/qm. Ich frage mich auch hier: Was ist eigentlich das Ziel dieser Helligkeitseinstellung. Soll die Monitorhelligkeit der Umgebungshelligkeit angepasst werden? Und wenn ja ... warum? Warum darf der Monitor nicht heller sein als die Umgebung? 60 cd/qm halte ich persönlich für komplett untauglich an meinem Notebook. Viel zu dunkel. Da sehe ich gar nichts. 120 cd/qm empfinde ich bei normaler, abendlicher Raumbeleuchtung für gerade so okay, 160 cd/qm sind besser. Das gilt aber in der Szene als "viel zu hell". Welchen Sinn hat es, die Monitorhelligkeit so einzuschränken ... zumal es ja offensichtlich keine objektiven Gründe dafür gibt (oder zumindest keine genannt werden)?
Ciao
HaPe
nachlesen (und womöglich sogar verstehen) kann man ja vieles in der einschlägigen Literatur bzgl. Kalibrierung / Profilierung von Geräten in der fotografischen Bildkette. Aber manchmal gibt es Themen, die kann man mit dem Kopf verstanden haben, aber der Bauch rebelliert dennoch weiter.
Bei der Erstellung eines Monitorprofils messen wir ja gerne mal mit Geräten, die damit werben, bis in den Sub-Prozent-Bereich hinein genau zu sein. Dennoch gibt es den einen oder anderen Parameter, der einigermaßen willkürlich gewählt werden kann ... oder bei dem zumindest keine einhellige Meinung über die "richtige" Vorgehensweise existiert. Während man sich beim Gamma-Wert wohl allgemein auf 2,2 geeinigt hat, gehen die Meinungen bei der Farbtemperatur ziemlich auseinander.
Geschätzte 90% der Profilierer wählen die Lichtnorm D50 oder D65 (also ein Spektum mit der Betonung auf 5000 K bzw. 6500 K) sehr viel weniger wählen etwas dazwischen oder außerhalb. Dabei muss man allerdings wissen, dass sich die Differenz von 1500 Kelvin extrem auf die Farbgebung auswirkt. Sicher nicht im Sub-Prozentbereich, sondern eher tief im zweistelligen Bereich. Der Königsweg wäre wohl, die tatsächliche Umgebungs-Farbtemperatur zu messen und diese dann für die Monitorkalibrierung zu verwenden. Ich frage mich nur: Warum?
Wenn ich auf den Monitor sehe, dann sehe ich auf den Monitor ... und nicht auf eine Lichtquelle in der Umgebung. Zwar gewöhnt sich das Auge ein Stück weit an die herrschende Farbtemperatur der Umgebung und kann "weiß" auch unter widrigsten Lichtbedingungen erkennen (oder sagen wir besser "erahnen"), aber man gewöhnt sich nicht komplett daran. Warum macht man diese ungünstigen Bedingungen zur Wunsch-Methode?
Ich habe in jeder Lebenslage eine ziemlich konkrete Vorstellung von der Farbe "weiß". So kann ich (wie Ihr sicher auch) ein Blatt Papier als "weiß" erkennen, wenn ich es bei Kerzen-Schummerlicht in den Händen halte. Wirklich "weiß" ist es auch dann natürlich nicht, sondern eben stark gelbstichig. Auch nach einer gewissen Gewöhnungsphase an die herrschende Umgebungs-Farbtemperatur ändert sich daran nicht wirklich sehr viel. Wenn ich meinen Monitor auf die Lichtnorm D50 einstelle (was offensichtlich viele tun), dann wird mir irgend wann schlecht. Ich assoziiere diese Farbgebung mit Kerzenlicht, aber überhaupt nicht mit einem kalibrierten Monitor. D65 ist subjektiv sehr viel besser, aber nicht optimal, weil schon leicht blaustichig. Subjektiv optimal wäre vermutlich (ich hab es nicht ausprobiert) irgendwas um die 6300 K. Und zwar bei jedem Umgebungslicht. Hat von Euch jemand den Monitor auf 5000 K eingestellt? Und wen ja: warum? Und könnt Ihr damit Farben beurteilen?
Ähnliches gilt für die Helligkeit. Empfohlen wird (je nach Quelle) meist von 60-100 bis etwa 80-120 cd/qm. Ich frage mich auch hier: Was ist eigentlich das Ziel dieser Helligkeitseinstellung. Soll die Monitorhelligkeit der Umgebungshelligkeit angepasst werden? Und wenn ja ... warum? Warum darf der Monitor nicht heller sein als die Umgebung? 60 cd/qm halte ich persönlich für komplett untauglich an meinem Notebook. Viel zu dunkel. Da sehe ich gar nichts. 120 cd/qm empfinde ich bei normaler, abendlicher Raumbeleuchtung für gerade so okay, 160 cd/qm sind besser. Das gilt aber in der Szene als "viel zu hell". Welchen Sinn hat es, die Monitorhelligkeit so einzuschränken ... zumal es ja offensichtlich keine objektiven Gründe dafür gibt (oder zumindest keine genannt werden)?
Ciao
HaPe