Monitorkalibrierung mit Verstand vs. Bauchgefühl

Thread Status
Hello, There was no answer in this thread for more than 30 days.
It can take a long time to get an up-to-date response or contact with relevant users.
Hallo allerseits,

leider bin ich auf diesen Thread erst mit großer Verspätung durch den Email-Newsletter aufmerksam geworden. Ich lese sonst selten im Forum, da ich mit Nikon nichts zu tun habe und nur vor fast einem Jahrzehnt in dieses Forum geraten bin, weil hier ein sehr ausführlicher damaliger Farbmanagement-Test von mir (in der Zeitschrift Mac Life) intensiv diskutiert wurde.

Auch wenn ich nicht auf alles eingehen kann, möchte ich doch zumindest ein paar Bemerkungen zu den hier aufgeworfenen Fragen machen.

nachlesen (und womöglich sogar verstehen) kann man ja vieles in der einschlägigen Literatur bzgl. Kalibrierung / Profilierung von Geräten in der fotografischen Bildkette.
Ja, und leider ist noch immer unglaublich viel davon einfach Müll. Ich weiß nicht warum, aber ich kenne kaum ein anderes technisches Thema, über das in Internet und Literatur derart viele Fehlinformationen im Umlauf sind.

Aber manchmal gibt es Themen, die kann man mit dem Kopf verstanden haben, aber der Bauch rebelliert dennoch weiter.
Möglicherweise aus gutem Grund, möglicherweise sitzt man aber auch selbst Missverständnissen auf …

Bei der Erstellung eines Monitorprofils messen wir ja gerne mal mit Geräten, die damit werben, bis in den Sub-Prozent-Bereich hinein genau zu sein. Dennoch gibt es den einen oder anderen Parameter, der einigermaßen willkürlich gewählt werden kann

Hier geht es schon los. Nichts an einer funktionierenden Farbmanagement-Kette kann willkürlich gewählt werden.

Nur leider – das ist richtig – stellt die Software der einschlägigen Hersteller die Anwender vor solche Entscheidungen, die sie vernünftig gar nicht treffen können. Das kommt daher, dass die Produkte der Industrie in ihrer jetzigen Form letztlich meist untauglich sind und entscheidende Einstellungen nicht selbst korrekt vornehmen können und sie daher dem Anwender als Willkürakt überlassen, womit eigentlich das Thema Farbmanagement bereits als gescheitert abgehakt werden kann.

Der absolut entscheidende Punkt bei der Monitorkalibration ist, dass der Weißpunkt von Umgebungslicht und Monitor exakt übereinstimmen. Alles andere verblasst dagegen an Bedeutung.

Warum ist das so? Der menschliche Gesichtssinn beherrscht über einen erstaunlich weiten Farbtemperaturbereich die Kunst der chromatischen Adaption, also der Fähigkeit des Weißabgleichs. Ein weißes Blatt Papier sieht für uns immer weiß aus. Aber: Evolutionär ist diese Fähigkeit lediglich auf beleuchtete Flächen ausgerichtet, nicht auf selbstleuchtende. Das ist ja einsichtig: In der Natur gibt es genau eine Lichtquelle – die Sonne – und alles andere ist von ihr mit derselben Farbtemperatur beleuchtet. Bei selbstleuchtenden Objekten wie einem Monitor, der eine andere Farbtemperatur als das Umgebungslicht hat, versagt die menschliche Fähigkeit zu chromatischer Adaption. Jeder, der meint, er könne Farben bei unterschiedlichen Farbtemperaturen von Monitor und Umgebungslicht noch gut beurteilen, unterliegt schlicht einer Selbsttäuschung; das könnte in einem wahrnehmungspsychologischen Test in wenigen Minuten nachgewiesen werden.

Das Umgebungslicht schlicht wegzulassen, ist aber ebenso wenig eine Lösung, denn extreme Hell-Dunkel-Kontraste beeinträchtigen die korrekte Kontrastwahrnehmung; Bilder auf dem Monitor erscheinen dann weniger kontrastreich, als sie in Wahrheit sind. (Das ist der Grund, warum man bei klassischen Fernsehbildern, bei denen man früher davon ausging, dass sie in einem abgedunkelten Raum rezipiert werden, den Kontrast stets künstlich erhöhte.)

Tageslicht wäre natürlich als Umgebungslicht eigentlich ideal, da es aber unentwegt wechselt, ist es ebenso wenig zu gebrauchen, um einen Monitor darauf einzustellen. Die einzige Lösung für farbverbindliches Arbeiten an einem Monitor ist daher ein ein abgedunkelter Raum mit konstantem Kunstlicht in Tageslichtqualität (idealerweise zwischen 5000K und 6500K). Helligkeit und Farbtemperatur von Monitor und Umgebungslicht müssen exakt aufeinander abgestimmt sein, sodass der Monitor für das menschliche Auge nicht anders aussieht als wäre er ein bedrucktes Blatt Papier, das vom Raumlicht erleuchtet wird. Nur dann kann das menschliche Auge Farben und Kontrast korrekt beurteilen.

Wenn diese Bedingungen nicht gegeben sind, ist die Farbkalibration eines Monitors völlig für die Katz und eine teure, sinnlose Spielerei; die „verbesserten Ergebnisse“ sind nichts als Autosuggestion, weswegen es auch so endlose Debatten über „richtige Einstellungen“ gibt: ohne die oben genannten Bedingungen ist keine richtig, alle sind subjektive „Notlösungen“.

Das Problem für die Industrie dabei: Die Abstimmung von Monitor auf Umgebungslicht ist aufwändig und daher als billige Lösung nicht zu verkaufen. Früher war das Hauptproblem das Kunstlicht in Tageslichtqualität. Das ist im LED-Zeitalter erfreulicherweise kein Problem mehr, man kann sich strahlend helle LEDs mit einem Weißpunkt zwischen 5000K und 6500K und einem CRI (gibt die Ebenmäßigkeit der Spektralverteilung und damit die „Lichtqualität“ an; 100 ist der Idealwert) >95 kaufen.

Aber das Problem, das bleibt, ist, dass der Weißpunkt des Umgebungslichts nur mit einem (teuren) Spektralphotometer gemessen werden kann, nicht mit einem (billigen) Kolorimeter. Zur Abstimmung von Monitorlicht auf das Umgebungslicht sind Kolorimeter daher ungeeignet, auch wenn sie den Weißpunkt des Monitors selbst (auf den hin sie konstruiert sind) messen könnten. Letztlich, man muss das in aller Deutlichkeit so sagen, sind daher alle Kolorimeter für die Katz, weil sie die eine der beiden für die Monitorkalibration erforderlichen Messungen – die des Umgebungslichts – gar nicht ausführen können.

Das passt der Industrie natürlich nicht, da sie wohl zu Recht die Einschätzung hat, dass der Käuferkreis für teuere Spektralphotometer weit kleiner ausfiele als für billige Kolorimeter. Also „behilft“ sie sich damit, dem Nutzer den schwarzen Peter zuzuschieben und ihn die korrekte Farbtemperatur manuell wählen zu lassen – als ob er das irgendwie könnte.

Ja, es gibt gewisse „Standard“-Farbtemperaturen, wie D50 (5000K) und D65 (6500K). Die haben aber ausschließlich juristische Relevanz – der Druck kann z.B. nicht vom Auftraggeber zurückgewiesen werden, wenn die Farben unter D50 betrachtet stimmen – aber selbstverständlich muss auch hier das Raumlicht dann ebenfalls D50 sein.

Von solchen juristischen Fisimatenten abgesehen gilt: Worauf es einzig und allein ankommt, ist die möglichst perfekte Übereinstimmung von Monitor-Weißpunkt und -Helligkeit mit dem Umgebungslicht. Die Feinabstimmung der Farben während der Kalibration verblasst in ihren Auswirkungen bei modernen Monitoren gegenüber diesem Punkt völlig.

Wenn Ihr also irgendwo eine der ebenso verbreiteten wie hirnrissigen Empfehlungen lest wie D50 für Fotodrucke, D65 für Webbilder (als ob alle Welt Webseiten immer bei 6500K betrachten würde … :platsch:), werft das Buch sofort in den Müll, schließt umgehend das Browserfenster etc: Wer so etwas schreibt, hat nicht die geringste Ahnung von Farbmanagement und trägt nur weiter zur allgemeinen Verwirrung und Hilflosigkeit bei. :mad:

Während man sich beim Gamma-Wert wohl allgemein auf 2,2 geeinigt hat,

Der Gammawert ist die nächste Quelle endloser Missverständnisse. Denn für funktionierendes Farbmanagement spielt der Gammawert gerade überhaupt gar keine Rolle. Der Gag an Farbmanagement ist doch schließlich gerade, dass die Eigenheiten der einzelnen Geräte in ICC-Profilen festgehalten und dann die Farben entsprechend angepasst werden. Sprich: Ob ein Monitor nun einen Gammawert von 1,8, 2,2 oder 2,5 oder was auch immer hat, macht für die Darstellung eines Bildes in einer Software mit Farbmanagement absolut keinen Unterschied. (Bei 8-Bit-Monitoren könnten Farbverläufe bei extremen Gamma-Werten stufig werden, aber das ist ein technisches Detail, das mit 10-Bit-Monitoren ohnehin hinfällig wird.)

Eine Rolle spielt der Gammawert gerade nur bei Programmen ohne Farbmanagement. Denn dann (und nur dann) ändern die Bilder mit dem Gammawert ihren Kontrast. Bei Mac-Software kommt so etwas praktisch nicht mehr vor, bei Windows gibt es noch etliche Programme ohne Farbmanagement, namentlich Video-Player. Da ist es dann wichtig, den richtigen Gammawert eingestellt zu haben, und da Videos in der Regel 2,2 voraussetzen, ist es für Windows-Nutzer tatsächlich eine gute Idee, das Gamma auf 2,2 zu setzen. Mac-Nutzern kann es letztlich egal sein, solange sie nicht Cross-Plattform-Video-Player ohne Farbmanagement wie z.B. VLC einsetzen.

Auch hier kann man sich nur an den Kopf langen, dass die Hersteller von Farbmanagement-Software diese technische Einstellung auf den Anwender abwälzen.

Geschätzte 90% der Profilierer wählen die Lichtnorm D50 oder D65 (also ein Spektum mit der Betonung auf 5000 K bzw. 6500 K) sehr viel weniger wählen etwas dazwischen oder außerhalb.

Wie gesagt: Das ist so egal wie nur was. Worauf es einzig ankommt, ist, dass der gewählte Wert exakt mit dem Umgebungslicht übereinstimmt.

Der Königsweg wäre wohl, die tatsächliche Umgebungs-Farbtemperatur zu messen und diese dann für die Monitorkalibrierung zu verwenden. Ich frage mich nur: Warum?

Nicht der Königsweg, sondern der einzige. Und ich hoffe, grob erklärt zu haben, warum.

Wenn ich auf den Monitor sehe, dann sehe ich auf den Monitor ... und nicht auf eine Lichtquelle in der Umgebung.

Doch, das tust Du. Dein Gesichtsfeld ist viel weiter als der Bildteil, den Du bewusst fokussierst.

Ich habe in jeder Lebenslage eine ziemlich konkrete Vorstellung von der Farbe "weiß".

In jeder Lebenslage, in der alle Gegenstände von einer Lichtquelle beleuchtet werden. Und in keiner Lebenslage, wo ein selbstleuchtender Monitor mit einem anderen Weißpunkt als dem Umgebungslicht strahlt. Letzteres zu verarbeiten haben wir in der Evolution schlicht nicht gelernt.

Subjektiv optimal wäre vermutlich (ich hab es nicht ausprobiert) irgendwas um die 6300 K. Und zwar bei jedem Umgebungslicht.

Das ist, wie jetzt hoffentlich klar ist, vollkommener Unsinn. Optimal sind 6300K genau dann und nur dann, wenn das Umgebungslicht 6300K hat.

Hat von Euch jemand den Monitor auf 5000 K eingestellt?

Ja, ich zum Beispiel. (Fast; im Moment 5071K.)

Und wen ja: warum?

Weil mein Umgebungslicht nach 6 Jahren Betriebsdauer 5071K hat.

Und könnt Ihr damit Farben beurteilen?

Absolut perfekt. So perfekt, dass ich damit schon subtile Fehler in Farbmanagement-Algorithmen aufspüren konnte.

Ähnliches gilt für die Helligkeit. Empfohlen wird (je nach Quelle) meist von 60-100 bis etwa 80-120 cd/qm. Ich frage mich auch hier: Was ist eigentlich das Ziel dieser Helligkeitseinstellung. Soll die Monitorhelligkeit der Umgebungshelligkeit angepasst werden?

Ja.

Und wenn ja ... warum?

Weil Du sonst den Bildkontrast nicht korrekt wahrnimmst.

160 cd/qm sind besser. Das gilt aber in der Szene als "viel zu hell".

Dann hat die Szene entweder keine Ahnung oder nicht hinreichend helle LEDs. Mein Monitor ist auf 200 cd/qm eingestellt, und mein Raumlicht erzeugt an meinem Arbeitsplatz ebenfalls 200 cd/qm (ca. 700 lx). Sehr angenehm für die Augen.

Die Technischen Regeln für Arbeitsstätten – Beleuchtung (ASR A3.4) schreiben für die Farbkontrolle bei Mehrfarbendruck übrigens sogar 400cd/qm vor …

Ich hoffe, ich konnte ein wenig mehr Klarheit schaffen.

Uli
 
Kommentar
Anzeigen
Hallo Uli,

Ich hoffe, ich konnte ein wenig mehr Klarheit schaffen.
zumindest hast Du eine Menge Lesestoff geschaffen :). Dafür schon mal vielen Dank.

Ja, es klingt alles schon recht plausibel, was Du schreibst. Nachdem es doch einige (plusminus) 5000 K Nutzer gibt, bin ich mir nicht mehr wirklich sicher, ob das damals wirklich 5000 K waren, die ich an meinem Monitor eingestellt habe. Das was ich damals gesehen habe, war völlig untauglich - egal für welches Umgebungslicht.

Normalerweise bin ich ja auch eher ein Fan von objektiven Messwerten. Dieser Thread ist aber von vorne herein so angelegt, dass er eine Brücke schlagen will zwischen subjektiver Wahrnehmung und objektiven Messwerten. Warum das? Wenn ich mit einem Bild zufrieden sein will, ist das ein höchst subjektiver Akt. Voraussetzung ist eine funktionierende Maschinerie (kalibrierte/profilierte Werkzeuge) aber das ist nicht das eigentliche Ziel. Da ich die objektiven Messwerte nicht gemäß meiner subjektive Wahrnehmung verbiegen kann und will, muss meine Wahrnehmung mit den Messwerten zumindest ihren Frieden schließen. Das gelingt mir momentan nur teilweise.

Der einzige Punkt Deiner Ausführungen, bei dem ich etwas Bauchgrummeln hatte, ist das Gewicht, das Du der chromatischen Adaption gegeben hast. Ich glaube, dass (a) diese Adaption ihre Grenzen hat und dass sie (b) zu einem gewissen Maß willkürlich gesteuert werden kann. Den Punkt (a) hatte ich bei dem letzten (fehlgeschlagenen) Kalibrierversuch erreicht (egal welche Kelvin-Zahl das nun genau war) und (b) ist evident, wenn man abends bei Glühlampenlicht ein Blatt Papier als weiß erkennen kann und trotzdem die niedrige Farbtemperatur wahrnehmen kann, die im Raum herrscht ... sobald man sich darauf konzentriert.

In meinem Arbeitszmmer ist es meist dunkel bis sehr dunkel. Die komplette Kette von der Kamera über den Scanner, Monitor und Drucker ist kalibriert und profiliert und trotzdem bin ich nicht immer vollständig mit den Ergebnissen zufrieden. Nach Deinen Ausführungen denke ich, es wäre aber eine gute Idee, für farbrelevante Arbeiten mal eine Raumbeleuchtung mit einer (wie auch immer) bekannten Farbtemperatur anzuschaffen. Ein Versuch ist es auf jeden Fall wert.

Ciao
HaPe
 
Kommentar
Normalerweise bin ich ja auch eher ein Fan von objektiven Messwerten. Dieser Thread ist aber von vorne herein so angelegt, dass er eine Brücke schlagen will zwischen subjektiver Wahrnehmung und objektiven Messwerten.
Das ist schon klar, aber letztlich ist genau das ja das ganze Ziel der Farbphysik und des Farbmanagements. Denn objektiv messbar sind schließlich nur Lichtspektren; Farbe entsteht ausschließlich in unserem Kopf und ist in diesem Sinne immer subjektiv. So gesehen ist die Farbphysik eine psychophysikalische Disziplin, die versucht, unsere subjektive Wahrnehmung reproduzierbar zu machen, damit wir mit ihr arbeiten können.

Da ich die objektiven Messwerte nicht gemäß meiner subjektive Wahrnehmung verbiegen kann und will, muss meine Wahrnehmung mit den Messwerten zumindest ihren Frieden schließen. Das gelingt mir momentan nur teilweise.
Das liegt dann mit ziemlicher Sicherheit daran, dass die „objektiven Messwerte“ oder jedenfalls die aufgrund dieser Messwerte vorgenommenen Einstellungen nicht korrekt sind. Obwohl Farbphysik aus Sicht eines „reinen Physikers“ ein furchtbar psychologisch durchseuchtes Feld mit einer Unzahl völlig krummer Konstanten in ihren Formeln ist, ist sie doch zuverlässig genug, dass, korrekt angewandt, objektive Messwerte und subjektive Wahrnehmung sehr gut übereinstimmen – das ist ja gerade ihr Ziel.

Wenn man anfängt, sich mit Farbmanagement zu beschäftigen, gibt es so viele Faktoren zu berücksichtigen, dass der Gedanke nahe liegt, erstmal mit Faktor x zu beginnen und Faktor y bis auf weiteres auf sich beruhen zu lassen. Das ist oftmals ja eine erfolgsversprechende Strategie, nur beim Farbmanagement funktioniert sie leider nicht. Ein nicht korrektes Glied in der Kette, und alles ist nur noch subjektive Raterei. Ich vermute, dass ein Großteil der Frustration mit und der widersprüchlichen Aussagen zu Farbmanagement dieser Tatsache geschuldet ist.

Der einzige Punkt Deiner Ausführungen, bei dem ich etwas Bauchgrummeln hatte, ist das Gewicht, das Du der chromatischen Adaption gegeben hast. Ich glaube, dass (a) diese Adaption ihre Grenzen hat
Das hat sie zweifellos. Sie hat sich evolutionär entwickelt an der Weißpunkt-Schwankungsbreite des Tageslichts. Gerätst Du an die Ränder dieses Bereichs oder sogar (wie etwa beim Glühlampenlicht) klar darüber hinaus, funktioniert sie immer weniger.

Glühlampen (oder LEDs, die unsinnigerweise dieses viel zu gelbstichige und für die Augen entsprechend schädliche Licht auch noch freiwillig nachahmen) gehören aus dem Kontext der Farbverarbeitung daher radikal verbannt.

und dass sie (b) zu einem gewissen Maß willkürlich gesteuert werden kann. […] und (b) ist evident, wenn man abends bei Glühlampenlicht ein Blatt Papier als weiß erkennen kann und trotzdem die niedrige Farbtemperatur wahrnehmen kann, die im Raum herrscht ... sobald man sich darauf konzentriert.
Das, was Du da als Konzentration erlebst, ist höchstwahrscheinlich Autosuggestion. Du weißt schließlich, dass Du gerade unter gelbstichigem Licht sitzt. Aber wie gesagt, Glühlampenlicht ist, was Farbwahrnehmung angeht, ohnehin jenseits von Gut und Böse …

Nach Deinen Ausführungen denke ich, es wäre aber eine gute Idee, für farbrelevante Arbeiten mal eine Raumbeleuchtung mit einer (wie auch immer) bekannten Farbtemperatur anzuschaffen. Ein Versuch ist es auf jeden Fall wert.
Ganz sicher; das sollte – im wahrsten Sinne des Wortes ;) – ein Unterschied wie zwischen Tag und Nacht sein.

Für einen allerersten Eindruck sollte es mit etwas Glück reichen, sich auf die Farbtemperatur-Angabe der LEDs zu verlassen. Wobei „Farbtemperatur“ auch schon wieder ein Problem ist, denn diese Maßeinheit ist unterbestimmt: Farbtemperatur-Angaben legen lediglich den Punkt auf der gelb-blau-Achse fest und gelten streng genommen nur für Weißpunkte, die auf der Schwarzkörperkurve liegen (also die Farbe eines mit bestimmter Temperatur glühenden idealisierten Metalls haben) und somit einen von vornherein definierten Wert auf der grün-violett-Achse haben. Das tun aber weder Tageslicht noch LEDs noch fast alle anderen Lichtquellen. Die haben nur korrelierte Farbtemperaturen, d.h. eine unbestimmte Abweichung auf der grün-violett-Achse. Um den Monitorweißpunkt korrekt festzulegen, braucht man also zwei Koordinaten: entweder die x- und y-Werte des berühmten „Farbschuh“-Diagramms (Chrominanz-Diagramms) oder die korrelierte Farbtemperatur und den Delta-uv-Wert, der die Abweichung von der Schwarzkörperkurve auf der grün-violett-Achse beschreibt. Diese Werte sind aber bei praktisch keiner der handelsüblichen LEDs angegeben. Von daher muss man wirklich Glück haben, damit es „passt“.
 
Kommentar
Wenngleich etwas OT, aber Farbe ist relativ und wird zudem von vielen Faktoren beeinflusst. Hier ein kleiner Selbsttest:

https://nachbelichtet.com/2017/12/11/wie-gut-ist-eure-farbsichtigkeit-testet-euch-selbst/


PS: Mein nicht kalibrierter/profilierter HP Envy 24 für einst 279 Euro brachte mir nach ca. 3 Minuten im first run folgendes ein:

41014807612_f96b59345a_o.jpg


:fahne:
 
Kommentar
Hi Uli,

Sehr interessant was Du schreibst. Eins verstehe ich aber nicht ganz. Wenn ich dafür sorge, dass meine Umgebungslicht genau zum Beispiel 6500K hat, durch Auswahl HighCRI LEDs,dann ist meine Umgebungslicht definiert. Oder sehe ich das falsch?

Dann wenn ich bei Ik..a die LEDs kaufe, da sie laut Tests >95 CRI sind, aber mit etwa 4000K, dann ist das Fest und ich kann mein Monitor für diese Umgebung kalibrieren. Die Helligkeit des Monitor passe ich dann an die Umgebungslichthelligkeit.

Habe ich es falsch verstanden, oder kann ich so auch ohne Spektrometer auskommen?
 
Kommentar


Na ja, den ersten Test so lala absolviert,
den zweiten absolut perfekt … :cool:

Was willl mir das nun sagen? :nixweiss:


Ich bleib dabei:
Stimmt der Output, war die Vorstufe ok.


 
Kommentar
Wenngleich etwas OT, aber Farbe ist relativ
Wozu?

und wird zudem von vielen Faktoren beeinflusst.
Die sich aber alle berechnen lassen.

Hier ein kleiner Selbsttest:
Hier wird die Sehkraft des Anwenders getestet und nicht der Monitor. Ich weiß nicht recht, was das mit unserem Thema zu tun hat. Rückschlüsse auf die Qualität des Monitors oder gar seine korrekte Kalibration lässt dieser Test jedenfalls in überhaupt gar keiner Weise zu.
 
Kommentar
Eins verstehe ich aber nicht ganz. Wenn ich dafür sorge, dass meine Umgebungslicht genau zum Beispiel 6500K hat, durch Auswahl HighCRI LEDs,dann ist meine Umgebungslicht definiert. Oder sehe ich das falsch?
Nö.

Dann wenn ich bei Ik..a die LEDs kaufe, da sie laut Tests >95 CRI sind, aber mit etwa 4000K, dann ist das Fest
Mit 4000K wirst Du vermutlich nicht glücklich werden, deutlich unter 5000K fängt die chromatische Adaption an, problematisch zu werden; zudem haben LCD-Monitore in der Regel eine Hintergrundbeleuchtung und damit einen nativen Weißpunkt von 6000K bis 6500K, müssen für 4000K also so stark korrigiert werden, dass auch das problematisch werden kann (Stufen in Farbverläufen). Versuche irgendwas zwischen 5000K und 6500K zu bekommen.

und ich kann mein Monitor für diese Umgebung kalibrieren. Die Helligkeit des Monitor passe ich dann an die Umgebungslichthelligkeit.

Habe ich es falsch verstanden, oder kann ich so auch ohne Spektrometer auskommen?
Die Antwort habe ich oben schon zu geben versucht: Das Problem ist, dass, selbst wenn die nominelle Kelvin-Angabe des Herstellers für Deine Exemplare trotz Exemplarstreuungen zufällig genau stimmen würde, Kelvin keine wirklich präzise Angabe ist ohne die zweite Farbachse, Delta-uv. Und Delta-uv (oder alternativ xy-Werte) wird praktisch nie angegeben.

Mit etwas Glück kann das eine gute Näherungslösung sein; wirklich präzise wird es leider nur mit Spektralphotometer.

Ich hoffe, ich bringe mich damit nicht in Teufels Küche, aber ich mache Euch jetzt mal (bis auf Widerruf, falls es zu viel wird) folgendes Angebot: Falls Ihr passende Standard-Leuchtmittel (also solche für die früheren Halogen- oder Glühlampenfassungen) für Euch ausgewählt habt und kauft, kauft ein Exemplar mehr als Ihr braucht und schickt es mir per Post (Adresse per PM). Ich messe es Euch dann aus und maile Euch die exakten xy-Koordinaten für den Weißpunkt zu. Aber ich will mir nicht die Mühe machen müssen, die LED zurückzusenden, die bleibt dann bei mir. Damit habt Ihr zumindest einen präzisen Startwert. Über die Jahre verändert sich der Weißpunkt der LEDs leider etwas, da kann ich dann nicht mehr helfen, das geht nur mit eigenem Spektralphotometer; aber Ihr habt dann zumindest einen guten Startpunkt.
 
Kommentar
Ehe ich es vergesse, hier noch ein Hinweis dazu, wie sich mit eigenem Auge überprüfen lässt, ob Monitor-Weißpunkt und Umgebungslicht tatsächlich zusammenpassen, oder ob das Kolorimeter gesponnen hat (kommt vor …):

Öffnet auf Eurem Monitor ein Fenster mit einer großen weißen Fläche und haltet einen Bogen weißes Papier in etwa einem 45°-Winkel in halber Höhe vor den Monitor, so dass das Papier einerseits von Eurem Umgebungslicht beleuchtet wird (und nicht abgeschattet ist) und andererseits eine Art gleitender Übergang zum senkrechten Monitor existiert. Dann schließt ein Auge, sodass die 3D-Sicht fehlt und kneift das andere ein wenig zusammen, so dass Ihr unscharf seht und die Papierkante zum Monitor hin nicht mehr genau erkennen könnt. Dann sollten die Farben von Papier und Monitor ineinander verschwimmen, und es sollte von Helligkeit und Weißpunkt keinen erkennbaren Unterschied geben, sondern eine scheinbar homogene Farbfläche.

So weit einleuchtend. Jetzt kommt das große Aber: Das ganze funktioniert nicht mit „normalem“ weißen (Drucker-)Papier! Warum? Weil das Papier, das uns als „weiß“ verkauft wird, de facto hellblau ist. Diesen leichten Blaustich nehmen wir nämlich als „besonders weiß“ wahr, ein Wettbewerbsvorteil für den Anbieter. Capitalism at its best …

Ihr braucht für diesen Test also unbedingt ein Papier, dass im messtechnischen Sinne weiß ist. Ein solches Papier, das allgemein erhältlich ist, wäre z.B. Color Copy Style von Neusiedler Mondi. Ihr werdet staunen, wie gelblich Ihr ein tatsächlich weißes Papier empfinden werdet …
 
Kommentar
…Weil das Papier, das uns als „weiß“ verkauft wird, de facto hellblau ist. Diesen leichten Blaustich nehmen wir nämlich als „besonders weiß“ wahr, ein Wettbewerbsvorteil für den Anbieter. Capitalism at its best …



Der letzte Satz ist purer Blödsinn … :cool:

Jede bessere Hausfrau weiß (sic!),
daß Wäscheblau für strahlendes
Weiß sorgt(e).

Dafür nimmt man etwa dieses:
"Feinstes Wäscheblau Schneeberg,
Schneeweiß durch Ultramarinblau"


Überraschung: 10% billiger als Ama… :eek:


.
 
Kommentar
Hi,

[...] und maile Euch die exakten xy-Koordinaten für den Weißpunkt zu.
da ergibt sich schon das nächste Problemfeld: Ist die Charakteristik einer Lichtquelle wirklich auf eine einzige Koordinate reduzierbar? Oder ist nicht die komplette spektrale Verteilung viel wichtiger? Man denke an das Spektrum des Sonnenlichts im Vergleich zum Spektrum verschiedener künstlicher Lichtquellen. Und wenn ein spektraler Anteil stark unterrepräsentiert ist, dann wird man - Weißpunkt hin oder her - diese Farbe reflektiert auf einem Print nie sehen können.

Ciao
HaPe
 
Kommentar
Ist die Charakteristik einer Lichtquelle wirklich auf eine einzige Koordinate reduzierbar?
Nö, was die Monitorkalibration betrifft, sind es drei: x, y und Helligkeit.

Oder ist nicht die komplette spektrale Verteilung viel wichtiger?
Natürlich ist eine ausgewogene spektrale Verteilung grundsätzlich wichtig. Deshalb ist ein hoher CRI obligatorisch, auf alle Fälle ≧ 90.

Nur hat das nichts mit der Monitorkalibration zu tun. Es wäre ja völlig unsinnig, eine nicht perfekte Spektralverteilung der real existierenden Lichtquelle auch noch auf den Monitor zu übertragen, den Fehler sozusagen fortzupflanzen.

Du musst strikt unterscheiden:

Eine bestimmte Farbtemperatur einer Lichtquelle ist prinzipiell kein Fehler, sondern eine Eigenschaft.

Jeder CRI < 100 einer Lichtquelle ist eine Abweichung vom idealen Soll und insoweit ein Fehler.

Bei der Monitorkalibration werden die Eigenschaften der Lichtquelle übertragen, aber nicht ihre Fehler.

Das ist in der Praxis alles völlig problemlos, denn auch unser Auge ist von zerklüfteten Spektralkurven zwar genervt (kann ggf. sogar zu Kopfschmerzen führen), nimmt aber trotzdem genau denselben Weißpunkt wahr wie ein Messgerät. Wenn der Monitor auf diesen Weißpunkt kalibriert ist, dann wird das menschliche Auge beim Blick auf den Monitor in keiner Weise durch einen falschen Weißpunkt des Umgebungslichts irritiert, ganz egal, wie gut oder schlecht dieses Umgebungslicht ist: Auf dem Monitor sieht das Auge die Farben dann korrekt.

Beim Vergleich eines Ausdrucks mit der Monitordarstellung, ja, da macht sich ein schlechtes Umgebungslicht natürlich sofort bemerkbar. Wenn das Umgebungslicht z.B. einen Einbruch der Spektralkurve im türkisen Bereich hat (typisch für LEDs mit niedrigem CRI), dann werden auf einem korrekten Ausdruck Türkistöne schwächer erscheinen als auf dem Monitor. Der Monitor hat in diesem Falle dann recht und der Ausdruck leidet unter der Qualität des Umgebungslichts und würde unter besserem Licht betrachtet besser aussehen.

Gerade weil die Spektralkurve des Umgebungslichts bei der Monitorkalibration im Gegensatz zum Weißpunkt nicht berücksichtigt wird, ist der Monitor hier die unbestechliche Referenz, auf die man sich verlassen kann und die einem ggf. sagt, dass der Ausdruck unter besserem Umgebungslicht besser aussehen würde.
 
Kommentar
Also ich ziehe aus dem Beitraegen von [MENTION=40829]UliZappe[/MENTION] den Schluss das ich es richtig gemacht habe bei meinem EIZO.
Die vorgegebenen Einstellungs Optionen waren einfach unbrauchbar, der Weisspunkt passte nirgendswo.
Alles war gelb verfaerbt.

Also hab ich mir Weisspunkt per Auge selbst eingestellt und auch die Helligkeit - derzeit 120cd - mein Arbeitsbereich ist relativ dunkel da ich dort nur am Bildschirm arbeite.

Das mag jetzt manchem Profi die Haare aufstellen aber meine Ausdrucke z.B. von Saal Digital passen sehr gut und die Bilder sind nach dem Export in jpg und in digitaler Form auf verschiedenen Bildschirmen auch sehr ansehnlich.

Den X-Rite Test finde ich nicht schlecht denn wer Farben nicht unterscheiden kann der kann aus meiner Sicht auch schlechter beurteilen ob sein Monitor passt.
 
Kommentar
Hallo Uli,
freue mich hier wieder was von Dir zu lesen. Habe damals alle deine Artikel zum Thema Farbmanagement in der Mac Life gekauft. Habe aus ihnen und aus deinen Beiträgen hier im Forum viel gelernt.

Das Umgebungslicht schlicht wegzulassen, ist aber ebenso wenig eine Lösung, denn extreme Hell-Dunkel-Kontraste beeinträchtigen die korrekte Kontrastwahrnehmung; Bilder auf dem Monitor erscheinen dann weniger kontrastreich, als sie in Wahrheit sind.

Interessant, davon habe ich noch nie gelesen/ gehört. Das Starren auf einen Monitor in dunkler Umgebung habe ich schon immer als unangenehm empfunden. Dass die Darstellung kontrastärmer wirkt, ist mir bisher nicht aufgefallen (was aber nichts heißt).

Letztlich, man muss das in aller Deutlichkeit so sagen, sind daher alle Kolorimeter für die Katz, weil sie die eine der beiden für die Monitorkalibration erforderlichen Messungen – die des Umgebungslichts – gar nicht ausführen können.

Guter Hinweis! Ich frage mich seit langem, ob die Farbtemperaturmessung des Umgebungslichtes mit einem Kolorimeter überhaupt genau sein kann. Schließlich werden auch für unterschiedliche Monitortypen (Hintergrundbeleuchtungen) unterschiedliche Korrekturmatrizen für die verbauten Farbfilter im Kolorimeter verwendet. Welche Matrix ist für die Messung von natürlichem Licht geeignet? Deiner Aussage folgend, keine.

Dennoch sehe ich das nicht ganz so eng, wie Du. Klar, will man eine exakte Beurteilung der Farben ermöglichen, müssen die Weißpunkte von Monitor und Umgebungslicht übereinstimmen. Da bin ich voll auf deiner Seite. Aber dennoch glaube ich, ist es besser einen kalibrierten und profilierten Monitor zu haben, dessen Weißpunkt in etwa mit dem Umgebungslicht übereinstimmt, als absolut nichts in der Richtung zu unternehmen.

Worauf es einzig und allein ankommt, ist die möglichst perfekte Übereinstimmung von Monitor-Weißpunkt und -Helligkeit mit dem Umgebungslicht. Die Feinabstimmung der Farben während der Kalibration verblasst in ihren Auswirkungen bei modernen Monitoren gegenüber diesem Punkt völlig.

Hier muss ich Dir Widersprechen. Ein nicht profilierter aber im Weißpunkt auf das Umgebungslicht kalibrierter Wide-Gamut Monitor wird derart falsche Farben anzeigen, dass man hier nicht von Übereinstimmung sprechen kann.

Denn für funktionierendes Farbmanagement spielt der Gammawert gerade überhaupt gar keine Rolle

Grundsätzlich stimme ich dem zu. In der Regel ergibt es jedoch schon Sinn, bei den heute immer noch üblichen 8-Bit Monitoren, auf den Gamma Wert zu kalibrieren, der auch dem Arbeitsfarbraum zu Grunde liegt. Irgendeinen Wert muss man ja wählen. Siehst Du das nicht so?

Ich habe „Probleme“ mit stufigen Farbverläufen in dunklen Bereichen (fällt bei Bildern aber überhaupt nicht auf). Deshalb habe ich mir überlegt, mal den Gamma Wert 1,0 auszuprobieren. In der Theorie ist das keine gute Idee, aber vielleicht kommt die Monitorelektronik besser damit zurecht? Mal schauen…

Glühlampen (oder LEDs, die unsinnigerweise dieses viel zu gelbstichige und für die Augen entsprechend schädliche Licht auch noch freiwillig nachahmen) gehören aus dem Kontext der Farbverarbeitung daher radikal verbannt.

Wieso sollte gelbstichiges Licht für die Augen schädlich sein?

Um den Monitorweißpunkt korrekt festzulegen, braucht man also zwei Koordinaten: entweder die x- und y-Werte des berühmten „Farbschuh“-Diagramms (Chrominanz-Diagramms) oder die korrelierte Farbtemperatur und den Delta-uv-Wert

Genau so habe ich das bisher auch immer gesehen. Vor ein paar Monaten habe ich mir jedoch Videos von einem „Farbmanagement-Experten“ angeschaut. Diese sind russischsprachig daher macht ein Link wohl keinen Sinn. Dieser Mann rät explizit dazu, auf die korrelierte Farbtemperatur des Umgebungslichtes zu kalibrieren und etwa 1000K zum gemessen Wert zu addieren. Davon habe ich in meinem Post weiter vorne geschrieben.
Leider begründet er seine Aussage in den frei erhältlichen Videos nicht. Die Erklärung gibt es nur in einem kostenpflichtigen Videokurs, den ich nicht gekauft habe.
Ich nehme an, Du hältst nichts von dieser Aussage, oder?
Ich gebe zu, dass ich gerade diese Aussage von ihm logisch nicht nachvollziehen kann und das auf farbphysiologische Hintergründe, die ich nicht kenne, zurückgeführt habe.

Ich hätte noch weitere Fragen an dich, aber die kommen später, sonst wird der Post zu lang.
Freu mich schon drauf :D

Gruß
Egor
 
Kommentar
freue mich hier wieder was von Dir zu lesen.
Danke! :)

Das Starren auf einen Monitor in dunkler Umgebung habe ich schon immer als unangenehm empfunden. Dass die Darstellung kontrastärmer wirkt, ist mir bisher nicht aufgefallen (was aber nichts heißt).
Der Effekt lässt sich relativ leicht verstehen: „schwarz“ ist auf einem LCD-Monitor (und analog, aus im Detail anderen Gründen auch auf einem Röhrenmonitor) nie wirklich schwarz, da das LCD die hell strahlende Hintergrundbeleuchtung nicht vollständig blocken kann. Jeder weiß, dass z.B. beim Bootvorgang, wenn eigentlich noch „nichts“ = „schwarz“ auf dem Computermonitor zu sehen sein sollte, er sich vom ausgeschalteten Zustand klar unterscheidet und eben nicht schwarz, sondern dunkelgrau ist.

Je heller das Umgebungslicht ist, desto weniger fällt das auf (weil das Auge ja abblendet); im Sonnenlicht würdest Du vermutlich keinen Unterschied zum ausgeschalteten Monitor mehr sehen können.

Ist der Raum hingegen dunkel, wirkt das Schwarz schon fast „mittelgrau“, und entsprechend wird der Kontrast als flau empfunden.

Dieses Phänomen gehört zur Gruppe der sogenannten Farberscheinungsphänome (englisch: color appearance phenomena; englischer Wikipedia-Artikel hierzu). Streng genommen gilt der kolorimetrische Standardbeobacher, also der mathematische Algorithmus zur Umrechnung einer Spektralkurve in den XYZ-Farbraum (aus dem sich dann alle anderen Farbräume ableiten), nämlich nur für bestimmte Umgebungsbedingungen, zu denen eben auch eine mittlere Helligkeit zählt.

Ändern sich diese Umgebungsbedingungen, kommt es zu psychisch bedingten Abweichungen der menschlichen Farbwahrnehmung, eben jenen Farberscheinungsphänomen.

Man muss allerdings Vorsicht walten lassen, denn bisweilen wird hier aufgrund von Interessen der Industrie auch übertrieben: Ein über das kolorimetrisch korrekte Maß hinaus künstlich erhöhter Kontrast in einem Fernsehbild z.B. wirkt für viele Laien als das „bessere“ Bild, weshalb sich dieser Fernseher dann besser verkauft. Ein bisschen vergleichbar mit dem unseligen Loudness War bei Musikaufnahmen.

Ich frage mich seit langem, ob die Farbtemperaturmessung des Umgebungslichtes mit einem Kolorimeter überhaupt genau sein kann. Schließlich werden auch für unterschiedliche Monitortypen (Hintergrundbeleuchtungen) unterschiedliche Korrekturmatrizen für die verbauten Farbfilter im Kolorimeter verwendet. Welche Matrix ist für die Messung von natürlichem Licht geeignet? Deiner Aussage folgend, keine.
Alles, was Du schreibst, ist vollkommen korrekt.

Je mehr Monitore es mit (verschiedenen) weiteren Farbräumen als sRGB gibt, desto weniger können Kolorimeter Schritt halten mit ihren Voreinstellungen und immer weniger ein korrektes Bild garantieren. Eigentlich ist es Zeit, Kolorimeter einzumotten und endlich preiswerte Spektralphotometer zu bauen.

Aber dennoch glaube ich, ist es besser einen kalibrierten und profilierten Monitor zu haben, dessen Weißpunkt in etwa mit dem Umgebungslicht übereinstimmt, als absolut nichts in der Richtung zu unternehmen.
Zweifellos. Etwas ist immer besser als gar nix. :cool:

Ein nicht profilierter aber im Weißpunkt auf das Umgebungslicht kalibrierter Wide-Gamut Monitor wird derart falsche Farben anzeigen, dass man hier nicht von Übereinstimmung sprechen kann.
Hm, ich meinte mit „modernen Monitoren“ welche, die eine Verstellung der Farbtemperatur einigermaßen intelligent handhaben; die gibt es jedenfalls. Ich gestehe Dir gerne zu, dass das bei anderen überhaupt nicht funktionieren mag.

Grundsätzlich stimme ich dem zu. In der Regel ergibt es jedoch schon Sinn, bei den heute immer noch üblichen 8-Bit Monitoren, auf den Gamma Wert zu kalibrieren, der auch dem Arbeitsfarbraum zu Grunde liegt. Irgendeinen Wert muss man ja wählen.
Ja, aber ich würde mir da keinen Kopf mehr drum machen und einfach 2,2 nehmen, wenn die Software das denn wissen will. Arbeitsfarbräume können ja von Bild zu Bild wechseln, Video-Player ohne Farbmanagement gehen von 2,2 aus, Röhrenmonitore hatten grob 2,2 und LCDs simulieren daher in der Regel künstlich 2,2.

Und zudem werden die bei 8 Bit Farbtiefe kostbaren Bits mit 2,2 ziemlich gut entsprechend der Wahrnehmungskurve des menschlichen Auges verteilt (bei 2,2 gibt es deutlich mehr Bit-Abstufungen für die dunklen Bereiche als für die hellen, und auch das menschliche Auge löst da viel feiner auf, um auch in finsteren Ecken noch Gefahren erkennen zu können).

Ich habe „Probleme“ mit stufigen Farbverläufen in dunklen Bereichen (fällt bei Bildern aber überhaupt nicht auf). Deshalb habe ich mir überlegt, mal den Gamma Wert 1,0 auszuprobieren.
Das würde aus dem eben genannten Grund Dein Problem verschlimmern. Wenn überhaupt, müsstest Du einen höheren Wert probieren, 2,4 oder 2,5 oder so.

Wieso sollte gelbstichiges Licht für die Augen schädlich sein?
Weil das menschliche Auge physiologisch natürlich auf Tageslicht ausgelegt ist und im Grünbereich die höchste Empfindlichkeit hat. Gelbliches Licht ist vom Effekt her dasselbe wie dunkleres Licht, das Auge muss die Blende entsprechend weit öffnen, und sobald Du nicht mehr ganz jung bist, fangen dadurch die Probleme mit der Fokussierung an, die das Auge anstrengen/verkrampfen können.

Solange wir nur Glühlampenlicht hatten, war das nicht zu vermeiden. Dass jetzt LEDs künstlich den viel zu gelben Weißpunkt von Glühlampenlicht simulieren, ist komplett absurd. Aufgrund der chromatischen Adaption merken wir ja nichts von dem Gelbstich, nur unsere Augen werden weit mehr angestrengt und die Konzentration nimmt ab (ich rede jetzt von der Beleuchtung bei Tätigkeiten und nicht von Kerzenlicht-Situationen).

Es scheint ein seltsame Form von Nostalgie gegenüber veralteten Technologien zu geben. Die Dampflokomotive, ökologisch und von den Arbeitsbedingungen für die Lokführer her eine Katastrophe, gilt als „romantisch“, Kerzenlicht, das ja ganz ursprünglich mal auch eine Technik zur Raumbeleuchtung war, ebenfalls. Und jetzt gilt Glühlampenlicht als „angenehmer“ als das Tageslicht, für das unsere Augen gebaut sind.

In diesem speziellen Fall kommt noch etwas anderes hinzu: Die meisten Menschen haben ihre ersten Erfahrungen mit künstlichem Licht mit einem Tageslicht-Weißpunkt durch Leuchtstoffröhren gemacht, und die fühlen sich in der Tat unangenehm an und können Kopfschmerzen verursachen. Nur liegt das eben nicht an deren Farbtemperatur, sondern an dem grässlich niedrigen CRI. Den kennen die Menschen aber gar nicht und schieben das unangenehme Gefühl daher auf die Farbtemperatur.

Bei billigen LEDs mit niedrigem CRI ist das ähnlich. Glühlampenlicht hingegen ist als angenehm bekannt (der CRI ist da prinzipbedingt ja in der Tat stets 100), und daher scheint die Lösung eine Verschiebung der Farbtemperatur Richtung Glühlampe zu sein statt (wie es korrekt wäre) die Wahl eines höheren CRI.

Eine LED mit niedrigen CRI und gelblichem Weißpunkt ist wie ein missratenes Essen (niedriger CRI), über das man dann tonnenweise Maggi kippt (gelblicher Weißpunkt), damit es doch noch irgendwie schmeckt.

Dieser Mann rät explizit dazu, auf die korrelierte Farbtemperatur des Umgebungslichtes zu kalibrieren und etwa 1000K zum gemessen Wert zu addieren. Davon habe ich in meinem Post weiter vorne geschrieben. […] Du hältst nichts von dieser Aussage, oder?
Nein, absolut nicht. Begegnet sind mir derartige Empfehlungen aber auch schon öfters.

Der Grund dürfte immer irgendein Fehler in der korrekten Konfiguration des Farbmanagements sein, der dann durch ein subjektives „Patentrezept“ heuristisch korrigiert wird, das sich natürlich nie verallgemeinern lässt (und auch im konkreten Fall kaum eine akzeptable Lösung sein dürfte).

Ich sage ja: Es wird unglaublich viel Mist in diesem Bereich geschrieben, warum auch immer.
 
Kommentar
Uli, vielen Dank für deine ausführlichen Antworten.

Hm, ich meinte mit „modernen Monitoren“ welche, die eine Verstellung der Farbtemperatur einigermaßen intelligent handhaben; die gibt es jedenfalls.

Ich habe deine erste Aussage so verstanden, dass Du die Erstellung eines Monitorprofils gegenüber der Kalibrierung auf den richtigen Weißpunkt für unbedeutend hältst, weil Du von der „Feinabstimmung der Farben während der Kalibration“ sprichst.
Was Du tatsächlich meinst ist die nachträgliche Anpassung der Farbtemperatur bei einem bereits kalibrierten und profilierten Monitor, oder? Falls ja, ziehe ich meinen Widerspruch zurück. :D

Eigentlich ist es Zeit, Kolorimeter einzumotten und endlich preiswerte Spektralphotometer zu bauen.

Den Punkt würde ich gerne noch etwas tiefer mit Dir besprechen. Vor etwa zwei Monaten habe ich mir ein gebrauchtes i1Pro2 gekauft. Klar, der Hauptgrund war die Möglichkeit Drucker zu profilieren. Aber eben nicht nur. Obwohl ich seit langem ein i1 Display Pro besitze, wollte ich mein Display mit einem Spektralphotometer kalibrieren. Denn die angesprochene Problematik der erforderlichen Korrekturen von Kolorimetern für verschieden Display-Hintergrundbeleuchtungen hat mich immer gestört. Kurz zu den Gründen: 1. Keine klare Aussage ob mein Display nun eine CCFL oder eine Wide-Gamut CCFL Beleuchtung hat und 2. die Feststellung, dank DisplayCal, dass weder die eine Korrekturmatrix, noch die andere genau passend ist.

Nun liest man immer wieder, dass Kolorimeter in den dunklen Bereichen empfindlicher sind als Spektralphotometer. Selbst Florian Höch, der „Vater“ von DisplayCal schreibt im DisplayCal Forum:
„…but you shouldn’t use a spectrometer for prolonged measurement sessions anyway if you can avoid it, as low light accuracy and drift are a real problem.“

Also erstelle ich mir in DispayCal, mit Hilfe des Spektralphotometers, eine Korrekturmatrix für das Kolorimeter und kalibriere den Monitor damit.
Darüber hinaus habe ich mal gelesen, dass für eine akkurate Monitorkalibrierung eine spektrale Auflösung von mindestens 5nm erforderlich ist. Das i1Pro2 hat eine Auflösung von 10nm. Das Problem verschärft sich meiner Meinung nach, aufgrund der sehr schmalen Spektralverläufe von Wide-Gamut Displays, noch zusätzlich.
Was also tun? Würdest Du trotzdem dazu raten eher zum i1Pro2 zu greifen, als zum i1 Display Pro?

Ein bisschen vergleichbar mit dem unseligen Loudness War bei Musikaufnahmen.

Wie schön, jemand der mich versteht. :)
 
Kommentar
… Ein über das kolorimetrisch korrekte Maß hinaus künstlich erhöhter Kontrast in einem Fernsehbild z.B. wirkt für viele Laien als das „bessere“ Bild, weshalb sich dieser Fernseher dann besser verkauft. Ein bisschen vergleichbar mit dem unseligen Loudness War bei Musikaufnahmen. …


Zu "Loudness War" siehe hier:lupe:


Und das mit dem TV-Bild ist doch ein uralter Hut.
Schon immer wurde der teure Fernseher mit dem
hochgeregelten Bild neben das Sonderangebot
mit im Vergleich flauem Bild platziert.

Die Verkäufer haben immer blöd geguckt, wenn
ich bei beiden Geräte alles auf Null gesetzt habe,
um einen brauchbaren Vergleich zu haben … :cool:



.
 
Kommentar
Ich habe deine erste Aussage so verstanden, dass Du die Erstellung eines Monitorprofils gegenüber der Kalibrierung auf den richtigen Weißpunkt für unbedeutend hältst, weil Du von der „Feinabstimmung der Farben während der Kalibration“ sprichst.
Was Du tatsächlich meinst ist die nachträgliche Anpassung der Farbtemperatur bei einem bereits kalibrierten und profilierten Monitor, oder?
Nene, ich meinte schon Ersteres. Monitor-Hersteller können ja nun nicht voraussetzen, dass ihre Nutzer die Monitore aufwändig kalibrieren und profilieren; also muss das Bild auch ohne diesen Aufwand „in etwa“ passen. Und wenn der Monitor eine Möglichkeit zur Verstellung des Weißpunkts bietet, auch dann, wenn diese genutzt wird. Ich kenne jetzt nicht so wahnsinnig viele verschiedene Monitore, aber die, die mir untergekommen sind, haben auch ohne Kalibration und Profilierung ein halbwegs passables Bild abgeliefert, unabhängig vom gewählten Weißpunkt. Sodass in diesen Fällen stets das größere Problem war, wenn der Weißpunkt nicht dem Umgebungslicht übereinstimmte.

Wie auch immer, wir sollten uns da nicht festbeißen. Das war eigentlich nur eine Bemerkung, um zu betonen, wie wichtig die Abstimmung des Weißpunkts auf das Umgebungslicht ist.

Denn die angesprochene Problematik der erforderlichen Korrekturen von Kolorimetern für verschieden Display-Hintergrundbeleuchtungen hat mich immer gestört. Kurz zu den Gründen: 1. Keine klare Aussage ob mein Display nun eine CCFL oder eine Wide-Gamut CCFL Beleuchtung hat und 2. die Feststellung, dank DisplayCal, dass weder die eine Korrekturmatrix, noch die andere genau passend ist.
Ja, da kann ich Dir nur beipflichten. Seit nicht mehr alle Monitore auf grob sRGB ausgelegt sind, sind Kolorimeter ein Vabanquespiel und eigentlich ein Catch 22: Denn ich müsste den Monitor immer schon vermessen haben, um wirklich beurteilen zu können, ob das Kolorimeter mit seiner Korekturmatrix richtig misst.

Ich habe hier ein Edel-Kolorimeter von basICColor für schlappe 1000€, dessen Ergebnisse Du für eine Vielzahl von Monitoren schlicht in die Tonne treten kannst. Für NEC-Monitore, die basICColor selbst verkauft, gibt es X spezielle Korrekturmatrizen für jeweils eine ganz bestimmte Baureihe, für EIZO auch, aber sobald man auf die „generischen“ Matrizen zurückgreifen muss, ist man in aller Regel verloren. Auf solche „Messgeräte“ kann man eigentlich verzichten.

Nun liest man immer wieder, dass Kolorimeter in den dunklen Bereichen empfindlicher sind als Spektralphotometer.
Das stimmt im Prinzip schon, aber die Vorteile wiegen das doch mehr als auf. Da hängt auch viel von der Messsoftware ab, wie viel Zeit sie sich für jede einzelne Farbe lässt, ob sie mehrfach misst und statistisch mittelt etc.

Mir persönlich ist nie ein Fall untergekommen, wo ein Spektralphotometer zu schlechteren Ergebnissen als ein Kolorimeter geführt hat, aber umgekehrt ist das, wenn man nicht eine ideale Kombination aus Monitor, Messsoftware und Kolorimeter erwischt, bei Wide-Gamut-Displays fast schon der Regelfall.

Also erstelle ich mir in DispayCal, mit Hilfe des Spektralphotometers, eine Korrekturmatrix für das Kolorimeter und kalibriere den Monitor damit.
Uiuiui, Du meinst es aber wirklich ernst! ;)

Nur – wenn Du die Korrekturmatrix mit einem Spektralphotometer erstellst, das aufgrund der von Dir genannten Einschränkungen gewisse Ungenauigkeiten an den Tag legt, dann schreibst Du diese Ungenauigkeiten doch lediglich in der Korrekturmatrix fest, statt sie durch den nachfolgenden Einsatz des Kolorimeters loszuwerden?

Darüber hinaus habe ich mal gelesen, dass für eine akkurate Monitorkalibrierung eine spektrale Auflösung von mindestens 5nm erforderlich ist.
Naja, genauer ist immer besser, aber was soll denn dann ein Kolorimeter mit einer „spektralen Auflösung“ von 100 nm und mehr bringen?

Was also tun? Würdest Du trotzdem dazu raten eher zum i1Pro2 zu greifen, als zum i1 Display Pro?
Ich würde das i1Pro2 nehmen, ja, solange mich die spezifischen Umstände vor Ort nicht eines Besseren belehrten. Nachdem Du ja aber beide Geräte Dein Eigen nennst, bist Du doch in der glücklichen Lage, direkt die Ergebnisse vergleichen zu können.

Falls DisplayCal oder eine andere Software, die Du Dein Eigen nennst, das erlaubt, probiere doch mal mehrere Messdurchgänge eines Monitors mit dem i1Pro2 und ermittle das Delta E der einzelnen Messdurchgänge. Dann siehst Du ja, wie groß die Schwankungen aufgrund Drift und Farbrauschen bei dunklen Tönen sind. Und dann, wie groß die Abweichung zu Messdurchgängen mit dem i1 Display Pro sind.

Wenn alle Abweichungen gering sind, machst Du dir offenkundig zu viele Gedanken. ;)

Wenn die Abweichungen zwischen den i1Pro2-Messdurchgängen gering sind, aber die Abweichung vom i1Pro2 zum i1 Display Pro größer, dann spräche das aus meiner Sicht für das i1Pro2, aber Du kannst ja auch eine optische Entscheidung anhand zweier damit (i1Pro2 und i1 Display Pro) erstellter ICC-Profile fällen.

Nur für den Fall, dass die Abweichungen zwischen den i1Pro2-Messdurchgängen groß sind, die zwischen den i1-Display-Pro-Messdurchgängen aber nicht, spräche das für das i1 Display Pro. Nur dass Du dann halt das Problem hast, ob Du zuvor mit dem i1Pro2 eine korrekte Korrekturmatrix erstellt hast …


Ein bisschen vergleichbar mit dem unseligen Loudness War bei Musikaufnahmen.
Wie schön, jemand der mich versteht. :)
Lustig, mir ist Deine Signatur erst aufgefallen, nachdem ich das geschrieben und abgesandt hatte … :cool:
 
Kommentar
Und das mit dem TV-Bild ist doch ein uralter Hut. Schon immer wurde der teure Fernseher mit dem hochgeregelten Bild neben das Sonderangebot mit im Vergleich flauem Bild platziert.
Klar ist das ein alter Hut, nur meinte ich jetzt gar nicht so sehr den Vergleich zweier einzelner Geräte, als vielmehr, dass die Industrie das beschriebene Farberscheinungsphänomen dankbar aufgegriffen hat, um in den Fernseh-Normen einen höheren Kontrast festzuschreiben – und zwar eben möglicherweise auch höher, als es dieses Farberscheinungsphänomen rechtfertigen würde.
 
Kommentar
-Anzeige-
Zurück
Oben Unten