Gamutspielereien...

Thread Status
Hello, There was no answer in this thread for more than 30 days.
It can take a long time to get an up-to-date response or contact with relevant users.

Retina

Sehr aktives NF Mitglied
Registriert
Hei,

angeregt durch eine Diskussion zum Thema Farbräume habe ich ´mal die Informationen aus dem dokumentieren DNG-Format genommen und die theoretischen Grenzen für die Farbaufnahme berechnet. Im DNG-Format gibt es von Adobe gemessene Matrizen für das jeweilige Kameramodell, die von CIEXYZ in den RAW-Raum transformieren. Das Inverse dieser Matrix gibt mir dann die Transformation von RAW nach XYZ. Wenn ich nun im CIEXYZ die Spaltenvektoren dieser invertierten Matrix anschaue, habe ich die Eckpunkte des erreichbaren Farbraums, theoretisch. Als Ausgangsmatrix habe ich die "second illuminant" genommen, da diese mit D65 genau dem Weißpunkt für sRGB und Adobe RGB entspricht. Die Ergebnisse habe ich in diesem Diagramm dargestellt:



Zunächst fällt auf, dass die Eckpunkte der Kameras für Blau in einem unphysikalischen Bereich (y<0) liegen. Das bedeutet, dass ich mit keiner monochromatischen Anregung nur den Blau(milch)kanal alleine anregen kann, oder anders formuliert: Grün ist bei kurzen Wellenlängen noch empfindlich. Der tatsächliche Garmut der Kamera liegt also auf jeden Fall innerhalb des Dreiecks. Wo genau muss man durch eine andere Messung bestimmen.

Der andere interessante Aspekt ist der Rotkanal: Dort scheint es so zu sein, dass die beiden untersuchten Kameramodelle D50 und D80 nicht in der Lage sind weder sRGB noch AdobeRGB (, die sich beide übrigens nur in der "Grünerzeugenden" unterscheiden) auszureizen...

Aber ich sehe schon, ich muss an meinem nächsten freien Tag ´mal an die Uni und schauen, ob es da einen "Monochromator" gibt...

Viele Grüße,
Burkhard
 
Anzeigen
Burkhard, wo sind denn da jetzt im Diagramm rot, grün und blau? Die Farbcodes hast Du ja für die Unterscheidung der Geräte benutzt.

Maik
 
Kommentar
Moin Burkhardt,

im wesentlichen schließe ich mich Wolle an.

Das mit dem Blaukanal hab ich nicht verstanden.
Und der rote Zacken ist bei den Kameras ja tatsächlich kürzer - inwieweit sieht man das denn noch mit bloßem Auge?

Danke für Deine Mühe,
Roland
 
Kommentar
Maik Musall schrieb:
Burkhard, wo sind denn da jetzt im Diagramm rot, grün und blau? Die Farbcodes hast Du ja für die Unterscheidung der Geräte benutzt.
Hallo Maik,

Alles so wie immer: y ist grün und Luminanz (oder auch M), x ist rot (oder auch L) und z=1-x-y ist blau (oder K).

blue_heron schrieb:
Das mit dem Blaukanal hab ich nicht verstanden.
Hallo Rolandt, ;)

Wäre nett, wenn ich die xy-Koordinaten für monochromatisches Licht irgendwo fände, dann könnte ich den sichtbaren Bereich eintragen... Ansonsten muss man halt hier
CIE-Normfarbtafel.png

nachschauen, ob man sich im sichtbaren Bereich befindet.

Blau und Grün sind positiv korreliert. Gehe ich Richtung Blau, nimmt auch der Grünwert zu. Aufgrund der Normierungsbedingung müsste es eigentlich umgekeht sein: Gehe ich in eine Richtung, müssen die Beiträge der anderen abnehmen. Das bedeutet, dass Grün eine hohe Durchlässigkeit für kleine Wellenlängen hat, oder?

Das Vermessen der monochromatischen Antworten bringt aber auch nicht die umltimative Erleuchtung ;) Da ist halt immer noch das Problem der Metamerie... Und da im Alltagsleben nicht immer nur Laserlicht abgebildet wird,...

Gruß,
Burkhard
 
Kommentar
blue_heron schrieb:
Moin Burkhardt,

im wesentlichen schließe ich mich Wolle an.

Das mit dem Blaukanal hab ich nicht verstanden.
Und der rote Zacken ist bei den Kameras ja tatsächlich kürzer - inwieweit sieht man das denn noch mit bloßem Auge?

Danke für Deine Mühe,
Roland

Hi Roland,

villeicht einmal was Grundlegendes zum Thema wahrnembare Farben:

1942 untersuchte der Amerikaner MacAdams die Schwellenwerte, bei denen Menschen einen Farbunterschied erkennen können. Aus den Ergebnissen entwickelte er die heute noch aktuellen „MacAdams-Ellipsen”. Innerhalb der Ellipsen wer*den keine Unterschiede wahrgenommen. Sie beschreiben also das Phänomen, dass das mensch*liche Gehirn bestimmte Farbeindrücke als identisch oder zumindest sehr ähnlich interpretiert. Rechnet man diese Ellipsen in gleich große Kreise um, erhält man ein „empfindungsmäßig gleichabständiges” System. Mathematisch ist eine exakte Umrechnung fast unlösbar. Daher wurden die verzerrten x* und y*Achsen der Normfarbtafel für die praktische Anwendung durch metrisch normal eingeteilte Achsen in einem rechtwinkeligen Koordinaten*system ersetzt.
CIE-La1.gif


Bei der Festlegung der Achsen hat man sich, ausgehend von der Gegenfarbentheorie des Physiologen Heering, für grün*rot (a*Achse) und blau*gelb (b*Achse) entschieden. Die Gegenfarbentheorie besagt, dass eine wahrgenommene Farbe nicht gleichzeitig blau und gelb, bzw. rot und grün sein kann, was sich im täglichen Leben jederzeit verifizieren läßt. Positive Werte der a*Achse sind rötlich, negative a*Werte grünlich, während positive b*Werte gelblich und negative b*Werte bläulich sind. Der CIE*Lab*Farbraum wird in der Regel in der Form eines Kreises und einer separaten L*Achse (Helligkeit), bzw. in Form einer Kugel dargestellt. Alle Farben gleicher Helligkeit liegen auf einer kreisförmigen Ebene, über die die a* und b*Achsen verlaufen. In der Helligkeitsachse beschreibt der Wert L=0 Schwarz und L=100 Weiss. Diese so genannte Unbunt*Achse bildet die Mittelachse der Farbkugel des CIE*Lab*Farbraumes. Die Umrechnung zwischen XYZ, Yxy und Lab*Modell wird durch Formeln definiert, die an die menschliche Wahrnehmung angepaßt sind. Die geometrischen Abstände im Lab*Raum erlau*ben verläßliche Aussagen über die Ähnlichkeit von Farben.

CIE-La2.jpg


LG
Frank
 
Kommentar
Hallo Frank*,

vielen Dank für Deine Info zu La*b*. Für den Gamut spielt der gewählte Farbraum jedoch keine Rolle. Mann könnte die Dreiecke sicher auch im La*b*-Raum zeichnen. (Ja, sollten noch Dreiecke sein, da die Transformation von XYZ in La*b* meines Wissens nach eine einfache, lineare ist).

Interessanterweise wählt man für den Weißabgleich übrigens nicht den La*b*-Raum sondern Farbräume, die sich an den spektralen Empfindlichkeiten der Zapfen orientieren. Da gibt es verschiedene Varianten. Eine von Herrn von Kries (1902), eine Version der CIE und die Bradford-Transformation, die auch von Adobe in den DNG-Weißabgleichen verwendet wird. Warum wird der Weißabgleich in diesen Räumen gemacht? Kann eigentlich nur als Antwort haben, dass es im Auge auch vor dem I/O-Preprozessor hinter der Retina :D (aber noch im Auge, also nicht im Gehirn!) passiert. D.h. die Farbadaption müsste über einen lokalen Prozess eines PID-Reglers ablaufen, bei dem der D-Anteil eine entscheidende Rolle spielt, oder? ;)

Bei der Meditation über das Thema Farben gewinne ich immer mehr den Eindruck, dass man eigentlich nur dann eine saubere Farbwiedergabe hinbekommt, wenn man mit einem Sensor arbeitet, der die gleiche spektrale Empfindlichkeiten besitzt wie die Zapfen im menschlichen Auge. Weiche ich davon ab, kann ich aufgrund der Metamerie nur Annahmen über das tatsächliche Spektrum machen für meine Transformationen... Es fehlt dort einfach Information. Insofern kann ich es überhaupt nicht verstehen, dass der Ansatz von Sony mit den vier Farben nicht zu einer durchschlagenden Verbesserung der Farbwiedergabe geführt hat (ich meine die Esmerald (?) Sensoren mit zwei Grüntönen) :confused: Hm, vielleicht kommen die Foveon-Leute ja noch auf ähnliche Ideen. Da müsste ich ja nur die Anzahl der Sammelpunkte weiter erhöhen. Drei erscheint mir da noch ausbaufähig...

Aber wollen wir mal ehrlich sein: Die Leute wollen ja in Punkto Farben betrogen werden, oder? :hehe: Also eigentlich vergebliche Anstrengung, das ganze...:rolleyes:

Gruß,
Burkhard

*) Herzlichen Glückwunsch! (Gilt nur für Frank, nicht für a oder b ;) )
 
Kommentar
Retina schrieb:
Hallo Frank*,

vielen Dank für Deine Info zu La*b*. Für den Gamut spielt der gewählte Farbraum jedoch keine Rolle. Mann könnte die Dreiecke sicher auch im La*b*-Raum zeichnen. (Ja, sollten noch Dreiecke sein, da die Transformation von XYZ in La*b* meines Wissens nach eine einfache, lineare ist).

Interessanterweise wählt man für den Weißabgleich übrigens nicht den La*b*-Raum sondern Farbräume, die sich an den spektralen Empfindlichkeiten der Zapfen orientieren. Da gibt es verschiedene Varianten. Eine von Herrn von Kries (1902), eine Version der CIE und die Bradford-Transformation, die auch von Adobe in den DNG-Weißabgleichen verwendet wird. Warum wird der Weißabgleich in diesen Räumen gemacht? Kann eigentlich nur als Antwort haben, dass es im Auge auch vor dem I/O-Preprozessor hinter der Retina :D (aber noch im Auge, also nicht im Gehirn!) passiert. D.h. die Farbadaption müsste über einen lokalen Prozess eines PID-Reglers ablaufen, bei dem der D-Anteil eine entscheidende Rolle spielt, oder? ;)

Bei der Meditation über das Thema Farben gewinne ich immer mehr den Eindruck, dass man eigentlich nur dann eine saubere Farbwiedergabe hinbekommt, wenn man mit einem Sensor arbeitet, der die gleiche spektrale Empfindlichkeiten besitzt wie die Zapfen im menschlichen Auge. Weiche ich davon ab, kann ich aufgrund der Metamerie nur Annahmen über das tatsächliche Spektrum machen für meine Transformationen... Es fehlt dort einfach Information. Insofern kann ich es überhaupt nicht verstehen, dass der Ansatz von Sony mit den vier Farben nicht zu einer durchschlagenden Verbesserung der Farbwiedergabe geführt hat (ich meine die Esmerald (?) Sensoren mit zwei Grüntönen) :confused: Hm, vielleicht kommen die Foveon-Leute ja noch auf ähnliche Ideen. Da müsste ich ja nur die Anzahl der Sammelpunkte weiter erhöhen. Drei erscheint mir da noch ausbaufähig...

Aber wollen wir mal ehrlich sein: Die Leute wollen ja in Punkto Farben betrogen werden, oder? :hehe: Also eigentlich vergebliche Anstrengung, das ganze...:rolleyes:

Gruß,
Burkhard

*) Herzlichen Glückwunsch! (Gilt nur für Frank, nicht für a oder b ;) )

Erstmals mein Dank für die Wünsche....

Hinzu kommt noch die Tatsache,dass unsere Farbraumdefinition immer noch von einem konstanten Gamma , wohl bedingt aus der analogen Zeit??!!, ausgeht.
Jedoch das menschliche Interpretationsvermögen einen variablen Gamma zwischen 1,4 und 2,5 besitzt.

Es gibt hinsichtlich dieser Diskrepanz ja auch die Bestrebungen neue, der Erkenntnis entsprechende - die Digitaltechnik machts möglich - Farbräume zu definieren und nutzbar zu machen.

Siehe: LStar-RGB hingegen arbeitet in allen Helligkeitsbereichen streng linear. Im
Vergleich zur alten Gammatechnik verfügt es also über ein variables Gamma von ca.
1,4 in der Nähe des Schwarzpunktes (Wert unter Berücksichtigung der 8-bit-
Quantisierung) bis hin zu 2,5 am Weißpunkt.

und


www.Lstar-RGB.com[SIZE=-1]

LG
Frank
[/SIZE]
 
Kommentar
Lieber Frank,

bitte, bitte jetzt nicht mit der Luminanz anfangen! Das ist genau der Parameter, den wir hier bewusst rausgelassen haben. Diese ganze L*-Geschichte ist komplett ausgabegerätspezifisch. Dort wird nicht der geringste Gedanken daran ver(sch)wendet, dass es bei der Aufnahme (hallo, das sind wir!) schon nur eine endliche Zahl von Tonwerten gibt, die bei den von uns so geliebten Kameramodellen leider unterhalb von 255 Werten liegt*! Außerdem tanzen die komplett um das goldene 8-bit-Kalb! Wenn sich erstmal ein HDR-Format durchgesetzt hat, ist das Thema meiner Meinung nach vollständig vom Tisch. (=> Aktien der Firma abstoßen, am besten Ende letzter Woche... ;) )

Viele Grüße,
Burkhard

*) Wenn ich da eine optimale Kodierung von Aufnahmeseite her vornehmen will, dann ist die Lösung unter Vernachlässigung des Dunkelrauschens klar: gamma=2. (siehe meine Überlegungen zum Q-Thema)
 
Kommentar
Hi Burhard,

da sprichst Du allerdings einen interessanten Aspekt an. Was bringt der beste, dem menschl. Auge angepasste/angeglichene Sensor hinsichtlich Ausgabegeräten die die Ergebnisse nur unzureichend umsetzen können. Wenn ich mir das so überlege müßten als logische Konsequenz auch diese daraufhin optimiert/angepaßt werden, oder nicht?
 
Kommentar
Oliver K. schrieb:
da sprichst Du allerdings einen interessanten Aspekt an. Was bringt der beste, dem menschl. Auge angepasste/angeglichene Sensor hinsichtlich Ausgabegeräten die die Ergebnisse nur unzureichend umsetzen können. Wenn ich mir das so überlege müßten als logische Konsequenz auch diese daraufhin optimiert/angepaßt werden, oder nicht?
Hallo Oliver,

das sehe ich anders: Die Speicherung sollte in einem neutralen Format geschehen, das keine (signifikante) Information der Aufnahme (Eingabegerät) verliert. Dieses Format muss vom Ausgabegerät möglichst getreu wiedergegeben werden. Wenn ich bei der Aufnahme schon Askpekte der verschiedenen Ausgabegeräte berücksichtigen muss, laufe ich in die n x m Problematik rein, dass ich für n Eingabegeräte jeweilse m Ausgabekanäle berücksichtigen muss. => neutrales Format.

Es ist einfach so, dass die Zeit für 8-bit RGB langsam ablaufen sollte... Da hat Microsoft wohl die Zeichen der Zeit erkannt und kürzlich doch einen Vorschlag für ein HDR-Format gemacht. Wie so üblich keine eigene intellektuelle Leistung sondern nach meinem Verständnis nur eine Auflistung bestehender Standards und deren Einbettung in TIFF...

Ein sehr gutes Format für Eingabegeräte ist meiner Meinung nach das DNG-Format: Es ist offen dokumentiert und es verliert keine relevante Information.

Übrigens habe ich hier die Daten für die CIE xyz Koordinaten für monochromatisches Licht gefunden. Werde ich in meine Plots aufnehmen. Noch ein Plan für Heuteabend: Die Matrix der "first illuminant" nehmen und einen Weißabgleich von A nach D65 über eine Bradford Hin- und Rücktransformation machen und ´mal schauen, wo das Dreieck relativ zum bisherigen liegt... Das Mysterium der Metamerie...

Gruß,
Burkhard
 
Kommentar
Gamutspielereien reloaded:

gamut2rt8.png


Was ich zusätzlich zur ersten Version noch eingetragen habe sind zum einen die Empfindlichkeitsgrenzen des menschlichen Auges (CIE 10° Kurven von 1964) und zwei weitere Gamuts, die sich aus der DNG-Matrix der D50 für den/die/das "first illuminant" (CIE A => 2854K, also Wolfram) ergeben. Zur Namenskonvention der Legende: D50 1. @ D65 bedeutet die erste Beleuchtung (CIE A) für den Weißpunkt bei D65 usw. Das graue Dreieck zeigt dabei die (invertierte) Matrix so wie sie im DNG steht. Bei der orangenen Variante habe ich eine Weißabgleichstransformation (Bradford) von CIE A auf CIE D65 durchgeführt. Naiverweise müsste dabei wieder das gelbe Dreieck herauskommen. Tut´s aber nich´. Es macht also einen Unterschied, ob ich nur mit 6504K beleuchte oder mit 2854K und dann einen linearen Weißabgleich durchführe. Hätte die Kamera die gleichen Filterempfindlichkeiten wie die der Bradford Transformation zugrundeliegenden Empfindlichkeiten, dann wären Gelb und Orange identisch... Da das nicht der Fall ist, verwendet Adobe eben diese zwei Matrizen und interpoliert zwischen ihnen, je nach Farbtemperatur.

Vielleicht könnte man das auch anders formulieren: Die Größe der Differenz zwischen gelbem und orangenem Dreieck ist ein Maß für die Abweichung der spektralen Empfindlichkeiten der Sensorpixel der D50 von denen des menschlichen Auges. Ergibt das einen Sinn? :dizzy:

Es gibt einen gravierenden Unterschied zwischen den Dreiecken für Ausgabegeräte und denen für Eingabegeräte: Die Ausgabegeräte können wirklich die gesamte Dreiecksfläche abdecken. Die Eingabegeräte haben Einschränkung aufgrund der Form und der Überlappung der spektralen Empfindlichkeiten und sind innerhalb des Dreiecks nochmal mit z.B. "halben Broten" wie bei der Empfindlichkeitskurve des Auges weiter beschränkt. Was man mit der Idee die Antworten der Kamera auf (weitgehend) monochromatisches Licht zu vermessen erreicht, ist genau diese "Brote" zu bestimmen. Mehr nicht. Die optimale Abbildung von RAW nach XYZ bekomme ich damit auch nicht hin... :frown1:

Warum nur hat sich der Vierfarbensensor nicht durchgesetzt, wenn die Ungenauigkeit so groß ist? :confused: Möglicherweise gibt es da noch nicht lineare "Tricks", wie man einen Weißabgleich auch anders hinbekommt... :nixweiss:

Bon nuit,
Burkhard
 
Kommentar
-Anzeige-
Zurück
Oben Unten