Ich dachte es würde euch auch interessieren.
Ich habe im Nachbarforum in einer Diskussion zu 12 vs 14bit und diversen Farbräumen mitdiskutiert und schließlich mich aufgerafft, die ersten Stufen des Umwandlungsprozesses vom Sensor zur RAW Datei etwas bildlicher darzustellen und zu kommentieren.
Hoffe, es ist verständlich genug geschrieben.
Liebe Grüße,
Andy
--- Anfang ----
Ok, ein Beispiel, wie ein Sensor ein Bild sieht, und was in den ersten Stufen passiert.
Hier ist das Bild. So wie wir es gewohnt sind zu sehen.
Ich habe aus diesem Bild des Kirchengebäudes oben in der Mitte eines der Türmchen genommen und die RAW Datei so weit vergrößert, daß man die Details sieht.
Wenn wir von RGB sprechen, ist das für einen Sensor etwas anders. Das Bayer CFA (Color Filter Array) hat aus geometrischen Gründen eine RG1BG2 Anordnung. Das heißt: Pro 2x2 Pixelfeld kommt einmal Rot (R), 2 x Grün (G1 und G2) und 1 x Blau (B) vor.
Wenn die Belichtung erfolgt, nimmt jeder Pixel in diesem Feld die Helligkeit auf, die er durch das Objektiv und die verschiedenen Filter erhält. Zu diesem Zeitpunkt hat der Pixel (Sensel) am Chip keine Ahnung, für welche Farbe er zuständig ist - er sieht nur Helligkeit.
Und das sehen die 4 Gruppen von Pixeln (R, G1, B, G2)
Die rote Gruppe. Betrachte die vielen leeren Felder zwischen diesen Pixeln. Diese sind für die 3 anderen Gruppen (wir haben ja 2x2 RGBG Felder)
Gruppe 2: Grün 1
Gruppe 3: Blau
Gruppe 4: Grün 2
Diese Helligkeitsdaten werden in die RAW Datei geschrieben (Von dort habe ich diese Ausschnitte gemacht). Die 4 Gruppen haben zu dem Zeitpunkt noch immer keine Ahnung, für welche Farbe sie zuständig waren.
In den Metadaten der RAW Datei schreibt die Kamera die von der Entwicklungsabteilung festgelegten spektralen Eigenschaften der Farbfilter vor den 4 Gruppen hinein. Es gibt noch immer keine Idee eines Farbraums.
Wenn man mit der Information der Farbfiltereigenschaften ein Mischbild macht, sieht man alle 4 Gruppen friedlich nebeneinander. Weil Grün 2 x vorkommt, ist diese Darstellung immer grünstichig. Da wir noch immer im RAW sind, gibt es hier keine Vermischung der 3 Grundfarben pro Pixelposition, wie sie bei JPEG, TIFF usw. vorkommen. Vom Farbraum noch immer keine Spur.
In der ersten Phase des Demosiacprozesses beginnt die CPU nun mit einer Vielzahl von verschiedenenen Algorithmen (die tw direkt in HW gegossen sind). Diese 4 Gruppen so zu vermischen, so daß an jeder Pixelposition nicht nur die tatsächlich aufgenommene Farbe, sondern auch die anderen Farben vorkommen. Da es diese fehlenden Farben in den RAW Daten jeweils einer Pixelposition nicht gibt, werden sie errechnet, indem man einfach die Umgebungswerte der anderen Farben als Hinweis nimmt, wie die fehlende Farbe an dieser Position aussehen könnte (Interpolation). Je nachdem welche Verstärkung und sonstige Anpassungen man in diesem Prozess vornimmt, kann diese Vermischung von echten und errechneten Farben in verschiedene Farbräume umgerechnet werden. Häufig verwendete Farbräume sind sRGB und AdobeRGB.
Es kann durchaus passieren, daß der Sensor ein Farbfilter hat, daß eine Frequenz erlaubt, die in dem Zielfarbraum nicht vorkommt. Genauso kann es umgekehrt sein, daß die Kamera auf einer Farbe blind ist, die es in dem Farbraum gibt. Wie auch immer, hier laufen viele Algorithmen ab um das Ergebnis, ein buntes Bild in einem Farbraum deiner Wahl zu erzeugen.
Nur zur Klarstellung nochmals: In den Daten einer RAW Datei gibt es keinen Farbraum. Diese Rechnung macht der RAW Konverter, entweder am PC oder in der Kamera.
So sieht das erste Vermischen der 4 Farbkanäle aus, ohne daß eine Farbraumkonvertierung vorgenommen wurde.
Sorry für die starke Vereinfachung der ersten Stufen des Umwandlungsprozesses. In deiner Kamera laufen noch sehr viel mehr Dinge ab, die hier nicht erwähnt worden sind.
Liebe Grüße,
Andy
Ich habe im Nachbarforum in einer Diskussion zu 12 vs 14bit und diversen Farbräumen mitdiskutiert und schließlich mich aufgerafft, die ersten Stufen des Umwandlungsprozesses vom Sensor zur RAW Datei etwas bildlicher darzustellen und zu kommentieren.
Hoffe, es ist verständlich genug geschrieben.
Liebe Grüße,
Andy
--- Anfang ----
Ok, ein Beispiel, wie ein Sensor ein Bild sieht, und was in den ersten Stufen passiert.
Hier ist das Bild. So wie wir es gewohnt sind zu sehen.
Ich habe aus diesem Bild des Kirchengebäudes oben in der Mitte eines der Türmchen genommen und die RAW Datei so weit vergrößert, daß man die Details sieht.
Wenn wir von RGB sprechen, ist das für einen Sensor etwas anders. Das Bayer CFA (Color Filter Array) hat aus geometrischen Gründen eine RG1BG2 Anordnung. Das heißt: Pro 2x2 Pixelfeld kommt einmal Rot (R), 2 x Grün (G1 und G2) und 1 x Blau (B) vor.
Wenn die Belichtung erfolgt, nimmt jeder Pixel in diesem Feld die Helligkeit auf, die er durch das Objektiv und die verschiedenen Filter erhält. Zu diesem Zeitpunkt hat der Pixel (Sensel) am Chip keine Ahnung, für welche Farbe er zuständig ist - er sieht nur Helligkeit.
Und das sehen die 4 Gruppen von Pixeln (R, G1, B, G2)
Die rote Gruppe. Betrachte die vielen leeren Felder zwischen diesen Pixeln. Diese sind für die 3 anderen Gruppen (wir haben ja 2x2 RGBG Felder)
Gruppe 2: Grün 1
Gruppe 3: Blau
Gruppe 4: Grün 2
Diese Helligkeitsdaten werden in die RAW Datei geschrieben (Von dort habe ich diese Ausschnitte gemacht). Die 4 Gruppen haben zu dem Zeitpunkt noch immer keine Ahnung, für welche Farbe sie zuständig waren.
In den Metadaten der RAW Datei schreibt die Kamera die von der Entwicklungsabteilung festgelegten spektralen Eigenschaften der Farbfilter vor den 4 Gruppen hinein. Es gibt noch immer keine Idee eines Farbraums.
Wenn man mit der Information der Farbfiltereigenschaften ein Mischbild macht, sieht man alle 4 Gruppen friedlich nebeneinander. Weil Grün 2 x vorkommt, ist diese Darstellung immer grünstichig. Da wir noch immer im RAW sind, gibt es hier keine Vermischung der 3 Grundfarben pro Pixelposition, wie sie bei JPEG, TIFF usw. vorkommen. Vom Farbraum noch immer keine Spur.
In der ersten Phase des Demosiacprozesses beginnt die CPU nun mit einer Vielzahl von verschiedenenen Algorithmen (die tw direkt in HW gegossen sind). Diese 4 Gruppen so zu vermischen, so daß an jeder Pixelposition nicht nur die tatsächlich aufgenommene Farbe, sondern auch die anderen Farben vorkommen. Da es diese fehlenden Farben in den RAW Daten jeweils einer Pixelposition nicht gibt, werden sie errechnet, indem man einfach die Umgebungswerte der anderen Farben als Hinweis nimmt, wie die fehlende Farbe an dieser Position aussehen könnte (Interpolation). Je nachdem welche Verstärkung und sonstige Anpassungen man in diesem Prozess vornimmt, kann diese Vermischung von echten und errechneten Farben in verschiedene Farbräume umgerechnet werden. Häufig verwendete Farbräume sind sRGB und AdobeRGB.
Es kann durchaus passieren, daß der Sensor ein Farbfilter hat, daß eine Frequenz erlaubt, die in dem Zielfarbraum nicht vorkommt. Genauso kann es umgekehrt sein, daß die Kamera auf einer Farbe blind ist, die es in dem Farbraum gibt. Wie auch immer, hier laufen viele Algorithmen ab um das Ergebnis, ein buntes Bild in einem Farbraum deiner Wahl zu erzeugen.
Nur zur Klarstellung nochmals: In den Daten einer RAW Datei gibt es keinen Farbraum. Diese Rechnung macht der RAW Konverter, entweder am PC oder in der Kamera.
So sieht das erste Vermischen der 4 Farbkanäle aus, ohne daß eine Farbraumkonvertierung vorgenommen wurde.
Sorry für die starke Vereinfachung der ersten Stufen des Umwandlungsprozesses. In deiner Kamera laufen noch sehr viel mehr Dinge ab, die hier nicht erwähnt worden sind.
Liebe Grüße,
Andy