Wie sieht ein Sensor ein Farbbild ?

Thread Status
Hello, There was no answer in this thread for more than 30 days.
It can take a long time to get an up-to-date response or contact with relevant users.

AndyE

Sehr aktives NF Mitglied
Registriert
Ich dachte es würde euch auch interessieren.

Ich habe im Nachbarforum in einer Diskussion zu 12 vs 14bit und diversen Farbräumen mitdiskutiert und schließlich mich aufgerafft, die ersten Stufen des Umwandlungsprozesses vom Sensor zur RAW Datei etwas bildlicher darzustellen und zu kommentieren.

Hoffe, es ist verständlich genug geschrieben.

Liebe Grüße,
Andy



--- Anfang ----

Ok, ein Beispiel, wie ein Sensor ein Bild sieht, und was in den ersten Stufen passiert.

Hier ist das Bild. So wie wir es gewohnt sind zu sehen.
original.jpg


Ich habe aus diesem Bild des Kirchengebäudes oben in der Mitte eines der Türmchen genommen und die RAW Datei so weit vergrößert, daß man die Details sieht.

Wenn wir von RGB sprechen, ist das für einen Sensor etwas anders. Das Bayer CFA (Color Filter Array) hat aus geometrischen Gründen eine RG1BG2 Anordnung. Das heißt: Pro 2x2 Pixelfeld kommt einmal Rot (R), 2 x Grün (G1 und G2) und 1 x Blau (B) vor.

Wenn die Belichtung erfolgt, nimmt jeder Pixel in diesem Feld die Helligkeit auf, die er durch das Objektiv und die verschiedenen Filter erhält. Zu diesem Zeitpunkt hat der Pixel (Sensel) am Chip keine Ahnung, für welche Farbe er zuständig ist - er sieht nur Helligkeit.

Und das sehen die 4 Gruppen von Pixeln (R, G1, B, G2)

Die rote Gruppe. Betrachte die vielen leeren Felder zwischen diesen Pixeln. Diese sind für die 3 anderen Gruppen (wir haben ja 2x2 RGBG Felder)
original.jpg


Gruppe 2: Grün 1
original.jpg


Gruppe 3: Blau
original.jpg


Gruppe 4: Grün 2
original.jpg


Diese Helligkeitsdaten werden in die RAW Datei geschrieben (Von dort habe ich diese Ausschnitte gemacht). Die 4 Gruppen haben zu dem Zeitpunkt noch immer keine Ahnung, für welche Farbe sie zuständig waren.

In den Metadaten der RAW Datei schreibt die Kamera die von der Entwicklungsabteilung festgelegten spektralen Eigenschaften der Farbfilter vor den 4 Gruppen hinein. Es gibt noch immer keine Idee eines Farbraums.

Wenn man mit der Information der Farbfiltereigenschaften ein Mischbild macht, sieht man alle 4 Gruppen friedlich nebeneinander. Weil Grün 2 x vorkommt, ist diese Darstellung immer grünstichig. Da wir noch immer im RAW sind, gibt es hier keine Vermischung der 3 Grundfarben pro Pixelposition, wie sie bei JPEG, TIFF usw. vorkommen. Vom Farbraum noch immer keine Spur.

original.jpg


In der ersten Phase des Demosiacprozesses beginnt die CPU nun mit einer Vielzahl von verschiedenenen Algorithmen (die tw direkt in HW gegossen sind). Diese 4 Gruppen so zu vermischen, so daß an jeder Pixelposition nicht nur die tatsächlich aufgenommene Farbe, sondern auch die anderen Farben vorkommen. Da es diese fehlenden Farben in den RAW Daten jeweils einer Pixelposition nicht gibt, werden sie errechnet, indem man einfach die Umgebungswerte der anderen Farben als Hinweis nimmt, wie die fehlende Farbe an dieser Position aussehen könnte (Interpolation). Je nachdem welche Verstärkung und sonstige Anpassungen man in diesem Prozess vornimmt, kann diese Vermischung von echten und errechneten Farben in verschiedene Farbräume umgerechnet werden. Häufig verwendete Farbräume sind sRGB und AdobeRGB.

Es kann durchaus passieren, daß der Sensor ein Farbfilter hat, daß eine Frequenz erlaubt, die in dem Zielfarbraum nicht vorkommt. Genauso kann es umgekehrt sein, daß die Kamera auf einer Farbe blind ist, die es in dem Farbraum gibt. Wie auch immer, hier laufen viele Algorithmen ab um das Ergebnis, ein buntes Bild in einem Farbraum deiner Wahl zu erzeugen.

Nur zur Klarstellung nochmals: In den Daten einer RAW Datei gibt es keinen Farbraum. Diese Rechnung macht der RAW Konverter, entweder am PC oder in der Kamera.

So sieht das erste Vermischen der 4 Farbkanäle aus, ohne daß eine Farbraumkonvertierung vorgenommen wurde.
original.jpg



Sorry für die starke Vereinfachung der ersten Stufen des Umwandlungsprozesses. In deiner Kamera laufen noch sehr viel mehr Dinge ab, die hier nicht erwähnt worden sind.


Liebe Grüße,
Andy
 
Anzeigen
hallo,

danke für die anschauliche Darstellung. Vielleicht kann ein Mod das Thema irgendwo oben anpinnen, damit man in Zukunft bei wiederkehrenden Anfängerfragen darauf verweisen kann...

Gruß,
 
Kommentar
Ja, ich hänge den Thread einmal auf, bin aber etwas unglücklich über die Positionierung im "off topic" und überlege gerade, was ich bei den Forenbenennungen übersehen habe.

Aber das soll nicht Thema HIER werden.

Danke übrigens Andy für diesen wieder einmal sehr ausführlichen Beitrag!
 
Kommentar
Hallo Andy,
Wenn die Belichtung erfolgt, nimmt jeder Pixel in diesem Feld die Helligkeit auf, die er durch das Objektiv und die verschiedenen Filter erhält. Zu diesem Zeitpunkt hat der Pixel (Sensel) am Chip keine Ahnung, für welche Farbe er zuständig ist - er sieht nur Helligkeit.
so ganz verstehe ich nicht, was Du damit aussagen möchtest. ;)
Jeder Pixel ist nur für das durch den davor liegenden Bayer-Filter festgelegte Frequenzspektrum empfindlich, wie von Dir auch aufgeführt Rot, Grün oder Blau, und auch wenn er (der Pixel) natürlich nur Helligkeitswerte liefert, so misst/sieht er doch farbiges Licht. Und insoweit könnte der Pixel auch wissen, für welche Farbe er zuständig ist, es müsste ihm nur jemand sagen - da das aber auch später im Zuge des Demosaicing nicht stattfindet, verstehe ich zudem Deinen Hinweis "Zu diesem Zeitpunkt..." offen gestanden nicht. :dizzy:

Du schreibst ja später selbst:
In der ersten Phase des Demosiacprozesses beginnt die CPU nun mit einer Vielzahl von verschiedenenen Algorithmen (die tw direkt in HW gegossen sind). Diese 4 Gruppen so zu vermischen, so daß an jeder Pixelposition nicht nur die tatsächlich aufgenommene Farbe, sondern auch die anderen Farben vorkommen.
... und gesteht hier jedem Pixel eine tatsächlich aufgenommene Farbe zu - soweit würde ich wieder nicht gehen, denn eine tatsächlich aufgenommene Farbe (Farbwert) kann ein einzelner Pixel eines Bayer-Filter Sensors nur unter idealen Bedingungen (vorstellbar: absolut monochrome Fläche/monochromatische Farbe) annehmen, da hierfür die örtliche Farbauflösung bedingt durch das Filter-Array zu gering ist, erhält man auf Pixel-Ebene im fertigen Bild letztlich immer nur einen interpolierten Farbwert - das ist ja gerade die Crux mit diesem Sensortype.

Je nachdem welche Verstärkung und sonstige Anpassungen man in diesem Prozess vornimmt, kann diese Vermischung von echten und errechneten Farben in verschiedene Farbräume umgerechnet werden. Häufig verwendete Farbräume sind sRGB und AdobeRGB.
Von welchen echten Farben (s.o.) sprichst Du hier?

Man sollte an dieser Stelle auch noch erwähnen, dass die Helligkeitswerte der Pixel zu diesem Zeitpunkt noch linear verteilt vorliegen, daher wird hier üblicherweise noch eine Gammakorrektur vorgenommen (Mitteltöne aufgehellt), so dass ein Monitor (mit Gamma 2,2) die korrekten Helligkeitswerte anzeigt.

Wer sich einmal tiefer mit RAW-Daten beschäftigen möchte, dem sei die folgende Software und Website empfohlen:
http://www.rawdigger.com/

MfG
Jürgen
 
Kommentar
Hallo Andy,

so ganz verstehe ich nicht, was Du damit aussagen möchtest. ;)
Jeder Pixel ist nur für das durch den davor liegenden Bayer-Filter festgelegte Frequenzspektrum empfindlich, wie von Dir auch aufgeführt Rot, Grün oder Blau, und auch wenn er (der Pixel) natürlich nur Helligkeitswerte liefert, so misst/sieht er doch farbiges Licht. Und insoweit könnte der Pixel auch wissen, für welche Farbe er zuständig ist, es müsste ihm nur jemand sagen - da das aber auch später im Zuge des Demosaicing nicht stattfindet, verstehe ich zudem Deinen Hinweis "Zu diesem Zeitpunkt..." offen gestanden nicht. :dizzy:
Der Punkt, den ich hier erklären wollte, war:
Die im RAW geschriebenen Helligkeitswerte können ohne die Metadaten nicht für eine Transformation herangezogen werden.

Die Metadaten müssen die spektrale Empfindlichkeit des Filters (hochgradig unregelmäßig über das Frequenzspektrum) und seiner Transmissionseigenschaften beschrieben werden, damit diese für die Umwandlung berücksichtig werden können.

Du schreibst ja später selbst:
... und gesteht hier jedem Pixel eine tatsächlich aufgenommene Farbe zu - soweit würde ich wieder nicht gehen, denn eine tatsächlich aufgenommene Farbe (Farbwert) kann ein einzelner Pixel eines Bayer-Filter Sensors nur unter idealen Bedingungen (vorstellbar: absolut monochrome Fläche/monochromatische Farbe) annehmen, da hierfür die örtliche Farbauflösung bedingt durch das Filter-Array zu gering ist, erhält man auf Pixel-Ebene im fertigen Bild letztlich immer nur einen interpolierten Farbwert - das ist ja gerade die Crux mit diesem Sensortype.
Von welchen echten Farben (s.o.) sprichst Du hier?
"tatsächliche Farbe" war die Summe der Photonen, die durch den Bayerfilter an genau dieser Pixelposition durchkommen.Die anderen "Farben" an genau dieser Position, werden durch die Interpolation hinzugerechnet.


Man sollte an dieser Stelle auch noch erwähnen, dass die Helligkeitswerte der Pixel zu diesem Zeitpunkt noch linear verteilt vorliegen, daher wird hier üblicherweise noch eine Gammakorrektur vorgenommen (Mitteltöne aufgehellt), so dass ein Monitor (mit Gamma 2,2) die korrekten Helligkeitswerte anzeigt.
Korrekt. In dieser Phase der Verarbeitung liegen die Daten noch linearisiert vor.

Wer sich einmal tiefer mit RAW-Daten beschäftigen möchte, dem sei die folgende Software und Website empfohlen:
http://www.rawdigger.com/
Genau damit sind diese Screenshots entstanden. Empfehlenswerte Software.


Liebe Grüße,
Andy
 
Kommentar
Ich halte das Verfassen eines populärwissenschaftlichen Textes für durchaus schwierig und häufig auch für undankbar (ungeachtet der vielen "Thanks" hier), da der Autor durch die zwangsläufig notwendigen Vereinfachungen, Auslassungen und Unschärfen im Text leicht angreifbar erscheint, obwohl er es doch eigentlich besser weiß.
Manche Unstimmigkeit lässt sich hier umgehen, wenn man zusätzlich auf Quellen und Sekundärliteratur verweist.

Insofern fühle ich mich in meiner (selbst gewählten) Rolle hier im Thread nicht sehr wohl und werde vermutlich auch keinen besonderen Blumentopf gewinnen können. :rolleyes:

In mir hätte sich vermutlich kein Widerspruch geregt, wenn nicht von einer Farbe, sondern von einer Farbkomponente gesprochen worden wäre.

Einen kurzen Hinweis auf die besondere Bedeutung der grünen Pixel für die Bildschärfe, hätte ich noch für interessant erachtet.

Und wenn ich die von fragende Überschrift "Wie sieht ein (Bayer-)Sensor ein Farbbild?" lese, antworte ich darauf noch immer spontan "Unscharf" und denke an den heute noch üblichen (optischen) Low Pass Filter vor dem Sensor, der die Bildung von Moirés (Falschfarben) zumindest reduziert. Diese m.E. ganz wesentliche Problematik, die sich durch die Verwendung eines Bayer-Filter Sensors ergibt, halte ich für durchaus erwähnenswert, da ein direkter fotografischer Bezug vorhanden ist (insbesondere hier im Nikon Forum durch die D800E).

Ich habe fertig. ;)
:fahne:

MfG
Jürgen
 
Kommentar
Es ist sehr schwierig einen Mittelweg aus guter Verständlichkeit und fachlicher Korrektheit zu finden.
Jeder der ab und an ein "Management-Summary" schreiben muss weiß das :)


Ich finde es ist bestens geglückt! Danke.


Ich hätte auch noch eine Frage die aber etwas tiefer führt.
Soll ich?
 
Kommentar
Ja? OK!


spektrum.jpg

Prinzipbild: oben Lichtspektrum, unten Durchlässigkeit von Filtern



Was mich immer schon interessiert hat, ist das Profil dieser RGB Filter.
Ich nehme an, ein Grünfilter filtert nicht nur eine Frequenz, sondern einen gewissen Frequenzbereich im grünen Spektrum.

Überlappen die Durchlässigkeiten von RGB sich, oder klaffen da Lücken dazwischen?

Gerade wenn man sich überlegt, ob die Lichtqualität von, z.B. weissen LED's sich als Fotolichtquelle eignet, wäre es interessant das zu wissen. Habe ich aber noch nie irgendwo finden können.


Also Andi, falls Du noch was ergänzen willst....:fahne:
 
Kommentar
Hallo,

die spektrale Empfindlichkeit muss sich überlappen (und überlappt sich auch sehr deutlich), weil es sonst Lücken im aufgenommenen Spektrum gäbe, was sich im fertigen Bild in ziemlich lustigen Farbklecksen äußern würde. Auf das Nanometer genau lassen sich solche Filter nicht herstellen.

Ciao
HaPe
 
Kommentar
Was mich immer schon interessiert hat, ist das Profil dieser RGB Filter.
Ich nehme an, ein Grünfilter filtert nicht nur eine Frequenz, sondern einen gewissen Frequenzbereich im grünen Spektrum.

Überlappen die Durchlässigkeiten von RGB sich, oder klaffen da Lücken dazwischen?

Gerade wenn man sich überlegt, ob die Lichtqualität von, z.B. weissen LED's sich als Fotolichtquelle eignet, wäre es interessant das zu wissen. Habe ich aber noch nie irgendwo finden können.

Also Andi, falls Du noch was ergänzen willst....:fahne:

Na ja, eine ganze Menge Fragen.

Lass es mich versuchen, sie zu beantworten.

ad 1)
Das ist auch mein Verständnis, daß die Filter nicht nur eine Frequenz durchlassen sondern einen ganzen Bereich. Wobei die Durchlässigkeit/Sensitivität nicht gleichmäßig verteilt ist, sondern eine typischen (aber sehr unregelmäßigen) Form einer Verteilungsfunktion folgt.

Die RAW Hersteller haben in der Vergangengheit immer auf Nikon "losgeschlagen" das sie diese Daten für eine gute Berechnung der Farbwiedergabe benötigen (Illiah Borg, Adobe, ..) aber Nikon hütet diese Werte als Firmengeheimnis (so wie scheinbar Canon auch). D.h. die anderen RAW Konverter müssen mit Heuristiken, bzw. eigenen Untersuchungen möglichst nahe an diese Werte herankommen.

Marianne Oelund hat einmal eine sehr gute Analyse dieser Filterfunktion gemacht und 2009 im dpreview Forum für die D3 und D3s publiziert. Hier ist der Link zum ersten Teil. Den zweiten Teil finde ich derzeit nicht.

In dieser Analyse beschreibt sie einige Besonderheiten (mag die Grafiken nicht hereinlinken, weil ich nicht weiß, ob erlaubt):

  1. Wenn sie mit einem Prisma ein Spektralband erzeugt, sieht ein Spektrophotometer eine kontinuierliche Reihe von schön ineinanderverlaufenden Farben. Wenn man die Kamera als Spektrophotometer zweckentfremded, erzeugt es nicht ebenso einen schön verlaufenden Farbkeil, sondern drei mehr oder weniger überlappende Farbflächen in den 3 Grundfarben. Farben wie ein schönes kräftiges Orange fehlen in diesen Aufnahmen und der Übergang von Blau in UV ist sehr abrupt.
  2. Wenn man jetzt mit einer D3 weißes Licht aufnimmt, "sieht" eine D3 pro Farbkanal folgende Helligkeitsverteilung (2 Grafik in ihrem Posting auf dpreview). Auffällig ist, daß der rote Kanal von 590nm bis 570nm einen sehr steilen Abfall in der Sensitivität hat (noch dazu asymetrisch zur anderen Seite) und das bei 530nm nochmals eine gestiegene Sensitivität für Rot bei 530nm zu sehen ist. Eigenlich wäre der rote Kanal links und rechts symetrisch, wenn da nicht dieser "Hänger" zwischen 570 und 530nm wäre. Des weiteren ist bei 420nm der blaue Kanal abrupt zu Ende ist (vermutlich durch ein UV Sperrfilter). Weiters ist noch zu beachten, daß der blaue Kanal eine weit geringere Sensitivität hat, wie der grüne und rote Kanal. Da scheint das Filter viel vom Licht wegfiltern zu müssen.
  3. In der dritten Grafik vergleicht sie ihre 4 Kameras (D3s, D3,D3,D3x) im Rotkanal. Die Kurven sind sehr ähnlich, aber 2 Besonderheiten gibt es. Die D3x ist auf rot weniger Sensitiv als die 3 anderen Kameras (Ihr Sensor ist ganz anders aufgebaut) und am linken Ende schneidet der Filter der D3x bei 530nm stärker ab.
  4. In der vierten Grafik macht sie das gleiche für Grün. Die beiden D3 sind fast ident, die D3s und D3x sind in der mItte etwas weniger sensitiv und und die D3s ist auf der rechten Flanke tw etwas empfindlicher als die anderen Kameras.
  5. In der fünften Grafik ist Blau dran. Der Empfindlichkeitsbereich sieht ganz anders aus als bei Grün (Werte auf der X-Achse beachten) und bei 420nm schneiden alle Kameras mit Ausnahme der D3x recht deutlich ab (UV Filter). In diesem Bereich ist die D3x etwas empfindlicher.


Bedenke bitte, daß die Pixel hinter den Bayer CFA Filter von diesen Kurven nichts (direkt) mitbekommen. Sie nehmen Licht einer Farbe auf, aber ob das jetzt einen besonders hohen Anteil in der sensitiven Mitte hat, oder fast ausschließlich weiter außen liegt, kann der kleine Photonenerbsenzähler nicht wissen.

Um so wichtiger ist aber dieses Wíssen beim Demosaicprozess, in dem die Helligkeitswerte mit dem "Wissen" von der Form dieser Kurven gemeinsam verarbeitet werden.

Liebe Grüße,
Andy
 
Kommentar
Und wie viele Photodioden oder Phototransistoren hat eine 1MP Kamera ?

4M oder 1M ?

Könnte eine zusätzliche Photodiode oder ein Phototransistor für weißes Licht pro Sensorgruppe plus geschickte Bildverarbeitung die Empfindlichkeit der Sensoren verbessern? (Ungefiltertes Licht hat mehr Energie bzw. Leistung)

YUV (http://de.wikipedia.org/wiki/YUV-Farbmodell) z.b. codiert viel Information in die Helligkeit und wenig in die Farbe.
 
Kommentar
Hallo!
Könnte eine zusätzliche Photodiode oder ein Phototransistor für weißes Licht pro Sensorgruppe plus geschickte Bildverarbeitung die Empfindlichkeit der Sensoren verbessern?
Das ist ein Irrweg.
Der Foveon-Sensor macht es richtig:
Da sind pro Pixel der Ausgabe-Größe statt vier nebeneinander drei untereinander angeordnet.
Wenn diese Sensoren in größerer Stückzahl und mit den Consumer-Markt befriedigenden Megapixel-Zahlen verfügbar und den anderen Kameraherstellern (außer Sigma) zugänglich wären, könnte dies die ganzen Interpolations-Bemühungen überflüssig machen...
 
Kommentar
Und wie viele Photodioden oder Phototransistoren hat eine 1MP Kamera ? 4M oder 1M ?
1 MP

Könnte eine zusätzliche Photodiode oder ein Phototransistor für weißes Licht pro Sensorgruppe plus geschickte Bildverarbeitung die Empfindlichkeit der Sensoren verbessern? (Ungefiltertes Licht hat mehr Energie bzw. Leistung)
Im Prinzip ja. Da es sich bis jetzt nicht durchgesetzt hat, gehe ich davon, daß die unerwünschten Nebenwirkungen relativ groß sind. Siehe den seinerzeitigen Fujisensor, der durch die Dualität der großen und kleinen Pixeln eine entwicklungstechnische Sackgasse war. Der Kostenvorteil und die Stückzahlen dahinter haben das klassische Sensormodell einfach kaufmännisch gerechnet als sinnvollere Ausgangsbasis für Leistungssteigerungen erscheinen lassen.

Hallo!
Der Foveon-Sensor macht es richtig:
Da sind pro Pixel der Ausgabe-Größe statt vier nebeneinander drei untereinander angeordnet.
Vom Prinzip her gebe ich dir recht, Michael. Das Problem dieses Sensors scheint in seiner Komplexität in der Fertigung zu liegen. Und damit kommt er auf keine Stückzahlen.

Wenn ich das was ich bis jetzt jetzt gelesen habe auch richtig verstanden habe, ist der Fertigungsprozess eines Sensors zwar im Prinzip ähnlich einer normalen CMOS Schaltung aber es gibt 2 große Besonderheiten.

1) Ist das Aufätzen der metallischen Leiterbahnen vom Prozessverlauf her Gift für die lichtempfindlichen Photodioden
2) Ist nach Abschluß des eigentlichen Sensorherstellungsprozesses (des Siliziumteils) ein zweiter großer Verarbeitungsschritt notwendig. Das anbringen der ganzen Microlinsen, Farbfilter und AA Filter. Da dies organscihe Masse ist, ist der Fertigungsprozess grundlegend anders. (Diesen zweiten Schritt scheint Nikon selbst im Haus durchzuführen. Könnte auch eine teilweise Erklärung dafür sein, daß Sony Sensoren in Nikon Kameras ein anderes Verhalten an den Tag legen als in Sony Kameras)

Beim Foveon Sensor müssen durch die hintereinanderliegende Anordnung 2 Probleme überwunden werden.
1) Da vor den 3-er Gruppen keine Lichtprismen für eine Aufteilung des hereinkommenden weißen Lichtes sorgen (und dabei die Lichtmenge nur aufteilen) hat die hintereinanderliegende Anordnung eine unterschiedliche Lichtmenge für die einzelnen Farbrezeptoren zur Folge. Der unterste Sensor bekommt am wenigsten Licht ab (und muß entsprechend stärker verstärkt werden - Rauschen)
2) Der schichtweise Aufbau Silizium - organisch - Silizium - organisch - usw dürfte recht komplex sein und derzeit nicht für die Massenfertigung geeignet sein.


Wenn diese Sensoren in größerer Stückzahl und mit den Consumer-Markt befriedigenden Megapixel-Zahlen verfügbar und den anderen Kameraherstellern (außer Sigma) zugänglich wären, könnte dies die ganzen Interpolations-Bemühungen überflüssig machen...

Irgendwo habe ich gelesen, daß letztes Jahr 1,5 Mrd CMOS Sensoren produziert wurden. Kein Wunder, daß dort die meisten Entwicklungskapazitäten hineingesteckt werden.


Liebe Grüße,
Andy
 
Kommentar
Hallo Andy!
Beim Foveon Sensor müssen durch die hintereinanderliegende Anordnung 2 Probleme überwunden werden.
1) Da vor den 3-er Gruppen keine Lichtprismen für eine Aufteilung des hereinkommenden weißen Lichtes sorgen (und dabei die Lichtmenge nur aufteilen) hat die hintereinanderliegende Anordnung eine unterschiedliche Lichtmenge für die einzelnen Farbrezeptoren zur Folge. Der unterste Sensor bekommt am wenigsten Licht ab (und muß entsprechend stärker verstärkt werden - Rauschen)
2) Der schichtweise Aufbau Silizium - organisch - Silizium - organisch - usw dürfte recht komplex sein und derzeit nicht für die Massenfertigung geeignet sein.
Wenn ich den Foveon richtig beschrieben gelesen haben sollte, kommt er ohne Farbfilter zwischen den Siliziumschichten aus, weil laut Sigma Silizium selbst die Eigenschaft hat, spektral unterschiedlich durchlässig zu sein:
Die roten Lichtanteile dringen bis zur dritten Schicht vor, die grünen nur bis zur zweiten, die blauen werden bereits in der ersten resorbiert.
Dabei habe ich allerdings noch nicht verstanden, wie dann verhindert wird, dass die zweite Schicht auch die Rotanteile verarbeitet und die erste Schicht Grün und Rot...:nixweiss:
 
Kommentar
Vielen Dank für Deine ausführliche Antwort und die interessanten Links.
Irgendwie habe ich immer vermutet dass dies ein komplexes Thema ist, welches komischerweise kaum Interesse in den Forendiskussionen findet.


Denn wie Du schon sagst:
Um so wichtiger ist aber dieses Wíssen beim Demosaicprozess, in dem die Helligkeitswerte mit dem "Wissen" von der Form dieser Kurven gemeinsam verarbeitet werden.
....genau dies ist ja total wichtig für die Bildqualität hinsichtlich der Farbtreue.
 
Kommentar
-Anzeige-
Zurück
Oben Unten