unterschiedliche Sensoren

Thread Status
Hello, There was no answer in this thread for more than 30 days.
It can take a long time to get an up-to-date response or contact with relevant users.

smartcdi

Sehr aktives NF Mitglied
Registriert
Hallo,

meine Frau fotografiert mit der d40x und dem Nikon Objektiv 18-135. Die Farben ihrer Aufnahmen sind im Vergleich zu meinen Bildern (ich fotografiere mit der d90 und Sigma 18-250) zu dunkel und die Farben zu stark. Wir haben schon verschiedene Einstellungen getestet aber es hilft nicht. Kann es mit den unterschiedlichen Sensoren zusammen hängen? Habt Ihr eventuell noch Ideen, wie man das beheben kann.

Ich danke Euch für Eure Beiträge.
 
Anzeigen
das ist ja nun wirklich einstellungsabhängig. welche einstellungen habt ihr denn "getestet"? lade bitte mal ein beispielbild (mit exif-daten!) hoch.
 
Kommentar
Da bin ich mal auf die Bilder gespannt... kann nur ne Einstellungssache sein.
Hab vor der D90 auf ne D40 gehabt, nen Unterschied bei den Farben kann ich bei mir nicht erkennen. :nixweiss:
 
Kommentar
Der "Sensor" selbst sieht keine Farben, nur analoge(!) Helligkeitswerte pro Zelle. Dass da ein winziges Farbfilter davor ist spielt keine Rolle. Farben und Strukturen entstehen erst nach der A/D Wandlung. Insofern sind Unterschiede sicher möglich, das hat aber nicht mit dem Sensor, sondern mit der nachfolgenden Verarbeitung zu tun.
 
Kommentar
Der "Sensor" selbst sieht keine Farben, nur analoge(!) Helligkeitswerte pro Zelle. Dass da ein winziges Farbfilter davor ist spielt keine Rolle. Farben und Strukturen entstehen erst nach der A/D Wandlung.

Die Farbfilter haben keinen Einfluss auf die Farbwiedergabe? Das musst Du mal genauer erklären.


Gruß, Matthias
 
Kommentar
Die Farbfilter haben keinen Einfluss auf die Farbwiedergabe? Das musst Du mal genauer erklären.
Ja und?
Du kriegst einen (Zahlen)Wert heraus nach der A/D Wandlung pro Zelle und sonst nix. Das wird dann einer (Grund)farbe zugeordnet und in der "Matrix" verwurstet. Zwischen der spezifischen Durchlasskurve des Minifilters und dem zugeordneten Farbwert besteht erstmal kein zwingender Zusammenhang. Ich könnte genauso jedem "grünen Zahlenwert" falsch die Blau zuordnen. Die Bilder würden fürchterlich aussehen, das hat aber grundlegend mit dem "Sensor" nichts zu tun.
Aber das weißt du selbst ganz genau.
 
Kommentar
Zwischen der spezifischen Durchlasskurve des Minifilters und dem zugeordneten Farbwert besteht erstmal kein zwingender Zusammenhang.
Aber das weißt du selbst ganz genau.

Nöö, genau das wäre mir neu. Wenn der Filter eine andere Wellenlänge oder sogar einen breiteren Wellenlängenbereich durchlässt, als das als was hinterher das Signal interpretiert wird, hat das doch wohl einen Einfluss auf die Farbwiedergabe?

Gruß, Matthias
 
Kommentar
Nöö, genau das wäre mir neu. Wenn der Filter eine andere Wellenlänge oder sogar einen breiteren Wellenlängenbereich durchlässt, als das als was hinterher das Signal interpretiert wird, hat das doch wohl einen Einfluss auf die Farbwiedergabe?

Das ist eine andere Baustelle, die mit dem "Sensor" an sich, nichts zu tun hat.
Ich schreibs nochmal: Ich könnte bei der "Verrechnung" genauso jedem "grünen Zahlenwert" Blau zuordnen. Das Bild sieht furchtbar aus, der Sensor selbst kann nichts dafür.
 
Kommentar
Aber die Filter! Und deren Einfluss hälst Du ja für gering
Wo habe ich das geschrieben?
Ich habe geschrieben dass kein zwingender Zusammenhang zwischen dem was der Filter durchlässt und dem was man hinterher rechnerisch daraus macht, besteht. Das ist doch wohl klar.
Dass natürlich für eine bestmögliche Farbwiedergabe dieser Zusammenhang genauestmöglich hergestellt werden muss ist ja wohl ebenso klar. Das ist aber für mich nicht mehr "Sensor" im eigentlichen Sinn, das ist Signalverarbeitung meinetwegen.

Im Unterschied zum chemischen Film. Wenn dort einmal ein blaues Farbwölkchen entwickelt ist da bleibt das so und ohne rabiate Methoden ist es nicht Änderbar, also eine direkte Eigenschaft des "chemischen Sensors".
 
Kommentar
tschuldigung das ich mich einmische, aber was hat eure Farbfilterdebatte jetzt mit dem Problem des TE zu tun?
Das hat damit zu tun, dass ich versuche zu erklären, dass geringe Unterschiede in verschiedenen Modellen, auch mit möglicherweise gleichem Sensor, nicht unbedingt mit dem Sensor als physisch vorhandenem Teil zu tun haben, sondern eventuell mit der nachfolgenden Signalverarbeitung.
 
Kommentar
...geringe Unterschiede in verschiedenen Modellen, auch mit möglicherweise gleichem Sensor,...
Hier ging es aber initial um verschiedene Modelle aus unterschiedlichen Technikgenerationen mit grundverschiedenen Sensoren (sogar -techniken; CCD und CMOS), so dass diese Debatte vielleicht eher unter die Rubrik "Techniktheorie" passt. ;)

Warten wir doch einfach mal aussagekräftige Bildbeispiele ab.

CB
 
Kommentar
Ohne Exifs und Bilder ist das in der Tat nicht einfach zu beantworten.

Nur so ein Tip, tauscht mal die Optiken an euren beiden Kameras und schaut mal, ob es sich dann genauso verhält.

Ich hatte bis in das Frühjahr ein Objektiv in meiner Fototasche, bei dem ich die +/- Korrektur der Kamera bei Mehrfeldmessung eigentlich immer auf +0,7 stellen musste, damit die Bilder genauso hell waren, wie bei den anderen Optiken.

Mitunter liegt so etwas auch an der Kamera Objektiv Kombination (gerade bei älteren Optiken und neuen Kameras).
 
Kommentar
-Anzeige-
Zurück
Oben Unten