wenn ich meine .NEF mit UFRAW in JPEG konvertiere, bekomme ich 3904*2616 Pixel. Das sind mehr als mit Aufnahme in JPEG Modus (3872*2592) oder bei Benutzung von PictureProject.
Die zusätzlichen Pixel sind nicht interpoliert, sondern enthalten tatsächlich echte Bildinformationen.
Kennt jemand für dieses Verhalten der Kamera eine sinnvolle Erklärung?
wenn ich meine .NEF mit UFRAW in JPEG konvertiere, bekomme ich 3904*2616 Pixel. Das sind mehr als mit Aufnahme in JPEG Modus (3872*2592) oder bei Benutzung von PictureProject.
Die zusätzlichen Pixel sind nicht interpoliert, sondern enthalten tatsächlich echte Bildinformationen.
Kennt jemand für dieses Verhalten der Kamera eine sinnvolle Erklärung?
Laut JCIA (Japan Camera Industry Association) sind das peripheral Pixel. Pixel, die ausserhalb des eigentlichen Bildes liegen, jedoch für den demosaic Prozess verwendet werden.
Zum einen wollen manchmal die Kamerahersteller ein bestimmtes Seitenverhältnis.
Zum anderen hängt es mit dem Demosaicing zusammen. Eric von Bibblelabs hats mal so erklärt:
"Part of the demosaicing process if to create the missing colors at each pixel. In order to do this well, information on a neighborhood of surrounding pixels is required, if sufficeint surrounding pixels aren't preset, accurate colros can not ve calculeted. This is what create teh requiretment to produce a slightly smaller file."
In einem anderen Thread zum gleichen Thema erklärt er auch, dass der benötigte Rahmen unbenutzter Pixel sich auch in Abhängigkeit vom ISO Wert ändern kann (da gings um eine Panasonic Fz50).
Da unterschiedliche Raw-Konverter unterschiedliche Algorithmen verwenden, ist auch die Zahl der tatsächlich ausgebenen Pixel unterschiedlich.
Na klar, die Reservepixel werden dann einfach am Rand entfernt und an der richtigen Stelle wieder montiert. Man braucht aber Spezialwerkzeug und ein Elektronenmikroskop dafür.
Na klar, die Reservepixel werden dann einfach am Rand entfernt und an der richtigen Stelle wieder montiert. Man braucht aber Spezialwerkzeug und ein Elektronenmikroskop dafür.
Die von Nikon verwendeten Sensoren haben nur einfärbige Pixel, rot, grün und blau, wobei die grünen überwiegen. Erst beim konvertieren wird die Mischfarbe errechnet, wobei die benachbarten Pixel bei der Berechnung einbezogen werden. Randpixel würden keine richtige Farbe ergeben, wenn nicht über den Rand hinaus noch für die Berechnung notwendige Pixel angeordnet wären. Ich glaube, das könnte die Lösung sein.
Das erklärt, warum diese Randpixel existieren, nicht jedoch, warum UFRAW nach der Konvertierung mehr Pixel herausholt als andere.
UFRAW müßte diese Randpixel ja auch benötigen - sie dürften also im fertigen Bild nicht zu sehen sein. Und doch sind sie da.
Die Antwort gab es doch schon weiter oben. Die Randpixel werden für die Interpolationsberechnungen der Farbinformation benötigt. Je nach Konverter und Rechenverfahren können mehr oder weniger Pixel im .jpg Bild übrig bleiben.
Ich habe ein .NEF mit Nikon Capture NX, Photoshop und UFRaw in TIFF konvertiert. Nikon und PS bringen exakt die in der Spezifikation angegebenen Pixel, UFRaw etwas mehr. Das ist jedoch in der Praxis gar nicht so wichtig, interessant ist jedoch, dass Adobe den besseren Algorithmus zu haben scheint, weil die Detailauflösung besser war, als beim Nikon- Konverter, UFRaw war mit Abstand schlechter. Das ist jedoch meine subjektive Feststellung.