da durch den Cropfaktor bei gleicher Blende eine größere Schärfentiefe erreicht wird
Würde sagen daß die größere Schärfentiefe eher durch die kürzeren Brennweiten und kleinere (absolut) Abbildungsmaßstäbe bedingt ist. Und tw. kompensiert wird durch die nachfolgend größeren linearen Vergrößerungen. Aber das ist jetzt schon nahe an Korinthenkackerei. :?
Und ich musste lernen, dass Bilder nachträglich "scharfgerechnet" werden müssen, wenn man eine optimale Bildwirkung erzielen will.
Glaube einmal, daß man sich in der Digitalfotografie verabschieden muß vom Begriff des "Originals" ( Negativ, Dia ). Sicher ist: Es gibt überhaupt kein, mit Digitalsensoren erzeugtes Bild das noch nicht scharfgerechnet wurde. Mehr noch: Es gibt überhaupt kein "nicht gerechnetes" Bild. Wie scharf oder unscharf das dann letztlich als Bilddatei für uns vorliegt ist alleine Sache der dahinter werkelnden Algorithmen. Also jetzt schärfer oder unschärfer als das in Bildebene projezierte Bild, selbstverständlich. Und dieses Ergebnis ist, von gewissen physikalischen Bedingungen ( Werkstoffkonstanten etc.) abgesehen, reine Auslegungssache. Insofern ist es (mir) völlig egal ob ich eine *.nef-Datei schon durch einstellen eines geeigneten Parameters nachschärfe ( eigentlich nur:schärfe) oder hinterher im Captureeditor. Es macht einfach keinen Unterschied.
Eine direkte Folge des Anti-Aliasing-Filters?
Naja. Nicht nur, täte ich mutmaßen. Da wir keine absoluten Werte über Schichtdicken bzw. Spaltabstände dieser optischen Filter haben könnte man da nur vermuten inwieweit sich das real auswirkt auf den Schärfeneindruck. Aber daß es Einfluß hat kann als sicher gelten. Fürchte aber man wird den Teufel tun :roll: und uns solche höchst wichtigen Parameter öffentlich bekannt zu geben.
(+) Den einen Fehler sollten wir aber nicht begehen, und den subjektiven Schärfeeindruck mit der durch diese Filter begrenzten Auflösung direkt zu korrelieren. Da gibt es sicher einen Zusammenhang, dieser ist aber keineswegs linear. ( Das kennen wir aber schon von Kodachrome 25 - Zeiten )
Man muß sich auch von der Vorstellung befreien, daß halt da ein reelles, verkleinertes, kopfstehendes Bild in Chipebene gebracht wird. Und dann ist eine einzelne Sensorfläche ein Pixel in der Enddatei. So läuft das mit Sicherheit nicht ab. ( auch nicht beim Foveon-Sensor)
Aber solange diese Geschichten irgendwie funktionieren kann es uns schnurzpiepwurscht sein was da wirklich abläuft. :mrgreen:
Worum is' es eigentlich gegangen? Aach ja, um die Ursache der "optimalen" Blende
(+): Man müsste dazu die genauen Parameter über die tatsächliche Steilheit des Abfalles der Kontrastwiedergabe und der der tatsächlichen Auflösung haben.