Information Maximale Auflösung - Was kann man vom Bild sehen?

Thread Status
Hello, There was no answer in this thread for more than 30 days.
It can take a long time to get an up-to-date response or contact with relevant users.

Willi!

Sehr aktives NF Mitglied
Registriert
Viel wurde über die physikalisch maximale Auflösung bzw. sinnvolle Sensorgröße geschrieben. Wenig habe ich über das "Bild im Auge des Betrachters" gefunden.

Zugegeben, ich habe nicht extrem ausführlich recherchiert. Zugegeben, ich habe den Aufwand anfänglich unterschätzt. Aber nach einem verregneten Wochenende habe ich als ein Bisschen ein Ergebnis erhalten auf die Frage:

Wieviel Megapixel lassen sich auf einem Bild bei üblichem Betrachtungsabstand auflösen?

Meine Antwort: 6-10 Mpx sind das, was man als Normalsichtiger bei einem normalen Betrachtungsabstand (ca. 1,5-fache Bilddiagonale) sehen kann. Unter absoluten High-End-Bedingungen (sehr scharfsichtig, Betrachtungsabstand eine Bilddiagonale) können es aber schon auch etwa 60 Mpx sein.

Nähers (in schlechtem Englisch) unter: foehnwall.at/fotoresolution.html

www.foehnwall.at/fotoresolution.html

Danke für das Interesse!
 
Anzeigen
Hallo,

tja, hättest Du uns vorher mal gefragt, dann hättest Du nicht so lange suchen müssen. Das ist eine These, die z. B. auf 6mpixel.org schon seit 10 Jahren vertreten wird (obwohl der Artikel mit 2011 datiert ist). Und das ist auch der Grund für den Standard-Durchmesser des Unschärfescheibchens, der seit der fotografischen Steinzeit mit 1/1500 der Bilddiagonalen angegeben wird.

Soweit ich gesehen habe, wird auf dem verlinkten Artikel schon mal der Kardinalfehler begangen, dass Bildpixel mit Sensorpixel verwechselt werden und gerade bei den hochauflösenden Sensoren waren wir auch schon ein Stück weiter (Stichwort "Oversampling").

Ciao
HaPe
 
Kommentar
Bildpixel und Sensorpixel. Den Unterschied reime ich mir als Nicht-Physiker wie folgt zusammen:
Ein Sensorpixel erzeugt einen Bildpixel auf dem Papier. D.h. Die Anzahl der Sensorpixel und die Anzahl der Bildpixel sind gleich, nur unterschiedlich gross.

Gehen wir vom Sensor der D800e aus.
Der hat 7360 x 4912 = 36.152.320 Pixel.
Die Fläche des Sensors beträgt 24 x 36 mm = 864 qmm.
Dann würde die Fläche eines Sensor-Pixels 0,0000238 qmm betragen.

Angenommen, ich lasse auf ein Poster von 600 x 400mm = 240.000 qmm belichten.
Das Bildpixel wäre dann 0,0066385 qmm gross.

Ist diese Überlegung so richtig?
 
Kommentar
Hallo,

Ist diese Überlegung so richtig?
die Überlegung ging eher in die Richtung, dass vor dem Sensor ein sog. Bayer-Filter gepackt ist, das dafür sorgt, dass den (farbenblinden) Sensorpixel, Farbinformation zugeordnet werden können. Aus einer Matrix von 3*3 jeweils monochromen Sensorpixel wird der Wert eines RGB-Bildpixel berechnet. Da sich die Matrizen überlappen und da sich erfahrungsgemäß die Luminanzwerte nicht von einem Pixel auf das nächste abrupt ändern, liegen die Auflösungsverluste nicht wie erwartet bei 8/9 der Sensorpixelzahl, sondern - je nach verwendetem Interpolations-Algorithmus - bei ca. 30%. Eigentlich erstaunlich wenig, aber nennenswert für die Berechnung.

Ciao
HaPe
 
Kommentar
Kommentar
die Überlegung ging eher in die Richtung, dass vor dem Sensor ein sog. Bayer-Filter gepackt ist, das dafür sorgt, dass den (farbenblinden) Sensorpixel, Farbinformation zugeordnet werden können. Aus einer Matrix von 3*3 jeweils monochromen Sensorpixel wird der Wert eines RGB-Bildpixel berechnet. Da sich die Matrizen überlappen und da sich erfahrungsgemäß die Luminanzwerte nicht von einem Pixel auf das nächste abrupt ändern, liegen die Auflösungsverluste nicht wie erwartet bei 8/9 der Sensorpixelzahl, sondern - je nach verwendetem Interpolations-Algorithmus - bei ca. 30%. Eigentlich erstaunlich wenig, aber nennenswert für die Berechnung.

Soll das heißen, dass eine D800 eigentlich ca. 100 Megapixel hat?
Eher nicht, oder?

Man wird doch eher für JEDES Pixel seine Nachbarn in die Berechnung einbeziehen. Die Anzahl resultierender Pixel bleibt gleich.

Edit: nochmal gelesen:
Du meinst den *Auflösungsverlust*, nicht die Zahl der Pixel.

:fahne:
 
Kommentar
Hallo,

Soll das heißen, dass eine D800 eigentlich ca. 100 Megapixel hat?
eine D800 hat 36 Mio Sensorpixel, von denen jedes aufgrund des Bayer-Filter eine monochromatische Information liefert. Bei der RAW-Konvertierung werden im Demosaicing-Schritt daraus 36 Mio Bildpixel mit jeweils einem R-, G- und B-Anteil. Da bei der Generierung der Bildpixels jeder einzelne Sensorwert mehrfach (mindestens neunmal) verwendet wird, ergibt sich eine Verringerung der Ortsauflösung. Die Ortsauflösung des RGB-Bildes aus dem 36 MPixel Bayer-Sensor entspricht also (ganz grob gesprochen und andere Aspekte mal außen vor) etwa der eines monochromen 25 MPixel Sensors.

Ciao
HaPe
 
Kommentar
Und um die Verwirrung komplett zu machen:

Die Sensorpixel der Kamera sind durch das Bayerfilter in einem bestimmten Muster (zu jedem blauen und roten gehören zwei grüne) angeordnet und erzeugen dann durch die Algorithmen für jedes Pixel einen rot-, blau- und grün-Wert (bzw. einen Luminanzwert für jede der drei Grundfarben), mit denen die farbigen Subpixel eines Bildschirms gefüttert werden. Denn Bildschirme haben ein Muster aus drei länglichen Subpixeln, die zusammen ein farbiges Bildschirmpixel ergeben.
 
Kommentar
...
Soweit ich gesehen habe, wird auf dem verlinkten Artikel schon mal der Kardinalfehler begangen, dass Bildpixel mit Sensorpixel verwechselt werden und gerade bei den hochauflösenden Sensoren waren wir auch schon ein Stück weiter (Stichwort "Oversampling").

Ciao
HaPe

Danke für den Hinweis. Werde Sensorpixel durch 'effective sensor-pixel' oder 'image-pixel' ersetzen, dann passt es wieder.

Interessanter aber erscheint mir, dass die 6-10Mpx nur bei "gewöhnlichen" Ansprüchen ausreichend sind.

Setzt man einen hohen Visus von 2 ( entspr. Winkelauflösung 0,5') voraus und einen nahen Betrachtungsabstand von 1 Bilddiagonale, und beschränkt sich vielleicht nicht nur auf lineare Auflösungen, dann ist man rasch bei 60Mpx und mehr. Damit wäre ja noch einiges an sinnvoller Verbesserung der Sensorauflösungen möglich.

Aber ich sehe schon, das führt zu einer umfangreichen Diskussion, möchte mich damit gar nicht mehr länger beschäftigen.

Hatte vor langer Zeit im meteorologischen Remote Sensing zu tun, da wurde grundsätzlich jeder Grauwert eines Pixels als 1 Messwert herangezogen (der halt entsprechend seiner räumlich-zeitlichen Repräsentanz vorsichtig interpretiert werden musste), allerdings waren es auch immer meist mehr als 3 Kanäle, die man zur Verfügung hatte. Heute bin ich nur mehr Konsument dieser Verfahren ...
 
Kommentar
Setzt man einen hohen Visus von 2 ( entspr. Winkelauflösung 0,5') voraus und einen nahen Betrachtungsabstand von 1 Bilddiagonale, und beschränkt sich vielleicht nicht nur auf lineare Auflösungen, dann ist man rasch bei 60Mpx und mehr. Damit wäre ja noch einiges an sinnvoller Verbesserung der Sensorauflösungen möglich.

Derartige Berechnungen auf Grundlage der als Visus angegebenen Winkelsehschärfe führen meiner Meinung nach in die Irre, da das "Minimum separabile" vom Kontrast des jeweils Gesehenen abhängt:

"Wenn man die Sehschärfe (Visus) einer Person mit den gleichen Optotypen, aber verschiedenen Kontraststufen prüft, so sieht man, dass die Visuswerte, die bei niedrigem Kontrast bestimmt wurden, geringer sind als jene, die bei hohem Kontrast ermittelt worden sind".

Quelle: http://augenarztsalzburg.com/untersuchungen/tests/kontrastuntersuchung/index.html

Dieser Zusammenhang zwischen dem Kontrast und der Sehschärfe wird nun in den Humanwissenschaften gemeinhein in der Kontrastempfindlichkeitsfunktion (CSF: Contrast Sensitivity Function) der visuellen Wahrnehmung beschrieben. Der Zusammenhang zwischen "Minimum separabile" und Kontrastempfindlichkeitsfunktion ist dabei folgender:

Das "Minimum separabile" ist in der Kontrastempfindlichkeitsfunktion als diejenige Ortsfrequenz pro 1° Sehwinkel angegeben, bei welcher die Kontrastempfindlichkeit gerade so eben noch nicht = 0 ist. Die Kontrastempfindlichkeit eines zum Beispiel jugendlichen augengesunden Betrachters mit Visus 2 (Winkelsehschärfe = 0,5 Bogenminuten) ist also ab Ortsfrequenzen größer als 60 Perioden pro 1° Sehwinkel = 0. Dies bedeutet, dass ein Betrachter mit zum Beispiel Visus 2 Ortsfrequenzen größer als 60 Perioden pro 1° Sehwinkel selbst bei einem (maximalen) Michelson-Kontrast von 1 nur noch als eine einheitliche Helligkeit wahrnimmt, und nicht mehr als periodische Helligkeitsunterschiede. Die Kontrastempfindlichkeit bei einer bestimmten Ortsfrequenz ist also definiert als der Kehrwert der Wahrnehmungsschwelle für Kontrast (1/Kontrast-Schwellenwert) bei der jeweiligen Ortsfrequenz. Siehe hierzu zum Beipiel folgende Grafik: http://www.cns.nyu.edu/~david/courses/perception/lecturenotes/channels/csf.gif

Selbst ein scharfsichtiger Betrachter mit Visus 2 kann eine Ortsfrequenz von 60 Perioden pro 1° Sehwinkel also nur dann gerade noch so eben als periodische Helligkeitsunterschiede wahrnehmen, wenn der Michelson-Kontrast bei dieser Ortsfrequenz = 1 ist, also beim Maximum (für Michelson-Kontrast).

Näheres zum Zusammenhang zwischen Sehschärfe und Kontrastempfindlichkeit bei Interesse zum Beispiel bei dem nachstehenden Link unter "Contrast Sensitivity" und "Contrast Sensitivity Function (CSF)": http://webvision.med.utah.edu/book/part-viii-gabac-receptors/visual-acuity/

Ohne also den in Bezug auf bestimmte Details einer Fotografie vorliegenden Bild-Kontrast zu kennen, lässt sich also meiner Meinung nach ganz grundsätzlich nicht berechnen, welche dieser Details unter welchen Bedingungen wahrnehmbar sind, und welche nicht.

Der für den beim Betrachten einer Fotografie wahrgenommen Detailreichtum entscheidende Bild-Kontrast resultiert nun aus dem Motiv-Kontrast und der Modulationsübertragungsfunktion des jeweiligen bildgebenden Gesamtsystems (vom Objektiv bis hin zum Druckerpapier oder Display), das den jeweiligen Motiv-Kontrast bis hin zum jeweiligen Bild-Kontrast "überträgt".

Daher ging man in der Fotografie ja auch bereits etwa in der Mitte des vorigen Jahrhunderts dazu über, den Parameter "Auflösung" - zum Beispiel von Objektiven und Filmmaterialien - nicht mehr isoliert zu betrachten, sondern die Parameter "Auflösung" und "Kontrast" in Beziehung zueinander zu setzen, und diese Beziehung in einer "Modulationsübertragungsfunktion" zu beschreiben.

Im Unterschied zur "Maximale(n) Auflösung" ist meines Erachtens also die MTF eine der Funktionsweise unseres visuellen Systems angemessene Charakterisierung des Beitrags, den die in der Fotografie benutzte Hard- und Software (Sensoren, Scanner, EBV-Algorithmen, Drucker, Displays etc. etc.) zum Detailreichtum leistet, den man beim Betrachten einer Fotografie wahrnimmt:

"Why bother?

• MTF characterizes system response across all feature scales not just the finest"

Quelle (Tafel 11): ftp://saturn.cis.rit.edu/mcsl/jaf/tenure/courses/1051-452_ISA_II/lectures/0109_introduction.pdf

Allgemeine Informationen zu der Frage: "Was kann man vom Bild sehen"? findet man bei Interesse zum Beispiel hier: http://www.ai.fh-erfurt.de/fileadmi...V/2005-05-26-GDV-Vorlesung-11-Wahrnehmung.pdf
 
Kommentar
-Anzeige-
Zurück
Oben Unten