Hallo Forum,
ich hatte mal wieder so nen Gedanken, ihr wißt schon, so einen der immer wiederkehrt wenn er mal da war und nicht zu Ende gedacht wurde bzw. keine Erklärung vorliegt.
Mittlerweile ist ja quasi allgemein bekannt daß gleiche Optiken an unterschiedlich auflösenden Sensoren, auch unter Berücksichtigung der Einstellungen (Blende, etc.) auch eine unterschiedliche Qualität abliefern.
Dennoch habe ich schon mehrfach gelesen, daß die Ausgabe eines Fotos in einer Breite von z.B. 1000px gleich sei, egal ob mit einer D70 oder D80 aufgenommen, unter der Voraussetzung daß die Optik der limitierende Faktor ist.
Für diesen Fall benutze ich eine fiktive Optik, die eine Auflösung von ca. 1700 Linienpaaren erreichen kann. Alle Erdenklichen Maßnahmen zur Stabilisierung werden erfolgreich eingesetzt.
Damit liegt sie ungefähr bei dem Auflösungsvermögen einer D70.
Die selbe Optik wird dann an einer D80 eingesetzt und ermöglicht damit meinem Verständnis nach ein Foto mit der gleichen max. Auflösung, da die ca. 2200lp der D80 ja nicht ausgereizt werden können.
Diese Foto durchwandert dann den "klassischen" RAW Workflow, an dessen Ende in den meisten Fällen ja auch das Nachschärfen steht.
Ausgabegröße am Display ist wie bereits angenommen 1000px
Eine Aussage die ich oft gelesen habe ist: das Ergebnis ist gleich so lange das Bild in der gleichen Ausgabegröße betrachtet wird - in der Regel ja kleiner als A3, meist sogar kleiner als A4.
So weit, so gut.
Dann der Gedanke:
Algorithmen zum Nachschärfen arbeiten, soweit mein Wissen, auf Pixelebene.
Nun ist mein D80 Foto allerdings auf Pixelebene im Verhältnis zu dem der D70 deutlich unschärfer bzw. detailärmer.
Im Ergebnis gelingt das sinnvolle Nachschärfen ja nur, wenn bereits eine gewisse Grundschärfe vorhanden ist. Demnach dürfte das Ergebnis schon um einiges unterschiedlich ausfallen. Auch das Herunterrechnen der Bilddaten des D80 Fotos auf die Auflösung des D70 Fotos als Zwischenschritt dürfte das Ergebnis nicht wirklich wesentlich verändern, da ja auch für diesen Algorithmus als Grundlage die ursprünglichen Pixeldaten dienen.
Nun mag man sich denken: Was solls, bei 1000px Breite ist bereits das Auge das schwächste Glied und kann keine Unterschiede differenzieren - ist sehr gut möglich. Dennoch geht es mir auch eher um das Verständnis der Sachlage.
Aus diesem Grund freue ich mich über jede Aussage die mir beantworten kann: Ist das so, oder eher nicht?
btw: erste Vergleiche meinerseits zwischen RAW Files der D70 und der D2X waren mir nicht 100%ig aussagekräftig genug, ließen jedoch eine Tendenz erkennen...
ich hatte mal wieder so nen Gedanken, ihr wißt schon, so einen der immer wiederkehrt wenn er mal da war und nicht zu Ende gedacht wurde bzw. keine Erklärung vorliegt.
Mittlerweile ist ja quasi allgemein bekannt daß gleiche Optiken an unterschiedlich auflösenden Sensoren, auch unter Berücksichtigung der Einstellungen (Blende, etc.) auch eine unterschiedliche Qualität abliefern.
Dennoch habe ich schon mehrfach gelesen, daß die Ausgabe eines Fotos in einer Breite von z.B. 1000px gleich sei, egal ob mit einer D70 oder D80 aufgenommen, unter der Voraussetzung daß die Optik der limitierende Faktor ist.
Für diesen Fall benutze ich eine fiktive Optik, die eine Auflösung von ca. 1700 Linienpaaren erreichen kann. Alle Erdenklichen Maßnahmen zur Stabilisierung werden erfolgreich eingesetzt.
Damit liegt sie ungefähr bei dem Auflösungsvermögen einer D70.
Die selbe Optik wird dann an einer D80 eingesetzt und ermöglicht damit meinem Verständnis nach ein Foto mit der gleichen max. Auflösung, da die ca. 2200lp der D80 ja nicht ausgereizt werden können.
Diese Foto durchwandert dann den "klassischen" RAW Workflow, an dessen Ende in den meisten Fällen ja auch das Nachschärfen steht.
Ausgabegröße am Display ist wie bereits angenommen 1000px
Eine Aussage die ich oft gelesen habe ist: das Ergebnis ist gleich so lange das Bild in der gleichen Ausgabegröße betrachtet wird - in der Regel ja kleiner als A3, meist sogar kleiner als A4.
So weit, so gut.
Dann der Gedanke:
Algorithmen zum Nachschärfen arbeiten, soweit mein Wissen, auf Pixelebene.
Nun ist mein D80 Foto allerdings auf Pixelebene im Verhältnis zu dem der D70 deutlich unschärfer bzw. detailärmer.
Im Ergebnis gelingt das sinnvolle Nachschärfen ja nur, wenn bereits eine gewisse Grundschärfe vorhanden ist. Demnach dürfte das Ergebnis schon um einiges unterschiedlich ausfallen. Auch das Herunterrechnen der Bilddaten des D80 Fotos auf die Auflösung des D70 Fotos als Zwischenschritt dürfte das Ergebnis nicht wirklich wesentlich verändern, da ja auch für diesen Algorithmus als Grundlage die ursprünglichen Pixeldaten dienen.
Nun mag man sich denken: Was solls, bei 1000px Breite ist bereits das Auge das schwächste Glied und kann keine Unterschiede differenzieren - ist sehr gut möglich. Dennoch geht es mir auch eher um das Verständnis der Sachlage.
Aus diesem Grund freue ich mich über jede Aussage die mir beantworten kann: Ist das so, oder eher nicht?
btw: erste Vergleiche meinerseits zwischen RAW Files der D70 und der D2X waren mir nicht 100%ig aussagekräftig genug, ließen jedoch eine Tendenz erkennen...