… dann abgeschlossenes Pharmaziestudium …
Ich korrigiere mich wie folgt: Bisher hast Du zu wenig von naturwissenschaftlichen Kenntnissen gezeigt.
Ich stoße mich an Deinem Begriff "Tropfen"…
Ob man das Wasser als Tropfen, Bach oder Eimer benennt, ist vollkommen Wurscht. Wasser wappert nicht dimensionslos durch die Pflanze – es hat immer eine Abgrenzung zum Umfeld, deshalb eine Oberfläche, diese eine Oberflächenspannung und somit gibt es Grenzflächen, an denen Reflexionen stattfinden. Wasser gehört mit den anderen Bestandteilen der Pflanze zu den Strukturen der Pflanze. Das Wasser auf der Oberfläche der Pflanze vorhanden sein müsste, ist eine Deiner nicht zutreffende Interpretation.
… einen Begriff benutzt, der etwas anderes bedeutet als Du erklären willst.
Das gehört zur Natur der Sache, dass man für eine Analogie andere Dinge heranzieht. Davon abgesehen, hat Statistik sehr viel mehr mit Berechnung – unter anderem mit Wahrscheinlichkeitsrechnung – zu tun, als mit stumpfer Zähltechnik. Magst Du erfahren, wie ich vor nunmehr schon 30 Jahren Biostatistiken
berechnet habe? Das hatte allerdings nichts mit Fotografie, sondern mit der Höhe von Progesteron in Blut und Milch bei Kühen post partum zu tun.
Das habe ich Dir sogar schon mehrfach erklärt:
Nein, es war maximal der Versuch dazu, und auch die neuerliche Erklärung ist untauglich. (Nebenbei bemerkt – wenn jede Erklärung automatisch Wahrheitscharakter erlangen würde, hätte es die Justiz ziemlich schwer … )
Es sollte für einen Naturwissenschaftler klar sein, dass man in einem Versuch zur Ursachenforschung immer nur einen Parameter verändern darf. Modifiziert man dagegen mehrere, kann man die anschließende Veränderungen nicht mehr einem Parameter eineindeutig zuordnen und somit den Verursacher nicht mehr zweifelsfrei benennen. Soll heißen: Die Einstellungen der Konverter stehen alle auf »Null«, keinerlei Veränderungen an der Software sind gestattet. Hintergrund ist, dass jeder Hersteller einer solchen Software von eben diesem Zustand ausgehen muss und selbstverständlich das Beste vom Besten zu liefern verspricht, um sich auf dem Markt behaupten zu können. Alle Konverter greifen auf die selben Informationen ein und derselben RAW-Datei zurück – und geben doch unterschiedliche Ergebnisse aus. Weshalb? Weil die Farben unterschiedlich berechnet werden!
Diesen Umstand bezweifelt ja niemand ernsthaft, aber von der leider notwendigen Kalibrierung hast Du schonmal gehört ?
Ja, klar. Es geht in diesem Fall nicht um richtige oder falsche, um gute oder schlechte Farben, sondern lediglich darum, dass die Konverter die Farben unterschiedlich berechnen und hinzufügen. Dieser Versuch ist bereits erfolgreich, wenn die Konverter unterschiedliche Ergebnisse ausgeben. Unter der Bedingungen, das alle zum Vergleich herangezogenen Konverter mit den gleichen System-Problemen zu kämpfen haben, ist die Kalibrierung nicht maßgeblich. Wie selbstverständlich bin ich von einem System, von einem Rechner ausgegangen.
Aber gut, legen wir fest:
eine Datei, ein
kalibriertes System,
keinerlei Verstellungen an den Konvertern – der einzige Unterschied an der Verarbeitung soll sein, dass
unterschiedliche Konverter benutzt werden. Ist das hinreichend definiert?
Und dabei unterschlägst Du stets galant den wichtigen Teil: das Zerlegen des Lichts in seine Grundfarben …
Ich unterschlage nichts,
ebenso wenig wird das Licht in seine Grundfarben zerlegt.
Es scheint nur so, als ob das passieren würde. Zwar sind die Sensoren für viele Spektren sensibel, können diese erfassen und darauf reagieren – unterscheiden können sie diese dennoch nicht. Die einzelnen Zellen eines Sensors sind alle gleich aufgebaut und haben demzufolge alle die gleichen Eigenschaften – sie reagieren auf die Intensität von Licht mit der Erzeugung (?) von elektrischen Ladungen, die ausgelesen, registriert und gespeichert wird. Ob die Intensität von rotem oder blauen Licht herrührt, können die einzelnen Zellen nicht unterscheiden. Eine Differenzierung findet logischerweise schon deshalb nicht statt, weil alle Zellen gleich aufgebaut sind, gleichen Eigenschaften haben und alle das gleiche machen… D.h., in jeder Zelle des Sensors werden Informationen über die Intensität/Helligkeit, nie aber Infos über Farben gespeichert.
So wie mit der Bestätigung des Photoshop-Befehls »Bild => Modus => Graustufen« sämtliche Farbinformationen vernichtet werden, so werden im Sensor sämtliche Farbinformationen beseitigt, die vor dem Sensor noch vorhanden waren. Schluss, aus, Ende von sämtlichen Farbinfos. Jetzt bleiben nur zwei Wege – entweder der Sensor wird an Leica für die Herstellung der Monochrom verkauft, oder Farben werden vollkommen neu berechnet und hinzugefügt.
Will man wieder Farben, baut man dazu
definierte Fehler (Filter) ein. Da die Parameter der Fehler/Filter bekannt sind, man weiß, wie die Filter Spektren verändern, kann man im Umkehrschluss ableiten und berechnen, was vor den Fehlern vorhanden gewesen sein müsste. Wissen kann man es nicht, denn alle diesbezüglichen Informationen wurden vernichtet. Aber man kann es aus dem Delta der Helligkeitsinformationen von drei eng nebeneinander liegenden Zellen des Sensors mit jeweils einem anderen definierten Filter davor berechnen.
Es sind Berechnungen, die auf Analogien (oh, schon wieder!)
beruhen. Diese definierten Fehler werden derzeit ziemlich häufig als Bayer-Mosaik-Filter bezeichnet, aber auch andere Namen sind geläufig und bezeichnen letztendlich das selbe Prinzip. Selbst das an sich vollkommen andere Prinzip der
Sigma/Foveon X3-Sensoren lässt sich auf diese Fehlerberechnung zurückführen. Insofern ist die Bemerkung
Die "sehen" keine Farben, sondern verändern sich in Abhängigkeit der Intensität des auf sie treffenden gefilterten (!) Lichts.
durchaus richtig.
Falsch ist allerdings die Schlussfolgerung, dass es sich dabei um eine Speicherung der Farben per se handeln würde, denn schließlich muss ein System wie der Bayer-Mosaik-Filter immer erst bewusst hinzugefügt (bei der Leica M Monochrom fehlt der beispielsweise) und die unterschiedlichen Helligkeitswerte hinter den Filtern interpretiert werden, bevor man Farben durch Berechnungen definieren kann. Richtig ist wiederum:
… in der RAW-Datei sind pro Farbwert Rot, Grün und Blau Helligkeitswerte abgespeichert …
allerdings handelt es sich dabei eben
ausschließlich um Helligkeitswerte, es gibt noch keinerlei Informationen zu Farben. Was könnte man mit Helligkeitswerten anfangen? Ja, natürlich, Graustufenbilder anfertigen. Oder – sofern man die Informationen eines definierten Fehlers/Filters hat – auch Farben auf Grund des Deltas hinter den drei RGB-Filtern
berechnen und anschließend einer digitalen Datei
hinzufügen. Für handelsübliche Kameras versucht der jeweilige Hersteller selbstverständlich, sich den realen Farben anzunähern, um einen maximalen Verkaufserfolg zu erreichen. Es handelt sich allerdings nicht mehr um die ursprünglichen Farben. Somit verdeutlichen Begriffe wie erfunden, erlogen … letztendlich nur, was da geschieht –
es sind Interpretationen. Durch kreative Leistungen sind auch andere Fälle denkbar – hier sei nur der Begriff »Falschfarbenfotografie« genannt und auf Beispiele wie der Canon EOS 60Da sowie der Nikon D810A verwiesen.
Mit den bisher bekannten und im praktischen Einsatz befindlichen Systemen, ist weder auf analogen noch auf digitalen Weg die direkte, d.h. unmittelbare Aufnahme/Speicherung von Farben möglich.
Das Thema ist spannend und einer der threads, die mich regelrecht süchtig machen mit zu lesen.
Prima, und wenn wir mit dem hier durch sind, können wir uns ja dem schönen Fakt zuwenden, dass in der digitalen Fotografie analog, in der analogen Fotografie hingegen digital abgespeichert wird. Oder der Perspektive, in der alles naheliegende klein, das weiter entfernte hingegen größer erscheint. Obwohl … das sind Kamellen, die und deren Erklärung hier jeder kennt. Oder?!?