Weshalb nicht?… mit Infrarot beleuchtet und mit Nachtsichtgeräten gearbeitet, was keine Farbaufnahmen ermöglichte.
Falsch.Da Farben auf Grund der vorstehenden Feststellungen immer berechnet werden und demzufolge keinesfalls der Realität entsprechen (im besten Fall angenähert wiedergeben werden), ist die Bezeichnung von erdachten, erlogenen, erschwindelten, unwirklichen Farben zwar unhöflich, aber zumindest nicht vollkommen aus der Luft gegriffen. Richtig?
Ich finde es nicht hilfreich, wenn in der Diskussion bewusste Vereinfachungen, die gewählt wurden, um überhaupt mal auf der gleichen argumentativen Eben anzukommen, gleich wieder verkompliziert werden. Der Ansatz war hier, dass das einfallende Licht in Helligkeitsintensitäten der einzelnen Grundfarben zerlegt wird und die dann später beim Anzeigen wieder zusammengefügt werden. Ob das jetzt elektronisch, über die Farbfilter im Film oder die Gehirnleistung erfolgt ist doch vollkommen egal, weil es in meinem Punkt rein um das Zerlegen der Farbinformation ging. Hilft Dein Einwurf jetzt dabei, besser zu verstehen, wie Farbe abgebildet wird? Eher nicht.Da fangen die Probleme schon an, Du kannst das Auge nicht separat betrachten. Das Auge-Hirnsystem funktioniert nur im Verbund. Die Bildbearbeitung fängt schon auf der Netzhaut an und setzt sich dann durch verschiedene Bereiche fort, bis schlußendlich die optischen Informationen zu dem 3D-Gesamtmodell der Umgebung im Kopf hinzugefügt werden.
Für das Diskussionsthema hier ist es genau der einizig sinnvolle Ausschnitt des Ganzen. Wir sprechen hier darüber, wie Menschen Farben wahrnehmen, und das ist per se anthropozentrisch. Wie eine Biene die Welt wahrnimmt ist hier vollkommen egal, denn die fotografiert nicht (sondern wird fotografiert) und schaut sich ihre Bilder auch hinterher nicht an. Daher sehe ich jetzt nicht den Mehrwert einer Unterhaltung mit einem Krebs über Farben.Das (für Menschen) sichtbare Licht vom Rest der elektromagnetischen Strahlung separat zu betrachten, ist eine anthropozentrische Weltsicht und so eine behindert bekanntlich nur.
Ja klar. Und die Erde ist eine Scheibe.Auge, Film und Sensor arbeiten grundsätzlich gleich …
Etwas schlichter, eine Hilfestellung für Dich: Was passiert denn ohne Bayermosaikfilter (oder vergleichbare Technik)?Der Sinn der Frage ist unklar.
Ah, nachdem schon die Behauptung zurückgenommen wurde, das Chlorophyll die Hauptkomponente der Reflexion ist, spielen jetzt plötzlich die Wassertropfen doch eine Rolle? Es ist natürlich sehr nett, dass Du die auf der Oberfläche des Blattes ausschließt – davon habe ich ja auch zu keinem Zeitpunkt gesprochen, das war/ist Deine alleinige Erfindung. (Du darfst gern noch einmal unter #5 nachlesen.)Fakt ist auch: Wassertropfen (die sich auf der Oberfläche des Blattes befinden) spielen keine Rolle.
War (nach der Abtrennung) der Ursprung nicht eher, dass Farben in der Fotografie immer berechnet und nachträglich hinzugefügt werden und in keinem Fall der Realität entsprechen?!? Für die Verkomplizierung bist Du maßgeblich selbst verantwortlich.Ich finde es nicht hilfreich, wenn in der Diskussion bewusste Vereinfachungen, die gewählt wurden, um überhaupt mal auf der gleichen argumentativen Eben anzukommen, gleich wieder verkompliziert werden.
Wir sprechen hier darüber, wie Menschen Farben wahrnehmen …
Ja, das ist entsprechend dem Motto »Glaube keiner Statistik, die Du nicht selbst gefälscht hast.« zutreffend. Allerdings ist es keineswegs so, dass ich Berechnungen und Statistiken grundsätzlich nicht glaube – aber ich weiß nur zu gut, dass sich Ergebnisse (auch ohne böswillige Manipulation) allein durch Verändern der Berechnungsgrundlagen verändern.ein grundsätzliches Problem in deiner Denkwelt: Sobald eine Messung auf Berechnung beruht, hälst Du sie nicht mehr für real.
Dämlicher Kommentar. Echt.Ja klar. Und die Erde ist eine Scheibe.
Du verstehst einfach nicht, was das additive Farbmodell (RGB) ist, das ist Dein Problem. Der Sensor der Leica Monochrom ist so konstruiert, dass er ausschliesslich Helligkeitswerte erfasst, wie ein s/w-Film. Eine Kamera "berechnet" keine Farben - sie zerlegt im Sensor (analog zu den Schichten im Farbfilm) das eintreffende Licht in Rot-, Grün- und Blau-Helligkeitswerte durch Farbfilter vor dem jeweiligen "Sensel" und setzt diese Information bei der Wiedergabe hinterher wieder zusammen. Das nennt sich dann "additives Farbmodell": je 100% Rot, Grün und Blau gibt Weiß, je 0% gibt Schwarz. Genau das macht der komplett rechenleistungslose Farbfilm im Grundsatz auch.Etwas schlichter, eine Hilfestellung für Dich: Was passiert denn ohne Bayermosaikfilter (oder vergleichbare Technik)? Die Leica Monochrom hat einen solchen nicht … und kann lediglich S/W-Bilder ausgeben, weil ihr die Berechnungsmöglichkeiten für Farben fehlt. Richtig? Könnte es sein, das die Farben in der digitalen Fotografie immer berechnet werden müssen?
Wo hast Du sonst Wassertropfen?...spielen jetzt plötzlich die Wassertropfen doch eine Rolle? Es ist natürlich sehr nett, dass Du die auf der Oberfläche des Blattes ausschließt...
Was Nonsens ist, wie Dir jetzt schon eine Menge Leute unabhängig voneinander erklärt haben, die allesamt hinreichend physikalisch-technisches Verständnis haben. Ich bitte um Verständnis dafür, dass ich diesen Unsinn mit der "Berechnung" nicht weiter diskutieren werde. Ein Farbdiafilm zeigt Farben, aber "berechnet" schlicht nichts.War (nach der Abtrennung) der Ursprung nicht eher, dass Farben in der Fotografie immer berechnet und nachträglich hinzugefügt werden...
Falk hat von "Berechnung", nicht von Statistik gesprochen. Dein Kommentar ist also nicht wirklich sinnhaft.Ja, das ist entsprechend dem Motto »Glaube keiner Statistik, die Du nicht selbst gefälscht hast.« zutreffend.
Wenn Du die Roh-Information vom Sensor ausliest, wirst Du enttäuscht sein, wie gleich die Ergebnisse sind.Die Praxis beweist es eindrucksvoll – man braucht nur Farben der selben Objekte, die unter gleichen Beleuchtungsverhältnissen mit verschiedenen Kamerasystemen aufgenommen wurden, vergleichen. Da die Farben nicht real sind, sondern berechnet wurden, ist das Ergebnis bedingt durch unterschiedliche Berechnungssysteme von Ingenieuren unterschiedlicher Kamerahersteller, nicht identisch.
Der Kommentar fasst abschliessend nochmal zusammen, dass Du von Optik und Farbmodellen wirklich nicht viel verstanden hast und Dich in einem Denkmodell verfangen hast, das Dich immer wieder zu den gleichen falschen Schlüssen kommen lässt. Ändere Dein Denkmodell und Du wirst die Sachverhalte verstehen.Ob man das nun überspitzt erdacht, erlogenen und erschwindelt nennt, oder nettere Worte dafür findet, ändert letztendlich nichts an der Tatsache, das die Farben nicht »aufgenommen«, sondern im besten Fall der Realität nachempfunden wurden.
Ja, und die Erde ist eine Scheibe.Du verstehst einfach nicht, was das additive Farbmodell (RGB) ist …
Wohl war, deshalb habe ich solches auch dem Film nie unterstellt. Falls Du noch mal nachlesen möchtest – in #2 ist von »hinzufügen« die Rede. Vom Hinzufügen der Farbkuppler, frei nach gustus und gut behüteten Kochrezepten der Filmhersteller.Genau das macht der komplett rechenleistungslose Farbfilm im Grundsatz auch.
Tja, wo könnte eine lebende Pflanze wohl Wasser speichern? Naturwissenschaften sind Deine Stärken nicht so recht …Wo hast Du sonst Wassertropfen?
Wieder mache ich es für Dich etwas schlichter: Es handelt sich um eine Analogie, ein Stilmittel der Rhetorik.Falk hat von "Berechnung", nicht von Statistik gesprochen. Dein Kommentar ist also nicht wirklich sinnhaft.
Oh – endlich ein Punkt, bei dem ich Dir nicht widersprechen muss. Du weißt, weshalb das so ist?Wenn Du die Roh-Information vom Sensor ausliest, wirst Du enttäuscht sein, wie gleich die Ergebnisse sind.
Und dabei unterschlägst Du stets galant den wichtigen Teil: das Zerlegen des Lichts in seine Grundfarben, damit pro Grundfarbe Helligkeitswerte von den Silberhalogenidkristallen erfasst werden können. Die "sehen" keine Farben, sondern verändern sich in Abhängigkeit der Intensität des auf sie treffenden gefilterten (!) Lichts.Falls Du noch mal nachlesen möchtest – in #2 ist von »hinzufügen« die Rede. Vom Hinzufügen der Farbkuppler, frei nach gustus und gut behüteten Kochrezepten der Filmhersteller.
Eine Pflanze kann an vielen Stellen Wasser speichern, u.a. in den Blättern. Ich stoße mich an Deinem Begriff "Tropfen", denn in einer Leitungsbahn in einer Pflanze befinden sich keine Tropfen. Die entstehen beim Austritt des Wassers an die Luft und haben eine Luft/Wasser-Grenzfläche, welche aufgrund der Oberflächenspannung des Wassers überhaupt erst zu einer Tropfenformung führt. Ein Fluss besteht nicht aus "Tropfen", auch wenn der Laie das so sehen mag, wenn viele Tropfen Regen irgendwann einen Wasserlauf formen.Tja, wo könnte eine lebende Pflanze wohl Wasser speichern? Naturwissenschaften sind Deine Stärken nicht so recht …
Es hilft trotz Deiner rhetorischen Brillianz nur nicht viel, wenn Du einen Begriff benutzt, der etwas anderes bedeutet als Du erklären willst. Wenn es Dir gelingt, die Farbdarstellung in der Fotografie ohne das Wort "Berechnung" zu erklären, bist Du auf dem guten Weg von falschen in ein besser geeignetes Denkmodell.Wieder mache ich es für Dich etwas schlichter: Es handelt sich um eine Analogie, ein Stilmittel der Rhetorik.
Bekanntlich ist das nicht so, denn in der RAW-Datei sind pro Farbwert Rot, Grün und Blau Helligkeitswerte abgespeichert - eben die Helligkeitswerte, die der Sensor nach der spektralen Zerlegung des einfallenden Lichts in diese drei Grundfarben des additiven Modells pro "Sensel" erfasst und zur Speicherung weiterleitet. Deswegen ist die RAW-Datei ja auch kein Bild, weil die Farbinformation darin in "zerlegter" Form zu finden ist. Ein RAW-Konverter (egal ob in der Kamera für das JPG oder am Rechner) führt diese Infomationen wieder zusammen und lässt die durch das Objektiv eingefallene Farbinformation für das menschliche Auge wieder sichtbar werden. So wie beim Ausbelichten eines Farbfotos dabei über Farbfilterung Variationen in der Farbcharakteristik entstehen können (bewusst oder ungewollt), oder im Diafilm eine bestimmte herstellertypische Farbcharakteristik durch unterschiedliche Gewichtung der Grundfarben im Film entsteht, kann auch hier dem Ausgabebild eine bestimmte Farbcharakteristik verliehen werden. Das macht die Kamera/der PC logischerweise auf elektronischem Weg, um Dein "Berechnen" hier mal zu streifen. Berechnet wird aber nicht die Farbe an sich, sondern lediglich das Mischungsverhältnis. Am Farbvergrößerer drehe ich dazu einfach an den Cyan/Magenta/Yellow-Drehknöpfen (ist ja das subtraktive Farbmodell!) und die Abstimmung ("Berechnung") der Mischung findet in meinem Kopf statt anhand dessen, was ich im "Vorschaubild" sehe.RAW-Daten haben keine Farben oder Farbkanäle – deren Berechnung hat noch nicht stattgefunden, das geschieht bekanntlich erst im RAW-Konverter.
Das habe ich Dir sogar schon mehrfach erklärt: weil die vorliegenden, in Grundfarben zerlegten Farbinformationen unterschiedlich nuanciert zusammengesetzt werden. Wenn ich in der Kamera für das JPG von "Neutral" auf "Brilliant" umstelle, kommen auch ganz andere Farbabstimmungen heraus. Aber das ist doch jetzt nichts Mystisches. Nur "berechnet" die Kamera das lediglich aus Farbinformationen, die sie schon hat und fügt nichts hinzu!Hast Du Dir eigentlich schon mal Gedanken gemacht, weshalb die Farben ein und der selben RAW-Datei so unterschiedlich werden, wenn sie denn nur durch unterschiedliche Konverter geschickt wurde?
Ja, und die Erde ist eine Scheibe...
Diesen Umstand bezweifelt ja niemand ernsthaft, aber von der leider notwendigen Kalibrierung hast Du schonmal gehört ?...
Hast Du Dir eigentlich schon mal Gedanken gemacht, weshalb die Farben ein und der selben RAW-Datei so unterschiedlich werden, wenn sie denn nur durch unterschiedliche Konverter geschickt wurde? Weshalb die Farben des Nikon-Konverter so viel besser/schlechter – auf jeden Fall aber anders – als die vom Adobe-Konverter sind? Weil sie unterschiedlich berechnet wurden und nicht gottgegeben sind?
Das Thema ist spannend und einer der threads, die mich regelrecht süchtig machen mit zu lesen.Ich finde das Thema hochinteressant und ich halte konträre Ansichten für die Würze jeder Diskussion.
ich hatte bei dem ein oder anderen seitenhieb von dir schon mal den gedanken: wow, das ist trolling auf sehr hohem niveau ;-))
Ja, man kann sich der Fotografie aus vielen Richtungen nähern: der Kunst, der Wahrnehmungspsychologie, der Biologie/Medizin oder der Physik und auch der Philosophie und Ethik. Dazu kommt nochmal das gleiche für die Motive.M.E. kommt es in der Argumentation hier zu einer Vermischung von naturwissenschaftlichen und philosophischen Argumenten und verschiedene Diskussionsteilnehmer gehen von verschiedenen Voraussetzungen aus.
... und wenn ich ein Reh fotografieren will, sollte ich wissen, wie es die Umgebung wahrnimmt und sich dementsprechend verhält.
Ich korrigiere mich wie folgt: Bisher hast Du zu wenig von naturwissenschaftlichen Kenntnissen gezeigt.… dann abgeschlossenes Pharmaziestudium …
Ob man das Wasser als Tropfen, Bach oder Eimer benennt, ist vollkommen Wurscht. Wasser wappert nicht dimensionslos durch die Pflanze – es hat immer eine Abgrenzung zum Umfeld, deshalb eine Oberfläche, diese eine Oberflächenspannung und somit gibt es Grenzflächen, an denen Reflexionen stattfinden. Wasser gehört mit den anderen Bestandteilen der Pflanze zu den Strukturen der Pflanze. Das Wasser auf der Oberfläche der Pflanze vorhanden sein müsste, ist eine Deiner nicht zutreffende Interpretation.Ich stoße mich an Deinem Begriff "Tropfen"…
Das gehört zur Natur der Sache, dass man für eine Analogie andere Dinge heranzieht. Davon abgesehen, hat Statistik sehr viel mehr mit Berechnung – unter anderem mit Wahrscheinlichkeitsrechnung – zu tun, als mit stumpfer Zähltechnik. Magst Du erfahren, wie ich vor nunmehr schon 30 Jahren Biostatistiken berechnet habe? Das hatte allerdings nichts mit Fotografie, sondern mit der Höhe von Progesteron in Blut und Milch bei Kühen post partum zu tun.… einen Begriff benutzt, der etwas anderes bedeutet als Du erklären willst.
Nein, es war maximal der Versuch dazu, und auch die neuerliche Erklärung ist untauglich. (Nebenbei bemerkt – wenn jede Erklärung automatisch Wahrheitscharakter erlangen würde, hätte es die Justiz ziemlich schwer … )Das habe ich Dir sogar schon mehrfach erklärt:
Ja, klar. Es geht in diesem Fall nicht um richtige oder falsche, um gute oder schlechte Farben, sondern lediglich darum, dass die Konverter die Farben unterschiedlich berechnen und hinzufügen. Dieser Versuch ist bereits erfolgreich, wenn die Konverter unterschiedliche Ergebnisse ausgeben. Unter der Bedingungen, das alle zum Vergleich herangezogenen Konverter mit den gleichen System-Problemen zu kämpfen haben, ist die Kalibrierung nicht maßgeblich. Wie selbstverständlich bin ich von einem System, von einem Rechner ausgegangen.Diesen Umstand bezweifelt ja niemand ernsthaft, aber von der leider notwendigen Kalibrierung hast Du schonmal gehört ?
Ich unterschlage nichts, ebenso wenig wird das Licht in seine Grundfarben zerlegt. Es scheint nur so, als ob das passieren würde. Zwar sind die Sensoren für viele Spektren sensibel, können diese erfassen und darauf reagieren – unterscheiden können sie diese dennoch nicht. Die einzelnen Zellen eines Sensors sind alle gleich aufgebaut und haben demzufolge alle die gleichen Eigenschaften – sie reagieren auf die Intensität von Licht mit der Erzeugung (?) von elektrischen Ladungen, die ausgelesen, registriert und gespeichert wird. Ob die Intensität von rotem oder blauen Licht herrührt, können die einzelnen Zellen nicht unterscheiden. Eine Differenzierung findet logischerweise schon deshalb nicht statt, weil alle Zellen gleich aufgebaut sind, gleichen Eigenschaften haben und alle das gleiche machen… D.h., in jeder Zelle des Sensors werden Informationen über die Intensität/Helligkeit, nie aber Infos über Farben gespeichert.Und dabei unterschlägst Du stets galant den wichtigen Teil: das Zerlegen des Lichts in seine Grundfarben …
durchaus richtig. Falsch ist allerdings die Schlussfolgerung, dass es sich dabei um eine Speicherung der Farben per se handeln würde, denn schließlich muss ein System wie der Bayer-Mosaik-Filter immer erst bewusst hinzugefügt (bei der Leica M Monochrom fehlt der beispielsweise) und die unterschiedlichen Helligkeitswerte hinter den Filtern interpretiert werden, bevor man Farben durch Berechnungen definieren kann. Richtig ist wiederum:Die "sehen" keine Farben, sondern verändern sich in Abhängigkeit der Intensität des auf sie treffenden gefilterten (!) Lichts.
allerdings handelt es sich dabei eben ausschließlich um Helligkeitswerte, es gibt noch keinerlei Informationen zu Farben. Was könnte man mit Helligkeitswerten anfangen? Ja, natürlich, Graustufenbilder anfertigen. Oder – sofern man die Informationen eines definierten Fehlers/Filters hat – auch Farben auf Grund des Deltas hinter den drei RGB-Filtern berechnen und anschließend einer digitalen Datei hinzufügen. Für handelsübliche Kameras versucht der jeweilige Hersteller selbstverständlich, sich den realen Farben anzunähern, um einen maximalen Verkaufserfolg zu erreichen. Es handelt sich allerdings nicht mehr um die ursprünglichen Farben. Somit verdeutlichen Begriffe wie erfunden, erlogen … letztendlich nur, was da geschieht – es sind Interpretationen. Durch kreative Leistungen sind auch andere Fälle denkbar – hier sei nur der Begriff »Falschfarbenfotografie« genannt und auf Beispiele wie der Canon EOS 60Da sowie der Nikon D810A verwiesen.… in der RAW-Datei sind pro Farbwert Rot, Grün und Blau Helligkeitswerte abgespeichert …
Prima, und wenn wir mit dem hier durch sind, können wir uns ja dem schönen Fakt zuwenden, dass in der digitalen Fotografie analog, in der analogen Fotografie hingegen digital abgespeichert wird. Oder der Perspektive, in der alles naheliegende klein, das weiter entfernte hingegen größer erscheint. Obwohl … das sind Kamellen, die und deren Erklärung hier jeder kennt. Oder?!?Das Thema ist spannend und einer der threads, die mich regelrecht süchtig machen mit zu lesen.
Ich könnte ja jetzt fragen, was diese andauernen persönlichen...ach, lassen wir das...Ich korrigiere mich wie folgt: Bisher hast Du zu wenig von naturwissenschaftlichen Kenntnissen gezeigt.
Nein, ist es nicht. Nicht bei naturwissenschaftlichen Sachverhalten, für die es zum Glück eine sehr präzise Sprache zur Beschreibung dessen gibt, was man sieht (oder zu sehen glaubt).Ob man das Wasser als Tropfen, Bach oder Eimer benennt, ist vollkommen Wurscht.
Du hast bisher leider nur keinerlei plausible Erklärung dafür geliefert, warum gerade das Wasser in der Pflanze für starke IR-Reflexion sorgt. Deine Vermutung dazu hast Du nun hinreichend oft geäußert, jetzt ist es Zeit für den Beleg bzw. Beweis.Wasser wappert nicht dimensionslos durch die Pflanze – es hat immer eine Abgrenzung zum Umfeld, deshalb eine Oberfläche, diese eine Oberflächenspannung und somit gibt es Grenzflächen, an denen Reflexionen stattfinden.
Es liegt in der Natur der Sache von Analogien, dass einige sehr brauchbar zum Verstehen sind und andere schlicht nichts taugen. Wir reden hier nicht über Statistik, also ist eine etwaige Analogie hier sinnfrei.Das gehört zur Natur der Sache, dass man für eine Analogie andere Dinge heranzieht. Davon abgesehen, hat Statistik sehr viel mehr mit Berechnung – unter anderem mit Wahrscheinlichkeitsrechnung – zu tun, als mit stumpfer Zähltechnik.
Sie war in der Tat untauglich, bei Dir so etwas wie Verstehen zu erzielen, das stimmt. Allerdings sehe ich es hier so, dass in der Sender-Empfänger-Relation der Empfänger ein leichtes Empfangsproblem hat.Nein, es war maximal der Versuch dazu, und auch die neuerliche Erklärung ist untauglich.
Und wieder bewegst Du Dich nur in den Grenzen Deines untauglichen Denkmodells. Ich hatte Dir vorgeschlagen, die Aufnahme und Wiedergabe von Farben in der Fotografie ohne das Wort "Berechnen" zu erklären, d.h. anhand des Farbfilms. Das hast Du nicht versucht, daher kommst Du auch nicht weiter. Die Kamera berechnet keine Farben, sondern sie mischt die Information, die sie über die drei Grundfarben pro Sensel hat zu einer resultierenden Farbe. Dass das in einem Mikroprozessorsystem logischerweise über eine Software und damit über Rechenoperationen läuft, ist eine Binsenweisheit. Dieselbe Farbe existiert aber auch ganz ohne Berechnung im Diafilm und daher ist "Berechnen" keine notwendige Voraussetzung für die Wiedergabe von Farben im sichtbaren Spektrum (das ist jetzt naturwissenschaftliche LogikAlle Konverter greifen auf die selben Informationen ein und derselben RAW-Datei zurück – und geben doch unterschiedliche Ergebnisse aus. Weshalb? Weil die Farben unterschiedlich berechnet werden!
Magst Du dieses Postulat bitte erst mal mittels Beweisführung untermauern, bevor wir damit weiterarbeiten?Unter der Bedingungen, das alle zum Vergleich herangezogenen Konverter mit den gleichen System-Problemen zu kämpfen haben, ist die Kalibrierung nicht maßgeblich.
Genau. Nur müsste man jetzt wissen, dass es Sensel mit rotem, mit grünem und mit blauem Filterelement davor gibt. Die mit rotem lassen den Rotanteil durch, die mit grünem den Grünanteil und die mit blauem den Blauanteil. Durch jeden dieser winzigen Farbfilter sieht die Welt (in Helligkeitsintensitäten zerlegt) anders aus. Ja, genau: es werden Helligkeitsintensitäten erfasst und gespeichert, aber eben nach Grundfarbe getrennt! Es findet also eine Zerlegung der Farbinformation in Helligkeitsintensitäten der Grundfarben des RGB-Farbmodells statt!Ich unterschlage nichts, ebenso wenig wird das Licht in seine Grundfarben zerlegt. Es scheint nur so, als ob das passieren würde. Zwar sind die Sensoren für viele Spektren sensibel, können diese erfassen und darauf reagieren – unterscheiden können sie diese dennoch nicht. Die einzelnen Zellen eines Sensors sind alle gleich aufgebaut und haben demzufolge alle die gleichen Eigenschaften – sie reagieren auf die Intensität von Licht mit der Erzeugung (?) von elektrischen Ladungen, die ausgelesen, registriert und gespeichert wird.
DAS hat auch nie jemand hier behauptet. Aber die Ausleseelektronik "weiss", vor welcher Zelle der rote, grüne oder blaue Filter liegt und speichert diese Information mit der Intensität zusammen ab.Ob die Intensität von rotem oder blauen Licht herrührt, können die einzelnen Zellen nicht unterscheiden.
Und genau hier beginnt Dein kapitaler Denkfehler, den ich Dir im Absatz weiter oben bereits beschrieben habe. Wen Farbinformationen gelöscht sind, kann man sie nicht wiederherstellen. Mach in Photoshop Deinen beschriebenen Schritt, speicher das Bild als JPG ab und dann öffne es erneut. Kannst Du - ohne das Ausgangsbild zu kennen - aus den Helligkeiten die richtigen Farbwerte ableiten? Kannst Du natürlich nicht! Du kannst eine Handcolorierung veranstalten, aber ob die etwas mit dem Ursprungsbild zu tun hat weisst Du ebenso wenig wie der Postkartenmaler vor 100 Jahren!So wie mit der Bestätigung des Photoshop-Befehls »Bild => Modus => Graustufen« sämtliche Farbinformationen vernichtet werden, so werden im Sensor sämtliche Farbinformationen beseitigt, die vor dem Sensor noch vorhanden waren. Schluss, aus, Ende von sämtlichen Farbinfos.
Mit Verlaub: das ist der größte physikalische Blödsinn, den ich in diesem Forum je gelesen habe.Will man wieder Farben, baut man dazu definierte Fehler (Filter) ein. Da die Parameter der Fehler/Filter bekannt sind, man weiß, wie die Filter Spektren verändern, kann man im Umkehrschluss ableiten und berechnen, was vor den Fehlern vorhanden gewesen sein müsste. Wissen kann man es nicht, denn alle diesbezüglichen Informationen wurden vernichtet. ...
Komischerweise hat das keiner behauptet. Allein Du behauptest, dass das einer behauptet hätte.Falsch ist allerdings die Schlussfolgerung, dass es sich dabei um eine Speicherung der Farben per se handeln würde,...
Man fügt nicht hinzu, sondern mischt die vorhandenen Informationen. Dein Denkmodell führt Dich immer wieder vor dieselbe Wand. Es wird nichts "hinzugefügt", sondern Vorhandenes zusammengesetzt. Vorhanden ist die Information über den Helligkeitswert pro Farbkanal. Das genügt, um in einem definierten Modell (hier: RGB, genauer sRGB oder Adobe RGB, je nach Einstellung) wieder Farben sichtbar zu machen.allerdings handelt es sich dabei eben ausschließlich um Helligkeitswerte, es gibt noch keinerlei Informationen zu Farben. Was könnte man mit Helligkeitswerten anfangen? Ja, natürlich, Graustufenbilder anfertigen. Oder – sofern man die Informationen eines definierten Fehlers/Filters hat – auch Farben auf Grund des Deltas hinter den drei RGB-Filtern berechnen und anschließend einer digitalen Datei hinzufügen.
Auch das hat niemand behauptet. Aber die "indirekte" Speicherung wie im Film ist so funktional, dass die Kamera nicht aus einem Schwarzweissbild ein Farbbild zaubern muss. Akzeptier es einfach; jedes weitere Rumargumentieren in den Grenzen Deines Denkmodells wird Dich nicht weiter bringen.Mit den bisher bekannten und im praktischen Einsatz befindlichen Systemen, ist weder auf analogen noch auf digitalen Weg die direkte, d.h. unmittelbare Aufnahme/Speicherung von Farben möglich.
...
So wie mit der Bestätigung des Photoshop-Befehls »Bild => Modus => Graustufen« sämtliche Farbinformationen vernichtet werden, so werden im Sensor sämtliche Farbinformationen beseitigt, die vor dem Sensor noch vorhanden waren. Schluss, aus, Ende von sämtlichen Farbinfos...
...
allerdings handelt es sich dabei eben ausschließlich um Helligkeitswerte, es gibt noch keinerlei Informationen zu Farben...
We use cookies and similar technologies for the following purposes:
Do you accept cookies and these technologies?
We use cookies and similar technologies for the following purposes:
Do you accept cookies and these technologies?