Farbfotografie - nur eine Illusion?

Thread Status
Hello, There was no answer in this thread for more than 30 days.
It can take a long time to get an up-to-date response or contact with relevant users.

Mulex

Sehr aktives NF Mitglied
Registriert
Dieser Thread ist durch Abtrennung entstanden. Mulex ist nicht der Themenstarter.

… mit Infrarot beleuchtet und mit Nachtsichtgeräten gearbeitet, was keine Farbaufnahmen ermöglichte.
Weshalb nicht?
Und im Umkehrschluß – gab es jemals schon eine Kamera, die Farbe aufnehmen konnte, also eine, bei der die Farbinformationen nicht erst nach der Aufnahme hinzugefügt wurde?!?
 
Zuletzt bearbeitet von einem Moderator:
Anzeigen
Da Farben auf Grund der vorstehenden Feststellungen immer berechnet werden und demzufolge keinesfalls der Realität entsprechen (im besten Fall angenähert wiedergeben werden), ist die Bezeichnung von erdachten, erlogenen, erschwindelten, unwirklichen Farben zwar unhöflich, aber zumindest nicht vollkommen aus der Luft gegriffen. Richtig?
Falsch.

Die vorstehenden Feststellungen waren auch nur zum Teil korrekt und eher tendenziös, um den Punkt oben zu landen. Sogar wenn man in einer Ableitungsfolge zehn mal zu 90% korrekt liegt, liegt man im Ergebnis zu 65% falsch. Es mangelt dir an Präzision in den Gedankengängen.

Hinzu kommt denke ich, ein grundsätzliches Problem in deiner Denkwelt: Sobald eine Messung auf Berechnung beruht, hälst Du sie nicht mehr für real. Das ist aber besagter Unfug, für eine Geschwindigkeitsmessung kann man z.B. direkt auch nur Weg und Zeit messen, die Geschwindigkeit muss berechnet werden und ist dennoch real und keineswegs erdacht, erlogenen, erschwindelt, oder unwirklich.
 
Kommentar
Da fangen die Probleme schon an, Du kannst das Auge nicht separat betrachten. Das Auge-Hirnsystem funktioniert nur im Verbund. Die Bildbearbeitung fängt schon auf der Netzhaut an und setzt sich dann durch verschiedene Bereiche fort, bis schlußendlich die optischen Informationen zu dem 3D-Gesamtmodell der Umgebung im Kopf hinzugefügt werden.
Ich finde es nicht hilfreich, wenn in der Diskussion bewusste Vereinfachungen, die gewählt wurden, um überhaupt mal auf der gleichen argumentativen Eben anzukommen, gleich wieder verkompliziert werden. Der Ansatz war hier, dass das einfallende Licht in Helligkeitsintensitäten der einzelnen Grundfarben zerlegt wird und die dann später beim Anzeigen wieder zusammengefügt werden. Ob das jetzt elektronisch, über die Farbfilter im Film oder die Gehirnleistung erfolgt ist doch vollkommen egal, weil es in meinem Punkt rein um das Zerlegen der Farbinformation ging. Hilft Dein Einwurf jetzt dabei, besser zu verstehen, wie Farbe abgebildet wird? Eher nicht.

Das (für Menschen) sichtbare Licht vom Rest der elektromagnetischen Strahlung separat zu betrachten, ist eine anthropozentrische Weltsicht und so eine behindert bekanntlich nur.
Für das Diskussionsthema hier ist es genau der einizig sinnvolle Ausschnitt des Ganzen. Wir sprechen hier darüber, wie Menschen Farben wahrnehmen, und das ist per se anthropozentrisch. Wie eine Biene die Welt wahrnimmt ist hier vollkommen egal, denn die fotografiert nicht (sondern wird fotografiert) und schaut sich ihre Bilder auch hinterher nicht an. Daher sehe ich jetzt nicht den Mehrwert einer Unterhaltung mit einem Krebs über Farben.

CB
 
Kommentar
Auge, Film und Sensor arbeiten grundsätzlich gleich …
Ja klar. Und die Erde ist eine Scheibe.

Der Sinn der Frage ist unklar.
Etwas schlichter, eine Hilfestellung für Dich: Was passiert denn ohne Bayermosaikfilter (oder vergleichbare Technik)?
Die Leica Monochrom hat einen solchen nicht … und kann lediglich S/W-Bilder ausgeben, weil ihr die Berechnungsmöglichkeiten für Farben fehlt. Richtig? Könnte es sein, das die Farben in der digitalen Fotografie immer berechnet werden müssen?

Fakt ist auch: Wassertropfen (die sich auf der Oberfläche des Blattes befinden) spielen keine Rolle.
Ah, nachdem schon die Behauptung zurückgenommen wurde, das Chlorophyll die Hauptkomponente der Reflexion ist, spielen jetzt plötzlich die Wassertropfen doch eine Rolle? Es ist natürlich sehr nett, dass Du die auf der Oberfläche des Blattes ausschließt – davon habe ich ja auch zu keinem Zeitpunkt gesprochen, das war/ist Deine alleinige Erfindung. (Du darfst gern noch einmal unter #5 nachlesen.)

Ich finde es nicht hilfreich, wenn in der Diskussion bewusste Vereinfachungen, die gewählt wurden, um überhaupt mal auf der gleichen argumentativen Eben anzukommen, gleich wieder verkompliziert werden.
Wir sprechen hier darüber, wie Menschen Farben wahrnehmen …
War (nach der Abtrennung) der Ursprung nicht eher, dass Farben in der Fotografie immer berechnet und nachträglich hinzugefügt werden und in keinem Fall der Realität entsprechen?!? Für die Verkomplizierung bist Du maßgeblich selbst verantwortlich.

ein grundsätzliches Problem in deiner Denkwelt: Sobald eine Messung auf Berechnung beruht, hälst Du sie nicht mehr für real.
Ja, das ist entsprechend dem Motto »Glaube keiner Statistik, die Du nicht selbst gefälscht hast.« zutreffend. Allerdings ist es keineswegs so, dass ich Berechnungen und Statistiken grundsätzlich nicht glaube – aber ich weiß nur zu gut, dass sich Ergebnisse (auch ohne böswillige Manipulation) allein durch Verändern der Berechnungsgrundlagen verändern.

Die Praxis beweist es eindrucksvoll – man braucht nur Farben der selben Objekte, die unter gleichen Beleuchtungsverhältnissen mit verschiedenen Kamerasystemen aufgenommen wurden, vergleichen. Da die Farben nicht real sind, sondern berechnet wurden, ist das Ergebnis bedingt durch unterschiedliche Berechnungssysteme von Ingenieuren unterschiedlicher Kamerahersteller, nicht identisch. Ob man das nun überspitzt erdacht, erlogenen und erschwindelt nennt, oder nettere Worte dafür findet, ändert letztendlich nichts an der Tatsache, das die Farben nicht »aufgenommen«, sondern im besten Fall der Realität nachempfunden wurden.
 
Kommentar
Ja klar. Und die Erde ist eine Scheibe.
Dämlicher Kommentar. Echt.


Etwas schlichter, eine Hilfestellung für Dich: Was passiert denn ohne Bayermosaikfilter (oder vergleichbare Technik)? Die Leica Monochrom hat einen solchen nicht … und kann lediglich S/W-Bilder ausgeben, weil ihr die Berechnungsmöglichkeiten für Farben fehlt. Richtig? Könnte es sein, das die Farben in der digitalen Fotografie immer berechnet werden müssen?
Du verstehst einfach nicht, was das additive Farbmodell (RGB) ist, das ist Dein Problem. Der Sensor der Leica Monochrom ist so konstruiert, dass er ausschliesslich Helligkeitswerte erfasst, wie ein s/w-Film. Eine Kamera "berechnet" keine Farben - sie zerlegt im Sensor (analog zu den Schichten im Farbfilm) das eintreffende Licht in Rot-, Grün- und Blau-Helligkeitswerte durch Farbfilter vor dem jeweiligen "Sensel" und setzt diese Information bei der Wiedergabe hinterher wieder zusammen. Das nennt sich dann "additives Farbmodell": je 100% Rot, Grün und Blau gibt Weiß, je 0% gibt Schwarz. Genau das macht der komplett rechenleistungslose Farbfilm im Grundsatz auch.

...spielen jetzt plötzlich die Wassertropfen doch eine Rolle? Es ist natürlich sehr nett, dass Du die auf der Oberfläche des Blattes ausschließt...
Wo hast Du sonst Wassertropfen?

War (nach der Abtrennung) der Ursprung nicht eher, dass Farben in der Fotografie immer berechnet und nachträglich hinzugefügt werden...
Was Nonsens ist, wie Dir jetzt schon eine Menge Leute unabhängig voneinander erklärt haben, die allesamt hinreichend physikalisch-technisches Verständnis haben. Ich bitte um Verständnis dafür, dass ich diesen Unsinn mit der "Berechnung" nicht weiter diskutieren werde. Ein Farbdiafilm zeigt Farben, aber "berechnet" schlicht nichts.

Ja, das ist entsprechend dem Motto »Glaube keiner Statistik, die Du nicht selbst gefälscht hast.« zutreffend.
Falk hat von "Berechnung", nicht von Statistik gesprochen. Dein Kommentar ist also nicht wirklich sinnhaft.

Die Praxis beweist es eindrucksvoll – man braucht nur Farben der selben Objekte, die unter gleichen Beleuchtungsverhältnissen mit verschiedenen Kamerasystemen aufgenommen wurden, vergleichen. Da die Farben nicht real sind, sondern berechnet wurden, ist das Ergebnis bedingt durch unterschiedliche Berechnungssysteme von Ingenieuren unterschiedlicher Kamerahersteller, nicht identisch.
Wenn Du die Roh-Information vom Sensor ausliest, wirst Du enttäuscht sein, wie gleich die Ergebnisse sind.

Wenn Du zum Vergleich JPG-out-of-cam heranziehst - nun, da wurde in der Tat was berechnet in der Kamera, und der Algorithmus ist sehr variabel. Wie die Farben am Ende aussehen sollen kann ich ja sogar ganz bewusst in der Kamera einstellen - nur ist das nichts anderes, als was man auch am PC in Photoshop macht oder beim Ausbelichten des Negativfilms auf Fotopapier mit der Filterung beim Belichten und den Parametern beim Entwickeln (Temperatur, Zeit, Entwicklertyp, ...)

Ob man das nun überspitzt erdacht, erlogenen und erschwindelt nennt, oder nettere Worte dafür findet, ändert letztendlich nichts an der Tatsache, das die Farben nicht »aufgenommen«, sondern im besten Fall der Realität nachempfunden wurden.
Der Kommentar fasst abschliessend nochmal zusammen, dass Du von Optik und Farbmodellen wirklich nicht viel verstanden hast und Dich in einem Denkmodell verfangen hast, das Dich immer wieder zu den gleichen falschen Schlüssen kommen lässt. Ändere Dein Denkmodell und Du wirst die Sachverhalte verstehen.

CB
 
Kommentar
Du verstehst einfach nicht, was das additive Farbmodell (RGB) ist …
Ja, und die Erde ist eine Scheibe.

Genau das macht der komplett rechenleistungslose Farbfilm im Grundsatz auch.
Wohl war, deshalb habe ich solches auch dem Film nie unterstellt. Falls Du noch mal nachlesen möchtest – in #2 ist von »hinzufügen« die Rede. Vom Hinzufügen der Farbkuppler, frei nach gustus und gut behüteten Kochrezepten der Filmhersteller.

Wo hast Du sonst Wassertropfen?
Tja, wo könnte eine lebende Pflanze wohl Wasser speichern? Naturwissenschaften sind Deine Stärken nicht so recht …
Wenn Du nicht weiter weißt, weichst Du auf einen Nebenkriegsschauplatz aus. Erfindest Du immer wieder etwas Neues, um Verwirrung zu stiften oder um von Deinem Unverständnis abzulenken? Na gut, zu Deinen Gunsten nehme ich letzteres an und mache es für Dich schlichter: Da es sich um Wasser in flüssiger Form, nicht im gefrorenem oder gasförmigen Zustand handelt, ist die Bezeichnung Tropfen ebenso korrekt wie die in #5 benutzte Verkleinerungsform. Erst wenn die Pflanze per Transpiration Wasser ausscheidet, ist es gasförmig. Aber da ist es ja bereits nicht mehr in der Pflanze und hat demzufolge nichts mehr mit dem Woodeffekt zu tun.

Falk hat von "Berechnung", nicht von Statistik gesprochen. Dein Kommentar ist also nicht wirklich sinnhaft.
Wieder mache ich es für Dich etwas schlichter: Es handelt sich um eine Analogie, ein Stilmittel der Rhetorik.

Wenn Du die Roh-Information vom Sensor ausliest, wirst Du enttäuscht sein, wie gleich die Ergebnisse sind.
Oh – endlich ein Punkt, bei dem ich Dir nicht widersprechen muss. Du weißt, weshalb das so ist?
RAW-Daten haben keine Farben oder Farbkanäle – deren Berechnung hat noch nicht stattgefunden, das geschieht bekanntlich erst im RAW-Konverter. Deshalb und weil die Sensoren in wesentlichen Dingen nicht so unterschiedlich sind, gleichen sie sich – die Registrierung der unterschiedlichen Helligkeiten erfolgt in recht ähnlicher weise. Die Farbunterschiede kommen erst nach der Berechnung im Konverter …

Hast Du Dir eigentlich schon mal Gedanken gemacht, weshalb die Farben ein und der selben RAW-Datei so unterschiedlich werden, wenn sie denn nur durch unterschiedliche Konverter geschickt wurde? Weshalb die Farben des Nikon-Konverter so viel besser/schlechter – auf jeden Fall aber anders – als die vom Adobe-Konverter sind? Weil sie unterschiedlich berechnet wurden und nicht gottgegeben sind?
 
Kommentar
Falls Du noch mal nachlesen möchtest – in #2 ist von »hinzufügen« die Rede. Vom Hinzufügen der Farbkuppler, frei nach gustus und gut behüteten Kochrezepten der Filmhersteller.
Und dabei unterschlägst Du stets galant den wichtigen Teil: das Zerlegen des Lichts in seine Grundfarben, damit pro Grundfarbe Helligkeitswerte von den Silberhalogenidkristallen erfasst werden können. Die "sehen" keine Farben, sondern verändern sich in Abhängigkeit der Intensität des auf sie treffenden gefilterten (!) Lichts.


Tja, wo könnte eine lebende Pflanze wohl Wasser speichern? Naturwissenschaften sind Deine Stärken nicht so recht …
Eine Pflanze kann an vielen Stellen Wasser speichern, u.a. in den Blättern. Ich stoße mich an Deinem Begriff "Tropfen", denn in einer Leitungsbahn in einer Pflanze befinden sich keine Tropfen. Die entstehen beim Austritt des Wassers an die Luft und haben eine Luft/Wasser-Grenzfläche, welche aufgrund der Oberflächenspannung des Wassers überhaupt erst zu einer Tropfenformung führt. Ein Fluss besteht nicht aus "Tropfen", auch wenn der Laie das so sehen mag, wenn viele Tropfen Regen irgendwann einen Wasserlauf formen.

Zu Deiner Stichelei sei nur so viel gesagt: Physik (5-std.) und Chemie (3-std.) im Abitur vor Ewigkeiten, dann abgeschlossenes Pharmaziestudium mit seiner breit gefächerten Mischung aus Chemie, (Pflanzen-)Biologie, Technologie, Physik und Pharmakologie...joah, ich glaube, ein ganz klein bisschen was von Naturwissenschaften verstehe ich schon. ;)

Wieder mache ich es für Dich etwas schlichter: Es handelt sich um eine Analogie, ein Stilmittel der Rhetorik.
Es hilft trotz Deiner rhetorischen Brillianz nur nicht viel, wenn Du einen Begriff benutzt, der etwas anderes bedeutet als Du erklären willst. Wenn es Dir gelingt, die Farbdarstellung in der Fotografie ohne das Wort "Berechnung" zu erklären, bist Du auf dem guten Weg von falschen in ein besser geeignetes Denkmodell.

RAW-Daten haben keine Farben oder Farbkanäle – deren Berechnung hat noch nicht stattgefunden, das geschieht bekanntlich erst im RAW-Konverter.
Bekanntlich ist das nicht so, denn in der RAW-Datei sind pro Farbwert Rot, Grün und Blau Helligkeitswerte abgespeichert - eben die Helligkeitswerte, die der Sensor nach der spektralen Zerlegung des einfallenden Lichts in diese drei Grundfarben des additiven Modells pro "Sensel" erfasst und zur Speicherung weiterleitet. Deswegen ist die RAW-Datei ja auch kein Bild, weil die Farbinformation darin in "zerlegter" Form zu finden ist. Ein RAW-Konverter (egal ob in der Kamera für das JPG oder am Rechner) führt diese Infomationen wieder zusammen und lässt die durch das Objektiv eingefallene Farbinformation für das menschliche Auge wieder sichtbar werden. So wie beim Ausbelichten eines Farbfotos dabei über Farbfilterung Variationen in der Farbcharakteristik entstehen können (bewusst oder ungewollt), oder im Diafilm eine bestimmte herstellertypische Farbcharakteristik durch unterschiedliche Gewichtung der Grundfarben im Film entsteht, kann auch hier dem Ausgabebild eine bestimmte Farbcharakteristik verliehen werden. Das macht die Kamera/der PC logischerweise auf elektronischem Weg, um Dein "Berechnen" hier mal zu streifen. Berechnet wird aber nicht die Farbe an sich, sondern lediglich das Mischungsverhältnis. Am Farbvergrößerer drehe ich dazu einfach an den Cyan/Magenta/Yellow-Drehknöpfen (ist ja das subtraktive Farbmodell!) und die Abstimmung ("Berechnung") der Mischung findet in meinem Kopf statt anhand dessen, was ich im "Vorschaubild" sehe.

Hast Du Dir eigentlich schon mal Gedanken gemacht, weshalb die Farben ein und der selben RAW-Datei so unterschiedlich werden, wenn sie denn nur durch unterschiedliche Konverter geschickt wurde?
Das habe ich Dir sogar schon mehrfach erklärt: weil die vorliegenden, in Grundfarben zerlegten Farbinformationen unterschiedlich nuanciert zusammengesetzt werden. Wenn ich in der Kamera für das JPG von "Neutral" auf "Brilliant" umstelle, kommen auch ganz andere Farbabstimmungen heraus. Aber das ist doch jetzt nichts Mystisches. Nur "berechnet" die Kamera das lediglich aus Farbinformationen, die sie schon hat und fügt nichts hinzu!

CB
 
Kommentar
Ja, und die Erde ist eine Scheibe...

[MENTION=57561]Mulex[/MENTION]

Ich finde das Thema hochinteressant und ich halte konträre Ansichten für die Würze jeder Diskussion.
Aber die permanente Provokation der anderen Teilnehmer vom ersten Beitrag an durch einen einzelnen User (damit meine ich Dich) verdirbt mir nicht nur die Lust, selbst daran teilzunehmen, sondern auch die sonst auf dieser Plattform äußerst angenehme Gesprächskultur :down:
 
Kommentar
...
Hast Du Dir eigentlich schon mal Gedanken gemacht, weshalb die Farben ein und der selben RAW-Datei so unterschiedlich werden, wenn sie denn nur durch unterschiedliche Konverter geschickt wurde? Weshalb die Farben des Nikon-Konverter so viel besser/schlechter – auf jeden Fall aber anders – als die vom Adobe-Konverter sind? Weil sie unterschiedlich berechnet wurden und nicht gottgegeben sind?
Diesen Umstand bezweifelt ja niemand ernsthaft, aber von der leider notwendigen Kalibrierung hast Du schonmal gehört ?
 
Kommentar
Ich finde das Thema hochinteressant und ich halte konträre Ansichten für die Würze jeder Diskussion.
Das Thema ist spannend und einer der threads, die mich regelrecht süchtig machen mit zu lesen.

An mulex:
Das ist jetzt in keinster weise böse gemeint, aber ich hatte bei dem ein oder anderen seitenhieb von dir schon mal den gedanken: wow, das ist trolling auf sehr hohem niveau ;-))
 
Kommentar
ich hatte bei dem ein oder anderen seitenhieb von dir schon mal den gedanken: wow, das ist trolling auf sehr hohem niveau ;-))

Also, ich fühle mich in diesem thread stark an ein Erlebnis mit einem Zeugen Jehovas an meiner Haustür erinnert, der einmal hereingebeten, mir offenbarte, sie hätten einen unanfechtbaren Beweis eines Mathematikers aus eigenen Reihen, dass die Evolutionstheorie völlig falsch sein müsse.

Ich fragte nach und es taten sich Abgründe auf. Der arme Mann konnte ja vielleicht auch nicht ahnen, dass er einen Theoretischen Physiker erwischt hatte ;)

Bei einem ähnlichen Erlebnis bei Video, Kaffe und Kuchen auf Einladung von Scientology wurde ich eher unsanft herausgeworfen. Aber die Mädels und der Kuchen waren gut ;)

Ich kann nur sagen, die meisten Leute sind zu leichtgläubig ...

Ach, habe ich euch schon von meinem Mailaustausch mit dem Webmaster von Opus Dei berichtet? :liturgy:

Und dabei bin ich wirklich tolerant und ergebnisoffen. Wie viele haben z.B. die Publikationen des Freiburger Instituts für Parapsychologie und Metaphysik (Prof. H. Bender) studiert? Aber auch diese Toleranz reicht nicht aus für den Unsinn, den Mulex hier verzapft. Aber unterhaltsam, da gebe ich soulbrother recht, ist es. Wann bekommt man schon mal eine solche Steilvorlage frei Haus. Da muss man einfach verwandeln ;)
 
Kommentar
Sehr spannend!
M.E. kommt es in der Argumentation hier zu einer Vermischung von naturwissenschaftlichen und philosophischen Argumenten und verschiedene Diskussionsteilnehmer gehen von verschiedenen Voraussetzungen aus.
Daher wäre für jeden eventuell die Beantwortung der folgende Frage sinnvoll:

Was ist Farbe?

A. Farbe ist Strahlung mit einer bestimmten Wellenlänge, die durch Reflexion der von einer Strahlungsquelle oder die Strahlungsquelle selbst entsteht.
A1. Antwort A mit Beschränkung auf den vom menschlichen Auge wahrnehmbaren Frequenzbereich
A2. Antwort A mit Beschränkung auf den von irgendeinem Lebewesen über ein Auge oder eine augenähnliche Struktur wahrnehmbaren Frequenzbereich
A3. Antwort A ohne Beschränkung auf Wahrnehmbarkeit durch ein (derzeit? auf der Erde existierendes?) Lebewesen

B. Farbe ist die Empfindung, die durch die Reaktion von Sinneszellen einer Netzhaut auf A. im Gehirn entsteht.
B1. im Gehirn von Menschen
B2. im Gehirn eines beliebigen Lebewesens

C. Farbe ist eine Empfindung die im Gehirn unabhängig vom Aufnahmekanal entstehen kann (synästhetische Menschen können Farben auch "hören").

D. Farbe ist die gespeicherte Information, die in einem (chemischen, elektronischen oder sonstigen) Datenträger enthalten ist und mittels geeigneter Prozesse (Ausgabemedien) für einen Menschen (ein anderes Lebewesen) eine Farbempfindung (B1, B2) hervorrufen kann.
D1: bei der gespeicherten Information handelt es sich um die Speicherung eines unabhängig vom Speichermedium entstandenen Frequenzspektrums (im herkömmlichen Sinne einer Photographie) und führt über das Ausgabemedium beim betrachtenden Menschen (Lebewesen) zu einer ähnlichen Farbempfindungn (B1, B2) wie beim Betrachten des Originals
D2: die gespeicherte Information am Datenträger entsteht ohne Bezug zu einer "real" existierenden Strahlung in der Umwelt (z.B. durch Generierung eines Bildes direkt am Computer).
(möglicherweise fällt mir im Lauf des Tages noch ein Punkt ein......)
mfg gerrit
 
Kommentar
Zitat:

" Wie viele haben z.B. die Publikationen des Freiburger Instituts für Parapsychologie und Metaphysik (Prof. H. Bender) studiert ? "

Nicht die Publikationen, aber ich war in den Vorlesungen von Prof. Bender.
 
Kommentar
M.E. kommt es in der Argumentation hier zu einer Vermischung von naturwissenschaftlichen und philosophischen Argumenten und verschiedene Diskussionsteilnehmer gehen von verschiedenen Voraussetzungen aus.
Ja, man kann sich der Fotografie aus vielen Richtungen nähern: der Kunst, der Wahrnehmungspsychologie, der Biologie/Medizin oder der Physik und auch der Philosophie und Ethik. Dazu kommt nochmal das gleiche für die Motive.

Das fertige Bild ist ein Mix aus allem, und wenn Probleme auftauchen – die häufigste Frage in einem Fotoforum ist wohl: "warum ist mein Bild nicht so geworden, wie ich mir das vorstelle?" – muß der Fotograf alles auf dem Schirm haben und kann sich nicht auf eine Position zurückziehen.
Wenn mir UV-Strahlung das Bild versaut, kann ich nicht sagen, die kommt im Farbmodell gar nicht vor, also ignoriere ich die mal, sondern ich muß eine Lösung finden. Wenn ich den Bildaufbau vergeigt habe, sagt mir die theoretische Physik auch nicht warum dem so ist, und wenn ich ein Reh fotografieren will, sollte ich wissen, wie es die Umgebung wahrnimmt und sich dementsprechend verhält.
 
Kommentar
... und wenn ich ein Reh fotografieren will, sollte ich wissen, wie es die Umgebung wahrnimmt und sich dementsprechend verhält.

Angeblich reagieren sie auf die Farbe Blau. Deswegen sollte man zum fotografieren / jagen keine Jeans-Klamotten - auch nicht dunkle - tragen. Habe ich von einem Jäger.
 
Kommentar
In diesem Zusammenhang fällt mir übrigens eine Frage meines Physiklehrers in der Mittelschule wieder ein, mit der er uns zu "grundsätzlichen" Überlegungen anregte:

Wie wäre die Erde, wenn es keine Lebewesen auf ihr gäbe?

Seine Antwort:

Dunkel, weil ja niemand da wäre, der Licht empfinden könne.

(Wobei letztlich "dunkel" auch nicht stimmt, zumindestens, wenn man es als "Abwesenheit" von Licht definiert......)


Meine ganz persönliche (und damit nicht ganz naturwissenschaftliche) Auffassung ist in etwa die folgende:

es existieren Strahlungen in bestimmten Wellenlängen, die durch chemisch-physikalische Vorgänge in einer Strahlungsquelle (Sonne, Monitor, Feuer,...) generiert werden bzw. durch Reflexion u. Absorption an Gegenständen verändert werden.
Strahlungen in einem bestimmten Frequenzbereich werden von uns Menschen als Licht, in Teilen des Frequenzbereich als Farben definiert.
Als Licht bezeichnet werden einerseits der für den Menschen ohne Hilfsmittel sichtbare Frequenzbereich, andererseits aber auch benachbarte Frequenzbereiche (Infrarot, Ultraviolett).
In den Begriffen Infrarot und Ultraviolett stecken Farbbezeichnungen, die jedoch nur auf einen Frequenzbereich jenseits der entsprechenden Farbe (rot, violett) hinweisen.
Mit Hilfsmitteln können durch Aufnahme- und Wiedergabegeräte diesen in der Natur nicht sichtbaren Frequenzbereichen Farben aus dem sichtbaren Bereich zugeordnet werden.
Im primär sichtbaren Bereich kann die Information über Frequenz und Intensität einer Lichtwelle durch Gerätschaften auf einem Speichermedium festgehalten werden und durch ein Ausgabemedium (je nach dessen Algorithmus, aktiv am Monitor, passiv durch Reflexion am gedruckten Bild) wieder in Strahlung umgewandelt werden. Dieser Umwandlungsalgorithmus wird in der Regel so gewählt, dass die Strahlungsfrequenz des betrachteten Bildes möglichst der des Original entspricht und deshalb vom menschlichen Betrachter als die gleiche "Farbe" wahrgenommen werden kann.
 
Kommentar
… dann abgeschlossenes Pharmaziestudium …
Ich korrigiere mich wie folgt: Bisher hast Du zu wenig von naturwissenschaftlichen Kenntnissen gezeigt.

Ich stoße mich an Deinem Begriff "Tropfen"…
Ob man das Wasser als Tropfen, Bach oder Eimer benennt, ist vollkommen Wurscht. Wasser wappert nicht dimensionslos durch die Pflanze – es hat immer eine Abgrenzung zum Umfeld, deshalb eine Oberfläche, diese eine Oberflächenspannung und somit gibt es Grenzflächen, an denen Reflexionen stattfinden. Wasser gehört mit den anderen Bestandteilen der Pflanze zu den Strukturen der Pflanze. Das Wasser auf der Oberfläche der Pflanze vorhanden sein müsste, ist eine Deiner nicht zutreffende Interpretation.

… einen Begriff benutzt, der etwas anderes bedeutet als Du erklären willst.
Das gehört zur Natur der Sache, dass man für eine Analogie andere Dinge heranzieht. Davon abgesehen, hat Statistik sehr viel mehr mit Berechnung – unter anderem mit Wahrscheinlichkeitsrechnung – zu tun, als mit stumpfer Zähltechnik. Magst Du erfahren, wie ich vor nunmehr schon 30 Jahren Biostatistiken berechnet habe? Das hatte allerdings nichts mit Fotografie, sondern mit der Höhe von Progesteron in Blut und Milch bei Kühen post partum zu tun.

Das habe ich Dir sogar schon mehrfach erklärt:
Nein, es war maximal der Versuch dazu, und auch die neuerliche Erklärung ist untauglich. (Nebenbei bemerkt – wenn jede Erklärung automatisch Wahrheitscharakter erlangen würde, hätte es die Justiz ziemlich schwer … )
Es sollte für einen Naturwissenschaftler klar sein, dass man in einem Versuch zur Ursachenforschung immer nur einen Parameter verändern darf. Modifiziert man dagegen mehrere, kann man die anschließende Veränderungen nicht mehr einem Parameter eineindeutig zuordnen und somit den Verursacher nicht mehr zweifelsfrei benennen. Soll heißen: Die Einstellungen der Konverter stehen alle auf »Null«, keinerlei Veränderungen an der Software sind gestattet. Hintergrund ist, dass jeder Hersteller einer solchen Software von eben diesem Zustand ausgehen muss und selbstverständlich das Beste vom Besten zu liefern verspricht, um sich auf dem Markt behaupten zu können. Alle Konverter greifen auf die selben Informationen ein und derselben RAW-Datei zurück – und geben doch unterschiedliche Ergebnisse aus. Weshalb? Weil die Farben unterschiedlich berechnet werden!

Diesen Umstand bezweifelt ja niemand ernsthaft, aber von der leider notwendigen Kalibrierung hast Du schonmal gehört ?
Ja, klar. Es geht in diesem Fall nicht um richtige oder falsche, um gute oder schlechte Farben, sondern lediglich darum, dass die Konverter die Farben unterschiedlich berechnen und hinzufügen. Dieser Versuch ist bereits erfolgreich, wenn die Konverter unterschiedliche Ergebnisse ausgeben. Unter der Bedingungen, das alle zum Vergleich herangezogenen Konverter mit den gleichen System-Problemen zu kämpfen haben, ist die Kalibrierung nicht maßgeblich. Wie selbstverständlich bin ich von einem System, von einem Rechner ausgegangen.

Aber gut, legen wir fest: eine Datei, ein kalibriertes System, keinerlei Verstellungen an den Konvertern – der einzige Unterschied an der Verarbeitung soll sein, dass unterschiedliche Konverter benutzt werden. Ist das hinreichend definiert?

Und dabei unterschlägst Du stets galant den wichtigen Teil: das Zerlegen des Lichts in seine Grundfarben …
Ich unterschlage nichts, ebenso wenig wird das Licht in seine Grundfarben zerlegt. Es scheint nur so, als ob das passieren würde. Zwar sind die Sensoren für viele Spektren sensibel, können diese erfassen und darauf reagieren – unterscheiden können sie diese dennoch nicht. Die einzelnen Zellen eines Sensors sind alle gleich aufgebaut und haben demzufolge alle die gleichen Eigenschaften – sie reagieren auf die Intensität von Licht mit der Erzeugung (?) von elektrischen Ladungen, die ausgelesen, registriert und gespeichert wird. Ob die Intensität von rotem oder blauen Licht herrührt, können die einzelnen Zellen nicht unterscheiden. Eine Differenzierung findet logischerweise schon deshalb nicht statt, weil alle Zellen gleich aufgebaut sind, gleichen Eigenschaften haben und alle das gleiche machen… D.h., in jeder Zelle des Sensors werden Informationen über die Intensität/Helligkeit, nie aber Infos über Farben gespeichert.

So wie mit der Bestätigung des Photoshop-Befehls »Bild => Modus => Graustufen« sämtliche Farbinformationen vernichtet werden, so werden im Sensor sämtliche Farbinformationen beseitigt, die vor dem Sensor noch vorhanden waren. Schluss, aus, Ende von sämtlichen Farbinfos. Jetzt bleiben nur zwei Wege – entweder der Sensor wird an Leica für die Herstellung der Monochrom verkauft, oder Farben werden vollkommen neu berechnet und hinzugefügt.

Will man wieder Farben, baut man dazu definierte Fehler (Filter) ein. Da die Parameter der Fehler/Filter bekannt sind, man weiß, wie die Filter Spektren verändern, kann man im Umkehrschluss ableiten und berechnen, was vor den Fehlern vorhanden gewesen sein müsste. Wissen kann man es nicht, denn alle diesbezüglichen Informationen wurden vernichtet. Aber man kann es aus dem Delta der Helligkeitsinformationen von drei eng nebeneinander liegenden Zellen des Sensors mit jeweils einem anderen definierten Filter davor berechnen. Es sind Berechnungen, die auf Analogien (oh, schon wieder!) beruhen. Diese definierten Fehler werden derzeit ziemlich häufig als Bayer-Mosaik-Filter bezeichnet, aber auch andere Namen sind geläufig und bezeichnen letztendlich das selbe Prinzip. Selbst das an sich vollkommen andere Prinzip der Sigma/Foveon X3-Sensoren lässt sich auf diese Fehlerberechnung zurückführen. Insofern ist die Bemerkung
Die "sehen" keine Farben, sondern verändern sich in Abhängigkeit der Intensität des auf sie treffenden gefilterten (!) Lichts.
durchaus richtig. Falsch ist allerdings die Schlussfolgerung, dass es sich dabei um eine Speicherung der Farben per se handeln würde, denn schließlich muss ein System wie der Bayer-Mosaik-Filter immer erst bewusst hinzugefügt (bei der Leica M Monochrom fehlt der beispielsweise) und die unterschiedlichen Helligkeitswerte hinter den Filtern interpretiert werden, bevor man Farben durch Berechnungen definieren kann. Richtig ist wiederum:
… in der RAW-Datei sind pro Farbwert Rot, Grün und Blau Helligkeitswerte abgespeichert …
allerdings handelt es sich dabei eben ausschließlich um Helligkeitswerte, es gibt noch keinerlei Informationen zu Farben. Was könnte man mit Helligkeitswerten anfangen? Ja, natürlich, Graustufenbilder anfertigen. Oder – sofern man die Informationen eines definierten Fehlers/Filters hat – auch Farben auf Grund des Deltas hinter den drei RGB-Filtern berechnen und anschließend einer digitalen Datei hinzufügen. Für handelsübliche Kameras versucht der jeweilige Hersteller selbstverständlich, sich den realen Farben anzunähern, um einen maximalen Verkaufserfolg zu erreichen. Es handelt sich allerdings nicht mehr um die ursprünglichen Farben. Somit verdeutlichen Begriffe wie erfunden, erlogen … letztendlich nur, was da geschieht – es sind Interpretationen. Durch kreative Leistungen sind auch andere Fälle denkbar – hier sei nur der Begriff »Falschfarbenfotografie« genannt und auf Beispiele wie der Canon EOS 60Da sowie der Nikon D810A verwiesen.

Mit den bisher bekannten und im praktischen Einsatz befindlichen Systemen, ist weder auf analogen noch auf digitalen Weg die direkte, d.h. unmittelbare Aufnahme/Speicherung von Farben möglich.

Das Thema ist spannend und einer der threads, die mich regelrecht süchtig machen mit zu lesen.
Prima, und wenn wir mit dem hier durch sind, können wir uns ja dem schönen Fakt zuwenden, dass in der digitalen Fotografie analog, in der analogen Fotografie hingegen digital abgespeichert wird. Oder der Perspektive, in der alles naheliegende klein, das weiter entfernte hingegen größer erscheint. Obwohl … das sind Kamellen, die und deren Erklärung hier jeder kennt. Oder?!?
 
Kommentar
Ich korrigiere mich wie folgt: Bisher hast Du zu wenig von naturwissenschaftlichen Kenntnissen gezeigt.
Ich könnte ja jetzt fragen, was diese andauernen persönlichen...ach, lassen wir das...

Ob man das Wasser als Tropfen, Bach oder Eimer benennt, ist vollkommen Wurscht.
Nein, ist es nicht. Nicht bei naturwissenschaftlichen Sachverhalten, für die es zum Glück eine sehr präzise Sprache zur Beschreibung dessen gibt, was man sieht (oder zu sehen glaubt).

Wasser wappert nicht dimensionslos durch die Pflanze – es hat immer eine Abgrenzung zum Umfeld, deshalb eine Oberfläche, diese eine Oberflächenspannung und somit gibt es Grenzflächen, an denen Reflexionen stattfinden.
Du hast bisher leider nur keinerlei plausible Erklärung dafür geliefert, warum gerade das Wasser in der Pflanze für starke IR-Reflexion sorgt. Deine Vermutung dazu hast Du nun hinreichend oft geäußert, jetzt ist es Zeit für den Beleg bzw. Beweis.

Das gehört zur Natur der Sache, dass man für eine Analogie andere Dinge heranzieht. Davon abgesehen, hat Statistik sehr viel mehr mit Berechnung – unter anderem mit Wahrscheinlichkeitsrechnung – zu tun, als mit stumpfer Zähltechnik.
Es liegt in der Natur der Sache von Analogien, dass einige sehr brauchbar zum Verstehen sind und andere schlicht nichts taugen. Wir reden hier nicht über Statistik, also ist eine etwaige Analogie hier sinnfrei.

Nein, es war maximal der Versuch dazu, und auch die neuerliche Erklärung ist untauglich.
Sie war in der Tat untauglich, bei Dir so etwas wie Verstehen zu erzielen, das stimmt. Allerdings sehe ich es hier so, dass in der Sender-Empfänger-Relation der Empfänger ein leichtes Empfangsproblem hat.

Alle Konverter greifen auf die selben Informationen ein und derselben RAW-Datei zurück – und geben doch unterschiedliche Ergebnisse aus. Weshalb? Weil die Farben unterschiedlich berechnet werden!
Und wieder bewegst Du Dich nur in den Grenzen Deines untauglichen Denkmodells. Ich hatte Dir vorgeschlagen, die Aufnahme und Wiedergabe von Farben in der Fotografie ohne das Wort "Berechnen" zu erklären, d.h. anhand des Farbfilms. Das hast Du nicht versucht, daher kommst Du auch nicht weiter. Die Kamera berechnet keine Farben, sondern sie mischt die Information, die sie über die drei Grundfarben pro Sensel hat zu einer resultierenden Farbe. Dass das in einem Mikroprozessorsystem logischerweise über eine Software und damit über Rechenoperationen läuft, ist eine Binsenweisheit. Dieselbe Farbe existiert aber auch ganz ohne Berechnung im Diafilm und daher ist "Berechnen" keine notwendige Voraussetzung für die Wiedergabe von Farben im sichtbaren Spektrum (das ist jetzt naturwissenschaftliche Logik ;) ).

Dass Farben unterschiedlich aussehen können, liegt allein an der Gewichtung der Informationen über die drei Grundfarben im Endergebnis, beim Mischvorgang.

Unter der Bedingungen, das alle zum Vergleich herangezogenen Konverter mit den gleichen System-Problemen zu kämpfen haben, ist die Kalibrierung nicht maßgeblich.
Magst Du dieses Postulat bitte erst mal mittels Beweisführung untermauern, bevor wir damit weiterarbeiten?

Ich unterschlage nichts, ebenso wenig wird das Licht in seine Grundfarben zerlegt. Es scheint nur so, als ob das passieren würde. Zwar sind die Sensoren für viele Spektren sensibel, können diese erfassen und darauf reagieren – unterscheiden können sie diese dennoch nicht. Die einzelnen Zellen eines Sensors sind alle gleich aufgebaut und haben demzufolge alle die gleichen Eigenschaften – sie reagieren auf die Intensität von Licht mit der Erzeugung (?) von elektrischen Ladungen, die ausgelesen, registriert und gespeichert wird.
Genau. Nur müsste man jetzt wissen, dass es Sensel mit rotem, mit grünem und mit blauem Filterelement davor gibt. Die mit rotem lassen den Rotanteil durch, die mit grünem den Grünanteil und die mit blauem den Blauanteil. Durch jeden dieser winzigen Farbfilter sieht die Welt (in Helligkeitsintensitäten zerlegt) anders aus. Ja, genau: es werden Helligkeitsintensitäten erfasst und gespeichert, aber eben nach Grundfarbe getrennt! Es findet also eine Zerlegung der Farbinformation in Helligkeitsintensitäten der Grundfarben des RGB-Farbmodells statt!

Ob die Intensität von rotem oder blauen Licht herrührt, können die einzelnen Zellen nicht unterscheiden.
DAS hat auch nie jemand hier behauptet. Aber die Ausleseelektronik "weiss", vor welcher Zelle der rote, grüne oder blaue Filter liegt und speichert diese Information mit der Intensität zusammen ab.

So wie mit der Bestätigung des Photoshop-Befehls »Bild => Modus => Graustufen« sämtliche Farbinformationen vernichtet werden, so werden im Sensor sämtliche Farbinformationen beseitigt, die vor dem Sensor noch vorhanden waren. Schluss, aus, Ende von sämtlichen Farbinfos.
Und genau hier beginnt Dein kapitaler Denkfehler, den ich Dir im Absatz weiter oben bereits beschrieben habe. Wen Farbinformationen gelöscht sind, kann man sie nicht wiederherstellen. Mach in Photoshop Deinen beschriebenen Schritt, speicher das Bild als JPG ab und dann öffne es erneut. Kannst Du - ohne das Ausgangsbild zu kennen - aus den Helligkeiten die richtigen Farbwerte ableiten? Kannst Du natürlich nicht! Du kannst eine Handcolorierung veranstalten, aber ob die etwas mit dem Ursprungsbild zu tun hat weisst Du ebenso wenig wie der Postkartenmaler vor 100 Jahren!

Will man wieder Farben, baut man dazu definierte Fehler (Filter) ein. Da die Parameter der Fehler/Filter bekannt sind, man weiß, wie die Filter Spektren verändern, kann man im Umkehrschluss ableiten und berechnen, was vor den Fehlern vorhanden gewesen sein müsste. Wissen kann man es nicht, denn alle diesbezüglichen Informationen wurden vernichtet. ...
Mit Verlaub: das ist der größte physikalische Blödsinn, den ich in diesem Forum je gelesen habe. :lachen:

Du hast nie Schwarzweiss-Fotografie mit vorgesetzten Farbfiltern betrieben, oder? Falls doch, dann erinnere Dich mal daran, was passiert, wenn man ein s/w-Dia durch einen Rotfilter, ein s/w-Dia durch einen Blaufilter und ein s/w-Dia durch einen Grünfilter jeweils gleicher Intensität aufnimmt und dann diese 3 Dias hinterher durch die jeweils exakt gleichen Filterfarben hindurch übereinander projiziert. Erstaunlicherweise kommt dabei ein FARBBILD heraus. Wie das, ohne Farbfilm und ganz kluge Rechenelektronik...? Wenn Du das Prinzip verstanden hast, hast Du auch den Schlüssel zu Deinem Denkfehler gefunden.

Falsch ist allerdings die Schlussfolgerung, dass es sich dabei um eine Speicherung der Farben per se handeln würde,...
Komischerweise hat das keiner behauptet. Allein Du behauptest, dass das einer behauptet hätte.

allerdings handelt es sich dabei eben ausschließlich um Helligkeitswerte, es gibt noch keinerlei Informationen zu Farben. Was könnte man mit Helligkeitswerten anfangen? Ja, natürlich, Graustufenbilder anfertigen. Oder – sofern man die Informationen eines definierten Fehlers/Filters hat – auch Farben auf Grund des Deltas hinter den drei RGB-Filtern berechnen und anschließend einer digitalen Datei hinzufügen.
Man fügt nicht hinzu, sondern mischt die vorhandenen Informationen. Dein Denkmodell führt Dich immer wieder vor dieselbe Wand. Es wird nichts "hinzugefügt", sondern Vorhandenes zusammengesetzt. Vorhanden ist die Information über den Helligkeitswert pro Farbkanal. Das genügt, um in einem definierten Modell (hier: RGB, genauer sRGB oder Adobe RGB, je nach Einstellung) wieder Farben sichtbar zu machen.

Mit den bisher bekannten und im praktischen Einsatz befindlichen Systemen, ist weder auf analogen noch auf digitalen Weg die direkte, d.h. unmittelbare Aufnahme/Speicherung von Farben möglich.
Auch das hat niemand behauptet. Aber die "indirekte" Speicherung wie im Film ist so funktional, dass die Kamera nicht aus einem Schwarzweissbild ein Farbbild zaubern muss. Akzeptier es einfach; jedes weitere Rumargumentieren in den Grenzen Deines Denkmodells wird Dich nicht weiter bringen.

CB
 
Kommentar
...
So wie mit der Bestätigung des Photoshop-Befehls »Bild => Modus => Graustufen« sämtliche Farbinformationen vernichtet werden, so werden im Sensor sämtliche Farbinformationen beseitigt, die vor dem Sensor noch vorhanden waren. Schluss, aus, Ende von sämtlichen Farbinfos...

Interessanter Ansatz.
Wie kommst Du darauf?


...
allerdings handelt es sich dabei eben ausschließlich um Helligkeitswerte, es gibt noch keinerlei Informationen zu Farben...

Wenn dem so wäre, dann könntest Du mit dem DNG aus einer Leica Monochrom ebenfalls ein Farbbild erzeugen. Ich stelle gerne eines zur Verfügung für Deine Versuche... :D
 
Kommentar
@ mulex:
Warum möchtest Du nicht akzeptiern, dass die Information über die Farbe durch die Kombination aus Helligkeitswert des Pixels und dem "Wissen" des Gesamtsystems über den vorgeschaltenen Farbkanals besteht?
Auch ein nicht entwickelter aber belichteter Film ist (nach meiner Vermutung...) nicht farbig, sondern beinhaltet nur die Information über die Farbe auf den verschiedenen Filmschichten.
In der Speicherkarte selbst wird man ohne nachgeschalten digitalen Entwicklungsprozess auch keine Farben finden (Meine Karten sind - jedenfalls außen - schwarz, reingeschaut habe ich allerdings noch nicht..... :hehe: )
 
Kommentar
-Anzeige-
Zurück
Oben Unten