Corona im Forum

Farbtiefe


gugu

Sehr aktives Mitglied
Da das Thema in dem Thread wo es aufkam etwas OT war, poste ich nochmal ein paar Gedanken zu dem Thema Farbtiefe.

Im wesentlichen ging es darum, daß der Begriff Farbtiefe als solcher kritisiert wurde, denn es handele sich dabei ja nicht um die tatsächliche Farbtiefe. Dazu wurde ich auch auf andere Seiten im Netz verwiesen. Unter anderem Dxo Mark.

Abgesehen davon, daß auch bei DxO Mark der Begriff Farbtiefe verwendet wird (auch wenn sie ihm mit ihrer 'Color Sensitivity' geringere Bitzahlen für die jeweiligen Kameras angeben), spielt es meiner Meinung nach gar keine Rolle, wieviele der 14 Bit nun tatsächlich der Realität entsprechen, denn auch die 'falschen' Farbtöne (z.B. bedingt durch Rauschen) sind ja auch Bestandteil des Bildes. Genauso wie man von einer 36MP Kamera spricht, obwohl mit Sicherheit ein Teil der Bildpunkte nichts mit dem Original gemein hat. Die tatsächliche Menge der Bildpunkte sind aber trotzdem 36 Millionen.

Meiner Meinung nach, können auch die Messungen (ich würde es eher Schätzungen nennen) von DoX Mark nicht ganz richtig sein. Wenn man sich z.B. die 'Color Sensitivity' für die D800 anschaut, gibt Dxo Mark diese mit 25,3 Bit an. Bei weniger als 100 ASA wohlgemerkt. Bei 6400 ASA beträgt diese nur noch 16,5 Bit. In Zahlen bedeutet das, bei 100 ASA liefert die Kamera 346 Farbtöne pro Farbkanal, bei 6400 ASA nur noch 47 Farbtöne pro Kanal. Wie die Kamera damit einen Kontrast von eins zu einundzwanzigtausend bewältigt, ist mir schleierhaft :) Wer mag, kann ja auch mal versuchen auszurechnen, wieviele Farben von den 14 Bit (die maximalen 16384 Farbtöne), mit denen die Kamera zweifelsfrei rechnet, nicht eindeutig einer 'richtigen' Farbe zugeordnet werden kann. Ich glaube man kann durchaus seine Zweifel an diesen Werten haben, genauso wie an vielen anderen ihrer 'Messungen'.

Just my 2 cents :)

VG
 

falconeye

Sehr aktives Mitglied
Unter anderem Dxo Mark.

Abgesehen davon, daß auch bei DxO Mark der Begriff Farbtiefe verwendet wird (auch wenn sie ihm mit ihrer 'Color Sensitivity' geringere Bitzahlen für die jeweiligen Kameras angeben), spielt es meiner Meinung nach gar keine Rolle, wieviele der 14 Bit nun tatsächlich der Realität entsprechen, denn auch die 'falschen' Farbtöne (z.B. bedingt durch Rauschen) sind ja auch Bestandteil des Bildes. Genauso wie man von einer 36MP Kamera spricht, obwohl mit Sicherheit ein Teil der Bildpunkte nichts mit dem Original gemein hat. Die tatsächliche Menge der Bildpunkte sind aber trotzdem 36 Millionen.

Meiner Meinung nach, können auch die Messungen (ich würde es eher Schätzungen nennen) von DoX Mark nicht ganz richtig sein.
Lies Dir einfach mal durch.

Sowohl die DxO Messungen als auch die zugrundeliegende Definition ist nicht zu beanstanden. Schätzung würde ich nennen, was deine Meinung betrifft, was Farbtiefe sein könnte.

DxO interessiert sich für den Signal-Rausch Abstand der Farbinformation und dies ist auch die relevante Fragestellung (neben dem ebenfalls von DxO gemessenen, aber anders als der Farbtiefe nicht im Score berücksichtigten Metamerieindex nach ISO 17321).

Es gibt dann noch die fotografisch irrelevante Farbtiefe eines Fileformats bzw. Farbraums (sRGB 24Bit, Nikon RAW 42Bit, Tiff 48Bit etc.). Dieser Wert ist irrelevant, solange die jeweils untersten Bits verrauscht sind und es so zu einem Dithering-Effekt für eine in der Praxis quasi unbegrenzte Farbtiefe kommt. Zu sog. Tonwertabrissen kommt es eigentlich nur bei JPG, low ISO und/oder starker Kontrasterhöhung in einem schmalen Tonwertbereich. In allen anderen Fällen (bei Sorgfalt also immer) kommt es nur zu Rauschen.
 

gugu

Sehr aktives Mitglied
@ Falconeye

Das ist ja genau das was ich in Frage stelle. Wenn die Bits verrauscht wären, und die Kamera eigentlich nur mit 25,3 Bit Farbtiefe arbeiten würde, hätte man viel zu wenig Farbtöne. Woher sollen dann die deutlich mehr Farbtöne kommen, die im Bild zweifelsohne vorhanden sind?

16,5 Bit bei 6400 ASA bedeutet doch, daß das Bild maximal! aus gesamt 92000 verschiedenen Farbtönen bestehen könnte. Ein normalsichtiger Mensch kann ungefähr 6 Millionen Farbtöne unterscheiden. So ein Bild hätte farblich die Anmutung eines Videostills aus den frühen 80er Jahren. Leider kann man bei Photoshop kein Bild auf 5,5 Bit Farbtiefe herunterdrehen, um das ganze zu visualisieren.

VG
 

falconeye

Sehr aktives Mitglied
Das ist ja genau das was ich in Frage stelle.
Es wäre hilfreich, wenn Du es nicht in Frage stelltest, sondern es bei Verständnisfragen belassen würdest.

Ich dachte, Du wolltest das verstehen, und nicht, es besser als DxO wissen zu wollen.

16,5 Bit bei 6400 ASA bedeutet doch, daß das Bild maximal! aus gesamt 92000 verschiedenen Farbtönen bestehen könnte.
Das ist falsch, die Anzahl verschiedener Farbtöne ist immer 3*2^14 und noch mehr nach Skalierung. Farbtiefe in der Fotographie ist nicht die Bittiefe der IT-Grafikformate. Das hatte ich aber bereits gesagt. Bitte lies daher (und versuche, zu verstehen) zunächst meine vorhergehende Antwort, den DxO Artikel und ggfs. die einschlägige Literatur, u.a. auch zum Stichwort Dithering. Ich möchte hier erstmal nicht mehr antworten, bis das verarbeitet ist.
 

gugu

Sehr aktives Mitglied
Na ja. Niemand zwingt Dich hier was zu posten...

Das ist falsch, die Anzahl verschiedener Farbtöne ist immer 3*2^14 und noch mehr nach Skalierung. Farbtiefe in der Fotographie ist nicht die Bittiefe der IT-Grafikformate.
3*2^14 wäre die Anzahl der möglichen Farbtöne ohne Dithering. Mit Dithering betrüge sie 2^42. Im DxO Beispiel bei 6400 ASA wären es ohne Dithering 150 Farbtöne und mit Dithering ungefähr 92000.

Bitte lies daher (und versuche, zu verstehen) zunächst meine vorhergehende Antwort, den DxO Artikel und ggfs. die einschlägige Literatur, u.a. auch zum Stichwort Dithering. Ich möchte hier erstmal nicht mehr antworten, bis das verarbeitet ist.
Es geht mir auch ehrlich gesagt gar nicht darum nachzuweisen, daß die Zahlen auf DxO Mark falsch sind (dazu fehlt mir die Motivation), sondern darum, daß der Begriff Farbtiefe Sinn macht und es keinen Grund gibt, nur weil die tatsächliche Farbtiefe einer Kamera geringer ist, dafür einen anderen Begriff zu verwenden.

VG
 

Hans-Peter R.

Administrator
Hallo,

Es geht mir [...] darum, daß der Begriff Farbtiefe Sinn macht
ich gebe Dir jetzt offiziell die Erlaubnis im NF-F den Begriff "Farbtiefe" zu verwenden.

Ist damit Deinem Anliegen Genüge getan?

Ciao
HaPe
 

gugu

Sehr aktives Mitglied
Hallo,


ich gebe Dir jetzt offiziell die Erlaubnis im NF-F den Begriff "Farbtiefe" zu verwenden.

Ist damit Deinem Anliegen Genüge getan?
Danke für Deinen Segen, HaPe! Ich werde davon Gebrauch machen :)

Mich hatte es einfach nur gestört, daß man statt einer Argumentation dagegen, immer nur auf andere Webseiten verwiesen wurde mit dem Kommentar, man solle sich doch mal damit auseinandersetzen. Das die tatsächlichen Verhältnisse kompliziert sind war mir schon klar, genauso das es nicht leicht ist die genaue Anzahl an Farbtönen zu ermitteln die eine Kamera erzueugt. Tendenziell ist es aber so, daß mit zunehmender Farbtiefe die Anzahl der verfügbaren Farben größer wird, auch wenn es Fälle geben mag, wo eine Erhöhung gar keinen Unterschied macht. Von da her ist das nicht nur eine Zahlenspielerei ob die Kamera mit 12, 14, oder 16 Bit arbeitet.

VG
 

masi1157

ehemaliges Mitglied
3*2^14 wäre die Anzahl der möglichen Farbtöne ohne Dithering. Mit Dithering betrüge sie 2^42. Im DxO Beispiel bei 6400 ASA wären es ohne Dithering 150 Farbtöne und mit Dithering ungefähr 92000.
Nach der Rechenmethode, wieviele Farbtöne kannst Du denn mit Dithering mit einer einzigen Farbe und 1bit anzeigen? 2^1=2? Dann guck Dir mal die schwarzweißen Beispielbilder bei an. Ich sehe da genau 2 Farbtöne, wenn ich zu nah dran bin. Ich sehe sehr viele Grautöne, wenn ich, wie vorgesehen, ein bisschen Abstand halte. Und ich sehe nur noch einen, nämlich eine kleine eintönig graue Fläche, wenn ich sehr weit entfernt stehe.

Es geht mir auch ehrlich gesagt gar nicht darum nachzuweisen, daß die Zahlen auf DxO Mark falsch sind (dazu fehlt mir die Motivation), sondern darum, daß der Begriff Farbtiefe Sinn macht und es keinen Grund gibt, nur weil die tatsächliche Farbtiefe einer Kamera geringer ist, dafür einen anderen Begriff zu verwenden.
Du hast als Beispiel die "color sensitivity" bei DxOMark genannt. Hast Du mal bei denen geguckt, wie die selber sie ?



Gruß, Matthias
 

falconeye

Sehr aktives Mitglied
Von da her ist das nicht nur eine Zahlenspielerei ob die Kamera mit 12, 14, oder 16 Bit arbeitet.
Die Bitauflösung des ADC hat i.d.R. keinen Einfluss auf die fotographische Farbtiefe (Color Sensitivity):

Color sensitivity is the number of reliably distinguishable colors up to noise. Roughly speaking, two colors are considered as distinguishable if their difference is larger than the noise. In this respect, color sensitivity is the generalization of color to the notion of tonal range.
aus

Da die Farbdynamik viel geringer als die Luminanzdynamik ist (bei der D800 auf Pixelebene 7.3 EV je Farbkanal statt 13.2 EV Helligkeit bei ISO 100) bringt ein ADC ab >10 Bit bei der Farbtiefe keinen Vorteil mehr, bei der Luminanzdynamik ab >14 Bit nicht mehr. Übrigens ergibt sich aus den 7.3 EV die Farbtiefe nach Normalisierung auf eine Vergleichsbildgröße: 3*7.33 + 3.3 = 25.3 Bit (die DxO Color Sensitivity entspricht mehr der Farbvariante des Tonal Range statt Dynamic Range, aber die Unterschiede liegen im Rauschen hellerer Werte und haben, abgesehen von meiner Wahl der 10 EV, keinen Einfluss auf mein Argument).

Deine Zahlenbeispiele zum Dithering ergeben übrigens keinen Sinn. Per Dithering kann die wahrgenommene Farbtiefe (im Sinne der IT-Definition für Grafikformate) fast beliebig gesteigert werden, jeweils abhängig vom Ditheringalgorithmus. Einen Einstieg in das Thema bietet .

Ansonsten kann ich mich nur wiederholen.
 

Hans-Peter R.

Administrator
Hallo gugu,

hm :confused:, also ehrlich gesagt ist mir in zweierlei Hinsicht nicht so wirklich klar, worauf Du eigentlich hinaus willst.

Zunächst mal methodisch: Stellst Du in diesem Thread eigentlich eine Frage, für die Du eine Antwort erwartest? Oder willst Du schreiben, was einfach mal geschrieben werden musste? Oder möchtest Du uns zeigen, dass auf DxOMark nur Mist steht? Ich blick´s echt nicht :nixweiss:.

Wenn die Klärung eines Sachverhalts Dein Ziel ist, dann wäre es hilfreich auf den Gesprächspartner einzugehen und zu verstehen, was er sagt. Möglicherweise verbirgt sich ja hinter seiner Antwort die Lösung des Problems. Und: Möglicherweise besteht das Problem nur in der eigenen Denkweise. Wer die eigenen Vorstellungen immer wieder mal auf den Prüfstand stellt, hat alle Chancen wirklich Neues zu lernen.

Zweitens inhaltlich: Einige Deiner Einlassungen kann ich momentan noch nicht verstehen.

(1) "Unter 100 ASA". Ich vermute, Du meinst den Messwert bei den gemessenen ISO 74. Nun ja, das ist der Wert, der sich einstellt, wenn man ISO 100 anwählt. ISO Abweichungen sind bei allen Kameras üblich.

(2) "25,3 Bit": Soweit ich den Wert bei DxOMark verstanden habe, versteckt sich dahinter der Anzahl der unterscheidbaren Farbnuancen. Und das sind eben 2^25,3, also etwa 41,3 Mio Farbnuancen (alle drei Kanäle zusammen). Der Begriff Chrominanz-Kontrastbereich ist ja eher unüblich. Ob man nun die Farbnuancen so problemlos in drei gleich gewichtete Farbkanäle aufteilen kann weiß ich nicht, auf jeden Fall erschließt sich mir der Sinn nicht so ganz, warum man das tun sollte.

(3) In erster Näherung ergibt das eine theoretische Ausgangs-(!)Dynamik von 25,3 EV (praktisch wahrscheinlich viel weniger). Wie aber fast immer in diesen Diskussionen sind sowohl die reale Ausgangsdynamik (Farbnuancen) als auch noch viel mehr die theoretische Ausgangssynamik (Wortbreite der Speicherelemente) eine nahezu komplett irrelevante Größe, weil die Eingangsdynamik der physikalisch/technologisch limitierende Faktor in der Betrachtung ist. DxOMark gibt an, dass die D800 bei ISO 100 Kontraste mit einer Spanne von 14,3 EV vom kleinsten bis zum größten Kontrast des (wichtig!) Motivs detektieren und unterscheiden kann. In wie weit die Kamera nun diese Eingangsdynamik in die Ausgangsdynamik wandelt und kodiert, ist ihre Angelegenheit und sollte uns nicht wirklich beschäftigen. Ziemlich klar ist aber auch, dass die Wandlung spätestens in der RGB Datei alles andere als linear ist. Sie ist auch nicht "nur" mathematisch perfekt über eine Gamma-Lut (also logarithmisch) gestaucht, sondern durch die Überlappung der spektralen Empfindlichkeiten der einzelnen Sensel und ihrer Filter mit viel Optimierungsaufwand delinearisiert, damit sich vernünftige RGB-Werte ergeben, so dass es nicht nur unerquicklich, sondern auch unnötig ist, sich darüber den Kopf zu zerbrechen, wie genau das Nikon macht. Wir können es ja eh´ nicht ändern. Mir erscheint es jedenfalls nicht verwunderlich, dass man 21000 unterscheidbare Luminanz-Kontraste mit 41,3 Mio Chrominanz-Kontraste (alle drei Kanäle zusammen) transportieren kann.

Ciao
HaPe
 

gugu

Sehr aktives Mitglied
Erstmal danke an alle für Eure Antworten.

@ masi

Welcher Dithering-Alghoritmus in der Nikon verwendet wird, weiß ich ja gar nicht und ich schätze mal, das kann auch niemand hier genau sagen. Meine Rechnung bezog sich auf die maximale Zahl von Farbtönen die sich durch Mischung ergäbe. Also den Eindruck, den man durch ein Dithering haben könnte. Es sind also so gesehen nur rechnerische Farbtöne, aber irgendwie muß man ja versuchen die Menge zu Quantifizieren. In der Welt von Bits und Bytes ist die Menge der Farbinformation nun mal durch die rechnerisch kleinst mögliche Einheit begrenzt. Visuell ist das sowieso nochmal eine andere Geschichte, denn man kann einen Farbton ja nur als eigenständigen Farbton bezeichnen, wenn er sich von einem anderen unterscheidet. Sind die Unterschiede zu gering, nimmt man die beiden Töne auch nicht als unterschiedlich wahr. Eine theoretisch unendliche Menge gibt es eigentlich nur in der Theorie.
Der Grund warum ich mich auf DxO Mark bezog war einfach nur der, daß ich immer auf diese Seite verwiesen wurde. Auch wenn ich mich eher flüchtig mit deren Arbeit beschäftigt habe, sind mir zwei Dinge gleich aufgefallen. Die eine ist die, daß nirgendwo nachvollziehbar ist, wie sie nun tatsächlich auf diese Werte kommen. Werden zwar einige Formeln angegeben, aber wie sich ein konkret gemessener Wert daraus ergibt bleibt im Grunde unklar. Es fehlt also die Transparenz und offensichtlich der Wille die eigene Arbeit nachvollziehbar und zugänglich zu machen. Man kann an diese Zahlen glauben, oder nicht, aber man kann sie nicht wirklich überprüfen. Das andere sind die Werte selber. Betrachtet man z.B. nur die Modelle von Nikon, dann schneiden diejenigen mit der höchsten nominellen Auflösung am besten ab, das Rauschen scheint dabei also eine geringere Rolle zu spielen als die Auflösung.

@ Falk

Ja, das hatte ich auch schon gelesen. Laut DxO scheint für die 'Color Sensitivity' das Rauschen die entscheidende Einflußgröße zu sein und erwartungsgemäß sinkt sie ja auch bei steigender ASA Zahl. Wenn ich das richtig verstanden habe rechnen sie aber die 'verrauschten' Bits sozusagen heraus. Die sind aber eigentlich auch Teil des Bildes und fügen zusätzliche Farbtöne (wenn auch völlig 'falsche') dem Bild hinzu. Was einen dabei stutzig macht ist die geringe Zahl an Bits (und damit auch möglichen Farbtönen) die sie für die verschiedenen Kameramodelle angeben. Und auch hier scheint die Auflösung der Kamera fast die größere Rolle zu spielen. Die Color Sensitivity steigt laut DxO wie folgt D3s – D4/D3x – D600 – D800. Zumindest die D4 dürfte eigentlich weniger Rauschen als die D600 (zumindest nicht mehr) und die D3s auch weniger als die D3X. Dein Zitat von DxO erklärt also nicht die gemessenen Werte.
Was Deine Anmerkung zum Dithering betrifft hast Du schon recht. Deine Überlegungen zur Farbdynamik sind mir allerdings unklar. Wieso 7,3 EV Dynamik je Farbkanal? Die Dynamik addiert sich doch auch nicht pro Farbkanal. Und wie die 13,2 EV an Luminanzdynamik da reinpassen verstehe ich auch nicht so ganz. Aus der 'Mischung' verschiedener Farbtöne ergeben sich zwar neue Farbtöne, an deren Helligkeit ändert das allerdings nichts. Oder anders gesagt, das hellste Rot ist nicht viel heller als das hellste Blau und auch eine Umwandlung in Graustufen verringert nicht die Dynamik der Kamera. Für mich ist die Dynamik der höchstmögliche Kontrastumfang der in einer Aufnahme dargestellt werden kann. Bei 14,4 EV Dynamik einer D800 wäre das ein Kontrast von ca. 1:21000. Und das wird mit zumindest rechnerisch 14 Bit pro Kanal (16000 Graustufen) dargestellt. Laut DxO sogar 'nur' mit weniger als 400 Graustufen.

@ HaPe
Ich hatte einen neuen Thread eröffnet, weil sich beklagt wurde, daß es in dem anderen Off Topic wäre. Eigentlich wollte ich nur nochmal Stellung dazu nehmen, warum ich den Begriff Farbtiefe verwendet habe, obwohl scheinbar viele der Meinung waren, es handele sich dabei (den besagten 14 Bit) um etwas völlig anderes als die Farbtiefe.
Es ist ja auch mittlerweile ziemlich klar, daß es sich dabei um die 'rechnerische Farbtiefe' handelt und die tatsächliche in Wirklichkeit geringer ist. Jetzt möchte ich eigentlich nur noch verstehen, warum behauptet wird, daß bei Farbtiefen höher als 10 Bit keinen Vorteil brächten. Ich bezeifelte deshalb die Zahlen von DxO und versuche annähernd zu verstehen, was Falk mir da gerade vorrechnet :) Ich weiß allerdings aus der Praxis, daß eine Kamera die mit einer höheren Farbtiefe arbeitet die Farben besser/naturgetreuer zeigt. Es also durchaus Sinn macht, nicht mit niedrigen Farbtiefen (10 oder 12 Bit) zu arbeiten.
Deine Punkte 1 und 2 sehe ich ähnlich. Bei der Dritten kann ich Deinen Überlegungen auch nicht mehr richtig folgen. 25,3 EV Ausgangdynamik? Wie kommt man darauf? Die Wortbreite/Rechengenauigkeit alleine gibt prinzipiell keine Auskunft darüber, welche Kontraste die Sensoren bewältigen können. Nur wie fein die Abstufungen der Tonwerte sein könnten. Ich glaube wir haben alle eine etwas unterschiedliche vorstellung davon, was Dynamik eigentlich ist und deshalb kommt es wahrscheinlich auch zu so unterschiedlichen Aussagen. Ihr rechnet irgendwie immer alle Farbkanäle zusammen.

VG
 

masi1157

ehemaliges Mitglied
Welcher Dithering-Alghoritmus in der Nikon verwendet wird, weiß ich ja gar nicht und ich schätze mal, das kann auch niemand hier genau sagen.
Du meinst, Nikon würde "absichtlich" Dithering hinzufügen? Das mag ich kaum glauben. Und wenn ich richtig verstehe, tut das auch gar nicht not, denn zum Glück rauscht so ein Bild ja.

Meine Rechnung bezog sich auf die maximale Zahl von Farbtönen die sich durch Mischung ergäbe. Also den Eindruck, den man durch ein Dithering haben könnte.
Das ändert aber nichts daran, dass die Rechnung nicht stimmt.

Auch wenn ich mich eher flüchtig mit deren Arbeit beschäftigt habe [...]
Meinst Du nicht, Du solltest Dich ein bisschen intensiver damit auseinandersetzen, wenn Du es infragestellen möchtest?

Wenn ich das richtig verstanden habe rechnen sie aber die 'verrauschten' Bits sozusagen heraus.
Dann hast Du es offenbar nicht richtig verstanden. Da das in 3 Dimensionen etwas unübersichtlich ist, könntest Du Dir mal den eindimensionalen Fall angucken und dann mal mit eigenen Worten erklären, wo der Unterschied zwischen "tonal range" und "dynamic range" liegt. die Erklärung von DxOMark.




Gruß, Matthias
 

gugu

Sehr aktives Mitglied
@ masi

Deinen Post verstehe ich jetzt nicht so ganz. Da steht doch genau das gleiche was ich die ganze Zeit sage. Der 'tonal range' (Tonwertumfang) hat keinen Einfluß auf den 'dynamic range' (Dynamikumfang). Deshalb gibt's da auch nix zu addieren, oder sonstwie in Farbkanälen zusammen zu rechnen.

VG
 

Hans-Peter R.

Administrator
Hi gugu,

Eigentlich wollte ich nur nochmal Stellung dazu nehmen, warum ich den Begriff Farbtiefe verwendet habe, obwohl scheinbar viele der Meinung waren, es handele sich dabei (den besagten 14 Bit) um etwas völlig anderes als die Farbtiefe.
Die meisten denken vermutlich, dass die "bekannten" 14 Bit die Wortbreite sind, in denen Nikon-Kameras einen Senselwert speichert. Die Container-Größe sozusagen. Wenn Du das als Farbtiefe bezeichnen willst, dann ist das ja okay (Segen ... siehe oben :liturgy:) aber es wäre günstig, wenn Du diese Wortbedeutung nicht als allgemeingültig voraussetzen würdest. Manche sehen in RAW-Daten beispielsweise noch gar keine Farbe, geschweige denn eine tiefe Farbe ... ääh ... Farbtiefe. Aber egal. Abgehandelt.

Jetzt möchte ich eigentlich nur noch verstehen, warum behauptet wird, daß bei Farbtiefen höher als 10 Bit keinen Vorteil brächten.
Wer behauptet den sowas. Wo ist der Kerl :threat:?

Ich weiß allerdings aus der Praxis, daß eine Kamera die mit einer höheren Farbtiefe arbeitet die Farben besser/naturgetreuer zeigt.
Verstehe ich das richtig: Du siehst es einem unbearbeiteten (und in ein 3*8 Bit umgerechneten) RGB-Bild an, ob vorher das zugehörige RAW-File einen 12 oder 14 Bit A/D-Wandler durchlaufen hat? :respekt:

25,3 EV Ausgangdynamik? Wie kommt man darauf?
Am liebsten gar nicht :rolleyes:. Du sprichst immer von der Ausgangsdynamik. Ich will eigentlich immer von der Eingangsdynamik sprechen, weil das die Größe ist, die in der Fotografie interessant ist.

Ihr rechnet irgendwie immer alle Farbkanäle zusammen.
In manchen Situationen tut man sich RGB-Farbraum schwerer als es sein müsste. Man möchte über Helligkeiten (bzw. Helligkeitsunterschiede aka Luminanz-Kontraste) sprechen, hat aber nur Farbwerte (die Kombination aus Luminanz- und Chrominanz-Kontrast) zur Verfügung. In so einer Situation kann es hilfreich sein, wenn man einfach den Farbraum wechselt und die Betrachtung z. B. im Lab System durchführt. Hier ist das Leben einfacher. Hier werden die Farben (und nur die Farben, nicht die Helligkeiten) durch ein Koordinatensystem ausgedrückt mit den Koordinaten a und b. Und die Helligkeit (und nur die Helligkeit, nicht die Farben) werden durch die Luminanz-Zahl L (zwischen 0 und 1 und beliebig vielen Nachkommastellen) ausgedrückt. Jeden RGB-Wert kann man in einen Lab Wert umrechnen (siehe Wikipedia) dabei wird man für alle denkbaren RGB-Werte kaum (ich habs noch nicht ausprobiert) zweimal den gleichen L-Wert ausrechnen. Und wenn ich also bei 2^24 RGB-Werte 2^24 unterschiedliche L-Werte errechne, dann heißt das, dass ich 2^24 unterschiedliche Luminanzen in meinen RGB-Pool habe. In wie weit diese nun betragsmäßig äquidistant sind, bzw. ob diese Vielzahl von Luminanzwerte direkt als Dynamik durchgeht, erfordert natürlich noch einer eingehenden Untersuchung. Du kannst mit 3*8 Bit RGB Daten vielleicht nur 2^8 = 256 diskrete Graustufen darstellen, das bedeutet aber nicht, dass mit den Grauwerten gleichzeitig alle Luminanzwerte abgehandelt sind.

Konstruktiver Widerspruch ist willkommen. Ich lerne gerne dazu.

Ciao
HaPe
 

gugu

Sehr aktives Mitglied
@ HaPe

Haha... Nein, ich sehe das eigentlich nicht so eng, was die Wortwahl betrifft. Vielleicht hilft es, sich einen dreidimensionalen Farbraum mit den Koordinaten x,y,z vorzustellen. Der hat dann auch 'ne Tiefe :)

Mit Deiner Luminanzüberlegung im Lab Farbraum liegst Du aber, glaube ich, falsch. Es werden keine 2^42 Helligkeitswerte sein, weil sich manche Töne nur in den a und b Werten unterscheiden.

VG
 

falconeye

Sehr aktives Mitglied
der Unterschied zwischen "tonal range" und "dynamic range" liegt. die Erklärung von DxOMark.
Danke für den Link, der ist sicher hilfreich, da er auf DxO nicht über das Stichwort "Tonal Range" verlinkt ist.

[MENTION=75111]gugu[/MENTION] ... zwar ist Tonal und Dynamic Range verschieden, aber nicht unabhängig voneinander. Beide errechnen sich i.w. aus dem dunkelsten Lichtwert, der noch nicht zu mehr als 100% verrauscht wird. Beim Tonal Range wird das Rauschen bei jedem Grauwert berücksichtigt (im wesentlichen durch die Natur vorgegeben), beim Dynamic Range nur das Verhältnis der Extrema. Daher wird Tonal Range in Bit, Dynamic Range in EV angegeben.

Bei der Color Sensitivity ergibt sich ein 3D-Volumen, daher multipliziert sich der Tonal Range pro Farbkanal mit 3.

Schliesslich normiert DxO auf eine 8MP Ausgabegröße, daher sollten sich durch unterschiedliche Pixelzahlen erst einmal gar keine Unterschiede ergeben.

Du machst Dir immer noch nicht die Mühe, zu verstehen, worüber Du schreibst. Sehr bedauerlich. DxO ist voll von Infos. Einfach lesen.
 

masi1157

ehemaliges Mitglied
Bei der Color Sensitivity ergibt sich ein 3D-Volumen, daher multipliziert sich der Tonal Range pro Farbkanal mit 3.
Hier muss ich gugu nun allerdings ein kleines bisschen rechtgeben:

Der 'tonal range' (Tonwertumfang) hat keinen Einfluß auf den 'dynamic range' (Dynamikumfang). Deshalb gibt's da auch nix zu addieren, oder sonstwie in Farbkanälen zusammen zu rechnen.
Die "color sensitivity" bei DxOMark ist natürlich nicht 3x so groß wie deren "tonal range" (klar, der wird ja für Grau bestimmt, nicht für einzelne Farben). Und es ist strenggenommen auch nicht so, dass die "Farbtiefe" pro Farbkanal jeweils gleich groß und 1/3 der "color sensitivity" ist. Aber im Mittel wird das wohl hinhauen und bei logarithmischen Größen darf man das wohl großzügig so annehmen. Für besseres Verständnis wäre aber wohl ein "näherungsweise" angebracht gewesen. Und wenn doch nicht, gibt es irgendwo bei DxOMark auch "Farbtiefen" aufgedröselt nach Farbkanal?


Gruß, Matthias
 

gugu

Sehr aktives Mitglied
Du machst Dir immer noch nicht die Mühe, zu verstehen, worüber Du schreibst. Sehr bedauerlich. DxO ist voll von Infos. Einfach lesen.
Du kannst mir ja viel vorwerfen aber das sicher nicht. Trotzdem danke für Deinen Post. Jetzt jetzt ist mir auch klar, warum ich Dich nicht verstehe :) Ich habe nicht vor Dich von irgendetwas überzeugen zu wollen. Mein Verständnis von dem Thema ist aber ein ganz anderes und mir ist daran gelegen die Dinge nicht unnötig zu verkomplizieren. Das Ausrechnen eines konkreten Wertes ist mir nicht so wichtig, wie die Zusammenhänge zu verstehen, um die es eigentlich geht.

VG
 

masi1157

ehemaliges Mitglied
[MENTION=75111]gugu[/MENTION], so ganz richtig habe ich nicht verstanden, worauf Du nun eigentlich hinaus wolltest. Na ja, ist vielleicht auch nicht so wichtig.

And now for something completely different: Ausgelöst durch diese und einige vorherige Diskussionen habe ich mich mal wieder ein bisschen durch die Publikationen bei DxOMark gelesen und wollte eigentlich eine kleine beispielhafte Fehlerrechnung machen, bin dabei aber an einer Stelle hängen geblieben.

vergleicht DxOMark in einer Fallstudie die D5000 mit einer Canon 500D und zeigt dabei auch sehr sehr schön die Unterschiede zwischen "dynamic range" und "color sensitivity". Bei den Skalierungen auf der 3. Seite habe ich gleich 2x den gleichen Fehler gefunden und wollte schon "ertappt!" schreien. Aber es ist nur ein Schreibfehler, die Rechnung ist richtig. Wer findet ihn?

Schließlich habe ich mir die Daten unter "color response" zu Gemüte geführt. mal die der 500D. Ich habe verstanden, dass die "color matrix" nach ISO17321 einfach durch Inversion aus den Werten der oberen 3 Grafiken bestimmt wird. Ist ja auch logisch.

Und ich habe gesehen, dass die "white balance scales" einfach nur die Kehrwerte der "relative sensitivities" (4. Grafik) sind. Auch das nicht unlogisch, allerdings verstehe ich dann nicht, warum die einen auf die sRGB-Farbkanäle bezogen sind und die anderen auf die Raw-Kanäle. Ist das richtig so? Und wenn ja, warum? In meinen Augen ist das ein Fehler. Ich wüsste jetzt auch nicht, was von beiden richtiger wäre, vermute aber "sRGB".

Kann das jemand erklären?




Gruß, Matthias
 

Um antworten zu können musst du eingeloggt sein.

Hast du dein Passwort vergessen?
Du hast noch kein Benutzerprofil? Jetzt registrieren
Oben
LiveZilla Live Chat Software