Ist 16 Bit Quatsch oder nicht?

Thread Status
Hello, There was no answer in this thread for more than 30 days.
It can take a long time to get an up-to-date response or contact with relevant users.
Danke afx!

Ein paar sehr interessante Aspekte, was die Farbraumgröße angeht.

ProPhotoRGB kenne ich nicht. Mein Kalibrier-Guru arbeitet in WideGamutRGB und Margulis nutzt ein Custom-RGB.

Wenn Du ein so teures Spektralphotometer zum Einmessen Deiner Ausdrucke benutzt, kann ich mir Vorstellen, dass Du ein Maximum aus Deinem Drucker und Papier herausholst, aber wie passt das zusammen?

Ein 2000-Euro-Kalibrator und ein 79-Euro-Drucker. Da verstehe ich das Konzept nicht ganz, kannst Du es erklären?

Herzliche Grüße

Frank

Und ein breiter Raum braucht 16bit, siehe unten.


Der Canon Treiber bekommt schon an das Papier angepasste Daten von PWP.


Damit meinte ich das Profil für Papier/Tinte das mit mit 'nem EyeOne Photo gemacht wurde. PS hab ich nicht....



Wenn ich das Drucker/Papierprofil mit z.B. sRGB vergleiche, so sieht man, daß er in einigen Punkten mehr kann als sRGB unter anderem auch im roten Bereich. Das sieht man aber nur in der 3D Projektion, in 2D fällt das nicht auf...



Wo außer in 16bit willst Du ProPhotoRGB einsetzen? So einen breiten Farbraum auf 8bit ist ein Disaster. Genau da bekommst Du dann Stauchungen/Stufen, da die 8bit nicht reichen um den Farbumfang sauber darzustellen. Solange Du im raw Konverter arbeitest, bist Du immer im 16bit Raum, das sollte man nicht vergessen.

cheers
afx
 
Kommentar
Anzeigen
Ich meinte im Anfangsposting 16 Bit für Korrekturen auf ein klar abgegrenztes 8-Bit-Zielprofil und dachte bisher, ich hätte mich klar ausgedrückt.

Um ehrlich zu sein, ich find's nach wie vor ziemlich wirr und unklar, worauf du hinauswillst :rolleyes:
 
Kommentar
Das bringen 16Bit

jeweils ein Verlauf mit 15 Graustufen auf 256 Graustufen gepusht:

8Bit:
nf_8bit.jpg


16Bit:
nf_16bit.jpg
 
Kommentar
Der Rest Deines Beitrags zeigt mMn, das Du meinen Text entweder nicht gelesen oder nicht verstanden hast und dass Du Dich noch nie mit Farbraum und Farbdifferenzierung von Foto- und Druckerpapieren beschäftigt hast.

Gelesen und nicht 100%ig verstanden. Rest oberflächlich absolviert.

Prinzipiell stellt sich mir die Frage warum ausgerechnet 8 Bit für die Bildbearbeitung genügen beziehungsweise optimal sein sollen, wo sich diese Ziffer doch schlicht und ergreifend in den Anfängen der EDV ergeben hat, als noch mit 8 Bit gerechnet wurde.

Desweiteren lese ich in seriösen Zeitschriften zum Thema: Es gebe durchaus Ausgabegeräte (Tintenstrahler) die einen größeren Farbraum als sRGB bewältigen. Das weisst Du sicher, ich selbstmir aber unsicher was die Bittiefe in diesem zusammenhang betrifft. Ist sRGB gleichzeitig 8 Bit?

Aufgefallen ist mir weiters, daß es nicht mehr bzw. weit weniger oft zu Farbabrissen nach z.B. Gradationskurvenbearbeitung kommt seit ich vernünftig geworden bin, in RAW (D200) abspeichere und 16 Bit bearbeite um hinterher meist in 8 Bit abgespeichert auszugeben.
 
Kommentar
Habe die Fragestellung auch nicht ganz verstanden und versuch sie deshalb auf meine Art (IMHO) zu beantworten!

Es gibt drei Teile bei der digitalen Bildverarbeitung wo die Bit-Tiefe wichtig ist:
a) Aufnahme (Digitalisierung), b) Verarbeitung+Speicherung, c) Ausgabe.

a) Unsere besten Sensoren sind momentan mit einem Dynamikumfang von ca. 9-11 f-stops, also nicht mehr als 10-12 Bit, ausgestattet. 14 Bit sind also schon jenseits des normalen Dynamikumfanges und beinhalten deshalb auf den beiden letzten Bits meistens nur Rauschen! Auf 16Bit bei der Digitalisierung umzusteigen ist erst sinnvoll wenn zumindest 13-14stops Dynamikumfang vom Sensor kommt!

b) Bei der Verarbeitung macht es Sinn 16 Bit anzuwenden da diverse Schritte wie Weißabgleich, entrauschen, Farbraumkonvertierung, ... nacheinander erfolgen und additive Fehler zu den im Bild schon vorkommenden Fehlern dazukommen würden wenn alle Operationen nur mit der selben Auflösung durchgeführt werden wie das Eingangssignal hat (jeweils zwei aufeinander folgende Operationen können ein weiteres Bit kosten, 4 zwei, 8 drei, u.s.w...). Deshalb sollten alle RAW-Konverter und Bildbearbeitungsprogramme mit 16 Bit arbeiten (wenn sie es eh nicht schon tun)

c) Bei der Ausgabe ist dann alles über 10 Bit komplett unnütz. Kein (bezahlbares und standardmäßiges) Medium kann momentan mehr als 10 Bit auflösen. Das gilt für den Drucker, den Druck und auch für den Bildschirm. bei allen normalen Geräten sind sowieso 8 Bit das Ende der Fahnenstange.

JPEG ist ein Format welches ausreichend Informationen für die Ausgabe enthält, RAW eines welches mehr als ausreichend die Digitalisierung beschreibt und dazwischen ein guter RAW-Konverter der mit 16 Bit arbeitet und eventuell ein gutes Bildbearbeitungsprogramm welches per 16Bit TIFF die Daten vom RAW-Konverter bekommt: Ja!
16 Bit Eingabe oder Ausgabe: Nein, Unsinn!
 
Kommentar
Aufgefallen ist mir weiters, daß es nicht mehr bzw. weit weniger oft zu Farbabrissen nach z.B. Gradationskurvenbearbeitung kommt seit ich vernünftig geworden bin, in RAW (D200) abspeichere und 16 Bit bearbeite um hinterher meist in 8 Bit abgespeichert auszugeben.


Wenn man die Kurven global anwendet oder die Dreipunktkurven, die sich "Tonwertkorrektur" nennen, kommt es zu solchen Problemen.

Wenn man sauber pro Kanal arbeitet und mit den Pipetten einen Überblick darüber behält, was in den kritischen Bereichen der zukünftigen Ausgabedatei bei der Optimierung passiert, kommt es nicht zu solchen Problemen.

Wenn man ein Ausgabegerät mit großem Farbraum hat, wie afx es offenbar besitzt, dann soll man bitte ganz im Sinne meines Ausgangspostings in genau diesem Farbraum arbeiten, um optimale Ergebnisse zu erzielen.

Dass unterschiedliche Farbraumwahl im Ergebnis sichtbar wird, glaube ich ja auch sofort, dass bei gleichem Farbraum 16 Bit und 8 Bit sichtbar unterschiedliche Ergebnisse bringen glaube ich erst, wenn ich es gesehen habe. Ob der ProPhotofarbraum wirklich nur in 16 Bit existiert, habe ich noch nicht recherchiert.

Herzlich

Frank
 
Kommentar
Das Spezialproblem computergenerierter Grauverläufe hatte ich bereits weiter oben als 16-Bit-Ausnahme angesprochen.

Dann halt einen Sonnenuntergang mit RAW+JPEG Option, während das RAW noch als Zwischenschritt per TIFF-Export per CNX in PS landet. Sage mir was Du willst, aber den Unterschied sieht selbst meine Frau. Verstehe mich jetzt nicht falsch, denn über 90% aller Bilder werden hier rein per JPEG aufgenommen und nur was ich im Vorfeld irgendwie für problematisch erachte, wird "vorsorgehalber" mit mehr "Luft" für die Nachbearbeitung abgespeichert.
 
Kommentar
Wenn man die Kurven global anwendet oder die Dreipunktkurven, die sich "Tonwertkorrektur" nennen, kommt es zu solchen Problemen.

Wenn man sauber pro Kanal arbeitet und mit den Pipetten einen Überblick darüber behält, was in den kritischen Bereichen der zukünftigen Ausgabedatei bei der Optimierung passiert, kommt es nicht zu solchen Problemen.

Als nicht-Profi müssen bei mir nicht viele Bilder perfekt ausgearbeitet sein, die Zeit hätte ich gar nicht. Ich verwende die "Dreipunktkurve" meist zur raschen Kontraststeigerung, und das sehr sehr sparsam. Auch für die "schnelle", alltägliche Nachbearbeitung empfinde ich den 16 Bit Modus daher vorteilhafter. Er verzeiht mehr Ungenauigkeit, wenn ich dich richtig verstanden habe; und die angesprochenen Farbabrisse waren auch auf 30x20 schon störend wahrnehmbar.

PS: Allerdings schließe ich nicht völlig aus, daß geschilderte Probleme nicht ausschließlich an meiner nach wie vor besser werdenden EBV-Kompetenz liegen... :rolleyes:
 
Kommentar
Das Spezialproblem computergenerierter Grauverläufe hatte ich bereits weiter oben als 16-Bit-Ausnahme angesprochen.

Trifft aber genau so auf kameragenerierte Verläufe (z.B. Himmel) zu und hier führt 16Bit bei der Bearbeitung auch zu den gezeigten Vorteilen.
 
Kommentar
ProPhotoRGB kenne ich nicht. Mein Kalibrier-Guru arbeitet in WideGamutRGB und Margulis nutzt ein Custom-RGB.
ProPhotoRGB is bei Lightroom standard, kommt von Kodak. Is einfach das Monster.

Wenn Du ein so teures Spektralphotometer zum Einmessen Deiner Ausdrucke benutzt, kann ich mir Vorstellen, dass Du ein Maximum aus Deinem Drucker und Papier herausholst, aber wie passt das zusammen?

Ein 2000-Euro-Kalibrator und ein 79-Euro-Drucker. Da verstehe ich das Konzept nicht ganz, kannst Du es erklären?
War ja nicht mein Messgerät ;-)
Es gibt freundliche Menschen die das für mich gemacht haben.
Ich hab selber mit 'nem geliehenen Spyder Pro Paket probiert, aber dem Geraffel konnte ich den Grünstich nicht abgewöhnen.

Und ich glaube auch nicht, daß mein kleiner Canon so absonderlich ist, meine Erfahrung mit Bildschirmen zeigt ebenfalls, daß ein breites Bild runtergerechnet auf meinen NEC oder dem Thinkpad besser kommt als die schmalen.

ProPhoto existiert nicht nur in 16bit, aber genauso wie Widegamut und alles andere was signifikant breiter als AdobeRGB ist, macht es absolut keinen Sinn das in 8bit zu quetschen, da kommt nur Murks raus da viel zu wenig Bits da sind um die verfügbaren Farbabstufungen aufzunehmen.


@Nixel: sRGB in 16bit ist Verschwendung. Macht nicht wirklich Sinn.

@fscherz: Dynamikumfang und Bittiefe sind zwei paar Schuhe. Bitte nicht durcheinanderbringen. Die Bittiefe sag was über die Abstufungsmöglichkeiten innerhalb eines gegebenen Dynamikumfangs aus, nicht aber über den maximalen Dynamikumfang.
Und je nachdem wann wie auf die Bittiefe des Ausgabegerätes angepasst wird, macht u.U. nen riesen Unterschied. Ein JPG sieht je nach Motiv auf meinem Billigpisser lang nicht so gut aus wie ein 16bit TIFF, siehe meine Experiment Beschreibung von oben.

cheers
afx
 
Kommentar
ProPhotoRGB is bei Lightroom standard, kommt von Kodak. Is einfach das Monster.

Danke


War ja nicht mein Messgerät ;-)
Es gibt freundliche Menschen die das für mich gemacht haben.
Ich hab selber mit 'nem geliehenen Spyder Pro Paket probiert, aber dem Geraffel konnte ich den Grünstich nicht abgewöhnen.

Mein Test Spyder/Datacolor gegen Gretag/X-Rite (gleiche Preisklasse) war eindeutig. Ich bin bei Gretag geblieben

Und ich glaube auch nicht, daß mein kleiner Canon so absonderlich ist, meine Erfahrung mit Bildschirmen zeigt ebenfalls, daß ein breites Bild runtergerechnet auf meinen NEC oder dem Thinkpad besser kommt als die schmalen.

ProPhoto existiert nicht nur in 16bit, aber genauso wie Widegamut und alles andere was signifikant breiter als AdobeRGB ist, macht es absolut keinen Sinn das in 8bit zu quetschen, da kommt nur Murks raus da viel zu wenig Bits da sind um die verfügbaren Farbabstufungen aufzunehmen.


Und da kommen wir in das Reich der Spekulation.

Nimm ein kritisches Motiv (Haut vor Himmel mit sanften Verläufen), speicher es direkt vom RAW zwei mal

1) als 16-Bit-TIFF im Zielfarbraum

2) als 8-Bit-TIFF im gleichen Farbraum


Dann führe auf beiden Dateien die gleiche Kette von Bearbeitungsschritten aus und mach je zwei Ausdrucke davon. Das eine Pärchen kennzeichnest Du auf der Rückseite mit "8Bit" und "16Bit" und legst es ab, das andere Pärchen kennzeichnest Du nicht und lässt die Bilder ein paar Tage ruhen. Bitte eine Person, die sich mit der Sache nicht beschäftigt, darum die Bilder ab und zu zu vertauschen, dass auch Du selber nicht mehr durch Ablage weißt, welches der ungekennzeichneten Bilder welches ist. Dann zeig die Bilder vom Laien bis zum Profi möglichst vielen Leuten und führe eine Liste wer meint, welches der Bilder besser ist.

Bei der Bearbeitung bitte auf folgendes achten:

Als allererstes die Gradationskurven auf die einzelnen Kanäle anwenden, um die wichtigen Bereiche zu betonen und Farbstiche zu korrigieren. Niemals Gardationskurven nach dem Schärfen oder anderen artefaktträchtigen Maßnahmen anwenden.

Eine wirklich gute Anleitung gibt es zum Download bei http://www.addison-wesley.de nämlich das dritte Kapitel von "Photoshop Farbkorrektur" von Dan Margulis als Leseprobe (verlinken funktioniert nicht, Ausdrucken geht nur mit ghostscript und anderen Programmen, die das "nicht-drucken-sollen" ignorieren). Das Buch hat mir in vielen Punkten echte die Augen geöffnet und ist auch der Anlass für diese Diskussion.

Meine Prognose: Der Unterschied wird nicht sichtbar oder sonstwie feststellbar sein. Wenn Du Dir dann nach ein paar Wochen die gekennzeichneten Bilder holst, wirst Du es auch sehen.

Herzlich

Frank
 
Kommentar
Die Diskussion läuft ziemlich wirr.

Zunächst zur Bildaufnahme: es gibt eine Faustregel aus der Messtechnik, wonach die sinnvolle Grenze für die Auflösung eines Analog-Digital-Wandlers bei 12 Bit liegen soll, was bedeuted, dass das Eingangssignal in 4096 Stufen aufgelöst wird. Eine noch feinere Auflösung sei nicht sinnvoll, weil noch kleinere Schwankungen des Messignals im Rauschen untergehen würden. Allerdings sind überlieferte Faustregeln nicht immer das Wahre. Zum Einen sollte man dazu immer sagen, wie groß der maximale Signalpegel ist (in der Messtechnik geht man meist von 5 Volt aus, bei Aufteilung in 4096 Stufen entspricht dies 1,2 Millivolt pro Stufe), zum anderen schläft die Entwicklung auch in der Analogtechnik nicht. 16 Bit entsprechen 65536 Stufen, unser 5-Volt Signal müsste dann in Schritte von 0,076 Millivolt aufgelöst werden. Eine so geringe Abstufung dürfte tatsächlich im Rauschen untergehen. 14 Bit, entsprechend 16384 Stufen oder 0,3 Millivolt, sind ein sinnvoller Wert. Da unsere Computer aber nur in Vielfachen von 8 Bit organisiert sind, muss man die Werte zwangsläufig mit 16 Bit abspeichern.

Intern rechnen aktuelle Computer mit 32 Bit (Mikroprozessoren mit 64 Bit Rechenwerken gibt es zwar, werden aber von den gängigen Betriebssystemen und Bildverarbeitungsprogrammen nicht unterstützt). Ich gehe mal davon aus, dass Zwischenwerte innerhalb der Bildbearbeitung als Gleitkommazahlen berechnet werden, das heißt mit einer Auflösung für die gültigen Ziffern von 24 Bit. Dies sollte auch für die feinsten Zwischenwerte reichen. Klar ist, dass Zwischenwerte mit höherer Auflösung berechnet werden müssen als jener des Eingangssignals, wenn es nicht zu "numerischem Rauschen", ausgelöst durch Rundungsfehler, kommen soll!

Bleibt das Ausgabemedium. Dies muss höher auflösen als das menschliche Auge. Ich habe mir sagen lassen, dass das menschliche Auge nicht mehr als 256 Stufen pro Farbkanal auflösen kann, weshalb 8 Bit pro Farbkanal ausreichen sollen, aber wie "lemonstre" uns bereits gezeigt hat, gilt dies nicht für Graustufen - da löst das Auge durchaus höher auf. Unterscheiden muss man auch zwischen Druck und Projektion.

Fazit: Mit 14 Bit messen, mit 16 Bit speichern, mit 32 Bit rechnen und mit 8 Bit (jeweils pro Farbkanal) drucken.

Gruß
Uwe
 
Kommentar
Nimm ein kritisches Motiv (Haut vor Himmel mit sanften Verläufen), speicher es direkt vom RAW zwei mal

1) als 16-Bit-TIFF im Zielfarbraum

2) als 8-Bit-TIFF im gleichen Farbraum
Genau das is schon daneben. Zumindest wenn Du nen schmalen Farbraum als Zielraum ansiehst. Da sind die 16bit volle Verschwendung.

Genau deshalb interessiert mich das nicht die Bohne. In 16bit in schmalen Farbräumen arbeiten bringt nicht sehr viel, außer Du machst extreme Manipulationen.

Meine Prognose: Der Unterschied wird nicht sichtbar oder sonstwie feststellbar sein. Wenn Du Dir dann nach ein paar Wochen die gekennzeichneten Bilder holst, wirst Du es auch sehen.

Ich würde da auch nix anderes erwarten.
Wie gesagt wenn breit dann richtig. Keine halben Sachen.
Die Farbraumbegrenzung hat da den wesentlichen Einfluss, nicht die Bittiefe. Und damit breite Räume funktionieren brauchst Du die Bittiefe.

cheers
afx
 
Kommentar
Die Diskussion läuft ziemlich wirr.

Meine Schuld, aber auch Sinn der Sache, denn ich will mich anhand von mehr Input und Meinungen in der Sache orientieren

Bleibt das Ausgabemedium. Dies muss höher auflösen als das menschliche Auge. Ich habe mir sagen lassen, dass das menschliche Auge nicht mehr als 256 Stufen pro Farbkanal auflösen kann, weshalb 8 Bit pro Farbkanal ausreichen sollen, aber wie "lemonstre" uns bereits gezeigt hat, gilt dies nicht für Graustufen - da löst das Auge durchaus höher auf. Unterscheiden muss man auch zwischen Druck und Projektion.

Selbstleuchtende Wiedergabemedien (also Projektoren oder Monitore) können den Farbraum durch höhere Leuchtdichten vergrößern. Hier ergibt es u.U. Sinn mit mehr Farbtiefe zu arbeiten, denn das wird u.U. sichtbar.

Fazit: Mit 14 Bit messen, mit 16 Bit speichern, mit 32 Bit rechnen und mit 8 Bit (jeweils pro Farbkanal) drucken. Gruß Uwe

DIE FRAGE BLEIBT WEITERHIN: Wenn ich im vom RAW-Konverter an im Zielfarbraum (Farbraum des Zielmediums) bleibe, kann ich dann bei 8-Bit-Ausgabe einen sichtbaren Unterschied zwischen kompetenter 8-Bit- und 16-Bit-Bearbeitung sehen?

Es grüßt

Frank
 
Kommentar
DIE FRAGE BLEIBT WEITERHIN: Wenn ich im vom RAW-Konverter an im Zielfarbraum (Farbraum des Zielmediums) bleibe, kann ich dann bei 8-Bit-Ausgabe einen sichtbaren Unterschied zwischen kompetenter 8-Bit- und 16-Bit-Bearbeitung sehen?
Die Frage ist in sich schon kaputt.
Es gibt meines Wissens nach heutzutage keinen raw Konverter mehr der in 8bit arbeiten kann. Das is alles 16bit.

cheers
afx
 
Kommentar
Genau das is schon daneben. Zumindest wenn Du nen schmalen Farbraum als Zielraum ansiehst. Da sind die 16bit volle Verschwendung.

Genau deshalb interessiert mich das nicht die Bohne. In 16bit in schmalen Farbräumen arbeiten bringt nicht sehr viel, außer Du machst extreme Manipulationen.

Da kommen wird der Sache doch näher:

a) Du kannst nicht mehr Farben und Differenzierung Deines Bildes ins Ergebnis retten, als Deine Papier/Druckerkombination gestatten

b) daher ergibt es keinen Sinn, im Computer mit mehr Farben und einer größeren Farbtiefe zu arbeiten, denn dann ist das was Du am Bildschirm siehst garantiert nicht das, was Du nachher bekommst.

Beispiel: Ich hatte jetzt einen Offsetauftrag zu Ostern. Aufgrund des sehr engen Zeitbudgets mussten wir mit verkürzten Trocknungszeiten leben, bei 260% Farbauftrag war Schluss und der Druckfarbraum war als FOGRA 39L angegeben.

Beim Auftrag davor habe ich auf Grafiker gehört, in Adobe RGB fotografiert, dann aufwändig in 16 Bit die Bilder angehübscht, nach CMYK/8Bit konvertiert und die Sachen in Indesign eingebunden. Die Verluste waren schon am Bildschirm zu sehen, ich hätte heulen können. Am Ende war das Alles ziemlich blass und wie mit einem Grauschleier versehen.

Diesmal habe ich den aktuellen ECI-Druckfarbraum direkt in Capture eingebunden und vom sRGB-RAW aus die Farbseparation durchgeführt, dann mit einem 7-Kanal-Workflow (L*ab und CMYK) die Bilder angehübscht. Die Farben im Druck leuchten und stimmen, nur die Endbearbeitung ist nicht ganz gelungen, weil ich die Farbauftragsbegrenzung zu spät berücksichtigt habe und nicht die Zeit hatte, alle Bilder vom RAW neu zu bearbeiten. Das passiert mir garantiert nicht noch einmal.


Die Farbraumbegrenzung hat da den wesentlichen Einfluss, nicht die Bittiefe. Und damit breite Räume funktionieren brauchst Du die Bittiefe.


Dem ersten Satz stimme ich uneingeschränkt zu, den zweiten Satz betrachte ich weiterhin als These, für die Belege fehlen.

Herzliche Grüße

Frank
 
Kommentar
Warum ist 16 Bit in der Regel Quatsch?

Weil bei den meisten Motiven in vielen Bildbereichen ohnehin die Differenzierungsmöglichkeiten der Eingabegeräte sogar deutlich unter 8 Bit liegen und weil es kein Ausgabegerät auf der Welt gibt, das mehr als 8 Bit verarbeiten kann. Man schraubt also erst an riesigen Dateien rum mit einem riesigen Farbraum und Farbdifferenzierung, die selbst ein High-End-Monitor kaum darstellen kann, um dann bei der 8-Bit-Konvertierung alles, was außerhalb des auf Fotopapier oder im Druck Darstellbaren liegt, wegzuwerfen und eine Rettungsaktion mit Korrekturen zu starten, die man sich hätte sparen können, wenn man sofort im Zielformat (RGB fürs Fotolabor, CMYK für die Druckerei) gearbeitet hätte.


Warum kann 16 Bit bei bestimmten Motiven trotzdem helfen?

Die Nikon D3 und einige schier unbezahlbare Digitalrückteile für Mittel- und Großformatfotografie können echte 14 Bit aufnehmen. Die Hersteller behaupten teils sogar echte 16 Bit, aber da bin ich mir nicht so sicher, ob das stimmt.

Bei den meisten Motiven ist das natürlich weiterhin unerheblich (siehe oben), aber z.B. ein RAW-Bild mit 16 Blenden Kontrast (Fußballspiel in gleißender Sonne, geblitzte Modefotos in düsterem Backstein-Tunnel) hat in echten 14 Bit Schattenzeichnung bis zu 4 Blenden unter dem mit bloßem Auge Blick sichtbaren (siehe: http://www.earthboundlight.com/phototips/nikon-d300-d3-14-bit-versus-12-bit.html ).

Diese Schattenzeichnung kann man retten, bevor man nach 8 Bit geht, sinnvoller Weise im RAW-Konverter. Zugleich könnte man das Bild bewusst zwei Blenden unterbelichten, damit man durch die angesprochene Form der Dynamikkompression ziemlich perfekte Höhen und ziemlich perfekte Tiefen bekommt und tatsächlich von den 16 Blenden nicht nur die 10 Blenden rettet, die die Kamera bis ISO 800 ohnehin schafft, sondern satte 12 Blenden. Damit erreicht man mit einer digitalen Kleinbildkamera den Standard von perfekt gearbeiteten 50-ASA-Diabelichtungen, aber bei 4 Blenden Geschwindigkeitssteigerung.

Fazit

Die "übertriebene" Bitdifferenzierung ist nur zur Dynamikkompression in der unmittelbaren Eingangsstufe interessant, danach sollte man auf einem kalibrierten System im Farbraum des Ausgabegeräts arbeiten, denn nur da sieht man direkt die Fehler und Einschränkungen des am Bildschirm simulierten Zielmediums und kann mit den Korrekturen entsprechend gegensteuern.

Andere Meinungen???

Herzliche Grüße

Euer

Frank

Fazit und Andere Meinungen???

Frank, wie offen bist Du wirklich für eine Diskussion?

Deinen Ansatz kann ich tw. nachvollziehen. Jedoch werden mMn. Facts mit subjektiven Werten vermischt.

1) Der Wechsel von 12 auf 14 auf 16 bit hat nicht automatisch eine Erhöhung der Qualität der Bildinformation zur Folge. Die D3 muß zBsp bei 14bit Einstellung ca. alle 4,9 Photonen den Bitwert um 1 erhöhen. Dieser Prozess ist mit dem derzeitigen Stand der Technik nicht automatisch "genauer" als die 12bit basierende Digitalisierung. Schau dir dazu die aktuellen technischen Threads von Emil J. Martin (ejmartin) auf dpreview an.

2) Die "Hochrechnung" von 10 auf 12 Blenden ist mMn nach falsch, da sie das akzeptierbare Rauschen im Dunkelbereich nicht berücksichtigt. Man kann ohne der von Dir dargestelleten Akrobatik gleich 12 Blendenstufen DR für ein Gerät postulieren. Rauscht halt mehr im Schatten.

3) Für die 12 Blendenstufen bei 50 ASA Dia's würde ich Dich um eine externe Referenz bitten. (und wieviel davon beim Scannen überbleibt)

4) Deine Darstellung beinhaltet nicht, wieviele Postprocessing Schritte vorgesehen sind. Besteht PP nur aus Dynamikkompression und geht es dann gleich zum Ausgabegerät ist der frühe Wechsel auf 8 bit weniger kritisch, als bei mehrfachen und sich gegenseitg beeinflussenden Arbeitsschritten, die von der feineren Abstufung profitieren - und eben zum Schluß auf den Dynamikumfang des endgültigen Ausgabegerätes mit (meinetwegen) 8bit abbilden.

5) Dein Fazit mag für Dich der richige Weg sein, für jemanden der unabhängig von einem Ausgabegerät bleiben will (der Sinn eines kalibrierten Systems) ist es der suboptimale Weg. Ich möchte zum Beispiel nur einmal meine Bilder bearbeiten und sie für Bildschirm, Tintendrucker und Ausbelichtung verwenden, ohne meine Arbeit 3 mal machen zu müssen.


LG, Andy
 
Kommentar
Ich habe mir sagen lassen, dass das menschliche Auge nicht mehr als 256 Stufen pro Farbkanal auflösen kann, weshalb 8 Bit pro Farbkanal ausreichen sollen, aber wie "lemonstre" uns bereits gezeigt hat, gilt dies nicht für Graustufen - da löst das Auge durchaus höher auf. Unterscheiden muss man auch zwischen Druck und Projektion.
Wo hast Du die 256 her?
Unser Sehvermögen ist nicht identisch pro Kanal. Schon deshalb ist so ne Aussage etwas daneben.
Wir können deutlich weniger als 256³ Farben unterscheiden.
Nur is das ganze nicht linear. Macht also nicht wirklich Sinn es hier als Vergleich ran zu ziehen.

cheers
afx
 
Kommentar
-Anzeige-
Zurück
Oben Unten