Ist 16 Bit Quatsch oder nicht?

Thread Status
Hello, There was no answer in this thread for more than 30 days.
It can take a long time to get an up-to-date response or contact with relevant users.
Ich benutze Nikon Capture 4.4 und separiere direkt dort in den Zielfarbraum.

Frank

Warum?
Das verstehe ich nicht.
Wenn Du schreiben würdest Arbeitsfarbraum, dann ok. Das Ziel ist Geräteunabhängigkeit.

Oder würdest Du jedesmal Deine Bearbeitung von vorne anfangen, wenn Du das Bild für ein anderes Gerät brauchst?

:confused: Andy
 
Kommentar
Anzeigen
a) Du kannst nicht mehr Farben und Differenzierung Deines Bildes ins Ergebnis retten, als Deine Papier/Druckerkombination gestatten
Richtig.
Aber, je nachdem wann und wie ich auf das Ziel konvertiere bekomme ich unterschiedliche Resultate. Siehe mein Anfangs zitiertes Blumenexperiment.

b) daher ergibt es keinen Sinn, im Computer mit mehr Farben und einer größeren Farbtiefe zu arbeiten, denn dann ist das was Du am Bildschirm siehst garantiert nicht das, was Du nachher bekommst.
Das ist es nie. Das ist immer eine Näherung. Die Frage is nur wie gut ist die Näherung.
Ich kann an meinem Schirm das Umschalten zwischen verschiedenen Farbräumen sehen und die breiteren zeigen das genauere Bild. Obwohl alles nur ne Näherung ist.

Beim Auftrag davor habe ich auf Grafiker gehört, in Adobe RGB fotografiert, dann aufwändig in 16 Bit die Bilder angehübscht, nach CMYK/8Bit konvertiert und die Sachen in Indesign eingebunden. Die Verluste waren schon am Bildschirm zu sehen, ich hätte heulen können. Am Ende war das Alles ziemlich blass und wie mit einem Grauschleier versehen.
Sorry, aber da gibt es so vieles in dieser Kette was man falsch machen kann, daß das in der Form nicht wirklich als negativ Beispiel taugt.

Diesmal habe ich den aktuellen ECI-Druckfarbraum direkt in Capture eingebunden und vom sRGB-RAW aus die Farbseparation durchgeführt,
Es gibt kein sRGB raw.
Wenn Du in Capture ECI als Arbeitsfarbraum einstellst passiert alles in ECI, was Du in der Kamera eingestellt hast ist wurscht.

Dem ersten Satz stimme ich uneingeschränkt zu, den zweiten Satz betrachte ich weiterhin als These, für die Belege fehlen.
Das kannst Du ganz einfach testen. Nimm ein Bild mit extremen Farben (NEF) oder sehr sanften Verläufen, setze Capture auf ProPhotoRGB. Speicher das Bild einmal als 16bit TIFF ab und einmal als 8bit TIFF. Mach ein paar deutliche Korrekturen in PS wobei Du immer im Farbraum des Bildes bleibst. Irgendwann wird das 8bit TIFF sehr hässlich werden im vergleich zum 16bit.

cheers
afx
 
Kommentar
Frank,

wenn ich mir dieses hier Klick! anschaue, dann frage ich mich schon, was du da treibst. :fahne:
 
Kommentar
Fazit und Andere Meinungen???
Frank, wie offen bist Du wirklich für eine Diskussion?

Sehr offen, denn wenn ich mir sicher wäre, hätte ich die Sache nicht gestartet.

1) Der Wechsel von 12 auf 14 auf 16 bit hat nicht automatisch eine Erhöhung der Qualität der Bildinformation zur Folge. Die D3 muß zBsp bei 14bit Einstellung ca. alle 4,9 Photonen den Bitwert um 1 erhöhen. Dieser Prozess ist mit dem derzeitigen Stand der Technik nicht automatisch "genauer" als die 12bit basierende Digitalisierung. Schau dir dazu die aktuellen technischen Threads von Emil J. Martin (ejmartin) auf dpreview an.


Danke für den Literaturhinweis, ich werde mir das anschauen.

Das mit den 4,9 Photonen erscheint mir aber nicht glaubhaft, da die "full well"-Kapazität der D3 dann bei 80.282 (14 Bit mal 4,9) liegen müsste. Der letzte Wert, den ich gesehen habe, lag bedeutend niedriger.


2) Die "Hochrechnung" von 10 auf 12 Blenden ist mMn nach falsch, da sie das akzeptierbare Rauschen im Dunkelbereich nicht berücksichtigt. Man kann ohne der von Dir dargestelleten Akrobatik gleich 12 Blendenstufen DR für ein Gerät postulieren. Rauscht halt mehr im Schatten.


Das leuchtet mir unmittelbar ein.


3) Für die 12 Blendenstufen bei 50 ASA Dia's würde ich Dich um eine externe Referenz bitten. (und wieviel davon beim Scannen überbleibt)


Dafür habe ich selber keine zuverlässige Quelle. Das ist nur ein von Analogfreaks gern zitierter Wert, den ich in meine Eingangsthese mit aufgenommen habe.


4) Deine Darstellung beinhaltet nicht, wieviele Postprocessing Schritte vorgesehen sind. Besteht PP nur aus Dynamikkompression und geht es dann gleich zum Ausgabegerät ist der frühe Wechsel auf 8 bit weniger kritisch, als bei mehrfachen und sich gegenseitg beeinflussenden Arbeitsschritten, die von der feineren Abstufung profitieren - und eben zum Schluß auf den Dynamikumfang des endgültigen Ausgabegerätes mit (meinetwegen) 8bit abbilden.

5) Dein Fazit mag für Dich der richige Weg sein, für jemanden der unabhängig von einem Ausgabegerät bleiben will (der Sinn eines kalibrierten Systems) ist es der suboptimale Weg. Ich möchte zum Beispiel nur einmal meine Bilder bearbeiten und sie für Bildschirm, Tintendrucker und Ausbelichtung verwenden, ohne meine Arbeit 3 mal machen zu müssen.


Das sind sehr interessante Punkte, die den Kern der Diskussion treffen, nämlich die Frage: Was will ich auf meinem Ausgabemedium erreichen?

Die Zielsetzung meines aktuellen Lernprozesses besteht darin, das Maximum an Qualität aus dem Zielmedium heraus zu holen, sei es nur Fotopapier, Desktopdruck oder Offsetdruck.


"Das Maximum an Qualität auf dem Zielmedium" bedeutet, dass ich definitiv weniger bekomme, als ich aus der Kamera und der digitalen Dunkelkammer aus RAW-Konverter und Creative Suite bekommen könnte, wenn das Ausgabemedium es zuließe.

Der Sinn der Kalibrierung besteht für mich darin, dass ich die Beschränkungen des Ausgabemediums am Computer möglichst perfekt simuliere, um sie nach Möglichkeit durch geschickte Bildmanipulation weitgehend auszugleichen und den optimalen Bildeindruck bei der Zielgruppe zu erzielen.

Die Profile werden auf einem kalibrierten System korrekt wiedergegeben. Ich kann vom Drucker oder Fotolabor u.U. die Ausgabeprofile genau der Maschine auf dem Papier bekommen, die für meinen Job verwendet wird (in der Realität oft nicht), oder ich kann zumindest simulieren, was mit meinen Druckdaten bei der Herstellung schlimmstenfalls passieren kann und entsprechende Vorsichtsmaßnahmen ergreifen

Wenn ich hingegen in einem größeren Farbraum als dem Zielfarbaum arbeite, schraube ich u.U. an Details herum, die später einfach kühl abgeschnitten werden.

Ob es Hinweise gibt, dass sich 16 Bit und 8 Bit im Ergebnis unterscheiden, will ich ja mit diesem Thread herausfinden.

LG

Frank
 
Kommentar
Oder würdest Du jedesmal Deine Bearbeitung von vorne anfangen, wenn Du das Bild für ein anderes Gerät brauchst?


Genau das. Ich suche die paar Bilder aus, die ich für ein Druckwerk brauche, optimiere die für den Job und lege diese Optimierung ab. Wenn ich diese Bilder später noch einmal mit dem gleichen Druckprozess verwende will, brauche ich nichts zu ändern.

Die Wahrscheinlichkeit ist aber sehr hoch, dass ich in Sachen Bildbearbeitung dazulerne und eine archivierte Bearbeitung vom letzten Jahr qualitätsmäßig nicht mehr akzeptiere.

Frank
 
Kommentar
Das mit den 4,9 Photonen erscheint mir aber nicht glaubhaft, da die "full well"-Kapazität der D3 dann bei 80.282 (14 Bit mal 4,9) liegen müsste. Der letzte Wert, den ich gesehen habe, lag bedeutend niedriger.

Du setzt nun voraus, daß die Spannung am Wandler genau linear zur Ladung ist. Das ist gar nicht unbedingt wünschenswert.
 
Kommentar
Frank, wenn ich mir dieses hier Klick! anschaue, dann frage ich mich schon, was du da treibst. :fahne:


Diese Frage will ich Dir eigentlich in dem anderen Thread beantworten. Da gehst Du mit Deiner Vorstellung davon, wie Du so etwas handhabst heran und ich habe eine ziemlich andere Vorstellung davon.

Speziell und ganz kurz: Die meisten Aufnahmen mach ich mit dem Stativ. Wo ich mit dem Stativ nicht rankomme, schraub die ISO hoch. Bei der Ausgabegröße von DIN-A4 maximal bleibt das Rauschen auch bei der D70 in der Praxis unsichtbar. Die D3 hat aus meiner Sicht bei ISO 1600 die Bildqualität der D70 bei ISO 200, daher habe ich noch weniger Bedenken, hohe ISO einzusetzen.

Die Tabletop-Stativtechnik werde ich im Sinne eines kontinuierlichen Verbesserungsprozesses trotzdem in Angriff nehmen.

Frank
 
Kommentar
Du setzt nun voraus, daß die Spannung am Wandler genau linear zur Ladung ist. Das ist gar nicht unbedingt wünschenswert.

Ich hätte die Frage auch anders formulieren können. Linearität war der einfachste Rechenansatz. Hast Du die korrekte Formel zur Hand?

Herzlich

Frank
 
Kommentar
Frank, ich meinte in diesem Thread deine Beschreibung der Farbraum-Wandlungen: "RGB-CMYK-CMYK-LAB-CMYK-RGB-konvertiert".

Irgendwie scheinst du so, wie du deine Arbeitsweise beschreibst, auch gleich die Druckvorstufe mit zu erledigen. Das ist ja sonst nicht unbedingt Aufgabe des Fotografen. Der Fotograf liefert üblicherweise einfach nur bestmögliche (spricht: 16bit) Daten und den Rest erledigt ein anderer Spezialist.
 
Kommentar
Es gibt kein sRGB raw. Wenn Du in Capture ECI als Arbeitsfarbraum einstellst passiert alles in ECI, was Du in der Kamera eingestellt hast ist wurscht.


Wenn das wahr ist (muss ich nachrecherchieren!!!), komme ich mit dem Workflow ja sogar ohne jegliche Farbraumkonvertierung aus, daher sehen die unbearbeiteren Bilder in Photoshop auch so gut aus und die bearbeiteten genau wie nachher im Druckergebnis.

Das bestärkt mich nun darin, dass die Strategie die richtige ist.

Frank
 
Kommentar
Wenn ich hingegen in einem größeren Farbraum als dem Zielfarbaum arbeite, schraube ich u.U. an Details herum, die später einfach kühl abgeschnitten werden.
Nee, dann is da was kaputt. Bei sauberere Konvertierung, bekommst Du die best mögliche Näherung, aber nix abgeschnittenes.

Wenn das wahr ist (muss ich nachrecherchieren!!!), komme ich mit dem Workflow ja sogar ohne jegliche Farbraumkonvertierung aus, daher sehen die unbearbeiteren Bilder in Photoshop auch so gut aus und die bearbeiteten genau wie nachher im Druckergebnis.

Das bestärkt mich nun darin, dass die Strategie die richtige ist.
Solange Du nur dieses eine Ausgabemedium im Sinn hast, ist das durchaus ein sinnvolles Vorgehen.

cheers
afx
 
Kommentar
Irgendwie scheinst du so, wie du deine Arbeitsweise beschreibst, auch gleich die Druckvorstufe mit zu erledigen. Das ist ja sonst nicht unbedingt Aufgabe des Fotografen. Der Fotograf liefert üblicherweise einfach nur bestmögliche (spricht: 16bit) Daten und den Rest erledigt ein andere Spezialist.


Das hängt vom Budget ab und zwar vom Zeitbudget und vom finanziellen Budget.

Hier war die Not am Mann, weil er Fototermin am 5.3.2008 war und der Druckannahmeschluss am 7.3.2008 um 10 Uhr früh. Also musste ich mich um den ganzen Prozess kümmern. Konzept und Layout hatte ich vor dem Fototermin in Indesign fertiggemacht, musste im Prinzip nur noch die Bilder bearbeiten und einfügen.

An der Stelle habe ich mich dann mit den Zielvorgaben des Druckers auseinandersetzen müssen und mir in Nachtschichten von zwei Druckvorstufenfreaks die Grundlagen beibiegen lassen.

Bei Agenturjobs läuft das natürlich anders (nämlich so wie Du das sagst), hier war ich aber meine eigene Agentur, was den Vorteil hatte, dass ich den Job, den ich aus Termingründen sonst hätte ablehnen müssen, doch noch machen konnte, denn ich wollten den Job gerne machen: http://wurst-macht-schoen.de/Koch_Ostern2008_Webversion.pdf

Bei der Manipulation der Dateien von bis zu 340% Gesamtfarbauftrag auf 260% Gesamtfarbauftrag sind ein paar Fehler passiert, die im Ergebnis deutlich sichtbar sind. Das ärgert mich zwar, aber ich konnte das zu dem Zeitpunkt nicht besser. Jetzt arbeite ich die Literatur durch und übe das an kleinen Flyerauflagen für 60 Euro pro Druckjob.

Das Titelbild ist im Wesentlichen schon nach einem besseren Workflow entstanden (16-Bit-tonemapped-HDR ==> ECI CMYK, Optimiering, Ausgabe, Farbauftragsreduzierung), nur dass ich nicht das RAW nehmen konnte, weil ich das HDR brauchte, um Zeichnung in die Höhen zu bekommen, ohne dass Wurst und Brot zu Schattenrissen werden.

Frank
 
Kommentar
Wenn ich hingegen in einem größeren Farbraum als dem Zielfarbaum arbeite, schraube ich u.U. an Details herum, die später einfach kühl abgeschnitten werden.

Nachdem Du bereit bis soviel Deiner Zeit in den Farbraumtransformationen zu investieren, bin ich davon ausgegangen, daß dir die Varianten bekannt sind. Dieser Satz drückt aber eher das Gegenteil aus.

Du kannst abschneiden, mußt das aber nicht tun.

Andy
 
Kommentar
Nachdem Du bereit bis soviel Deiner Zeit in den Farbraumtransformationen zu investieren, bin ich davon ausgegangen, daß dir die Varianten bekannt sind. Dieser Satz drückt aber eher das Gegenteil aus. Du kannst abschneiden, mußt das aber nicht tun. Andy


Wie gesagt arbeite ich neuerdings ohne jegliche Farbraumtransformation:

Vom RAW in den Zielfarbraum, ggf. mit Dynamikkompression im RAW-Konverter.

Dann -- je nach Gamut des Motivs -- Kurvendiskussion in 7 bis 10 Kanälen, kleine Korrekturen im Finish und ab dafür.

Frank
 
Kommentar

Teste die Seiten bitte einmal mit einen HTML-Validator, denn Du hast heftige Probleme mit dem IMG-Tag ;).

Jetzt arbeite ich die Literatur durch und übe das an kleinen Flyerauflagen für 60 Euro pro Druckjob.
Ist das eine spezielle Firma am Ort oder läuft es über das Internet? Ich frage nur deshalb, da ich bei meinen ehrenamtlichen Tätigkeiten das große Problem habe, daß zwischen Proof & eigentlichem Auftraggeber immer noch IT-DAUs sitzen, die gelegentlich das Endprodukt noch verhunzen :heul:.

Farbauftragsreduzierung), nur dass ich nicht das RAW nehmen konnte, weil ich das HDR brauchte, um Zeichnung in die Höhen zu bekommen, ohne dass Wurst und Brot zu Schattenrissen werden.
Igendwie sieht das Brot ein wenig unansehnlich aus :steine:
 
Kommentar
Das hängt vom Budget ab und zwar vom Zeitbudget und vom finanziellen Budget.

Hier war die Not am Mann, weil er Fototermin am 5.3.2008 war und der Druckannahmeschluss am 7.3.2008 um 10 Uhr früh. Also musste ich mich um den ganzen Prozess kümmern. Konzept und Layout hatte ich vor dem Fototermin in Indesign fertiggemacht, musste im Prinzip nur noch die Bilder bearbeiten und einfügen.

An der Stelle habe ich mich dann mit den Zielvorgaben des Druckers auseinandersetzen müssen und mir in Nachtschichten von zwei Druckvorstufenfreaks die Grundlagen beibiegen lassen.

Bei Agenturjobs läuft das natürlich anders (nämlich so wie Du das sagst), hier war ich aber meine eigene Agentur, was den Vorteil hatte, dass ich den Job, den ich aus Termingründen sonst hätte ablehnen müssen, doch noch machen konnte, denn ich wollten den Job gerne machen: http://wurst-macht-schoen.de/Koch_Ostern2008_Webversion.pdf

Bei der Manipulation der Dateien von bis zu 340% Gesamtfarbauftrag auf 260% Gesamtfarbauftrag sind ein paar Fehler passiert, die im Ergebnis deutlich sichtbar sind. Das ärgert mich zwar, aber ich konnte das zu dem Zeitpunkt nicht besser. Jetzt arbeite ich die Literatur durch und übe das an kleinen Flyerauflagen für 60 Euro pro Druckjob.

Das Titelbild ist im Wesentlichen schon nach einem besseren Workflow entstanden (16-Bit-tonemapped-HDR ==> ECI CMYK, Optimiering, Ausgabe, Farbauftragsreduzierung), nur dass ich nicht das RAW nehmen konnte, weil ich das HDR brauchte, um Zeichnung in die Höhen zu bekommen, ohne dass Wurst und Brot zu Schattenrissen werden.

Frank

Danke für die Erklärung, Frank.

Einige Fragen jedoch:
War das Fotoshooting im Freien, oder gab es sonst irgendwelche besonderen Einschränkungen?

Ich frage mich schon die ganze Zeit, was an dem Setting so Spezielles ist, daß es gleich ein HDR Image werden muß, um das Brot aus dem Schatten holen zu können. Falls es im Studio war - wie hast Du das Licht gesetzt? Daß nämlich so viel Aufwand im Postprocessing notwendig ist.

LG, Andy
 
Kommentar
Unser Sehvermögen ist nicht identisch pro Kanal. Schon deshalb ist so ne Aussage etwas daneben. Wir können deutlich weniger als 256³ Farben unterscheiden.
Nur is das ganze nicht linear. Macht also nicht wirklich Sinn es hier als Vergleich ran zu ziehen.

Mir ist klar, dass unser Auge nichtlinear ist und dass außerdem das Sehvermögen von Mensch zu Mensch unterschiedlich ist. Aber dies kann kein Maßstab für technische Systeme sein. Die sollten tunlichst linear funktionieren, sonst werden sie schwer zu beherrschen. Zumindest wüsste ich nicht, mit welchen Methoden und nach welchen Standards ich einen nichtlinearen Bildschirm oder einen nichtlinearen Drucker kalibrieren sollte.

Die (lineare) Auflösung des Ausgabemediums sollte also höher sein als die maximale Auflösung, die das menschliche Auge wahrnehmen kann. Außerdem machen kleinere Auflösungen als 8 Bit pro Farbkanal innerhalb eines Rechners eh wenig Sinn, denn 8 Bit sind die kleinste Einheit, die ein handelsüblicher Computer sinnvoll verarbeiten kann.

Umgekehrt sehe ich nicht ein, wieso ich den ganzen Bildverarbeitungsprozess durch eine 8-Bit-Wurstmaschine (sorry, Frank!) pressen soll. Bereits im Sensor der Kamera kann eine höhere Auflösung erfasst werden. Selbst wenn diese dann besser ist als die beste Auflösung des menschlichen Auges, wollen wir ja Reserven für die Bildbearbeitung haben. Und innerhalb der Bildbearbeitung wollen wir Informationsverluste, die durch numerische Effekte entstehen können (Rundung einerseits und Überläufe andererseits) sicher verhindern. Also müssen wir mit höheren Auflösungen rechnen.

Zu guter Letzt: in einer Zeit, in der bereits Arbeitsspeicher in Gigabyte gemessen wird und selbst 32-Bit-Prozessoren nur noch aus Kompatibilitätsgründen weiter produziert und eingesetzt werden, ist jede 8-Bit-Technik wirklich nur noch ein Anachronismus. Sparen tut man damit schon lange nichts mehr. Sinn macht es höchstens noch für die Bildschirm- und insbesondere für die Druckausgabe, denn da kostet jedes Mehr an farblicher Auflösung wirklich großen technischen Aufwand und damit auch echtes Geld.

Gruß
Uwe
 
Kommentar
Zumindest wüsste ich nicht, mit welchen Methoden und nach welchen Standards ich einen nichtlinearen Bildschirm oder einen nichtlinearen Drucker kalibrieren sollte.

Uwe,
deshalb wird bei hochwertigen Druckertreibern (RIP Prozessoren) der Drucker zuerst linearisiert und erst dann kalibriert.
Ich habe auf meinem Windows Server den RIP Prozessor von BestColor, da wird das in eben diesen 2 Stufen gemacht.

LG, Andy
 
Kommentar
Teste die Seiten bitte einmal mit einen HTML-Validator, denn Du hast heftige Probleme mit dem IMG-Tag ;).

Das Ding ist gar nix.

Ich fahre bald in den Urlaub und habe mir bis dahin keine Termine gesetzt, UM aus diesem Provisorium endlich eine richtige Homepage zu machen.

Aktuell ist das bloß ein Platzhalter, der für mein Geschäft unerheblich ist, weil ich meine Kunden aus ganz anderen Quelle bekomme.

Ist das eine spezielle Firma am Ort oder läuft es über das Internet? Ich frage nur deshalb, da ich bei meinen ehrenamtlichen Tätigkeiten das große Problem habe, daß zwischen Proof & eigentlichem Auftraggeber immer noch IT-DAUs sitzen, die gelegentlich das Endprodukt noch verhunzen :heul:.

Ich nutze einen Internetdienstleister in Süddeutschland, der sehr zuverlässig arbeitet und ziemlich genau bekannt gibt, wie man in Photoshop, Indesign und Acrobat die Daten aufbereiten muss, damit es klappt.

Igendwie sieht das Brot ein wenig unansehnlich aus :steine:

Das Brot sieht echt Scheiße aus, Du hast völlig recht. Im Original hatten wir über 340% Farbauftrag im Brot (Ich poste gleich eine JPEG davon) und mussten unter Termindruck auf 260% runter ohne wirklich zu wissen wie das geht. Wir haben geflucht und geweint und ich habe mir dann Dan Margulis PS Farbkorrektur geholt und lerne, lerne, lerne, übe, übe, übe. Das passiert mir nie wieder.

Danke für Deinen sehr qualifizierten und völlig korrekten Beitrag

Frak
 
Kommentar
Danke für die Erklärung, Frank.

Einige Fragen jedoch:
War das Fotoshooting im Freien, oder gab es sonst irgendwelche besonderen Einschränkungen?

Ich frage mich schon die ganze Zeit, was an dem Setting so Spezielles ist, daß es gleich ein HDR Image werden muß, um das Brot aus dem Schatten holen zu können. Falls es im Studio war - wie hast Du das Licht gesetzt? Daß nämlich so viel Aufwand im Postprocessing notwendig ist.

LG, Andy

2334011751_f83b84cda6_o.jpg



Ich wollte Zeichnung im Tuch, das lag in der echten Sonne, die plötzlich durch ein echtes Fenster hinter den Lampen hervorbrach und damit ca. 2 Blende über. Deshalb HDR, hier leicht bearbeitet (noch mit einem verlorenen Pfad in der Wurstpelle ***g***)

Mein Aufnahmefehler war, dass ich den Reflektor rechts vergessen hatte (100x140-Flächenlicht von links). Und als mir das auffiel hatte ich die "Models" schon aufgegessen. Shit happens & man lernt nie aus.

Frank
 
Kommentar
-Anzeige-
Zurück
Oben Unten