D500: Welche Nachteile haben Medium-Raws?

Thread Status
Hello, There was no answer in this thread for more than 30 days.
It can take a long time to get an up-to-date response or contact with relevant users.

Sans Ear

NF-Clubmitglied
NF Club
Registriert
Moin, ich habe vorhin ein Medium-RAW mit der D500 geschossen und kann die Datei vergleichsweise fix und komfortabel bearbeiten und betrachten, sogar in NX-i.

Jetzt frage ich mich, was eigentlich - abgesehen von der Größe - der Unterschied zum großen RAW-File ist? Denn die Größe (11,6 MP) reicht mir in vielen (fast allen) Fällen. Wie werden die RAWs überhaupt verkleinert? Was wird Ihnen genommen?

Sans Ear grüßt
 
Anzeigen
Oder anders gefragt: Wenn ich ein großes D500-RAW bearbeite und auf die Größe eines (genauso bearbeiteten) Medium-RAWs verkleinere, ist die Bildqualität des verkleinerten RAWs dann besser oder gleich? Sans Ear grüßt
 
Kommentar
Das menü sagt's doch eigentlich:

RAW L: 5568x3712
RAW M: 4176x2784
RAW S: 2784x1856

Oder habe ich Deine Frage nicht verstanden?

Ja, ich habe die Frage wahrscheinlich schwiemelig formuliert. Mir ist nicht klar, wie die Kamera das RAW verkleinert... ein RAW müsste doch alle Bildinformationen enthalten. Deshalb frage ich mich, ob es qualitative Unterschiede gibt zwischen einem

a. großen RAW, das ich nach dem Bearbeiten auf 11,6 MP verkleinere

Oder b. einem Medium-RAW, das die Kamera auf 11,6 MP verkleinert hat und das ich anschließend (genauso wie a.) bearbeite.

Sind a. und b. identisch? Sans Ear grüßt
 
Kommentar
Wenn Du eine größere Datei (mit mehr Pixel) verkleinerst, kanst Du z.B. individuelle Schärfungen und Lichter und Schattenkorrekturen anwenden und gewinnst Vorteile gegenüber dem bereits vorher kleiner gerechnetem RAW.
Wie stark diese sind, ist auch vom Motiv/Bildinhalt abhängig, aber das kannst Du ja selbst leicht mal austesten ;-)
 
Kommentar
Wenn Du eine größere Datei (mit mehr Pixel) verkleinerst, kanst Du z.B. individuelle Schärfungen und Lichter und Schattenkorrekturen anwenden und gewinnst Vorteile gegenüber dem bereits vorher kleiner gerechnetem RAW.
Wie stark diese sind, ist auch vom Motiv/Bildinhalt abhängig, aber das kannst Du ja selbst leicht mal austesten ;-)

Ich werd's testen, na klar, die theoretische Basis interessiert mich dennoch (obschon ich wirklich keine Ahnung von diesen Dingen habe). Sans Ear grüßt
 
Kommentar
Ich möchte nur kurz anmerken, dass die Frage absolut berechtigt ist, auch wenn ich die Antwort nicht kenne.

Ein echtes RAW sollte eigentlich direkt die Daten des Sensors speichern und keine fertigen Pixel. Hinzu kommen dann natürlich noch Metadaten und Kamera Einstellungen, z.b. der Weißabgleich. Daher ist es schon merkwürdig, dass die D500 überhaupt RAWs mit verschiedenen Auflösungen anbietet.

Gesendet von meinem Moto G (4) mit Tapatalk
 
Kommentar
So wie es aussieht ist diese Möglichkeit dafür da, für verschiedene benötigte Auflösungen das entsprechende RAW zu wählen.
Wenn Dir zum Beispiel 2784x1856 (Journalismus und Familienalbum) reichen
Also die kleinere Größe ergibt sich aus der Pixelmenge (die ja zwischen L/M/S etc. variiert) und nicht in der RAW Komprimierung, also Bildinhaltsdatenverlust. Man kommt halt beim Vergrößern schneller an die Grenzen. Du hast ja die gleiche Information in weniger Dichte vorliegen)

Siehe hier (ungern verlinkt): http://www.computerbild.de/artikel/...llungen-von-Spiegelreflexkameras-3354482.html

Da Speicherplatz allerdings keine wirklich Rolle mehr spielt würde ich mich hier nicht künstlich beschneiden... Das wäre mir zu blöd hier im Vorfeld auch darüber im Menü ständin hin und her zu stellen.


oder

http://www.fotointern.ch/archiv/201...ationen-im-vergleich-zur-d7200-und-zur-d300s/
 
Kommentar
Aber die Frage ist schon sehr berechtigt.
Wenn eine Skalierung erfolgt, muss man ja vorher auch demosaiken danach ist das Ergebnis doch eigentlich kein RAW mehr.

Oder werden einfach nur die Ergebnisse nebeneinanderliegender farbgleicher Fotosites addiert so dass man faktisch weniger Messzellen mit höherer Fläche hat?

Oder werden manche Ergebnisse einfach weggeschmissen?
 
Kommentar
Ich möchte nur kurz anmerken, dass die Frage absolut berechtigt ist, auch wenn ich die Antwort nicht kenne.

Sehr schön, ich bin nicht allein. :D

Wenn Dir zum Beispiel 2784x1856 (Journalismus und Familienalbum) reichen.

Gilt für mich, beide Fälle... und es war in den zurückliegenden Jahren wirklich selten, dass ich ein größeres Bild benötigt habe.

Da Speicherplatz allerdings keine wirklich Rolle mehr spielt würde ich mich hier nicht künstlich beschneiden... Das wäre mir zu blöd hier im Vorfeld auch darüber im Menü ständin hin und her zu stellen.

Nicht der Speicherplatz ist das Problem, sondern die Performance... die großen Dateien bremsen meinen Rechner aus, mit den kleineren RAWs ist der komplette Ablauf vom Betrachten bis zum Bearbeiten merklich schneller.

Aber ich habe immer noch nicht verstanden, was die Kamera mit einem RAW anstellt, um daraus ein Medium-RAW zu generieren. Wuxi stellt die richtigen Fragen:

[...]werden einfach nur die Ergebnisse nebeneinanderliegender farbgleicher Fotosites addiert so dass man faktisch weniger Messzellen mit höherer Fläche hat?

Oder werden manche Ergebnisse einfach weggeschmissen?
 
Kommentar
Bei der "Problematik" würde ich einfach einen Aufbau machen und alle drei Möglichkeiten aufnehmen und mal vergleichen, ob Dir irgendwo Bildinhalte fehlen, die in der zB. größten Auflösung vorhanden sind.
Und diese bei normalen Motiven und auch bei hohen ISO...
dann sollte sich doch die Spreu vom W... trennen und wenn nicht, nimm die Auflösung, mit der Deine Performance geschmeidig bleibt.
 
Kommentar
Mich Zitierend:
1) Skalierung erfolgt, muss man ja vorher auch demosaiken danach ist das Ergebnis doch eigentlich kein RAW mehr.

2) Oder werden einfach nur die Ergebnisse nebeneinanderliegender farbgleicher Fotosites addiert so dass man faktisch weniger Messzellen mit höherer Fläche hat?

3) Oder werden manche Ergebnisse einfach weggeschmissen?

Wenn Nikon meine Lösung (2) verwendet, wäre das das Schönste, weil man de-facto eine Kamera mit weniger Megapixeln (Kombi-Photosites) und besserem Rauschverhalten (pro Pixel!) hätte. Relativ wenig Rechenaufwand für den Kameraprozessor.

Die Lösung (3) bestünde daraus, einfach Messwerte wegzulassen. Das sollte in einem deutlich schlechteren Rauschverhalten verglichen mit (2) resultieren. Ebenfalls weing Rechenaufwand für den Prozessor.

Lösung (1) wäre eigentlich kein RAW mehr. Qualitativ wäre das beste Ergebnis zu erwarten, ggf. einen Tick besser als (2). Aber es müsste ein Rechenaufwand entstehen, der sich u.U. durch eine längere Verarbeitungsdauer bemerkbar machen könnte.



Wenn man also systematisch testen wollte was wirklich passiert:

1) Dunkles Motiv auswählen
2) Stativ. AF, Belichtung ISO, alles auf manuell.
3) Unterbelichen, möglichst hohe ISO
4) Bildserien je 10 Bilder:
a) RAW L
b) RAW M
c) RAW S
5) Zeitstempel vergleichen
6) Rauschverhalten vergleichen, am Besten zwischen einem skalierten JPG aus (a) und einem direkt exportierten JPG aus (c)
 
Kommentar
Wenn man also systematisch testen wollte was wirklich passiert:

1) Dunkles Motiv auswählen
2) Stativ. AF, Belichtung ISO, alles auf manuell.
3) Unterbelichen, möglichst hohe ISO
4) Bildserien je 10 Bilder:
a) RAW L
b) RAW M
c) RAW S
5) Zeitstempel vergleichen
6) Rauschverhalten vergleichen, am Besten zwischen einem skalierten JPG aus (a) und einem direkt exportierten JPG aus (c)

Steile Vorlage, aber was ist ein "Zeitstempel"? Sans Ear grüßt
 
Kommentar
Steile Vorlage, aber was ist ein "Zeitstempel"? Sans Ear grüßt

Na die genaue Uhrzeit im EXIF, die Dir erlaubt durch Bildung einer Differenz die Verarbeitungszeit von 10 Aufnahmen recht präzise zu bestimmen.

Jedenfalls besser als handgestoppt ;-)
 
Kommentar
Na die genaue Uhrzeit im EXIF, die Dir erlaubt durch Bildung einer Differenz die Verarbeitungszeit von 10 Aufnahmen recht präzise zu bestimmen.

Jedenfalls besser als handgestoppt ;-)

Ach so. Handgestoppt genügt, wenn ich beispielsweise in die 100 Prozent-Ansicht eines RAWs springe und messe, wie lange es dauert, bis ein Bild scharf dargestellt wird. Da geht es nicht um Stellen hinterm Komma, sondern (beispielsweise in NX-i) um mehrere Sekunden Unterschied. Mein Puls ginge da auch als Messgrundlage. :D Sans Ear grüßt
 
Kommentar
Auch, wenns die andere Fakultät ist, aber dieser Bericht ist zumindest aufschlussreich...:

Er schreibt: "In meiner Entscheidungsfindung hilft mir die Tatsache, dass ich nicht herausbekomme wie die Auflösungsreduzierung arbeitet, leider gar nicht."

So richtig aufschlussreich ist das jetzt auch nicht, oder?

Interessant ist tatsächlich "die Tatsache, dass die EOS 6D im mRAW/sRAW Betrieb eine deutlich geringere Serienbildgeschwindigkeit als im RAW Modus aufweist".

Für die D500 gilt das nicht, insofern ist die "proprietäre Softwarelösung" (beziehungsweise kleinere Dateien, die weniger rauschen) nicht so wahrscheinlich. Aber ich muss gestehen, ich habe das Thema nicht weiter verfolgt und die Unterschiede nicht weiter getestet.

Sans Ear grüßt
 
Kommentar
Er schreibt: "In meiner Entscheidungsfindung hilft mir die Tatsache, dass ich nicht herausbekomme wie die Auflösungsreduzierung arbeitet, leider gar nicht."

So richtig aufschlussreich ist das jetzt auch nicht, oder? Sans Ear grüßt

Doch, sehr sogar! Der TO hat ja nicht nach der technischen Umsetzung gefragt, sondern WELCHE NACHTEILE M-RAWs(S-RAWs) haben.
Und das wird schlüssig beantwortet.

Gruß aus dem Sauerland
 
Kommentar
Doch, sehr sogar! Der TO hat ja nicht nach der technischen Umsetzung gefragt, sondern WELCHE NACHTEILE M-RAWs(S-RAWs) haben.
Und das wird schlüssig beantwortet.

Gruß aus dem Sauerland

Ich bin der TO :) ... und bitte erklär's mir. In diesem Canon-Test stellt der Canonist für die kleinen RAWs fest, dass sie Schärfe verlieren und weicher sind.

Aber ist nicht die Frage, ob das auf die NEFs übertragbar ist? Das Verfahren ist ja hüben wie drüben nicht bekannt. Sans Ear grüßt
 
Kommentar
Hi, dann lies bitte deine kompletten Fragen noch mal durch und hier habe ich evtl. die Antwort gefunden...:

generell sind alle sRAW und mRAW im Farbdifferenzverfahren gespeichert, also YUV, entweder im Format 4:2:2 oder 4:2:0
Das bedeutet, dass für jeden Pixel der Luminanzwert vorhanden ist, aber nur für jeden 2. Pixel (4:2:2) oder gar nur jeden 4. Pixel (4:2:0) der Chroma-Wert.
Die s- und mRAWs sind also bereits zum RGB entwickelt, und dann auf das Komponentenverfahren reduziert. Der Eingangsdynamikumfang bleibt allerdings komplett erhalten (z.B. Headroom).
Das Chroma-Upsampling, also die Interpolation der Farbwerte für jene Pixel, für die nur die Helligkeit gespeichert ist, besorgen dann Lightroom und Co.
Gerade die 4:2:2-Formate haben eine hohe Informationsdichte im Vergleich zum RAW, bei z.B. einem Viertel der Pixel enthalten sie 50% der Datenmenge des Original-RAWs.
Hier ist das YUVFormat 4:2:2 und 4:2:0 ganz gut erklärt:

http://www.cine4home.de/knowhow/Chro...Upsampling.htm

(zitiert aus dem DSLR-Forum von Karl-Heinz)
 
Kommentar
-Anzeige-
Zurück
Oben Unten