Zeit für echte RGB-Pixel

Thread Status
Hello, There was no answer in this thread for more than 30 days.
It can take a long time to get an up-to-date response or contact with relevant users.

Flat D

Sehr aktives NF Mitglied
Registriert
Obwohl heute immer noch viel gejammert wird, die D800/E/D810 hätte zu viele Pixel, wird eine Auflösung von 36MP in naher Zukunft nur noch Standard sein. Mainstream eben, während Spitzenkameras im FX Bereich sicher bald 50, 60 oder gar 100MP haben werden.
Ich finde es aber an der Zeit, endlich weg zu kommen vom alten Bayer-Filter und tatsächlich auf RGB-Sensoren umzustellen, wie die Bildschirme und Beamer ein Bild darstellen. Schließlich ist der Hauptgrund für die alte Bayer-Technik, die mangelnde Auflösung der Sensoren, mittlerweile weg gefallen. Was meint Ihr?
 
Anzeigen
Jeder bekommt das was er braucht. Irgendwann. :)

Und wenn er es nicht braucht, wird ein bis dato unbekannter Bedarf geweckt.

Insofern abwarten.:D
 
Kommentar
--während Spitzenkameras im FX Bereich sicher bald 50, 60 oder gar 100MP haben werden. ----

das Problem ist nur das das menschliche Auge keinen Unterschied mehr erkennen kann ob es 10 50 oder 100 MP sind
 
Kommentar
Schließlich ist der Hauptgrund für die alte Bayer-Technik, die mangelnde Auflösung der Sensoren, mittlerweile weg gefallen. Was meint Ihr?


Wie kommst Du da drauf? Komischerweise haben die, die keine Bayer-Technik verwenden nicht (viel) mehr Auflösung
 
Kommentar
--während Spitzenkameras im FX Bereich sicher bald 50, 60 oder gar 100MP haben werden. ----

das Problem ist nur das das menschliche Auge keinen Unterschied mehr erkennen kann ob es 10 50 oder 100 MP sind

Nicht korrekt! Da auch die Bildschirme immer grösser werden und höhere Auflösungen haben, der Betrachtungsabstand aber nicht im gleichen Maße ansteigt, ist der Unterschied noch sichtbar.
 
Kommentar
Wie kommst Du da drauf? Komischerweise haben die, die keine Bayer-Technik verwenden nicht (viel) mehr Auflösung

Da hast Du mich falsch verstanden. Die höhere Auflösung hat das Bayer-Raster. Nur ist mittlerweile die Auflösung so hoch, daß man auf die Auflösung steigernde Wirkung des Bayerfilters verzichten und stattdessen auf native RGB-Technik setzen könnte, obwohl dies mit einer Verringerung der Auflösung einher ginge. Aktuell ist mir überhaupt kein Fotosensor bekannt, der auf eine RGB-Technik mit neben einander liegenden Subpixeln setz. Die Foveon staffeln die Farben ja in der Tiefe, statt neben einander.
 
Kommentar
Was ist denn hier los? Silvester zu heftig gewesen?
Kein Bayer-Raster mehr, kein F-Bajonett mehr, was als nächstes? Canon steigt bei Nikon ein um endlich Kameras mit gescheiter Haptik zu haben?
 
Kommentar
...
Ich finde es aber an der Zeit, endlich weg zu kommen vom alten Bayer-Filter und tatsächlich auf RGB-Sensoren umzustellen, wie die Bildschirme und Beamer ein Bild darstellen. Schließlich ist der Hauptgrund für die alte Bayer-Technik, die mangelnde Auflösung der Sensoren, mittlerweile weg gefallen. Was meint Ihr?

Wie stellen denn Beamer und Bildschirme die Bilder da? Dort gibt es auch einen Farbfilter der für die Darstellung und Mischung von RGB sorgt.
Solange man bei diskreten Pixeln und der CMOS/CCD Technik bleibt, wird man um einen RGB Farbfilter nicht herumkommen.

Die einzig wirklich andere Technik sind Sigmas Foveon Sensoren.
 
Kommentar
Da jeder ironische / zynische Spruch auch Wahrheit und persönliche Meinung enthält, erlaube ich mir mal den Umkehrschluss: Du findest, dass Canon ein Problem mit der Haptik hat? Das ist ja nun totaler Unfug. Im Gegenteil: Lage Zeit hat Canon in der gehobenen Amateurklasse gezeigt, wo es langgeht! Vergleich mal die EOS 10D mit einer D100. DAS war ein Unterschied wie Tag und Nacht. Bevor die D200 kam, sah es bei Nikon in dieser Klasse düster aus!
 
Kommentar
tatsächlich auf RGB-Sensoren umzustellen, wie die Bildschirme und Beamer ein Bild darstellen

Gibt es die denn?

Bei Film gab es keine und bei Digital bislang auch nicht (auch Foveon hat ja drei Sensoren je Pixel. Nicht einmal unser Auge hat so eine Nervenzelle.
 
Kommentar
Da jeder ironische / zynische Spruch auch Wahrheit und persönliche Meinung enthält, erlaube ich mir mal den Umkehrschluss: Du findest, dass Canon ein Problem mit der Haptik hat? Das ist ja nun totaler Unfug. Im Gegenteil: Lage Zeit hat Canon in der gehobenen Amateurklasse gezeigt, wo es langgeht! Vergleich mal die EOS 10D mit einer D100. DAS war ein Unterschied wie Tag und Nacht. Bevor die D200 kam, sah es bei Nikon in dieser Klasse düster aus!

Ich habe das schon überspitzt dargestellt, ich hatte weder D100 noch 10D in der Hand, geschweige denn eine A-1 oder AE-1 die ich viel interessanter finde.

Aber ich hatte eine 650D und eine 70D in der Hand und danach ist es zuerst eine D5100 und dann eine D90 geworden. ;)

Und von der 5D III bin ich auch recht angetan, obwohl ich schon eine D800 in den Händen hatte. :fahne:

Aber wir sind doch hier im gelben Forum!
 
Kommentar
Wie stellen denn Beamer und Bildschirme die Bilder da? Dort gibt es auch einen Farbfilter der für die Darstellung und Mischung von RGB sorgt.
Solange man bei diskreten Pixeln und der CMOS/CCD Technik bleibt, wird man um einen RGB Farbfilter nicht herumkommen.

Die einzig wirklich andere Technik sind Sigmas Foveon Sensoren.

??? Ein Bildschirm hat pro Pixel drei Subpixel, rot,grün und blau. Ein Foto aus einer Digitalkamera auch, nur muss der Bildprozessor der Kamera dieses Pixel erst berechnen, weil der CMOS-Sensor die Bilder nicht so aufnimmt. Das Bayerfilter arbeitet anders, dort werden die Farbinformationen pro Pixel auch aus den benachbarten Pixeln errechnet, damit eine Sensorzelle nicht nur eins von drei Subpixeln ist, sondern jede Sensorzelle ein volles Pixel mit allen drei Farbkanälen. Bist Du sicher, dass Du weisst, wovon ich rede?
 
Kommentar
Gibt es die denn?

Bei Film gab es keine und bei Digital bislang auch nicht (auch Foveon hat ja drei Sensoren je Pixel. Nicht einmal unser Auge hat so eine Nervenzelle.

Du hast mich auch misverstanden. Ich meine, dass die RGB-Pixel, aus denen jedes Digitalfoto besteht, auch mit einem solchermassen aufgebauten Sensor aufgenommen werden könnten, statt diese drei Farb/Helligkeits-Infornationen aus einem Bayergefilterten Sensor erst errechnen zu müssen (inklusive Fehleranfälligkeit). Daß man dazu vor den Subpixeln nach wie vor Farbfilter braucht, ist klar.
 
Kommentar
Nein, die gibt es so auch nicht. Was Flat D meint, ist eine Pixelanordnung, bei der jedes Pixel drei echte Subpixel hat, also drei Sensoren pro Bildpunkt. Dieser Wunsch ist durchaus berechtigt. Die bisher übliche Bayer-Technik ist ein ausgefuchstes System zur optimalen Ausnutzung der Tatsache, dass die drei Primärfarben Rot, Grün und Blau nicht gleichberechtigt sind. Zwar werden sie heute in der Signalkette gleichberechtig behandelt, doch das war früher nicht so. Ich hab den ganzen Kram mal in der Farbfernsehtechnik berechnen müssen. Ist aber schon lange her ;-)
Bei der Bayer-Technik ging es u.a. darum, möglichst viel Schärfe- und Kontrastinformationen aus den Grün-Pixeln zu fischen. Und durch geschickte Interpolation wurde eine etwas höhere praktische Ausgabeauflösung erzielt, als die Pixelmenge eigentlich nativ zulässt.

Empfehle diese Quelle hier:

http://de.wikipedia.org/wiki/Bayer-Sensor

Sicherlich hat das Bayer-Prinzip heute auch noch seine Berechtigung. Daher vermute ich mal, macht es keinen Sinn, echte RGB-Anordnung zu fahren. Ich könnte mir aber durchaus eine Mischform vorstellen, die zwar Auflösung kostet, aber durch das Minimieren von schärfekillenden Interpolationen die Qualität steigert. Dabei bleiben die werbewirksamen Megapixel auf der Strecke, was Hersteller natürlich abschreckt.
Allerdings hat Flat-D völlig Recht: Die hohen Auflösungen, die machbar sind, braucht eh kein Mensch mehr wirklich. Zumal wir uns ja bereits jetzt an Limits bewegen. Die D810 kann doch jetzt schon kaum noch in ihrer Auflösung wirklich ausgereizt werden, da dazu neben den allerbesten KB-Linsen auch noch beste Aufnahme-Bedingungen notwendig sind. Schon jetzt steht für viele Fotografen, insbesondere den Besitzern von D800/810, die Abbildungcharakteristik des Objektives im Vordergrund, nicht nur die schiere Auflösung.
Daher wird es echt Zeit, über einen Umbruch in der Sensortechnologie nachzudenken. Wenn man einen Parameter ans Limit gebracht hat (und das ist die Auflösung bei FX / DX je nach persönlicher Meinung schon jetzt oder spätestens in zwei, drei Jahren), dann muss man sich um den nächsten Parameter kümmern. Die Höchstgeschwindigkeit hat in Zeiten, wo selbst ein schwacher Polo echte 180 auf der Bahn fährt, auch keine große Bedeutung mehr.

Gibt es die denn?

Bei Film gab es keine und bei Digital bislang auch nicht (auch Foveon hat ja drei Sensoren je Pixel. Nicht einmal unser Auge hat so eine Nervenzelle.
 
Kommentar
Die 70D ist die aktuellste Kamera einer Serie, die früher in der Haptik für Amateurkameras Maßstäbe gesetzt hat. Dafür waren die Vorgänger auch spürbar teurer als das Gegenstück von Nikon. Vergleiche mal fair eine D90 mit der 50D. Da kommt einem die Nikon wie Spielzeug vor. Seitdem Nikon mit der D7000 auf dem gleichen Level unterwegs ist, relativiert sich das aber.

Die kleinen Modelle kann ich weder bei Canon noch bei Nikon leiden. Da finde ich die Nikons wegen des besseren Suchers interessanter, ansonsten herscht Gleichstand. Alles was unter der 5000er Serie Nikon heißt, ist für meine Hände nicht gemacht. Und rote, grüne oder pinke Kameras gehören verboten. Furchtbar. Canon schraubt die Modellspirale auch stets nach unten und wenn man eine DSLR für 300 Euro baut, muss irgendwo eingespart werden. Für mich wäre das nix, aber verglichen mit Einsteiger-Spiegelreflexen von vor 20 Jahren sind das Luxusgeräte. Es würde sich Niemand mehr trauen, eine Kamera wie eine Canon T50 oder Nikon F-401 zu bauen.

Ich habe das schon überspitzt dargestellt, ich hatte weder D100 noch 10D in der Hand, geschweige denn eine A-1 oder AE-1 die ich viel interessanter finde.

Aber ich hatte eine 650D und eine 70D in der Hand und danach ist es zuerst eine D5100 und dann eine D90 geworden. ;)

Und von der 5D III bin ich auch recht angetan, obwohl ich schon eine D800 in den Händen hatte. :fahne:

Aber wir sind doch hier im gelben Forum!
 
Kommentar
Du hast mich auch misverstanden.
Keineswegs. (Geht ja gar nicht.)

Ich meine, dass die RGB-Pixel, aus denen jedes Digitalfoto besteht, auch mit einem solchermassen aufgebauten Sensor aufgenommen werden könnten, statt diese drei Farb/Helligkeits-Infornationen aus einem Bayergefilterten Sensor erst errechnen zu müssen (inklusive Fehleranfälligkeit).
Das ist doch dann nichts anderes als der Bayer-Filter.
Genau das macht der Bayer-Filter. Er fasst mehrere Farbsensoren zusammen.
Es macht es sogar noch besser, denn er kennt auch die Anordnung der weiter entfernten Farbsensoren und berücksichtigt diese.

Hauptkriterium einer Sensorauslegung muss es sein, die gesamte Oberfläche so lückenlos wie möglich in Sensoren-Fläche aufzuteilen. Dabei scheint ein rechwinkliches Gitternetz am zweckmäßigsten zu sein. Sicher könnte man auch Ansätze mit Drei- oder Sechsecken verfolgen (die dann aber wieder in eine rechwinklige Pixel-Bitmap umgerechnet werden müssten).
Aber auch da gäbe es dann so etwas wie eine Bayermatrix, eben ein Bayer-Dreieck-Mosaik.

Eine Architektur, die zuerst drei RGB-Sensoren ohne Rücksicht auf die Nachbarschaft zusammenfasst und dann daraus ein Bitmap erstellt wäre ja wohl eher unterlegen hätte mehr Artefakte und verschenkt Sensorfläche (also Licht).
 
Kommentar
Hallo Florian,
Obwohl heute immer noch viel gejammert wird, die D800/E/D810 hätte zu viele Pixel, wird eine Auflösung von 36MP in naher Zukunft nur noch Standard sein. Mainstream eben, während Spitzenkameras im FX Bereich sicher bald 50, 60 oder gar 100MP haben werden.
für dieses Jahr wird ja nun endlich eine Antwort von Canon auf die D800(E), in Form einer neuen 50 MP Kamera erwartet.
Der dadurch zu erwartende Auflösungsgewinn dürfte sich aber in Grenzen halten, da die Auflösung (Schärfe) des Gesamtsystems (Kamera + Objektiv), zunehmend von der Qualität der Optiken limitiert wird.
Wir nähern uns also in gewisser Weise einer Art optischen Oversamplings, so dass auch der auflösungsreduzierende Bayer-Filter kaum mehr sichtbare Schäden anrichten kann, wenn wir die Ausgabegröße nicht ebenfalls vergrößern und uns von der 100% (1:1) Ansicht verabschieden (bzw. UHD Monitore nutzen, so dass die Sehschärfe limitiert).

Nur ist mittlerweile die Auflösung so hoch, daß man auf die Auflösung steigernde Wirkung des Bayerfilters verzichten und stattdessen auf native RGB-Technik setzen könnte. Aktuell ist mir überhaupt kein Fotosensor bekannt, der auf eine RGB-Technik mit neben einander liegenden Subpixeln setz.
Das verstehe ich wohl nicht so ganz, da der Einsatz eines Bayer Filters die Auflösung reduziert (es wird bei der Entwicklung interpoliert) und ein RGB-Sensor(?), nur optimal arbeiten würde, wenn jedes einzelne seiner Pixel, den vollen Frequenzbereich des sichtbaren Lichtes auswerten könnte.
"neben einander liegende Subpixel" hört sich wieder verdammt nach Bayer-Filter an, wo sollte da der Vorteil liegen?

MfG Jürgen
 
Kommentar
. Nur ist mittlerweile die Auflösung so hoch, daß man auf die Auflösung steigernde Wirkung des Bayerfilters verzichten und stattdessen auf native RGB-Technik setzen könnte, obwohl dies mit einer Verringerung der Auflösung einher ginge.


Hä??? Bisher hatte ich gedacht, dass der Bayerfilter erst die Farben bei den Sensoren möglich macht. Naja man lernt halt nie aus.

Aber warum hat denn die Leica Monochrom auch 18 Megapixel, wie die normale M9, obwohl der Bayer-Filter weg ist?
 
Kommentar
-Anzeige-
Zurück
Oben Unten