Frage farbtiefe abhängig von Monitoranschlussart

Thread Status
Hello, There was no answer in this thread for more than 30 days.
It can take a long time to get an up-to-date response or contact with relevant users.

Robby

Sehr aktives NF Mitglied
Registriert
Hallo Zusammen,

ich versuche gerade zu verstehen, welchen Einfluss die verschiedenen Anschlussmöglichkeiten eienes Monitors auf die darstellbaren Farben nehmen.
Wenn ich es richtig verstanden habe, gilt im Moment folgendes .


  • analog-Anschluss : So, wie im Windows eingestellt ( 24Bit, 36Bit, etc)
  • Dvi-Anschluss : 8-Bit pro Farbe ( = 24 -Bit insg.)
  • Display-Port : 10-Bit pro Farbe ( = 30Bit insg.)
  • HDMI : wie Display-Port ?????

So richtig Sinn macht das meines Erachtens nicht : ich habe im Moment bei meinem Rechner 32-Bit Farbtiefe eingestellt. Da man 32-Bit schlecht ganzzahlig durch 3 teilen kann, denke ich mal, bedeutet das 3 * 32-Bit = 96-Bit Farbtiefe.
Da mein Monitor per DVI angeschlossen ist, reduziere ich die Farbtiefe wieder auf 8-Bit pro Farbe. Somit macht die vorgenommene Einstellung doch überhaupt keinen Sinn :nixweiss:

Schließt man einen Monnitor über Display-Port an, bedeutet das, daß die verwendbare farbtiefe pro Farbe immer genau 10-Bit ist oder bedeutet das, daß die Farbtiefe, sofern das angeschlossene Gerät dieses unterstützt, 10-Bit ist ? Also, um es einfacher zu fragen, die die farbtiefe beim Display Port per Definition 10-Bit / farbe oder kann sie 10-Bit / Farbe sein ?
 
Anzeigen
Hallo,

hat keiner eine Idee oder habe ich mich zu kompliziert ausgedrückt ?
 
Kommentar
Die beste Bildqualität habe ich mit HDMI. Höchste Auflösung und beste Farbwiedergabe. Warum, wieso, weshalb - ob es am Monitor oder Rechner liegt weis ich auch nicht.
 
Kommentar
Hallo,

hat keiner eine Idee oder habe ich mich zu kompliziert ausgedrückt ?

Nö, aber das ganze ist total egal. Mein Windoof kann nur 256 Farben, 16 oder 32 Bit.

32 Bit ist immer eigentlich 24 Bit, aber der Prozessor kann 32Bit Päckchen schneller verarbeiten.
 
Kommentar
Ab dem HDMI Standard 1.3 werden 16 Bit pro Farbe unterstützt, also insgesamt 48 Bit. Mehr wird wahrscheinlich nach heutiger Sicht nicht nötig sein.
Grafikkarten unterstützen schon 10 bis 12 Bit je Farbe aber die Betriebssysteme Windows oder Mac OS/X nur 8 Bit. Das wird sich auch nicht so schnell ändern. Leider.
 
Kommentar
Wie kann dann der große Farbraum der besseren Bildschirme genutzt werden? Oder setzt sich die Anwendung über die Grenzen des OS hinweg?
 
Kommentar
Nö, aber das ganze ist total egal. Mein Windoof kann nur 256 Farben, 16 oder 32 Bit.

32 Bit ist immer eigentlich 24 Bit, aber der Prozessor kann 32Bit Päckchen schneller verarbeiten.
30Bit Farbtiefe unterstützen XP/Vista/7. Mit einer geeigneten Grafikkarte, z.B. einer Nvidia Quadro FX + Displayport, schaltet Windows automatisch in den 30Bit-Modus um. Der Monitor muß das natürlich auch können.
"32Bit" ist nicht die Busbreite, sondern 24Bit Farbtiefe + 8Bit Sonderinformation.

Grüße
Christian
 
Kommentar
Wie kann dann der große Farbraum der besseren Bildschirme genutzt werden? Oder setzt sich die Anwendung über die Grenzen des OS hinweg?

Hallo,

egal ob 8, 10 oder 12 Bit, volle Pulle Rot ist immer volle Pulle Rot. Nur könntest Du bei 10-Bit pro Kanal mehr Zwischentöne (Helligkeitsstufen) an den Monitor übermitteln.

Viele Grüße
Philipp
 
Kommentar
-Anzeige-
Zurück
Oben Unten