Die Farbtiefe in Bit ist etwas rein digitales. Eine Reduktion der
analog unendlichen Farbpalette auf eine digital begrenzte Anzahl
(bei 8 Bit 256 Graustufen, oder 256 Farben, je nachdem ob die 8 Bit
pro Grundfarbe oder für alle drei Grundfarben zur Verfügung
stehen).
Somit entsteht die begrenzte Farbpalette erst, wenn der analoge
Filmstreifen digitalisiert wird.
Was wir also auf einer DVD oder BD sehen, ist also nicht nur
bezüglich der Auflösung, sondern auch in punkto Farbtiefe noch
nicht 100 %ig das, was auf dem Material drauf wäre.
Der unendliche Farbreichtum wird auf 16,777 Mio. Farben begrenzt,
um mit 24 Bit digital klar in Nullen und Einsen definierbar und
darstellbar zu werden.
Bei den Abtastungen die man heutzutage macht, wird am Abtaster
intern meist mit 14 oder 16 Bit gearbeitet und diese dann adaptiv
extern in ein logarithmisches 10-Bit-File umgewandelt. Das
10-Bit-log-File enthält in gewissen Bereichen (mittlere Helligkeit)
die feinsten Abstufungen, zu hell und dunkel hin werden die
Abstufungen gröber. Dadurch erreichen wir gerade in den mittleren
Grau und Farbwerten eine sehr hohe Präzision, wie bei einem 14 Bit
File. Nur die Schatten und die Lichter sind gröber.
Beim Colorgrading im Postproduktionsprozess wird noch einmal hier
und da an Kontrasten und Farben herummanipuliert, so daß sich hier
wirklich der Vorsprung von 10-Bit / Color gegenüber dem Endmedium,
das nur 8-Bit/Color hat, lohnt, da sich durch die zwei zusätzlichen
Bits in der Postproduktionsphase auch durch die Bearbeitung keine
zu großen Rundungsfehler ergeben.
Hast Du mal einen DAT Rekorder besessen? Da gab es neben der
normalen 48kHz/16 Bit bzw. 44 kHz/16 Bit Aufnahme auch den Longplay
Modus. Da lief das Band in halber Geschwindigkeit und es mußte auch
auf die halbe Datenrate heruntergeschaltet werden, also statt 48 k
x 16 Bit x 2 (Kanäle) = 1,536 Mbit/s auf 768 kbit/s.
Das wurde realisiert durch eine Verringerung der Abtastfrequenz auf
32 kHz. Das reichte aber nicht aus, da 32 k x 16 Bit x 2 = 1,024
Mbit/s gewesen wären. Also mußte auch die Bittiefe reduziert
werden. Auf 12 Bit. 32 k x 12 Bit x 2 = 768 kbit/s.
Damit aber die Dynamik von 96 dB erhalten bleibt (bei 12 Bit, wären
ja nur 72 dB möglich und da könnte schon ein leichtes
Hintergrundrauschen hörbar sein), hat man sich einfallen lassen,
die 4096 Werte eines 12 Bit Signals von ganz leise bis maximal laut
nicht in gleich großen Stufen aufzuteilen sondern in kleinen Stufen
für leise Signale und in großen Stufen frü große Signale. Dadurch
verschleppt man sich zwar quasi das Quantisierungsrauschen in die
Signale mit größerem Pegel, aber was solls, wenn der Pegel größer
ist, hört man das Rauschen eh nicht so. Ein konstantes
Quantisierungsrauschen fällt ja nur in Signalpausen auf.
Mit dieser kleinen Adaption hat man mit lediglich 12 Bit, also 4096
digitalen Pegelstufen eine Dynamik erzeugen können wie bei einem 16
Bit Signal mit 65.536 Pegelstufen.
Das funktioniert natürlich nur in einem begrenzten Maß.
Das selbe passiert nun bei der Umwandlung der linearen 14 Bit in
nichtlineare / logarithmisch angeordnete 10 Bit (10-Bit-log). Hier
löst man auch gewisse Bereiche bilddynamisch dichter auf und andere
weniger dicht.
Ist ein Trick. Aber er funktioniert.
Hoffe das war jetzt nicht all zu wirr erklärt - so spontan aus der
Tasche raus. :)