Zitat:
Zitat von Matze85
@Sledgehamma
Sorry! Aber wenn ich das alles bislang richtig verstanden habe, hat
das mit HDR und zu dunklem Bild recht wenig damit zu tun ob der TV
kalibriert ist oder nicht!
Grundsätzlich sind alle bislang erschienen UHD BDs mit HDR einfach
nicht korrekt gemastert! Bzw nicht abgestimmt auf die
Wiedergabekette TV/UHD BD-Player. Da hat man mit jeder TV, Beamer,
Player Kombi eine andere Helligkeit bei der HDR-Darstellung!
Da HDR(10) "Open Standard" ist und da jedes Studio ihre Scheiben so
mastern können, wie sie eben wollen bzw für "richtig" halten.
Mit Dolby Vision und die damit erscheinenden TVs (und Player)
welche dann Dolby Vision lizenziert sind wird das anders
werden!
Mit den Metadaten von Dolby Vision ist der TV dann im Stande zu
sagen: "Diese Helligkeit kann ich dir maximal darstellen und mehr
geht nicht" und intern wird das Bild dann durch die Dolby Vision
Metadaten für JEDEN TV der Dolby Vision lizentiert ist, korrekt
"hell" dargestellt!
So habe ich das bislang verstanden! Kann sein, das ich dich da
jetzt auch falsch verstanden habe und du was ganz anderes gemeint
hast :D
Sicher ist nur eines! Es wird für Otto-Normal-Nutzer nicht
einfacher! Eher viel komplizierter!
Und gerade würde ich grundsätzlich die Hände von UHD-BD Playern
lassen und abwarten was Dolby so treibt!
Und ob Dolby Vision in diesem Sommer wirklich an den Start geht,
wie jetzt schon in ein paar Foren zu lesen war! ;)
Ob sie korrekt gemasert sind oder nicht, kann wohl keiner sagen, da
keiner hier beim mastern dabei war.
Die Probleme hängen, wie ich einen Beitrag vorher beschrieben hab,
unter anderen mit der Gamma Kurve zusammen (wie du ja auch
geschrieben hast). Außerdem kann eben nicht jeder TV die maximal
Helligkeit von 1000 nits darstellen bei HDR10.
Bei HDR10, muss jeder Hersteller entscheiden wie er mit einem
Signal umgeht, welches der TV nicht darstellen kann. Bei HDR10
passiert das genau ein mal, und zwar zum Anfang des Films.
Bei Dolby Vision passiert dies mehrmals und kann für jede Szene
einzeln entschieden werden. Ich gehe sehr stark davon aus, dass das
Signal dann einfach abgeschnitten wird. Sprich; Da sind Sterne mit
1000 nits, der TV kann aber nur 500 nits darstellen, also sind die
Sterne dann 500 nits. Korrekte Darstellung ist das auf gar keinen
Fall, da Informationen verloren gehen. Das ist aber zwangsweise so,
wenn der TV nicht alle Spezifikationen von HDR10 oder Dolby Vision
erfüllt.
Ich glaube kaum, dass das Vorgehen von Dolby dem von HDR10 derzeit
unterscheidet. Ich wüsste auch nicht wie es anders gehen sollte,
ohne das Bild noch mehr zu verfälschen (auf einem TV der nicht die
vollen Spezifikationen erfüllt).
Zitat:
Zitat von Falcon
Die Kalibrierung ist eigentlich nur notwendig je nach
Lichtverhältnissen. Daher ja auch ein Setting für Tag und eines für
Nacht. Will man wirklich Farbentreu arbeiten, muss man ohnehin am
Arbeitsplatz für ein gleichbleibendes Licht sorgen. Dürfte aber
beim TV schauen einfach nur unnötig übertrieben sein.
Kalibriert wird auch nicht auf irgendwelche Zuspielung durch
Filmmaterial, sondern anhand von Testbildern. Und die Anpassung des
dann zugespielten Materials sollte der TV selbständig übernehmen,
wenn alles richtig eingestellt ist.
Dass man hier für zig verschiedene Zuspieler extra konfiguriert ist
Unsinn, denn es geht ja schließlich darum, eine einheitliche Basis
zu erreichen. Die Studios konfigurieren da ja auch nicht wild drum
rum, sondern nutzen einheitlich kalibrierte Geräte. Alles andere
wäre kompletter Schwachfug.
Ja und das Testmaterial hat welchen Farbraum? Nach der Logik
kalibrierst du ihn auf BT.709 und dann stellt er bei BT.2020
automatisch die Farben korrekt wieder. Das würde mich aber sehr
stark wundern. Im Internet findet man dazu leider recht wenig. Wenn
dui dafür Quellen hast, würde ich diese gerne lesen.
Ja genau, die Studios nutzen eben die spezifizierten Farbräume auf
die man seinen TV dann kalibrieren muss.