nicht dass ich alle Sensoren kennen würde (sowohl CCD als auch CMOS, die techn Infos dazu sindWoWu hat geschrieben: ↑Sa 06 Jan, 2018 16:34 Die Frage ist also nach wie vor, was will man mit Blenden 7 bis 15 ?
Jeder Sensor funktioniert linear, also ist es nur noch eine Frage der Werteverteilung (Mapping) nicht aber des Dynamkumfangs.
Denn bei höheren Wertemengen 10-12 Bit, bieten sich solche Übertragungsfunktionen natürlich an.
Das ist ja voll mit Verständnisfehlern was HDR eigentlich ist. Mal abgesehen davon dass diffuses Weiß ohedies bei 90% (und nicht bei 98%) und das auch nur bei rec709 liegt, soll dieses diffuse Weiß eben immer auf 100 nits gelegt werden. Manche nehmen noch 200nits, aber da HDR im Gegensatz zu irrigen Meinungen im durchschnittlichen Bild nicht massiv heller werden wird ist das ok. Nur clippte in SDR alles über 100nits weg und da helfen die knees auch wenig.WoWu hat geschrieben: ↑Sa 06 Jan, 2018 16:34 Das ist ja genau der springende Punkt, warum HDR eigentlich Augenwischerei ist und der eigentliche Vorteil in min.10 Bit und, so er denn erreicht wird, auch die höhere Farbwiedergabe liegt.
Und, sofern man keine sinnvolle Verwendung für die schon manisch gewordene Notwendigkeit für mehr Blenden hat, bringt einem das alles ziemlich wenig.
Mehr als 6 Blenden geben die Reflektionen von Schwarz (1-2% Reflektion) bis Weiß (98% Reflektion) nämlich nicht her.
Alle Blenden darüber gehen in Spitzlichtern auf.
Erst die finden ihre Anwendung in HDR denn wenn 1-100% in 1-100 Nits abgebildet werden, betrifft dies den gesamten Helligkeitsbereich, sowohl des SDR als auch des HDR .
SDR Geräte kneifen danach, also in den Spitzlichtern ab, was HDR Geräte nicht tun.
Legt man nun den Weisspunkt tiefer, also bei 50%, betrifft das auch die ersten 6 Blenden.
Lediglich die Spitzlichter ab Blende 7+ werden dann nicht mehr auf SDR geklippt, aber weil sich auch 99% der Bildinhalte nicht in Spitzlichtern abspielen, sondern zwischen Schwarz und Weiß, wirkt das Bild ziemlich grau.
Die Frage ist also nach wie vor, was will man mit Blenden 7 bis 15 ?
Jeder Sensor funktioniert linear, also ist es nur noch eine Frage der Werteverteilung (Mapping) nicht aber des Dynamkumfangs.
Denn bei höheren Wertemengen 10-12 Bit, bieten sich solche Übertragungsfunktionen natürlich an.
Schöne Aussichten, wenn quasi hinter dem eigentlichen Bild noch ein zweites partiell aufhellendes oder abdunkelndes aus der intelligent angesteuerten Hintergrundbeleuchtung vorhanden ist.
...das ist der nächste Sch.... bei der Sache, zudem kann keiner vorher absehen wie die dynamische Regelung im LCD oder OLED TV des Betrachters agiert, geschweige denn von der einstellbaren Helligkeit. Mein von mir hochgelobter Sony ZD9 LCD macht z.B. bei langsamen Schwarzblenden auch "Mist", versucht das Bild dann mit dynamischem Backlight aufzuhellen weil in der Darstellung plötzlich "Reserve" besteht. Ein OLED macht das aber nicht anders, wahrscheinlich sogar noch schlimmer da hier die Spreizung zwischen maximaler Helligkeit bei vollem Display zu kleinem Ausschnitt der Darstellung "meist" noch größer ist (~Faktor 4.8 OLED gegen ~Faktor 2,5 LCD).domain hat geschrieben: ↑So 07 Jan, 2018 17:05Schöne Aussichten, wenn quasi hinter dem eigentlichen Bild noch ein zweites partiell aufhellendes oder abdunkelndes aus der intelligent angesteuerten Hintergrundbeleuchtung vorhanden ist.
Muss für Grader die reinste Freude sein.
Ob das ihre Schnitt-Monitore derzeit auch simulieren können?