HDR und die Ungewissenheit, wie es aussehen soll ?

  • Wie gesagt, das hat mit der digitalen Ablage nichts zu tun. Das Anzeigegerät bestimmt den realen Farbraum. Intern sind das für jeden Pixel immer nur drei Werte. Entweder YCbCr oder RGB. Wie die letztendlich optisch dargestellt werden, ist erstmal irrelevant.
    .....
    Das scheint ein Missverständnis zu sein. Wir haben nicht den Kontrast des Projektors runtergedreht, sondern zwei verschieden große Leinwände benutzt. Beides in schwarzen Räumen mit dem gleichen Projektor und gleichen Einstellungen. Da gibt es kein Genauigkeitsproblem. Der wahrgenommene Unterschied war enorm. Und niemand der Anwesenden hat die 37 fL auch nur ansatzweise geblendet.


    JPG = RGB in 8 Bit.
    Ich weiß nur, dass es für HDR Bilder normalerweise TIFF, OpenEXR, usw. verwendet wird, da zumindest für HDR Bilder das normale JPEG nicht geeignet ist.
    Wie auch immer, da HDR mit 10Bit, 1024 Abstufungen nutzt, bin ich (sorry) noch immer etwas skeptisch, ob man mit normalen Jpg Dateien die besseren HDR Farben sehen/beurteilen kann.
    Da ich keinen HDR fähigen Monitor kann ich es mir leider nicht in Natura ansehen:


    @Absaufen:
    Ok, das ist natürlich praxistauglicher. Du schreibst selbst: Bei den dunklesten Details. Wahrscheinlich wäre diese Szene aus ReadyPlayerOne nicht so stark abgesoffen, dass relativ helle Tisch im Schwarz absaufen würde, oder?


    Ansonsten bin bei Dir: Wenn ich im Sommer aus dem dunklen Keller in die Sonne gehe bei über 100.000 Nits: Ja das schmerzt.
    Ev. bißerl Augenzwinkern bei einer~ 100 Nits Weißblende würde ich sofort in Kauf nehmen, wenn dafür der Rest des Filmes schön hell wäre.

  • Zitat

    Deswegen die Helligkeit zu "scheuen" ....schon bischen seltsam dann.


    Es scheut doch niemand mehr Helligkeit. Zu viel Helligkeit gibt es schon aus dem Grund nicht, da das Auge dann einfach sich anpasst und immer mehr zurückregelt. Dann bringt mir die teuer erkaufte Helligkeit aber auch nicht immer was. Es gibt eben auch eine sinnvolle Obergrenze ( auch hier natürlich individuell unterschiedlich). Deshalb ist es auch nicht praxisgerecht, unterschiedliche Helligkeiten im Direktvergleich zu sehen. Niemand erkennt mit absoluter Sicherheit einen 20%igen Helligkeitsunterschied, wenn die Leinwände in unterschiedlichen Zimmern hängen würden.
    Es fallen ja auch nicht die üblichen 20% Unterschied zwischen Mitte und Außenbereich einer LW auf (zum Glück).


    Das Auge ist einfach unglaublich adaptiv.


  • Es scheut doch niemand mehr Helligkeit. Zu viel Helligkeit gibt es schon aus dem Grund nicht, da das Auge dann einfach sich anpasst und immer mehr zurückregelt. Dann bringt mir die teuer erkaufte Helligkeit aber auch nicht immer was. Es gibt eben auch eine sinnvolle Obergrenze ( auch hier natürlich individuell unterschiedlich).


    Nach einigen Post klang es aber so, als ob mehr als 20 ftL sofort blenden würde. Nur das ist in steigender Helligkeit schon mehr der Fall, wenn der Raum z.B. nicht umfassend optimiert ist. Da ich in "Entkleidung" der Maskierungen einen hellen Raum (außer Boden) eigentlich vorfinde, dann ballert die Helligkeit ungehindert und mit massiven Reflexionen im Raum umher. Das Bild auf der Leinwad ist dann merklich "entzaubert" und verliert Tiefe + Kontrast.
    Daher auch das ist super wichtig in dem Zusammenhang (extra auf das Adma.... nachgerüstet/gewechselt).


    Die Obergrenze würde ich z.B. auf max 400 Nit setzen im abgedunkelten Raum, was ich mit der LED Wand mal so für mich ermittelt habe (Kontrast gegen unendlich dabei).
    Letzteres stützt sich aber auch auf anderen Personen im Vergleich, wobei es auch da Leute gibt denen die Kontrast Spreizung zu heftig vorkam, auch das will ich nicht verschweigen.
    Wiederum Andere empfanden das etwas dunklere PJ Bild als ebenbürtg zu einem guten TV.
    Nur der Vergleich mit einer Lampe im Betrieb, war allen dann sofort zu dunkel (ergo um 20 ftL).
    Daher was ich einmal mehr an Helligkeit sehe (und nicht nur 20% was eh nicht auffällt), also 100% mehr in dem Fall, dann ist der Weg zurück eingentlich ein Rückschritt.
    Das Auge gewöhnt sich somit sofort an mehr Helligkeit und erkennt die besseren Farben und Leuchtkraft.




    Deshalb ist es auch nicht praxisgerecht, unterschiedliche Helligkeiten im Direktvergleich zu sehen. Niemand erkennt mit absoluter Sicherheit einen 20%igen Helligkeitsunterschied, wenn die Leinwände in unterschiedlichen Zimmern hängen würden.


    Natürlich ist es praxisgerecht das im Direktvergleich zu vergleichen. Nur so siehst du es doch ganz klar. Und wie oben schon erwähnt ist 20% mehr Helligkeit ein Witz (richtig), das sieht eh keiner, auch wenn andere User zum Teil von "deutlich" mehr schreiben in dem Zusammenhang.
    Sprünge von 100, 200, 300%, 400%, 500% sind mehr oder weniger sofort sichtbar, aber auch diese Sprünge verringern sich immer mehr in der Wahrnehmung.
    Der Unterschied von 400 zu 500% z.B. ist kaum zu merken, während der Unterschied auf 100/200% sehr deutlich zu merken sind.


    Auch da arbeitet das Auge sehr träge, als es die nacklten Zunahmen an Helligkeit eigentlich suggerieren sollten.
    Von 40 auf 400 Nit ist Faktor 10, gefühlt vielleicht Faktor 4, das mal als Erfahrungswert.




    Es fallen ja auch nicht die üblichen 20% Unterschied zwischen Mitte und Außenbereich einer LW auf (zum Glück).


    Das Auge ist einfach unglaublich adaptiv.


    Tja das sehe ich nun wiederum schon und nervte mich schon immer bei den Consumer Kisten. Das muss also so nicht der Fall sein und hängt stark auch von der verwendeten Objektiven ab. In der "Holzklasse" (sorry ohne Wertung) macht ein 1080 Benq daher bis zu 70% Abweichung zu den Rändern.
    Und je mehr Bildbreite desto mehr auch sichtbar.


    ANDY

  • JPG = RGB in 8 Bit.
    Ich weiß nur, dass es für HDR Bilder normalerweise TIFF, OpenEXR, usw. verwendet wird, da zumindest für HDR Bilder das normale JPEG nicht geeignet ist.
    Wie auch immer, da HDR mit 10Bit, 1024 Abstufungen nutzt, bin ich (sorry) noch immer etwas skeptisch, ob man mit normalen Jpg Dateien die besseren HDR Farben sehen/beurteilen kann.
    Da ich keinen HDR fähigen Monitor kann ich es mir leider nicht in Natura ansehen:


    Du hast doch die Unterschiede in meinen Win Screen Shots gesehen und das war sRGB 12 bit (ist eh nur 10 bit allerdings).
    Insofern ist es doch annähernd darstellbar auch in der weiteren Kompremierung hier für das Forum.
    Einen großen Unterschied zu den Shots siehst du auch auf den "annähernd genormten" TV HDR Kandidaten daher nicht (wenn auch der nicht zu dunkel eingestellt ist).
    Insofern hast du doch dann einen Vergleich.
    Das die Farben bei HDR noch etwas mehr "knallen" (in Punkto Endsättigung) das geht dann etwas unter in den Shots (man sieht es aber im Ansatz), aber das war hier ja nicht der Thema für gewisse Vergleichsbilder.
    Über mad VR kannst du die Shots (s. Nils Posting) auch z.B. differenzierter "knipsen".




    @Absaufen:
    Ok, das ist natürlich praxistauglicher. Du schreibst selbst: Bei den dunklesten Details. Wahrscheinlich wäre diese Szene aus ReadyPlayerOne nicht so stark abgesoffen, dass relativ helle Tisch im Schwarz absaufen würde, oder?


    Das was tatsächlich auf dem Bild in der Durchzeichnung eigentlich sichtbar werden sollte ist ja jetzt hinreichend dargestellt.
    Und das ist absolut gesehen schon extrem was hier verloren gegangen ist.
    Nur waren die GL Fotos ja nicht unbedingt dahingehend optimiert, es so im Unterschied zu zeigen (mal angenommen). Nur was nicht da ist kann ich auch nicht abfotografieren, insofern müsste GL mal selbst etwas dazu schreiben um das aufzuklären.


    Ich hatte das nur deswegen zum Topic gemacht, weil ich das schon oft bei anderen Usern oder auch Veranstaltungen, Messen, Händler etc. so absaufend gesehen habe. Und es wird gar nicht bemerkt dabei. Ketzerisch formuliert "ist doch schön schwarz alles und Farben knallen realistisch".
    Die Differenzierung einer HDR Scheibe ist daher anspruchsvoller, als das BD Pendant, auch das wird zu oft so gar nicht gesehen.




    Ansonsten bin bei Dir: Wenn ich im Sommer aus dem dunklen Keller in die Sonne gehe bei über 100.000 Nits: Ja das schmerzt.
    Ev. bißerl Augenzwinkern bei einer~ 100 Nits Weißblende würde ich sofort in Kauf nehmen, wenn dafür der Rest des Filmes schön hell wäre.


    Eben das ist ein Witz an Helligkeit eigentlich im Verhältnis gesehen.
    Und es sitzt ja auch keiner 2 std. + im stockdunklen HK und macht dann mal Peak white an. ;)
    Aber es bleibt trotzdem relativ und einige Mitmenschen reagieren allergischer auf gewisse Helligkeitsschwankungen.
    Die mit Sonnenbrille ohne Sonne....war nur Spaß :big_smile:

  • JPG = RGB in 8 Bit.
    Ich weiß nur, dass es für HDR Bilder normalerweise TIFF, OpenEXR, usw. verwendet wird, da zumindest für HDR Bilder das normale JPEG nicht geeignet ist. Wie auch immer, da HDR mit 10Bit, 1024 Abstufungen nutzt, bin ich (sorry) noch immer etwas skeptisch, ob man mit normalen Jpg Dateien die besseren HDR Farben sehen/beurteilen kann.


    Mit Dithering reicht sogar eine noch geringere Genauigkeit aus. Mach einfach mal selbst den Versuch mit madVR. Du kannst mit 10 Bit rausgehen (macht leider nicht jede Kette komplett sauber) oder bis runter auf 1 Bit mit Dithering. Bei 6, 7 oder 8 Bit mit Dithering sieht man keinen Unterschied im Rampen-Testbild und es sieht teilweise sogar besser aus als mit 10 Bit-Ausgabe. Und wie gesagt, der Gamut hat damit sowieso nichts zu tun.


    Die Genauigkeit ist aber auch gar nicht das Problem von Georges Fotos. Es ist die Tonwertkurve! Entweder die Fotos saufen so stark ab, weil die Kamera unterbelichtet bzw. ihr Dynamikbereich kleiner ist als der des Projektors. Oder die Gammakurve (bzw. eine Einstellung, die diese beeinflusst) im Player/Projektor ist so "runtergezogen", dass die unteren Stufen absaufen und die Sättigung ansteigt (beides bedingt sich gegenseitig). Jedenfalls ist ja inzwischen ziemlich klar, dass der Film nicht so aussehen soll.


    Ich kann mit madVR Screenshots der UHD für beliebige Einstellungen machen (also z.B. Tone Mapping ab 50, 100, 200, 1000 Nits, mit Gamutkonvertierung oder ohne). Ich weiß nur nicht, wie das hier mit dem Urheberrecht aussieht, daher lasse ich es lieber.


    Gruß
    Nils

  • Nabend,


    laut Analyse hat die Bildszene (RPO) eine Max CLL von 725 Nits und eine Max Fall von 162 Nits
    (Master 0,005/4000 Nits, Dolby Vision) Frame Fall 4,7 Nits.
    Daher spielen die Pana Player grundsätzlich für diese Szene zu dunkel, da statisch mit nur "500 oder 350" Nit
    es voreingestellt werden kann, effektiv hier aber 162 Nit zum Tragen kommt.
    Auch in der Szene zuvor (Zoom auf den Raumkomplex) geht es noch weiter runter.


    Daher je extremer oder dunkler der dynamische MaxFall Wert fällt (ergo auch die Bildszene), desto mehr wird es an den Pana Player (oder anderen Playern ohne DTM) absaufen.
    Kein Wunder das ich daher viele Sichtungen mit statischen Metadaten basierende Abspielgeräte, als zu dunkel bzw. Kastration in der Differenzierung in Erinnerung habe (in Verbindung mit PJ Geräten).
    Und diese Diskrepanz wird umso problematischer, je weniger Peak Nit der PJ auf der Leinwand generieren kann.


    DTM ist insofern daher eingentlich ein Muss, ansonsten wird es Mehr oder Minder immer zum "absaufen" kommen, wenn das Abspielgerät nicht noch über geringere feste Target Nit Einstellungen verfügt (was so oder so eine Krücke/Kompromiss bleibt).
    Von daher ist der Anwender gut beraten, wenn er das Update der Pana Player nutzt um zum. auch die 150 Target Nit statisch einstellen zu können.


    ANDY

  • Hi Andy,

    Daher je extremer oder dunkler der dynamische MaxFall Wert fällt (ergo auch die Bildszene), desto mehr wird es an den Pana Player (oder anderen Playern ohne DTM) absaufen.
    ...
    DTM ist insofern daher eingentlich ein Muss, ansonsten wird es Mehr oder Minder immer zum "absaufen" kommen, wenn das Abspielgerät nicht noch über geringere feste Target Nit Einstellungen verfügt (was so oder so eine Krücke/Kompromiss bleibt).


    Zumindest für madVR gilt das so nicht, da die Target Nits beliebig einstellbar sind. Ich schaue nur mit statischem Tonemapping (mit Messdatei, um nicht unnötig Werte zu verschwenden), weil ich das Prinzip des dynamischen nicht für richtig halte und niemals Artefakte in der Hinsicht sehen möchte. Der Unterschied in der Durchzeichnung ist aber praktisch kaum vorhanden. Ich hatte länger verglichen. Die Unterschiede sind eher in den oberen Stufen zu finden. Das liegt daran, dass die unteren sowieso nicht angefasst werden. Es ist alles eine Frage der Target Nits.
    Wenn man die Target Nits in madVR auf 100 - 200 einstellt, säuft in der Regel kein Film mehr ab. Die Durchzeichnung stimmt und das Bild passt meist ziemlich gut zur Blu-ray. Einige Filme sehen dann (auf BT.-709 konvertiert) fast genauso aus, andere sind etwas oder sogar stark anders gemastert ("Mad Max Fury Road" ist hier ganz extrem).


    Also an statischen Tonemapping liegt das Absaufen grundsätzlich nicht. Das geht auch damit gut. :)


    Gruß
    Nils

  • Hallo,


    Nils
    Ja das ist richtig man kann in MAD VR natürlich viel mehr einstellen, auch was "nur" die statischen Metadaten betrifft.
    Daher da sehe ich auch nicht das Problem.
    In den Player ist das aber eben nicht so komfortabel umsetzbar, daher 350 bzw. 500 Nit Einstellung bringt so einfach Defizite.
    Hatte ja geschrieben das mal auf (Update) 150 Nit zu stellen, somit ähnlich deiner Target Statisch Einstellung Empfehlung.


    Und sicher kann mit dem Pana Optimizer auch noch etwas dagegen an gearbeitet werden im Sinne das "Absaufen" zu mindern.


    Meine Erfahrung bisher mit DTM ist, das ich gerade mit mehr Licht am PJ viel besser die untsersch. Range an HDR Daten optimiert auf der Leinwand vermittelt bekomme.
    ich kann ja mittels Splitscreen sowohl z.B. eine Player + HTPC Quelle gleichzeitig nebeneinander anschauen.
    So fallen Unterschiede einfach mehr auf im direkten Vergleich und da habe ich viel gelernt dabei.
    Bin zudem noch dabei mit eigenen HSTM Werten die oberen IRE´s nochmal besser differenziert zu bekommen.
    In jedem Fall spannendes Thema generell. :)


    ANDY


  • Bin zudem noch dabei mit eigenen HSTM Werten die oberen IRE´s nochmal besser differenziert zu bekommen.


    hier mal eine frage dazu, ist hier auch nicht OT ;)


    was ist da deiner meinung nach los bei madvr? war doch vorher mehr oder weniger von plug & play die rede das man nur zwei werte einstellen musste um so ein perfektes ergebniss zu bekommen. gibt es jetzt diese werte, wo ich mir nicht sicher bin ob die so geprüft werden das die das beste ergebniss bringen? also wenn sich das jeder so einstellen kann, sind wir wieder bei ´wie soll es aussehen´.

  • was ist da deiner meinung nach los bei madvr? war doch vorher mehr oder weniger von plug & play die rede das man nur zwei werte einstellen musste um so ein perfektes ergebniss zu bekommen.


    Bitte nicht die Diskussion zum Envy mit der madVR Software verwechseln.
    Der Envy soll ein Plug&Play-System werden so wie Du es beschreibst.
    madVR ist mehr oder weniger die Spielwiese mit der madshi neue Dinge ausprobiert um dann in eine neue stable Version einzufließen (oder dann eben in Zukunft in die Envy-Plattform).


  • Bitte nicht die Diskussion zum Envy mit der madVR Software verwechseln.


    mir ist schon klar, das zur zeit wegen dem envy ein wenig geforscht wird und das finde ich auch nicht schlecht.
    mir geht es nur um die frage, wie soll es aussehen. zur zeit habe ich nicht das gefühl das man da mit madvr dieses ergebniss bekommt, was vor einer zeit für mich keine frage war.
    und welche experten z.b. auch aus der filmindustrie segen dann die künftigen einstellungen in envy ab?


  • mir ist schon klar, das zur zeit wegen dem envy ein wenig geforscht wird und das finde ich auch nicht schlecht.
    mir geht es nur um die frage, wie soll es aussehen. zur zeit habe ich nicht das gefühl das man da mit madvr dieses ergebniss bekommt, was vor einer zeit für mich keine frage war.
    und welche experten z.b. auch aus der filmindustrie segen dann die künftigen einstellungen in envy ab?


    Solange es keinen Standard für HDR Farbraumkonvertierung gibt wird es ja wohl niemanden geben der sagen kann "ja, so ist es richtig".
    Wie kommst Du denn darauf dass es da ein "richtig" geben könnte? :think:


  • Wie kommst Du denn darauf dass es da ein "richtig" geben könnte? :think:


    ich hoffe ;)
    der farbraum hat einen standart, es geht um das, was wir hier diskutieren. wenn mit einen referenz monitor verglichen wird kann man schon sagen ob die durchzeichung unten wie oben rumm getroffen wird, ob die farben bei der der dyn. wieder richtig dargestellt werden, das die bildtiefe gleich ist, u.s.w.


    bei radiance wird in der entwicklung sehr viel mit profesionellen leuten gesprochen und auf entsprechenden TV oder monitoren verglichen.
    hatten wir radiance user zum anfang, mit den einstellmöglichkeiten auch alle eine fragezeichen auf der stirn :shock: ist das jetzt wirklich gewiechen und wir können uns zurück lehen und mit den ausgelieferten einstellungen schauen. und ich bilde mir ein (hoffe), das das dem ergebniss wie es sein soll sehr nahe kommt. natürlich davon abgeshen das die spitzlichter nicht mit 1000nits dargestellt werden :byebye:
    eine einschätzung zu madvr würde mich seher interessieren :sbier:

  • bei radiance wird in der entwicklung sehr viel mit profesionellen leuten gesprochen und auf entsprechenden TV oder monitoren verglichen.


    Dies soll ja auch für den Envy der Falls ein dass dort Leute von der Filmindustrie mit eingebunden sind. Das macht sicher auch Sinn.


    Zitat

    hatten wir radiance user zum anfang, mit den einstellmöglichkeiten auch alle eine fragezeichen auf der stirn :shock: ist das jetzt wirklich gewiechen und wir können uns zurück lehen und mit den ausgelieferten einstellungen schauen.


    Insofern ist ja die Entwicklung beim Envy sehr ähnlich. Aktuell gibt es bei madVR noch sehr viele Einstellmöglichkeiten und Fragezeichen, das soll sich dann mit dem Envy ändern.

  • ich kann ja mittels Splitscreen sowohl z.B. eine Player + HTPC Quelle gleichzeitig nebeneinander anschauen.
    So fallen Unterschiede einfach mehr auf im direkten Vergleich und da habe ich viel gelernt dabei.


    Bei solchen Vergleichen wäre ich vorsichtig. Das Tone Mapping unterscheidet sich ja möglicherweise seht stark zwischen den beiden Implementierungen. Meine Billigglotze von Samsung, die ich als Arbweitsmonitor verwende, hat z.B. ein ganz gruseliges Tone Mapping implementiert. Kein Vergleich zu madVR.
    Das heißt, um wirklich dynamisches mit statischem Tone Mapping zu vergleichen, benötigt man zwei HTPCs. Zur Not geht es aber auch, Screenshots von demselben Frames zu machen und sie dann im Viewer direkt durch Umschalten zu vergleichen. Dann wird schnell ersichtlich, dass das Dynamische nicht den Unterschied ausmacht. Relevanter ist, ab wann geclippt wird. Das kann statisches Tonemapping mit einer Messdatei aber auch schon auf den Film abgestimmt (dann eben nicht auf die Szene). Bringt dann aber auch keine Probleme mit sich, die optimiert werden müssen (absaufende Szenen mit viel hellem Anteil oder fließende Helligkeitsänderung über die Szenen, um Flackern zu vermeiden usw.).


    Ich habe mit diverse 3D LUTs über DisplayCAL erstellt (mit dem 3D LUT Maker), um neben dem Tone Mapping von madVR auch ein externes, LUT-basiertes Tone Mapping zu testen. Das sah anfangs fast identisch aus. Inzwischen sind die Unterschiede größer geworden, weil madshi viel am Tone Mapping optimiert hat. Jedenfalls kann man mit den 3D LUTs auch interessante Dinge tun. Man kann das Abrollen in den oberen Stufen auf einen beliebigen Wert zwischen 100 und 10.000 Nits einstellen. Je geringer dieser Wert, desto heller wird das Referenzweiß und desto schneller clippt ein Film. Man kann es auch komplett mit Clipping einstellen. In vielen dunkleren Szenen funktioniert das sehr gut und sieht dann auch extrem gut aus, weil der Wertebereich (=Dynamik) voll ausgenutzt wird. In Szenen mit mehr Spitzenweiß > 100 Nits klappt das natürlich nicht... ;)


    Gruß
    Nils

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!