Beiträge von FoLLgoTT

    Die seitlichen LED-Wände sind übrigens sichtbar gröber auflösend als es die LED-Wand war. Bei der konnte ich vom Sitzplatz aus keine Pixel sehen. Das war wirklich noch mal eine andere Nummer. Freut euch, dass ihr nicht verdorben wurdet. :zwinker2:

    Ich hatte schon häufig das Phänomen, dass ich einen Film ewig lange nicht sehen wollte, weil mich die Zusammenfassung oder das Cover nicht angesprochen haben, er mich dann aber sehr positiv überrascht hat. Man weiß vorher einfach nicht, was einen erwartet. Von daher bin ich grundsätzlich jedem Genre, Regisseur und Schauspieler aufgeschlossen, auch wenn ich bestimmte Genres deutlich bevorzuge.


    Das Orientieren nach externen Bewertungen ist im Grunde eine Optimierung, möglichst wenig schlechte Filme zu schauen. Das funktioniert auch sehr gut. Ich vergebe eher selten eine 4, extrem selten eine 5 und fast nie eine 6. Das war früher anders, als wir damals einfach irgendwas aus der Videothek ausgeliehen haben. Da war Schund ohne Ende dabei, vor allem mit den "FSK 18"- und "SPIO/JK"-Gütesiegeln auf der Packung. Nach dem vielen Schrott kann ich immer nur müde lächeln, wenn jemand über einen Mainstreamfilm schreibt, dass es der schlechteste Film wäre, den er je gesehen hätte. Der kratzt nicht mal an der Oberfläche! :big_smile:

    Als ich über die merkwürdige Abmischung gelesen habe war es eine gute Ausrede The Meg nicht zu schauen.

    Die hättest du mit madVR wahrscheinlich gar nicht bemerkt. :zwinker2:

    Technische Wunderlichkeiten sind für mich ansonsten kein Grund, einen Film nicht zu schauen. Wobei ich zugeben muss, dass 4:3-Filme und DVDs in der Regel länger rumliegen als die anderen.



    Zum Thema: ich habe bewusst "Transformers" ab Teil 3 nicht mehr geschaut, weil der zweite schon so besch... und nervig war. Gleiches gilt für "Thor 4". Ab "Thor 3" ist die Reihe quasi tot.

    Ich lasse ansonsten bewusst Liebesfilme aus, es gibt höchstens mal einen mit meiner Frau zusammen. Inzwischen nerven mich auch Dramen aus der Nazizeit. Das Thema ist mir zu ausgelutscht.

    An Kriegsfilmen reizt mich auch kaum noch etwas, daher müssen sie schon gut bewertet sein.


    Generell schaue ich erstmal keinen Film mit einer Bewertung (IMDb/OFDb usw.) unterhalb von ca. 6,5. Erst, wenn er mich besonders interessiert oder jemand ihn empfiehlt. Diese (unscharfe) Grenze ist über die letzten zwei Jahrzehnte stetig gesunken. Kein Wunder, wenn man viel schaut. Irgendwann ist nicht mehr viel wirklich Gutes übrig.

    Aber in Wirklichkeit gibt es kein Referenzweiß,

    Mein Reden seit Jahren. Ein absoluter Standard ist Quatsch.

    "Eine wichtige neue Funktion von HDR ist, dass es Änderungen der Gesamthelligkeit von Szene zu Szene ermöglichen kann, sodass sich Tageslichtszenen wesentlich anders anfühlen als Innenszenen und Nachtszenen. Wenn man also ein System dazu zwingt, den diffusen Weißpunkt auf eine konstante Leuchtdichte einzustellen, werden einige der Vorteile von HDR zunichte gemacht."

    Im Grunde gibt es schon Filme, die Szenen mit einer so hellen Grundhelligkeit haben, dass man nicht mehr von "Highlights" sprechen kann. Genau diese Szenen sind es, die dem Tone Mapping, dass brav von 100 Nits als Referenzweiß ausgeht, Probleme machen und deswegen der dynamische Teil eingeführt wurde. Wären es alles nur kleine Spitzlichter, bräuchte man kein dynamisches Tone Mapping.


    Beispiel "The Meg" mit Clipping bei 100 Nits:


    Und hier das Bild mit Display Peak Luminance=3000 (!):


    Von Highlights kann da keine Rede sein. Die "normalen" Bildteile sind eher Lowlights... :zwinker2:

    So, hier ein paar Analysen zu der Szene. Die hellen Teile besitzen maximal 408 Nits. Damit haben Aries und ich sie bei Andy (wahrscheinlich) so gesehen, wie sie gedacht ist (also ohne Tone Mapping). Und dazu umschaltbar an der LED-Wand mal mit 100, 400, 600 oder 800 Nits. Also auch dunkler und sogar heller als gedacht.


    Blu-ray:


    Hier sieht man die UHD BD mit Clipping bei 100 Nits. Die weißen Teile sind somit heller als 100 Nits und abgeschnitten.


    Und hier die Szene noch mal unkomprimiert. Dort sind alle Stufen mit dem korrekten Abstand zueinander enthalten.


    Die letzte Variante wirkte auf Andys LED-Wand taghell. Das kann man sich anhand der Screenshots kaum vorstellen. Und da überstrahlte nichts wie auf den Fotos weiter oben. Die Muschel hinten links war extrem plastisch, weil sie sich so scharf vom Rest abgrenzt. Das bekommt kein Projektor auch nur ansatzweise so hin.

    Wie auch immer, es geht hier ja nicht um LED-Wände, sondern um HDR.


    Daher noch eine interessanter Vergleich: das dynamische Tone Mapping von madVR dunkelt diese Szene aufgrund des Histogramms deutlich ab. Und zwar so, dass es bei identischer Einstellung am Anzeigegerät dunkler aussieht als die SDR-Variante.


    Links: SDR

    Rechts: HDR mit dynamischem Tone Mapping (recht typische Werte von DPL=100, DTN=50):


    Das heißt, die Szene soll hell sein. Sie wird in vielen Heimkinos aber unnötig abgedunkelt. Was dann eben bei begrenzter Maximalleuchtdichte zur schummerigen Dämmerungsatmosphäre führt. Interessant wäre noch, wie andere dynamische Tone Mappings damit umgehen, z.B. JVC oder Lumagen. Vielleicht kann ja mal einer gegentesten. :)

    Wenn ich dann jetzt gedanklich gegenrechne, dann gibt das in Szenen die ich als "düster" erwarte dann ggfs. zu viel Helligkeit.

    Gedanklich und von verlustbehafteten Fotos über einen Monitor/Handy kriegt man das nicht korrekt interpoliert. Das muss man in der Realität sehen. :)


    Auf Andys LED-Wand war mir keine Szene zu hell oder zu poppig. Ganz im Gegenteil, durch die hohe Helligkeit wirkte alles sehr viel stimmiger und passender, ohne dass etwas blendete. Andy spricht immer von "realistischer" und den Eindruck kann ich bestätigen.

    Wir haben übrigens auch Weltraumszenen gesehen. Der Kontrast der Wand ist halt unendlich, da hellt dann auch untenrum nichts störend auf. Das ist ja bei Projektoren mit limitierten Kontrast der Fall, wenn man die Leuchtdichte erhöht. Bei der LED-Wand eben nicht.



    ANDY_Cres

    Du hattest in madVR 400 Nits bei DPL eingestellt, richtig? War das die ganze Zeit so?

    OK, ich nehme alles zurück und behaupte das Gegenteil: HDR braucht kein Mensch! :big_smile:

    Naja, ich gebe dir ja Recht: es ist schön die Möglichkeit zu haben, für die Highlights mehr vom Dynamikumfangs des Anzeigegerätes zu reservieren (bei der LED-Wand klappt das ja z.B. wunderbar). Es hätte nur von vornerein einen verbindlichen Algorithmus/Standard für das Tone Mapping geben müssen, damit nicht jeder sein eigenes Süppchen kocht und man nie genau weiß, wie es denn aussehen soll. :)

    Ich glaube, die beiden Bilder haben eine unterschiedliche Farbtemperatur.

    Schon gar nicht schlecht, aber den Unterschied, der alles verrät, hat bisher keiner gesehen: der Bildausschnitt ist minimal unterschiedlich!


    Hier kommt die Auflösung: C ist die UHD BD (identisch zu A), D ist die Blu-ray. Ich wollte damit mal zeigen, wie nah beieinander beide häufig nach (starkem) Tone Mapping sind.

    Es waren jetzt nicht so viele Stimmen, aber man sieht schon, dass auch hier kein klarer Sieger in Hinsicht auf den "HDR-Effekt" feststeht. Tendenz geht in Richtung UHD BD, vermutlich, weil durch madVR etwas mehr Details in den Highlights erhalten bleiben.




    Wenn ich das jetzt richtig verstehe setzt das Clipping nun bei 400 Nits ein (Bild3).

    Es findet kein hartes Clipping statt, sondern die Tonwertkurve rollt ab und wird dann sehr flach. Details in den hohen Stufen werden also stark komprimiert.

    MPV ist übrigens schlecht zum Testen dieser Dinge geeignet, da sein Tone Mapping Probleme mit hellen Szenen hat. Es gibt derzeit keine histogrammbasierte Analyse wie bei madVR, die den Abrollpunkt der Kurve dynamisch verschiebt ("Dynamic Target Nits"). Und generell bleiben Details in Highlights schlechter erhalten als in madVR.

    Für mich kam auf meinem PC Monitor bisher bei keinem der bisherigen Bilder der "HDR Effekt" sichtbar zur Geltung.

    Ja, das ist halt das Problem mit solchen Screenshots. Sie werden am Smartphone, am Monitor in heller Umgebung usw. angeschaut, aber selten am Projektor im dunklen Heimkino. Mir ging es ja auch mehr um eine Tendenz, was ihr darunter versteht. :)


    Ich habe übrigens auch 1 oder 2 SDR Filme, da hat es Szenen, bei denen ich von einem HDR Effekt sprechen würde

    Da bist du wohl nicht der einzige. Dass im Endeffekt für viele anscheinend kein technischer Bezug zwischen dem Begriff "HDR-Effekt" und HDR existiert, war im Grunde der Anstoß für dieses Thema.



    PS: ich habe bisher nur ein einziges Mal ein echtes HDR-Bild in Groß gesehen und das war bei Andy. Die Grundhelligkeit und der unfassbare Kontrast sind aber dort auch genauso bei SDR sichtbar. Leider hatten wir nicht die Zeit, unterschiedliche Gewichtungen der Highlights zu untersuchen.

    Wenn ich das richtig berechne dann liefert SDR einen Dynamikbereich von schwarz plus 1 : 219^gamma.

    Mit gamma = 2,2 ist das 1 : 141k, mit gamma = 2,4 ist das 1 : 414k.

    Da bei SDR der Schwarzwert eben auch 0 sein kann (OLED, LED-Wand, Röhrenprojektor) ist der Dynamikumfang unendlich. In der Hinsicht sind SDR und HDR identisch.


    Die großen Unterschiede sind zum einen in relativer vs. absoluter Standard, der höheren Genauigkeit/besseren EOTF von HDR (weniger Banding usw.) und die komplett unterschiedlichen Gewichtungen von allen Tönen überhalb des Referenzweiß. Der letzte Punkt ist der, der HDR aus meiner Sicht eigentlich ausmacht (und uns so viele Probleme bereitet). Im Vergleich zum Referenzweiß können Spitzlichter 100 mal heller sein. Bei SDR dagegen sind sie immer stark komprimiert, so dass sie Referenzweiß nicht überschreiten. Das Grading ist also fundamental unterschiedlich. Wenn wir HDR aber genauso komprimieren wie SDR, dann bleibt von diesem Feature nichts mehr übrig.

    Das heißt, Unterschiede sind nach dem Tone Mapping vor allem in unterschiedlichen Gradings unterhalb vom Referenzweiß zu finden (teilweise natürlich auch in den Highlights). Nicht selten ist die UHD BD steiler gegradet (und stärker gesättigt), so dass sie kontrastreicher wirkt. Das hat dann aber gar nichts mit HDR zu tun, sondern ist in SDR genauso möglich.

    So wie die Bilder nun vorliegen spiegelt es den Vergleich eines unterschiedlich stark "tonegemappten" Bildes wieder.

    Genau das ist es und sollte es auch. Die Gewichtung im Tone Mapping ist ja mehr oder weniger der einzige Hebel, den wir zu hause bei unseren Konsumerprojektoren haben, weil einfach die Reserve fehlt (wirklich kleine Leinwände mal ausgenommen).


    Von daher ist es umso erstaunlicher, dass ein Kernfeature von HDR, nämlich der große Dynamikbereich der Spitzlichter, anscheinend in der Regel gar nicht genutzt wird und ein stinknormales SDR-Bild sogar bevorzugt wird. Trotzdem wird aber von "HDR-Effekt" gesprochen, der physikalisch ja überhaupt nicht mehr da ist und auch mit einer Blu-ray so abbildbar ist. Das passt aus meiner Sicht nicht zusammen.


    Da gewinnt die höhere mittlere Helligkeit (der höhere ADL).

    Ja, das wird bis zu einem, bestimmten Punkt sicherlich so sein. Das vermute ich auch.

    Das "Problem" mit Bild B ist, dass hier auch die Higlights abgedunkelt werden, somit der Kontrastumfang gleich bleibt und alles nur dunkler erscheint.

    Das täuscht. Der Unterschied ist minimal (z.B. 247 statt 249 in 8 Bit). Die Highlights erscheinen aber in B teilweise etwas kleiner, weil das "Ausblühen" drumherum abgedunkelt ist. Das erzeugt dann subjektiv anscheinend einen ähnlichen Effekt. Die ADL im Bild ist halt geringer. Der Kontrast ist aber praktisch identisch.

    Wir haben jetzt 10 Stimmen. Das Ergebnis ist sehr interessant und überrascht mich.




    Erstmal die Auflösung, worin sich die Bilder (die Szene hat übrigens bis zu 700 Nits) überhaupt unterscheiden: A ist mit einer "Display Peak Luminance" von 100 entstanden und B mit 200. Dadurch ist die Grundhelligkeit bei A höher und der Abstand zu den Spitzlichtern kleiner. Das Bild entspricht recht gut der SDR-Variante (Blu-ray).

    Bei B dagegen nehmen die Highlights einen größeren Wertebereich ein, dadurch ist die Grundhelligkeit niedriger (wie Mori ja auch schon beschrieben hat). Ich hätte erwartet, dass genau das als "HDR-Effekt" wahrgenommen wird. B wurde allerdings nur ein einziges Mal gewählt.


    Das unerwartete Ergebnis kann jetzt natürlich verschiedene Ursachen haben. Die meisten hier werden die Screenshots nicht auf besonders hellen Anzeigegeräten dargestellt haben. Gegen diese These spricht allerdings, dass die wenigsten ihr Bild so wie B eingestellt haben dürften (zumindest, was ich bisher in den madVR-Threads gesehen habe, für andere Player/Projektoren weiß ich es nicht), da die Maximalleuchtdichte in ihren Heimkinos dafür auch nicht ausreicht oder sie lieber im Low-Modus schauen.


    Tja, das verwirrt jetzt eher mehr als es bei der Ausgangsfrage weiterhilft. Muss ich mal drüber nachdenken...

    Ok, ich versuche mal den derzeitigen Stand der Antworten zusammenzufassen. Nach meiner Interpretation gibt es vor allem zwei Arten von Antworten:


    1. Der "HDR Effekt" bezieht sich auf die Aufnahme bzw. das Tone Mapping, dass einen hohen Dynamikumfang in ein SDR-Bild abbildet. Das kannten einige vorher schon aus der Fotografie. Damit sind vor allem mehr Details in Schatten und hellen Stellen gemeint, die der Sensor mit einer Belichtung nicht aufnehmen könnte.
    2. Helle Bildteile, die sich besonders "leuchtend" aus dem Rest des Bildes hervorheben.


    Dann lasst uns am besten auf den 2. Punkt eingehen, denn das ist derjenige, der mit HDR im Sinne von ST.2084 etwas zu tun haben kann.


    Welches Bild zeigt für euch den größeren "HDR-Effekt"?


    A:


    B: