Beiträge von Last Action Hero

    Finde ich recht unübersichtlich, da es doch 2 einzelne Filme sind?! :think:

    Bei einem üblichen Sequel würde ich Dir zustimmen. Bei Dune ist es aber wie bei Kill Bill. Ein zweiteiliger Film, schon von Beginn an so konzipiert. Der Thread heißt deshalb auch nicht "Dune Teil 1".

    Ich meine mich zu erinnern, dass die Verteilung da deutlich anders aussah, konkret mit wesentlich mehr 1-Punkt Bewertungen

    Wohl eher nicht. 2005 war Fight Club bereits auf Platz 9 der IMDb-Top250, also nur 1 Platz schlechter als derzeit. Mit einem wesentlich höheren 1-Punkt-Anteil wäre das kaum möglich gewesen.

    Und deshalb sage ich, dass jeder sein Setup so einstellen sollte, dass es für den eigenen Geschmack passt.

    Es geht doch nicht um die Frage wie hell jemand seine Wiedergabe macht, sondern wie hell etwas codiert wird. Wird die genannte Strandszene als (durchaus auch helle) SDR-Szene gemastert oder eben als HDR-Highlight mit einem Mehrfachen dessen? Bei letzterem hätte man natürlich ein Problem, es ohne Tonemapping in Zielhelligkeit auf großer Leinwand zu zeigen (sofern man überhaupt technisch dazu in der Lage ist). Aber da wäre das Problem mMn, dass dann falsch gemastert gewesen wäre, weil sowas nicht im Sinne eines Highlights sein kann.


    Wenn man natürlich von Haus aus sein Bild "zu hell" wiedergibt (und sei es nur, weil man es kann), dann sind die echten Highlights, die eine x-fach höhere Helligkeit zeigen sollen, viel zu hell in der Betrachtung. Dann ist klar, dass man wieder tonemappen muss. Aber eigentlich bringt man sich dadurch nur selbst um das HDR und landet wieder beim quasi SDR.

    Da wäre es doch gleich sinnvoller, nur SDR mit hoher Helligkeit zu projizieren.

    Unsere LED Wall Vergleiche/Darstellungen mit 1000 Nit Helligkeit wären ohne DTM Tonmapping gar nicht "schaubar" (auf Filmdauer bezogen).

    Das ist mir schon klar. Aber bei den 1000 Nit reden wir doch nur von den Highlights, die können unmöglich größerflächig vorhanden sein bei korrekter und bestimmungsgemäßer Kodierung.

    Die Grundhelligkeit sollte bei HDR auch nicht größer sein als bei SDR (wo immer man sie in der Praxis dann tatsächlich handhabt). Ansonsten muss man dann ganz einfach die Sinnhaftigkeit/Praxistauglichkeit einer Norm in Frage stellen, die bis zu 10.000 Nit erlaubt. Wenn dann sowieso runtergedreht werden muss, könnte man auch gleich mit dem "richtigen" Wert mastern.

    auch wenn der Content mit 1000-10000 Nit auf einem Endgerät mit 1000 Nit Helligkeit dargestellt werden kann

    Auf einem 1000 Nit-Gerät kann doch auch nur mit 1000 Nit Maximalhelligkeit dargestellt werden und nicht mehr.

    noch nicht mal SDR vorliegt, weil die typischen 15 FL gerade mal rund die Hälfte des SDR Bereichs bis 100 nits (ca. 29 FL) abbilden.

    Dabei geht es aber dann lediglich um heller oder dunkler, bei der HDR-Wiedergabe hingegen müssen wir erhebliche Eingriffe in das Bild vornehmen und haben am Schluss zwangsläufig doch nicht das, was es sein soll.

    Aber zu sagen, alles unter 1000nits hat null mit HDR zu tun, und exakt ab 1000nits habe ich plötzlich HDR, ist ja auch nicht zielführend.

    Es ist schon klar, dass die Übergänge fließend sind, ich sage auch nicht NULL. Aber die allermeisten Projektoren sind so weit von nativem HDR entfernt, dass das tonegemappte Bild nicht wirklich viel damit zu tun hat.

    geht es in diesem Thread aber ja genau darum, deshalb "was versteht Ihr unter".

    Ich bin gespannt auf den Konsens.

    Als Antwort auf meine Frage interpretiere ich daraus ein "korrekt, IMHO ist auf einem Projektor gar kein HDR-Effekt zu erzielen, da er laut Definition von HDR dazu gar nicht in der Lage ist". Korrekt? :)

    Nicht ganz, aber wenn Du so willst, lasse ich das gelten. Zu streichen wäre das Wort "-Effekt".

    Naja - mit so manchem "müden Abklatsch" bin ich durchaus zufrieden.

    Das glaube ich Dir, aber nur weil ein Bild gut aussieht, hat das nicht unbedingt was mit HDR zu tun.

    OK, das bedeutet dann dass für Dich mit einem Projektor - egal welchem - ein "HDR-Effekt" nicht erreichbar ist, korrekt?

    Das hängt jetzt wieder an der Definition von HDR-Effekt. :zwinker2:

    Aber wie eingangs von FoLLgoTT schon festgestellt, schauen wir auf unseren Projekoren letztendlich sowieso nur SDR.

    Die mit sehr viel Helligkeit (fünfstellige Lumen und/oder kleines Bild) können ein bisschen mehr Richtung HDR schauen, die anderen halt weniger bzw. eigentlich gar nicht. Die wären mit einem genormten nativen SDR-Bild besser dran.

    4k und erweiterter Farbraum müssten dadurch nicht ausgeschlossen sein.


    Und wer hat schon über die Grundhelligkeit hinaus noch den Luxus von Lichtreserven? Zumal man davon eigentlich ein Vielfaches bräuchte.


    Wie NEO zuvor schrieb, erzwingt halt das leider notwendige Tonemapping oft einen deutlichen Kompromiss zugunsten von manchmal nur ein paar Highlights, die noch dazu im Original in der Ausprägung gar nicht vorhanden waren.

    Und was ist der "HDR-Effekt" für Dich überhaupt?

    Die Abbildung des vollen Kontrastumfangs so wie er gedacht war ohne Tricks wiedergegeben. Das heißt, es muss zusätzlich zur Standardhelligkeit noch eine wesentliche Steigerung für die Spitzenlichter möglich sein. Sehr gute OLEDs können das. Alles andere ist nur ein müder Abklatsch

    Mir ist auch durchaus bewusst, dass die allermeisten HDR-Effekte erst nachträglich hinzugefügt werden, weil es sie im Kino gar nicht gab.

    Es geht ja hier nicht darum, was heutige Projektoren können, sondern wie wir das definieren. Also um die Theorie…

    Da hast aber Du auch nichts beigetragen außer den Bezug zu Projektoren:

    Für mich benötigt es zum einen erstmal einen Projektor mit hoher Maximalhelligkeit und möglichst schwarzem Schwarz.

    Meine Antwort darauf war, dass es dazu notwendige Projektoren praktisch nicht gibt, so dass man mit Projektoren ohnehin kein (richtiges) HDR darstellen kann.


    Meine Aussage zum HDR-Effekt ist also, dass es erst dann einen richtigen geben kann, wenn man kein Tonemapping mehr braucht.

    Darf man schön finden - ich sehe darin eher eine gleichzeitige Über- bzw Unterbelichtung einzelner Bildbereiche. Aber das ist Geschmacksache.

    In der Fotografie ist HDR auch ein bewusstes Stilmittel, das gar nicht dem Zweck dient, ein realistisches Bild darzustellen. Hat also im Ergebnis überhaupt nichts mit HDR bei Film zu tun.

    Die Zwei, deshalb schrieb ich ja auch "theoretisch".

    Du willst wieder mal Etwas mit Zwang eine Aussage verdrehen..........

    Den Smiley und das nachfolgende "im Ernst" hast Du wohl wieder bewusst ignoriert. Ansonsten würde ich Dich bitten, zukünftig solche wiederholten Unterstellungen zu unterlassen. Danke.

    hat selten weiße Schriften > 100 Nits.

    Und Du kannst tatsächlich die 1000 Nits Highlights (oder noch mehr) darstellen? Erst dann hättest Du echtes HDR und nicht nur eine schwache Annäherung/Interpretation davon.

    HDR Effekt = besonders helle Flächen (meistens Lichter) auf dunkleren Hintergrund.

    Das gibt es natürlich auch im SDR-Bereich. Und ich bin sicher, dass Dein Projektor z.B. ein HDR-Codiertes ANSI-Schachbrett identisch darstellen würde zu einem SDR codierten.