HDR->SDR Konvertierung möglich?

  • Deshalb muss ich es nicht sein. :zwinker2: Für mich ist das viel Effekthascherei, die nicht wirklich was mit dem Original zu tun hat.

    Kürzlich wurde hier eine Leinwandaufnahme aus Avatar gezeigt, die für mich eher aussah wie die Disneylandversion davon.


    Möchte aber auch gar nicht schon wieder darüber diskutieren.

    Doch, ich find das gut Reinhard, dass Du das ansprichst.

    Ich mag das nämlich auch nicht wenn Dinge plötzlich gezeigt werden die gar nicht da sind.

    Ich möchte auch lieber das "Pure direct" des Bildes haben.


    Ich habe umgekehrt dann leider auch erleben müssen, dass Filme die eigentlich ein gutes Bild haben schlecht dargestellt werden.

  • Du kannst bei HDR kein "Pure Direct" auf einem Projektor haben, bzw. schon, aber dann würden 99,9% des Films völlig in schwarz absaufen!


    Desweiteren kann man kein Projektor- oder Fernsehbild anhand von Fotos beurteilen.

    Alles was ich bisher live von madVR sah war durchaus beeindruckend. Ich tus mir trotzdem nicht an...

  • Du kannst bei HDR kein "Pure Direct" auf einem Projektor haben, bzw. schon, aber dann würden 99,9% des Films völlig in schwarz absaufen!


    Desweiteren kann man kein Projektor- oder Fernsehbild anhand von Fotos beurteilen.

    Alles was ich bisher live von madVR sah war durchaus beeindruckend. Ich tus mir trotzdem nicht an...

    Was ich meine ist. Ich möchte das Bild gerne unverfälscht sehen.

    Und wenn es schlicht ist, dann ist es eben schlecht.

  • Ja das sehe ich ähnlich. Wenn dann nach ein paar Jahren ein Remaster mit neuem Grading und Bildveränderungen kommt, wird dieses im Normalfall ja auch akzeptiert. Aber das kann ja jeder halten, wie er es für richtig hält.

    auch gewerblich als User "Speaker Base" unterwegs

  • Das Thema hier ist ja eigentlich "HDR-SDR-Konvertierung". Nix anderes als eine Form von Tonemapping, und die ist bei HDR IMMER irgendwie notwendig.


    Warum sind wir jetzt plötzlich bei Nachschärfung etc.?



    Das gute (und "schlechte") an madVR ist, man kann quasi alles einstellen wie man will.

  • Ja das sehe ich ähnlich. Wenn dann nach ein paar Jahren ein Remaster mit neuem Grading und Bildveränderungen kommt, wird dieses im Normalfall ja auch akzeptiert. Aber das kann ja jeder halten, wie er es für richtig hält.

    Oder auch beim Ton, ein Upmix, tlw. von mono auf 5.1, von 5.1 auf Atmos etc.

  • Was ich meine ist. Ich möchte das Bild gerne unverfälscht sehen.

    Und wenn es schlicht ist, dann ist es eben schlecht.

    Das ist nicht das, was audiohobbit meint.


    Ein HDR-Bild kannst du dir auf deinem Projektor nicht ohne Tone Mapping anschauen, da es dann total düster ist. Das will niemand so sehen. Das Problem ist ja, dass die Hälfte der EOTF für die Highlights reserviert ist. Das heißt, wenn die maximale Leuchtdichte des Projektors den maximalen digitalen Wert darstellt (der 10.000 Nits entspricht), ist Referenzweiß 100 mal (!) dunkler. Das Bild säuft komplett ab!


    Ohne Tone Mapping können wir HDR nicht anschauen. Und die exakten Algorithmen des Tone Mapping sind nicht standardisiert. Das heißt, es gibt in unseren Heimkino kein "Richtig" oder "Pure direct" beim Bild mehr. Das ist nach der Blu-ray gestorben.


    Und das ist auch ein Grund, warum ich den Standard so blödsinnig finde. Den richtigen Freaks (also wir mit eigenem Heimkinoraum) bringen die zusätzlichen in Highlights gar nichts. Die absolute EOTF bringt uns auch nichts. Das heißt, beide Kernfeatures von HDR sind für uns nutzlos und wir müssen uns stattdessen mit Tone Mapping rumquälen, das Unmengen an Parametern mit sich bringt, die dazu verleiten, endlos nach dem "Richtigen" zu streben. Was es aber eben nicht geben kann. Völlig sinnlos...

  • Das heißt, es gibt in unseren Heimkino kein "Richtig" oder "Pure direct" beim Bild mehr. Das ist mit der Blu-ray gestorben.

    Du meinst wohl, es ist mit UHD gestorben, bei der BD war doch noch alles klar.


    maximalen digitalen Wert darstellt (der 10.000 Nits entspricht)

    Da geht es doch schon los. Wer denkt sich solchen praxisfernen Schwachsinn aus und wer stimmt dem dann auch noch in Form einer Norm zu. Schlimmer ist nur noch, dass es dann auch noch Masteringstudios gibt, die das dann noch ausschöpfen.

    Ich lasse mir ja eingehen, dass man etwas Headroom einbaut, damit die Norm nicht in fünf Jahren schon wieder von der Hardware überholt wird, aber 10.000 Nits sind nur noch praxisfremd.

  • Wenn dann nach ein paar Jahren ein Remaster mit neuem Grading und Bildveränderungen kommt, wird dieses im Normalfall ja auch akzeptiert.

    Das ist ja dann was Offizielles (idealer Weise von den Kreativen abgesegnet) und Einheitliches und nicht was, was ein Algorithmus zaubert oder noch schlimmer der User rumschraubt. Natürlich darf das jeder machen wie er will, ich sage nur, dass ich das für mich nicht gutheiße.


    Zum Glück gibt es keine Möglichkeit, die Handlung abzuändern, manche würden das sicher auch noch tun. ("Alexa, bitte andere Dialoge! " :dribble: )

  • Und das ist auch ein Grund, warum ich den Standard so blödsinnig finde. Den richtigen Freaks (also wir mit eigenem Heimkinoraum) bringen die zusätzlichen in Highlights gar nichts. Die absolute EOTF bringt uns auch nichts. Das heißt, beide Kernfeatures von HDR sind für uns nutzlos und wir müssen uns stattdessen mit Tone Mapping rumquälen, das Unmengen an Parametern mit sich bringt, die dazu verleiten, endlos nach dem "Richtigen" zu streben. Was es aber eben nicht geben kann. Völlig sinnlos...

    Das ist aber abhängig von der möglichen Zielhelligkeit des Endgerätes.:)

    Und da die Filme immer mal mehr mal weniger im Mastering schwanken, kann mit festen Presets dafür (HSTM + Anpassung) einfach mehr Bildqualität (Helligkeit + Farbabstufungen) generell rausgeholt werden.

    Daher das "richtige" per Default gibt es nicht, aber eine gute bis bessere Annäherung.

    Daher finde ich Aussagen wie "unverfälscht" auch nicht passend für das Thema.

    Und ich will keine abgesoffenen oder überstrahlten Filme schauen (z.B.).


    ANDY

  • Und die Sahne oben auf der Torte ist: Vielfach werden Filme mit 10.000-Nits-Inhalten auf Monitoren gemastert, der nur 1000 oder 2000 Nits Leuchtdichte besitzen.

    Da sitzt also jemand am Bildschirm und "mastert" Events, die er gar nicht sieht.


    Mit Humor betrachtet kann man aber auch sagen: Hier wird und praxisnahen Wiedergabebedingungen gemastert.

  • Zum Glück gibt es keine Möglichkeit, die Handlung abzuändern

    Öm, es gibt Fan-Cuts. Und das ist manchmal echt nötig. Tlw. wurden auch schon Fan-Cuts dann von offizieller Seite sogar abgesegnet.

    Mein Problem ist nur dass es die halt in der Regel nicht in guter Qualität gibt und natürlich in 99,9% der Fälle nicht legal sind im Netz.

    Sonst hätte ich mir schon längst mal die Fan-Cuts der Hobbit-Filme besorgt, denn die sind, so wie sie sind, eine Katastrophe. Zumindest für den Tolkien-Fan. Aber vermutlich auch ohne diesen Hintergrund betrachtet, evtl. auch schon nur im Vergleich zu den HdR-Filmen.


    Eine UHD mit größerem Farbraum und 4K-Auflösung hätte völlig gereicht.

    Verkauft sich aber nicht, da man zu wenig Unterschiede zur BD sieht. -> das ist der Hauptgrund für die Einführung von HDR. Und für Knebel-Atmos...


    Vielfach werden Filme mit 10.000-Nits-Inhalten auf Monitoren gemastert, der nur 1000 oder 2000 Nits Leuchtdichte besitzen.

    Ich gehe davon aus dass nach Sichtung gegradet wird, da kann dann schon mal was überstrahlen auf dem Masteringmonitor. Ich bin mir sicher dass das in SDR auch passiert.

    Davon ab sind die in den Metadaten angegebenen maxCLL-Werte ja auch oft einfach falsch.

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!