HDR und Tone Mapping (Erklärung anhand von Beispielen)

  • Wie auch immer, das ist alles lange her und die Kinderkrankheiten sind raus. Von daher sollten wir nicht mehr irgendwelche alten Fehlern diskutieren (verwirrt Mitlesende nur) und können uns auf den Iststand konzentrieren. :)

    na ja, sooo lange ist es ja auch nicht her :zwinker2: da noch einige weitere der meinung sind das beim tonemapping die farben geraten werden müssen, wäre es schön wenn du abschliesend dazu noch was sagen magst. um über den iststand aufzuklären, den halt nicht jeder kennt.

    Genau, aber das ist auch ein Bild, dass sich zum Großteil in den Highlights abspielt und repräsentiert nicht den Durchschnitt. Solche Bilder vertragen sich anscheinend (noch?) nicht gut mit HSTM.

    gibts da schon einen lösungsansatz, oder ist das jetzt erst mal der ist zustand?

    vielen dank nochmal, für deine beispiele, die einfach ganz unaufgeregt zeigen das alles vor und nachteile hat :sbier:

  • na ja, sooo lange ist es ja auch nicht her :zwinker2:

    Naja, mein Mailverkehr zu dem spezifischen Problem ist drei Jahre her. :zwinker2:

    da noch einige weitere der meinung sind das beim tonemapping die farben geraten werden müssen, wäre es schön wenn du abschliesend dazu noch was sagen magst. um über den iststand aufzuklären, den halt nicht jeder kennt.

    Da muss ich dich leider enttäuschen. So tief stecke ich da nicht drin, was Sättigungsanpassung usw. angeht. Das kann nur madshi selbst beantworten.

    gibts da schon einen lösungsansatz, oder ist das jetzt erst mal der ist zustand?

    Auch das kann ich dir nicht sagen. Ich musste wegen der Kinder einige Jahre auf Sparflamme im Hobby unterwegs sein, so dass ich auch nicht alle Diskussionen zu HSTM komplett verfolgt habe. Aktuell ist madshi anscheinend komplett mit dem Envy "geerdet". Das heißt, da tut sich gerade nicht viel bei madVR. Und wann die inoffizielle Beta endlich mal zu einer offiziellen Version (mit Dokumentation) wird, weiß ich auch nicht. Da bin ich einfach der falsche Ansprechpartner.


    Nebenbei: wenn man wirklich mal das Tone Mapping zwischen einem Radiance und madVR vergleichen wollte, sollte man sich eine Capture-Karte holen und das Bild aufzeichnen. Dann kann man auch Screenshots direkt nebeneinander stellen. Alle Vergleiche mit langer Umschaltverzögerung sind ziemlich fraglich.

  • So nen Vergleich macht man lieber mit 2 "identischen" Projektoren und "LushiFushi"-Umschaltanlage (oder LushiFushi manuell wie ichs macl gemacht habe. Kartonblende und Seilzug)

  • So nen Vergleich macht man lieber mit 2 "identischen" Projektoren und "LushiFushi"-Umschaltanlage (oder LushiFushi manuell wie ichs macl gemacht habe. Kartonblende und Seilzug)

    Das "Identische" sicherzustellen ist aber je nach Modell und Lampe ein nicht unerhebliches Problem. Ein Screenshotvergleich ist dagegen deutlich weniger fehleranfällig.

  • Nebenbei: wenn man wirklich mal das Tone Mapping zwischen einem Radiance und madVR vergleichen wollte,

    wollte ist das Stichwort :zwinker2: beide systeme haben vor und nachteile, da einen gewinner zu wählen brauche ich zumindest nicht :Pund wie ich schon schrieb, wer hatte das letzte update! Was zu testen was nicht fertig ist...es reicht das es Spaß macht damit zu schauen!

  • Leider hatte die SDR-Fassung keinen erweiterten Farbraum und keine 10 Bit, ansonsten wäre konkret zu sehen, was HDR macht.

    Das ist so nicht ganz korrekt. Ich habe inzwischen beide Versionen da und bin noch am analysieren. Ich kann jedenfalls schon sagen, dass die SDR-Version 10 Bit pro Komponente besitzt.

    Weiterhin steht zwar in den Metadaten BT.709 als Primärfarben drin, aber das glaube ich nicht. Wenn man den Film als DCI-P3 interpretiert, stimmt die Sättigung. Sie ist dann praktisch identisch mit der HDR-Version. Trotzdem sieht das Bild noch etwas anders aus. Auffällig ist, dass die Farbtemperatur etwas grünlicher ist. Korrigiert man das, wird der Unterschied noch geringer. Ansonsten gibt es noch Unterschiede in den Blautönen und in den unteren und oberen Stufen. Warum, weiß ich nicht. Es ist ja leider unbekannt, in welchem Format das Master genau vorlag und was da bei beiden Versionen noch für automatische Filter rübergejagt wurden.


    Jedenfalls bekommt man das SDR-Bild extrem nah an das tone-gemappte HDR-Bild. Die Unterschiede sind dann praktisch nur noch beim Hin- und Herschalten sichtbar. Wahrscheinlich würden sie den meisten ansonsten nicht auffallen.

  • Etwas Ähnliches habe ich in der Filmrezension geschrieben.

    Mit erweitertem Farbraum und Gamma 2.4 und geringen Farbanpassungen an der SDR-Fassung, sieht diese Fassung fast identisch aus wie die HDR-Version - zumindest auf meinem JVC DLA-N7 mit dynamischen Tone Mapping.


    Leider lässt sich diese SDR-Einstellung nicht auf alle anderen SDR-Filme anwenden, weil diese vielfach ein anderes Colorgrading besitzen, so dass die Unterschiede danach immer noch pro HDR-Version ausfallen - oder die SDR-Filme wirken schlichtweg "unnatürlich".

  • Mein Player zeigt 8 Bit für das Quellformat an.

    MediaInfo zeigt 10 Bit an und der Decoder gibt das Bild mit 10 Bit an den Renderer weiter. Beidem vertraue ich deutlich mehr als einem Player, der so ein Format nicht erwartet.


    Wie auch immer, eine reine Gammakorrektur reicht für das Angleichen auch nicht aus. Da sind noch mehr Unterschiede in der Gradation. Ich meine, ich hatte schon Blu-rays und UHDs verglichen, bei denen die geringer waren. Es scheint also kein systematischer Unterschied zu sein. Ich vermute, beim Ausgeben des Masters werden feste Profile/Filter in der Software verwendet, die das Bild entsprechend verändern. Aber ohne jemanden vom Fach, wissen wir es einfach nicht.

  • Es gibt übrigens noch andere UHD-Blu-rays, die nur SDR beinhalten (BT.709 mit 4k). "Darkland" und "Brawl in cell block 99" sind zwei solcher Kandidaten. Bei beiden liegt das Bild in 10 Bit vor. Letzterer soll praktisch identisch aussehen wie die Blu-ray, die aber natürlich nur in 8 Bit vorliegt. Ich werde mir die Blu-ray leihen und untersuchen, was die höhere Genauigkeit wirklich ausmacht.

  • Es gibt übrigens noch andere UHD-Blu-rays, die nur SDR beinhalten (BT.709 mit 4k). "Darkland" und "Brawl in cell block 99" sind zwei solcher Kandidaten. Bei beiden liegt das Bild in 10 Bit vor. Letzterer soll praktisch identisch aussehen wie die Blu-ray, die aber natürlich nur in 8 Bit vorliegt. Ich werde mir die Blu-ray leihen und untersuchen, was die höhere Genauigkeit wirklich ausmacht.

    Leider lässt der Test kaum Schlüsse zu. Erstmal ist zu sagen, dass die Unterschiede zwischen beiden Versionen sehr gering sind. Die Auflösung ist etwas höher bei der UHD und Banding etwas geringer. Allerdings bezweifle ich, dass die 10 Bit die Ursache sind. Denn wenn man das Bild mit 8 Bit ohne Dithering darstellt, ist das Banding immer noch geringer. Mehr noch, es ändert sich so gut wie gar nicht, wenn man Dithering einschaltet. Ich vermute, der Unterschied kommt viel mehr von den unterschiedlichen Video-CODECs. Die BD ist in AVC kodiert, die UHD dagegen in dem neueren HEVC mit 50 % höherer Bitrate. Also ein unfairer Vergleich.


    Ich gehe inzwischen davon aus, dass sichtbares Banding fast immer durch zu niedrige Bitrate bzw. schlechte Encoder-Einstellung hervorgerufen wird und so gut wie nie durch die 8 Bit pro Komponente. Das Banding, das man in 8-Bit-Rampentestbildern sieht, ist um ein Vielfaches geringer als das, was manche Filme zeigen. 10 Bit wird aus meiner Sicht maßlos überschätzt. Gerade wenn dann Beschreibungen kommen wie "feinste Details sind sichtbar". Die Genauigkeit hat nämlich auf Details kaum Einfluss, weil sich bei Details benachbarte Pixel immer stark unterscheiden (genau das macht ja Details aus). Eine niedrige Genauigkeit sieht man dagegen immer in Farbverläufen mit flachem Anstieg. Also dort, wo benachbarte Pixel sehr ähnliche Werte besitzen.

  • Hallo Nils,


    bei genauerem Nachdenken haben sich für mich noch einige Fragen ergeben.

    Tone Mapping macht nichts anderes, als die Werte über 100 Nits sichtbar zu machen, ohne den Bereich darunter zu stark zu beeinflussen.

    Verständnisfrage:

    Ist der Wert 100 nits tatsächlich fix?

    Beispiel LED Wall mit 800 realen nits:

    Wenn entsprechend 800 nits als display peak luminance eingegeben werden, wäre dann nicht eine lineare Kurve bis zu einem höheren Wert, z.B. 400 nits, und Tonemapping der Werte über 400 nits in den Bereich 400 bis 800 nits sinnvoller?

    Beispiel Projektor mit realen 45 nits:

    Wenn entsprechend 45 nits als display peak luminance eingegeben werden, wäre dann nicht eine lineare Kurve bis zu einem niedrigeren Wert, z.B. 25 nits, und Tonemapping der Werte über 25 nits in den Bereich 25 bis 45 nits sinnvoller?

    Oder für beide Beispiele ein Kompromiss zwischen 100 nits und den genannten Werten, also Verschiebung Knickpunkt und Steigung des Tonemappings.


    Dynamic Target Nits

    Wenn ich es richtig verstehe ist das einer der wichtigsten Parameter.

    Wenn ein Bild z.B. einen maximalen Wert von 1000 nits enthält dann wird also statt bis 10.000 nits nur bis 1000 nits gemappt und so die komplette Helligkeit des Projektors ausgenutzt - sehr sinnvoll.

    Du schreibst:

    Daher würde ich diesen Parameter sehr zurückhaltend nutzen.

    Verständnis- und Einstellungsfragen:

    Was bedeutet "zurückhaltend nutzen"?

    Eher groß setzen, ggf. gleich zu DPL?

    Oder eher klein setzen?

    Die von Dir genannten 10 habe ich sonst bei keinem gefunden, da wird eher 50 bis 100 verwendet (bei mir aktuell 75).

  • Ist der Wert 100 nits tatsächlich fix?

    Soweit ich weiß, ist es so, wie du es beschreibst. Wenn man 800 Nits eingibt, findet Kompression bis dahin nicht statt, sondern erst darüber. Wie es genau in madVR implementiert ist, weiß ich allerdings nicht.


    Was bedeutet "zurückhaltend nutzen"?

    Eher groß setzen, ggf. gleich zu DPL?

    Ein zu hoher Wert bei DPL macht das Bild unnötig dunkel (auch wenn nur wenig Highlights enthalten sind), ein zu kleiner erzeugt Probleme in sehr hellen Filmen/Szenen, da diese dann nicht genug abgedunkelt werden.


    Die von Dir genannten 10 habe ich sonst bei keinem gefunden, da wird eher 50 bis 100 verwendet (bei mir aktuell 75).

    Ich habe bei mir 40 - 50 eingestellt in Kombination mit verschiedenen DPL für verschieden helle Filme. Also drei Profile, die beide Werte jeweils etwas erhöhen und diese Profile habe ich dann in die Dateinamen von ausgewählten Filmen geschrieben. Der Standard ist bei mir aber DPL=100 und DTN=40.


    Es kommt halt darauf an, wie hoch die maximale Leuchtdichte ist. Wenn das Bild generell nicht sehr hell ist, muss man um jedes Millinit kämpfen. :zwinker2:

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!