madVR - Tipps & Tricks & FAQ

  • Noch mal zurück zum Farbraum und madVR für JVC X User.


    Man kann sich mit der JVC Autocal recht simpel einen DCI Farbraum erstellen. Je nach Wunsch mit oder ohne Filter. Am besten direkt beide. Dann bei madVR „kalibriert nach DCI“ auswählen und das Ergebnis ist schon sehr exakt. Wenn kein Drift vorliegt in der Regel fast perfekt und eine Farbraum Kalibrierung erübrigt sich.


    Gilt allerdings „nur“ für madVR wo ein sauberes Mapping stattfindet. Bei Zuspielung über einen anderen Player, ist wieder bt.2020 oder HDR (ohne Filter) richtig.


    Wichtig! Bei Erstellung von DCI Wide (also mit Filter) fährt der Filter erst nach einmaligem Neustart des JVC rein bzw raus. Wer Fragen dazu hat dem schicke ich gerne eine Anleitung.


    PS: Bei der N Serie liegt DCI bereits ab Werk vor.


    VGM

  • In den öffentlichen dann erst recht nicht und genau deshalb ist das bereits produktionsseitig kein Thema, sondern wurde nur für die weitere Verwertungskette erfunden, also eigentlich hätte das kein Mensch wirklich gebraucht.

    na ja, es bringt uns die DCI farben nach hause, die gab es vorher nur in den öffendlichen :zwinker2:


    Gilt allerdings „nur“ für madVR wo ein sauberes Mapping stattfindet. Bei Zuspielung über einen anderen Player, ist wieder bt.2020 oder HDR (ohne Filter) richtig.

    und bei einem radiance, es gibt bestimmt noch ein paar andere geräte die das können :zwinker2: aber sonst hast du recht, das das ein weg ist.

    ich hab ein wenig schmerzen auf ´nur DCI´zu bergrenzen, da es wohl ein paar filme geben soll die mehr als DCI bieten. einige PJ haben auf der grün rot achse, alo dann gelb, meist etwas mehr zu bieten als DCI, das würde ich gerne mitnehmen, also ich würde das HDR/BT2020 profil benutzen.



    Ich habe mir inzwischen zwei Presets für unterschiedliche dynamische Target Nits erstellt. Eins für den Großteil aller Filme und eins für die ganz hellen. Schlimm, dass es soweit kommen musste.

    klar ist sowas nicht schön. doch beim gamma sehen wir ja auch schon das das für verwirrung sorgt. während ich nur ein paar ältere blu rays habe wo ich das gamma 2,2 benutze und der große rest meiner meinung mit 2,4 daherkommt, schauen die meisten auch weiter mit 2,2 und verschenken plastizität.

    da hast du dir doch schon super geholfen :sbier: bei den streaming anbietern gehts ja wohl auch sehr unterschiedlich zu. warum einfach :mad:

  • Aber der erweiterte Farbraum wäre doch auch ohne HDR möglich gewesen, wenn ich das richtig verstanden habe. Abgesehen davon, so viel von diesen Farben finden in einem durchschnittlichen Film auch wieder nicht Verwendung.

    du bist aber auch kritisch :zwinker2: ich freue mich wenn ich mehr bekomme, du nicht :?:

    klar die farben werden nicht immer zum anschlag genutzt, doch auch so ist das im vergleich schon gut zu sehen, wenn dann alle einstellungen stimmen, was ja hier die grundproblematik war :zwinker2:

  • klar die farben werden nicht immer zum anschlag genutzt, doch auch so ist das im vergleich schon gut zu sehen, wenn dann alle einstellungen stimmen, was ja hier die grundproblematik war :zwinker2:

    Woher weißt du das? Hast du BT.709 und DCI-P3 mal systematisch verglichen und alle anderen Parameter identisch (!) gelassen? :zwinker2:


    Und ich meine keinen Vergleich zwischen Blu-ray und UHD, sondern wirklich nur zwischen den Gamuts. Ich vermute, das hat bisher so gut wie keiner gemacht. Die meisten (ich unterstelle dir das bewusst nicht) können überhaupt nicht einschätzen, wie viel (oder wenig) der Gamut ausmacht. Stark gesättigte Farben sind eher die Ausnahme in (Real-)filmen. Die Unterschiede bezüglich Sättigung zwischen Blu-ray und UHD kommen in der Regel vom unterschiedlichen Grading und vom Tone Mapping.


    Nicht falsch verstehen. Ich bin absolut für einen größeren Gamut. Der Nutzen ist halt nur deutlich geringer als allgemeinhin vermutet.

  • Der Clou am erweiterten Farbraum und am erweiterten Kontrastumfang sind doch die Reserven. Wenn ein Film durchgängig alles auf Anschlag fährt, wird das schnell langweilig. Ich fahre mein Auto ja auch nicht grundsätzlich auf Anschlag, oder renne den ganzen Tag, statt zu gehen, wie so Figuren im Computerspiel.


    Ich für meinen Teil empfinde gut gemachtes HDR als deutlich besser als gut gemachtes SDR. Das mit den Einstellungen ist nervig und fummelig und kann nach hinten losgehen, ja. Wenn es dann aber mal erledigt ist, sieht gut gemachter Content spitze aus. Der Vergleich zu SDR, wo alles immer prima sei, hinkt meiner Meinung nach etwas, da der Anteil von gut gemachten Blurays gemessen am Gesamtkatalog eher nicht so hoch ist. Da schneidet HDR besser ab. Das liegt natürlich auch an der schieren Anzahl der BD-Titel und dem Alter des Formats. Wir sind technisch weiter, inzwischen und was aktuell auf den Markt kommt, ist glaube ich unter'm Strich recht gut. Das gilt natürlich sowohl für BD als auch HDR-BD.


    Richtig kacke ist halt, dass die Industrie mit der Ansage "10.000 Nits und dann sieht's aber wirklich echt aus" einen Weg gefunden hat, für viele Jahre immer wieder neue TVs auf den Markt zu bringen, die dann als "endlich besser, als die bisherigen" gelten. Ich gehe davon aus, dass denen bei Festlegung der idiotischen 10.000 Nits völlig klar war, dass ab 1.000 alle happy sein sollten. Nun muss die Content-Produktion idealerweise schon mal Content produzieren, die dann auch zum Kauf anreizen. Es gibt genügend Aussagen seitens der Produzierenden, dass die 1.000 Nits völlig ausreichen, die 4.000 schon extrem sind usw. Barco hat kürzlich mal untersucht, ab wann es unangenehm wird, im Kino. Ergebnis: ab ~ 100 Nits FALL (durchschn. Bildhelligkeit) tut es den meisten beim Aufblenden weh. Schon absurd, was die da losgetreten haben mit dem HDR-Standard.

  • Nicht falsch verstehen. Ich bin absolut für einen größeren Gamut. Der Nutzen ist halt nur deutlich geringer als allgemeinhin vermutet.

    ich bin da ganz bei dir :sbier: deshalb hab ich auch nicht das bedürfnis einen PJ mit vollem Bt2020 jetzt anzuschaffen :zwinker2:


    wir haben ja vergleiche gemacht und konnten nie das ´schlimme´ holland tomaten rot feststellen, was gerne mal den ein oder anderen gerät bescheinigt wurde :zwinker2:

  • Der Vergleich zu SDR, wo alles immer prima sei, hinkt meiner Meinung nach etwas, da der Anteil von gut gemachten Blurays gemessen am Gesamtkatalog eher nicht so hoch ist.

    Ja, bezüglich bestehenden Titeln hinkt der Vergleich sehr stark, denn mit der UHD wurden sehr viele ältere Filme neu abgetastet und neue Master erstellt. Das gab es bei der Blu-ray in der Masse nicht, da reichte häufig das Master der DVD. Dementsprechend sieht man jetzt auf der UHD ständig neue Gradings.


    Ich möchte hier noch mal auf den Film "Parasite" hinweisen. Bei dem wurde fälschlicherweise zuerst eine UHD ohne HDR ausgeliefert, also 4K mit 10 Bit und BT.709. Erst später kam eine UHD mit HDR. Der Vergleich ist sehr aufschlussreich. Mit entsprechend eingestelltem Tone Mapping sehen beide extrem ähnlich aus, die HDR-Version ist allerdings stärker gesättigt (in den Mitteltönen!). Wer weiß, welches Profil da beim Exportieren genutzt wurde.

    Passt man jedenfalls die Sättigung bei der SDR-Version an, sind die Unterschiede homöopathisch. Dazu gibt es dann noch die sehr gute Blu-ray von Criterion. Ich habe in dem Review Detail-Screenshots verglichen.

  • Es hängt wie schon geschrieben denke ich sehr stark vom Bildinhalt ab. Ob nun Parasite da ein Maßstab sein sollte? John Wick ab Teil 2 oder ähnliches Material wäre ein interessanterer Vergleich. Es würde mich auf jeden Fall stark wundern, wenn sich das Format HDR als Placebo belegen ließe. Wie gesagt, Shots, die korrekt ausgeleuchtet sind, bei denen aber auch noch das leuchtende Innenleben vom Autoscheinwerfern komplett abgebildet wird, kannte ich vor HDR nicht.

  • Es würde mich auf jeden Fall stark wundern, wenn sich das Format HDR als Placebo belegen ließe.

    Es ist kein Placebo, wenn man es auch wirklich als HDR wiedergibt (also ohne Tone Mapping). Mit Tone Mapping wird es zu banalem SDR. Und alles was dann sichtbar ist, ist eben mit SDR sichtbar. Von daher ist genau das hier...

    Wie gesagt, Shots, die korrekt ausgeleuchtet sind, bei denen aber auch noch das leuchtende Innenleben vom Autoscheinwerfern komplett abgebildet wird, kannte ich vor HDR nicht.

    ...der Beleg dafür, dass sowas mit SDR möglich ist. :)


    Es war bisher nur einfach nicht gewollt, weil es häufig unnatürlich aussieht. Ein bisschen Clipping gibt einem Bild subjektiv mehr Kontrast wund wirkt häufig authentischer.

  • Die Target Nits müssen in diesen Szenen viel höher sein. Es wird also teilweise anscheinend bewusst (?) gegen gängige Masteringempfehlungen verstoßen.


    Ich habe mir inzwischen zwei Presets für unterschiedliche dynamische Target Nits erstellt. Eins für den Großteil aller Filme und eins für die ganz hellen. Schlimm, dass es soweit kommen musste.

    Nabend,


    na ich fahre hier sogar 4 HSTM Grundsettings.:zwinker2: 1000, 4000, dazwischen und darüber für bis zu 10.000 Nit.



    all:

    Und mehr als 800 Nit würde keiner real in einem abgedunkelten Heimkino haben wollen, schon gar nicht bei Peak white.

    Insofern sind die reinen HDR Angaben in Nits auch nur "akademisch" zu werten. Es stellt eine Range da zu mögl. Spitzenlichtern da, aber mehr auch nicht.


    ANDY

  • Es ist kein Placebo, wenn man es auch wirklich als HDR wiedergibt (also ohne Tone Mapping). Mit Tone Mapping wird es zu banalem SDR. Und alles was dann sichtbar ist, ist eben mit SDR sichtbar. Von daher ist genau das hier...

    Ja, das es mit 8 Bit (und Dithering) darstellbar ist, ist klar. Was aber neu ist, ist das ich HDR auf einem Projektor mit der doppelten Helligkeit gucke, wie SDR. Diese Verdoppelung reicht, zumindest im Kino (keine Ahnung, wie sich das auf einem TV darstellt) aus, um die Highlights völlig zufriedenstellend abzubilden. Das hatten wir vor HDR nicht, da das Material mit der doppelten helligkeit einfach nur doppelt so hell geworden wäre. Hier ist jetzt die Nische, in die Tonemapping springt. Es hat gewissermaßen also nun Platz zum arbeiten, den es vorher nicht gab. Man könnte jetzt korrekt argumentieren, dass man das ganze Format anders hätte aufziehen können, aber zu sagen, SDR und HDR nehmen sich nach Tonemapping nichts, finde ich nicht korrekt.


    Ich habe mich nicht näher damit beschäftigt, aber ich glaube verstanden zu haben, dass HLG ein wenig in die Richtung geht. Da wird bis zum 3/4 der Helligkeit nach Rec709 Gamma gespeichert/wiedergegeben und nur das obere 1/4 logarithmisch, Korrigiert mich, wenn ich falsch liege. Das Ganze soll dann auf einem Rec709 Gerät noch akzeptabel aussehen, auf einem HDR Gerät eben HDR-ig.

  • Ja, das es mit 8 Bit (und Dithering) darstellbar ist, ist klar.

    SDR mit 10 Bit (ohne Dithering) und DCI-P3 kann das genauso darstellen. So könnte es der Datenträger liefern.


    Was aber neu ist, ist das ich HDR auf einem Projektor mit der doppelten Helligkeit gucke, wie SDR. Diese Verdoppelung reicht, zumindest im Kino (keine Ahnung, wie sich das auf einem TV darstellt) aus, um die Highlights völlig zufriedenstellend abzubilden. Das hatten wir vor HDR nicht, da das Material mit der doppelten helligkeit einfach nur doppelt so hell geworden wäre. Hier ist jetzt die Nische, in die Tonemapping springt. Es hat gewissermaßen also nun Platz zum arbeiten, den es vorher nicht gab.

    Das ist richtig. Wenn man die Highlights nicht so stark komprimiert wie man es für herkömmliches SDR tun würde, dann ist das Ergebnis ein anderes. Man hat also eine Stellschraube mehr, auch wenn das Bild am Ende mit echtem HDR immer noch nichts zu tun hat. Mal abgesehen davon, dass du Kontrast in den Mitteltönen verschenkst. Aber das ist ein anderes Thema, das nur mit den Unzulänglichkeiten unserer Projektoren zu tun hat. Die Möglichkeit, die Highlights je nach Anwendungsfall zu strecken, ist grundsätzlich nicht schlecht. Nur fallen die Obergrenzen für Projektion völlig aus dem Rahmen und der Tone-Mapping-Algorithmus (bzw. der Rendering Intent) wurde nicht (ausreichend) definiert.


    ...aber zu sagen, SDR und HDR nehmen sich nach Tonemapping nichts, finde ich nicht korrekt.

    Mir ging es in meiner Argumentation um den Fall, dass man die Highlights so stark komprimiert, dass die durchschnittliche Helligkeit mit SDR vergleichbar ist. Und dann stimmt die Aussage absolut. Es kommt halt immer auf die Stärke der Kompression an. :)


    Insofern sind die reinen HDR Angaben in Nits auch nur "akademisch" zu werten. Es stellt eine Range da zu mögl. Spitzenlichtern da, aber mehr auch nicht.

    Das sehe ich auch so. Es gibt keinen vernünftigen Grund, sich nach den absoluten Leuchtdichten zu richten. Das ist aus meiner Sicht einer der größten Fehler des Standards.

  • na ich fahre hier sogar 4 HSTM Grundsettings.:zwinker2: 1000, 4000, dazwischen und darüber für bis zu 10.000 Nit.

    das ist ja interessant das ihr das macht, ich hatte gedacht das das bei madvr nicht nötig sei.

    Am Anfang brauchte ich für den radiance auch verschiedene Einstellungen, jetzt aber nicht mehr!


    Was stellt ihr da genau ein und warum reicht da die Berechnung von madvr nicht?

  • Nabend,


    du kannst auch mit einer Einstellung "glücklich" werden in Mad VR, nur dazu empfinde ich die Spreizung der untersch. "Nit gemas. Filme"

    nicht optimal für nur eine Einstellung.

    Du hast ja hier mehr Stellschrauben :zwinker2: im Mad VR Konzept. Das ist z.B. einer der Gründe warum ich nicht kompl. beim Radiance geblieben bin.

    Insbesondere bei unseren "helleren" Geräten, ist das ein Vorteil (IMO).

    Im Envy kannst du da sogar stufenlos hantieren, was ich eigentlich noch besser finde.

    Wenn ich mehr Zeit finden würde, würde ich gern auch den Envy dahingehend nochmal näher im Detail betrachten wollen.


    ANDY

  • zu Anfang hat mir Karl Klammer gezeigt wie wir die Einstellungen für die 1000 und 4000njts Titel messtechnisch an Hand der gamma Kurve ermitteln konnten, vielleicht wäre das ja auch für euch eine Option.

    Beim radiance geht das jetzt so nicht mehr und ist auch gar nicht nötig, da kann man jetzt wirklich nicht mehr viel rausholen. Was ich persönlich gut finde, das wir nicht mehr der besten Einstellung nach jagen.

  • zu Anfang hat mir Karl Klammer gezeigt wie wir die Einstellungen für die 1000 und 4000njts Titel messtechnisch an Hand der gamma Kurve ermitteln konnten, vielleicht wäre das ja auch für euch eine Option.

    Die maximale Luminanz der Titel ist nicht das Problem, das Clipping macht madVR automatisch. Das heißt, es komprimiert nur so weit es notwendig ist und schneidet alles darüber, was sowieso nicht im Bild vorkommt, ab.

    Dass die maximale Luminanz nicht das Problem ist, sieht man übrigens z.B. an "Mad Max Fury Road". Der geht stellenweise bis fast 10.000 Nits, ist aber insgesamt einen Tick zu dunkel gemastert. Das ist bei neueren Titeln aber meist nicht so.


    Nein, das Problem sind (für mich zumindest) Titel, die völlig unterschiedlich hell gemastert sind. Das "Referenzweiß" ist quasi verschoben, könnte man sagen.

    "Der König der Löwen " ist so ein Extrembeispiel. Der hat Szenen, die fast nur aus Highlights bestehen. Mit einer Display Peak Luminance von 100 und geringen Dynamic Target Nits sieht der total "überstrahlt" aus. Viel zu hell insgesamt. Mit höheren DNT passt es gut und sieht der Blu-ray sehr ähnlich. Dann sind aber die "normalen" Filme wieder zu dunkel bzw. man verschenkt dort Kontrast/Leuchtdichte. Ich habe bisher jedenfalls keine Einstellung gefunden, die alle Filme gut abdeckt.


    Dazu kommt, dass HSTM in Szenen mit sehr viel Highlights nicht funktioniert. Es verringert (!) dann lokal den Kontrast anstatt ihn zu erhöhen.


    Man muss aber auch dazu sagen, dass die Ausreißer eher selten sind. Für die große Masse an Filmen passt es in der Regel zufriedenstellend.

  • zu Anfang hat mir Karl Klammer gezeigt wie wir die Einstellungen für die 1000 und 4000njts Titel messtechnisch an Hand der gamma Kurve ermitteln konnten, vielleicht wäre das ja auch für euch eine Option.

    Beim radiance geht das jetzt so nicht mehr und ist auch gar nicht nötig, da kann man jetzt wirklich nicht mehr viel rausholen. Was ich persönlich gut finde, das wir nicht mehr der besten Einstellung nach jagen.

    Du hast über Mad VR mehr Möglichkeiten, daher ich drehe mit meiner Helligkeit den DTN "Hahn" z.B. viel höher auf als andere User, davon profitiert der HDR Effekt ungemein. Bin da im Bereich 500 - 1000 Nit z.B. Gleichzeitig verändere ich die DPL dann je nach Mastering Film. Damit verliere ich keine Durchzeichnung in allen IRE´s oder bekomme Überstrahlungen.

    Insofern bin ich froh, das ich diese "tools" habe.

    Die Diskussion mit Mad VR und dessen neuere Versionen geht auch in diese Richtung, denn je mehr DTN man zur Verfügung hat, desto gehaltvoller der HDR Effekt und auch die "bessere" Farbdarstellung in Verbindung mit mehr Helligkeit.

    Letzteres ist das Thema bei der Entsättigung, da bei zu starker Komprimierung eben "Fehlfarben" entstehen und so darunter die Farbhelligkeit u.a. leidet.

    Das Problem ist daher an jeder "Tonmapping Maschine" relevant. Und ich bin da mit dem Radiance nicht so glücklich darüber.

    Mad VR auf einer LED Wand zeigt zudem völlig andere Einstellmöglichkeiten z. b. Daher je heller das Bild vom Endgerät ist, desto weniger Probleme auch mit dieser Farbfehler Problematik. Daher ich brauche diese Entsättigung gar nicht in den neueren MAD VR Beta´s.

    Ob ich mit den don't add peak nits nochmal mehr DTN erzielen kann (ohne ggf. mehr Entsättigung in Kauf nehmen zu müssen), sei einmal dahin gestellt.

    Probieren werde ich (wenn Zeit) auch gern das nochmal.


    ANDY

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!