Alternative Inbildkontrastmessung

  • Danke Armin289. Das ergibt alles Sinn und bestätigt im Grunde meine Aussage, dass keiner auf absolute Werte im ganz unteren Bereich kalibriert. Indem man erst am 5% oder 10% korrigiert, tritt kein Abschneiden auf, weil das erst bei niedrigeren Stufen auftreten würde. Das heißt: der Schwarzwert geht in die Kalibrierung rein. Wenn auch unbewusst, weil wir nicht so niedrig messen können. Er bestimmt aber die Kompression unterhalb des ersten Messpunktes (sofern strikt auf eine Potenzfunktion kalibriert wird).


    Ganz unabhängig von der genutzten Gammakurve, bleibt das Problem für verschiedene ADL natürlich. Das Beispiel mit der speziellen Kalibrierung des DLPs ist hervorragend! Wenn wir von einem D-ILA ausgehen, der bei ca. 5 % ADL nur noch den Kontrast dieses DLPs erreicht, dann wäre es ja nur sinnvoll, die Gammakurve bei so einem Bildinhalt untenrum genauso abzuflachen. :)



    @alle

    Hier ist übrigens die Option in CalMAN beschrieben.

  • Armin hat eigentlich schon alles gesagt.

    In der Praxis kalibriert man 10IRE oder bestenfalls 5IRE noch aufs power gamma, darunter stellt man nur noch den Helligkeitsregler so ein, dass idealerweise ab 17 Videovalue alles sichtbar ist. Da weicht das Gamma ganz weit unten automatisch dann ab, ganz klar.


    Das war vll. beim Vorbild CRT nicht der Fall, und bei Micro LED oder OLED könnte man das noch so machen. Letztere sind aber vermutlich auf Wohnzimmer mit Restlicht ausgelegt, und werden daher wohl auch nicht bis IRE 0 dem power gamma folgen denke ich.

  • Wenn wir von einem D-ILA ausgehen, der bei ca. 5 % ADL nur noch den Kontrast dieses DLPs erreicht, dann wäre es ja nur sinnvoll, die Gammakurve bei so einem Bildinhalt untenrum genauso abzuflachen. :)

    Ein D-ILA X7900 bspw., liegt bei 5% ADL noch bei einem Kontrast von 2800:1. Das heisst er kommt auch bei einem Filmbild mittlerer Helligkeit dann noch im Gamma geradlinig runter bis IRE03, 3% ( 1/2242 von IRE100 ) Also deutlich besser als mein Beispiel-Consumer-DLP. :)


    Rein praxisbezogen gebe ich aber Christian völlig Recht, dass man im untersten Bereich mit Kalibrierung von IRE05/IRE10 und Einstellung des Scharzpunkts auf Videolevel 17 der Genauigkeit ausreichend Genüge tut.

    Aber auf einer mehr theoretisch/perfektionistischen Ebene ist es natürlich schon interessant, wie man den Einfluss der unterschiedlichen ADL der Filmbilder auf die Gammakurve mit einer angepassten Kalibrierung begegnen könnte.


    Von der Theorie her könnte ein System wie madVR, mit entsprechender Erweiterung, natürlich leicht die ADL je Filmbild berechnen und ein angepasstes Gamma-Mapping entsprechend den Kontrastfähigkeiten des Projektors realisieren, auch für SDR. Das setzt aber wiederum, wie auch schon für HDR, eine präzise Kalibrierung auf durchgehendes Gamma 2.2/2.4 voraus - auch im untersten Bereich von IRE01 - IRE05.


    Ich halte mir aber immer vor Augen, dass alles was für SDR zwischen Gamma 2,2 und Gamma 2,4 kalibriert wird, mehr oder weniger seine Richtigkeit hat. Je nachdem wie und auch zu welcher Zeit der Film gemastert wurde und welche Projektionsbedingungen vorliegen. Dem gegenüber fallen die Veränderungen im Gammaverlauf durch unterschiedliche ADL recht moderat aus.


    Weiter habe ich festgestellt, dass so ein UHP-Lampenprojektor über die Laufzeit eines Films, messbar schon erhebliche Veränderungen zeigt, sowohl in der Farbtemperatur wie auch etwas beim Gamma. Das hört nach der Warmlaufzeit nicht auf. Selbst nach einer Stunde, bis zum Ende des Films gibt es noch Veränderungen.


    Insofern habe ich Zweifel, ob ein so hoher Aufwand lohnen würde und ein Unterschied zum bisherigen Kalibrierungsvorgehen im Filmgeschehen - und selbst im Standbild - überhaupt sichtbar wäre.


    Ich werde mir für die nächste Messung Testpattern mit mittlerer Hindergrundhelligkeit von 5% ADL und kleinem Messfenster anlegen, bzw. den HCFR-Patterngenerator entsprechend einstellen. Das wäre m. E. die sinnvollste Annäherung mit einfachen Mitteln.

  • Ein D-ILA X7900 bspw., liegt bei 5% ADL noch bei einem Kontrast von 2800:1. Das heisst er kommt auch bei einem Filmbild mittlerer Helligkeit dann noch im Gamma geradlinig runter bis IRE03, 3% ( 1/2242 von IRE100 ) Also deutlich besser als mein Beispiel-Consumer-DLP. :)

    Stimmt. Ich hatte in meinem Diagramm auf der ersten Seite falsch abgelesen. Es sind eher 10 % ADL bei 1000:1. War etwas stressig heute. :zwinker2:

    Ich halte mir aber immer vor Augen, dass alles was für SDR zwischen Gamma 2,2 und Gamma 2,4 kalibriert wird, mehr oder weniger seine Richtigkeit hat. Je nachdem wie und auch zu welcher Zeit der Film gemastert wurde und welche Projektionsbedingungen vorliegen.

    Da ist natürlich etwas dran. Der CRT-Masteringmonitor hat (damals) sicherlich in ähnlicher Weise sein Gamma mit höheren ADL verbogen wie unsere Projektoren heute und somit wäre das ins Grading bereits eingeflossen. Bei neueren Filmen muss das nicht mehr so sein...


    Dem gegenüber fallen die Veränderungen im Gammaverlauf durch unterschiedliche ADL recht moderat aus.

    Zumindest betrifft die Veränderung bei 25 % nur die Werte unterhalb von ca. 8 %. Von daher ist das nur eine kleine Wertemenge, die beeinträchtigt wird.



    @alle

    Ich habe vorhin mal eine Stunde Zeit gefunden und meinen Projektor auf BT.1886 mit 25 % ADL kalibriert. Das hellt bis in die unteren Mitteltöne auf und erzeugt somit eine bessere Durchzeichnung. Allerdings wird, wie erwartet das Bild auch etwas flacher. Das ist eben der Preis, wenn der Kontrast gering ist. Es ist natürlich schwierig, das wirklich zu beurteilen, solange keine echte Dynamik implementiert ist. Eigentlich sind nur Standbilder zur Beurteilung geeignet, Filme weniger, da die ja die ADL ständig wechseln.


    Mir ist die Bildtiefe aber wichtiger als das letzte bisschen Durchzeichnung. Von daher belasse ich es erstmal bei dem Test. Die Idee war nicht schlecht und das alles mal aus dem Blickwinkel zu durchdenken, brachte für mich ein erweitertes Verständnis, was da passiert. Aber aus der Erkenntnis etwas Produktives herauszuziehen, war dann letztendlich doch nicht möglich. Macht ja nichts.



    Anderes Thema: es wurde ja schon viel über die beste Sensoraufstellung, um den Inbildkontrast zu messen, diskutiert. Ich habe mal einen Vergleich in meinem nahezu komplett schwarzen Raum gemacht. Dieses Mal ist das Diagramm auf beiden Achsen logarithmiert, damit man mehr erkennen kann.


    1. Reflektiv an der Leinwand

    2. Im Lichtweg mit Diffusor

    3. Im Lichtweg ohne Diffusor



    Wie schon an anderer Stelle angesprochen, ist der Kontrast im Lichtweg ohne Diffusor am größten. Der Grund ist, dass die Messwerte extrem hoch sind. Sie taugen nicht für die Kalibrierung der Farbtemperatur, wohl aber, um Helligkeitsverhältnisse (also Kontraste) zu ermitteln. Durch die hohen Messwerte wird Streulicht sehr effektiv ausgeblendet und man misst vor allem den Projektor und nicht den Raum. Ich habe bei der reflektiven Messung auch Versuche mit schwarzen Röhren vor dem Sensor gemacht, um den Blickwinkel einzuschränken. Das brachte in meinem Raum quasi gar keine Verbesserung.


    Zur Leinwand muss man dazu sagen, dass sie gekrümmt ist (Gain ca. 1,6). Mir ist bisher noch nicht gelungen, herauszufinden, wie stark sie auf sich selbst strahlt. Ich hatte die Seiten vom Sensor bis zur Leinwand mal mit einem schwarzen Tuch abgeschottet, das brachte aber keine messbare Verbesserung.

  • Ich bin verwundert. Ich habe in meinem doch noch ziemlich weissen Raum mit dem i1d3 im Lichtweg meines X5900 MIT Diffusor ANSI-Kontraste um/über 200:1 gemessen, das schien alles sehr plausibel zu nativen Angaben/Messungen der Profis.

    Ich verwende hier allerdings immer die einfache Methode mit nacheinander schwarzem und weissem Messfeld genau mittig, damit sind am Rand jeweils immer halbe Felder des Schachbretts, der ADL sollte aber jedesmal 50% sein.


    Auf die Idee mit dem i1d3 ohne Diffusor zu messen wäre ich nie gekommen, das habe ich ja schon gesagt, und ich habe da weiterhin Zweifel.

    Das Teil hat vorne eine Optik und einen definierten FOV, so dass der ohne Diffusor auf den Projektor gerichtet nur einen weissen Punkt in der Mitte sehen dürfte, aussenherum schwarz.

    Außer man geht SEHR SEHR nah an das Objektiv.

    Da würde mein älterer i1d3 aber streiken, so hohe Leuchtdichten kann der nicht.

    Da ist schon die On/Off Ermittlung mit Diffusor im Lichtweg knifflig.

  • ch verwende hier allerdings immer die einfache Methode mit nacheinander schwarzem und weissem Messfeld genau mittig, damit sind am Rand jeweils immer halbe Felder des Schachbretts, der ADL sollte aber jedesmal 50% sein.

    So mache ich das auch. Also keine echte ANSI-Messung, sondern analog zu den anderen ADLs nur eine Messung in der Mitte des Bildes.


    Auf die Idee mit dem i1d3 ohne Diffusor zu messen wäre ich nie gekommen, das habe ich ja schon gesagt, und ich habe da weiterhin Zweifel.

    Das Teil hat vorne eine Optik und einen definierten FOV, so dass der ohne Diffusor auf den Projektor gerichtet nur einen weissen Punkt in der Mitte sehen dürfte, aussenherum schwarz.

    Außer man geht SEHR SEHR nah an das Objektiv.

    Da würde mein älterer i1d3 aber streiken, so hohe Leuchtdichten kann der nicht.

    Man kann die Leuchtdichte mit dem Winkel zum Projektor dosieren, so dass er nicht ins Clipping kommt. Probiere es doch einfach mal aus. :)

  • Schon seit einiger Zeit komme ich aus nicht so schönen privaten Gründen überhaupt nicht mehr zu sowas, bzw selbst wenn ich Zeit hätte hab ich da keinen Nerv dazu derzeit.

    Bin froh wenn mein Gerümpel läuft und ich ab und an nen Film schauen kann.

  • Cool, dass jemand das Thema mal aufgreift. ich habe mich auch schon gefragt, wie wohl der optimale Weg sein müsste, bei Erstellung meiner 3D-LUTS: Ausgabe der Testbilder Vollbild oder eben kleiner. Ich habe bislang immer den Weg ca. 2/3 Vollbild gewählt.

  • Ich wollte mal untersuchen, wie sich die Sättigung mit steigender ADL verhält. Dafür habe ich einfach das mittlere Kästchen auf die Primärfarben eingefärbt und die Luminanz verringert. Letzteres deshalb, weil der höhere Schwarzwert ja nur auf niedrige Helligkeitsstufen einen signifikanten Einfluss besitzt. Bei stark gesättigten Farben mit hoher Luminanz ist das nicht der Fall.


    Das Testbild sieht dann z.B. so aus:


    Gemessen habe ich für ohne weiße Kästchen, das Testbild für 10 % und das für 20 %. Ich schreibe explizit nicht die ADL dazu, weil sich diese durch das Einfärben des mittleren Kästchens leicht verändert. So genau muss es aber für diese eher qualitative Untersuchung nicht sein. Es geht mir mehr darum zu zeigen, was überhaupt passiert.


    Hier sind die Messungen:


    Ohne weiße Kästchen:


    Testbild für 10% ADL:


    Testbild für 20 % ADL:



    Es passiert genau das, was ich erwartet habe: die Sättigung sinkt mit steigender ADL. Das ist ganz logisch, denn eine hohe Sättigung bedeutet, dass nur eine (oder zwei) Farbe(n) vorkommen. Sobald die andere(n) Farben dazu gemischt werden, rutscht die Farbe in Richtung Weißpunkt. Die Sättigung wird also verringert.

    Das bedeutet: für eine hohe Sättigung vom Tonwerten mit geringer Luminanz muss der Kontrast hoch sein. Oder andersrum, eine Schwarzwertanhebung (egal wodurch) verschlechtert die Sättigung.


    Tja, je mehr man versucht, das Bild durch spezielle Messungen zu charakterisieren, desto mehr wird klar, wie sehr wir mit den üblichen Messungen an der Oberfläche kratzen...

  • Jepp, das ist komplett logisch und erwartbar, dass der Farbort einer mehr oder weniger schmalbandigen Farbe durch parasitäres Streulicht in Richtung des Unbuntpunktes gezogen wird.


    Und ja, wir kratzen noch gaaaaaaaanz weit oben :shock:

    Gut dass Du immer wieder mal ein paar Atomlagen darunter freilegst :sbier:

  • Ja, das ist genau so zu erwarten. "Parasitäres Streulicht" gefällt mir. Und auch deshalb - wenn auch nicht ausschliesslich - kommen die tollen Farben bei einem RGB 3 Chip Laser mit überragendem ANSI zustande : weil eben die Farben wesentlich weniger aufgehellt werden und so weniger an Sättigung verlieren.

  • Ja, wobei das mit Vorsicht zu genießen ist: das was so richtig schön knallt und Spaß macht sind ja eher die gesättigten Farben bei hoher Helligkeit.

    Da hat dann das Streulicht prozentual weniger Einfluss auf die Farbsättigung, der Farbort wird also deutlich weniger weit reinwandern.

    Ich tu mir grad etwas schwer, mir ein insgesamt sehr helles Bild mit dann aber lokal derart niedrigen Farbluminanzen vorzustellen, bzw. mir dann noch auszumalen was eine in diesen Bereichen reduzierte Farbsättigung für den emfundenen Seheindruck bedeutet. :think:

    Nils, hattest du dabei etwas konkretes vor Augen, oder war das erstmal nur ein rein theoretisches Experiment zur Verifikation einer These?

  • Nils, hattest du dabei etwas konkretes vor Augen, oder war das erstmal nur ein rein theoretisches Experiment zur Verifikation einer These?

    Das war eine reine Verifikation. Und du hast völlig Recht, die knalligen, hochgesättigten Farben besitzen eine hohe Luminanz und da ist der Effekt zumindest bis 20 % ADL gar nicht messbar. Von daher sollte man den Effekt nicht zu dramatisch sehen.


    Aber es ist eben ein Effekt, der bei Messungen mit einfarbigen Testbildern nicht sichtbar wird und anscheinend auch kaum diskutiert wird. Ein erhöhter Schwarzwert durch die ADL hat eben auch andere Auswirkungen als nur auf den Kontrast.

  • Ich denke nicht, dass das quasi praxisfremd ist. Meine Ansicht:

    Erstmal ist zu sagen, dass unsere Projektoren darin limitiert sind, hohe Luminanz und hohe Sättigung gleichzeitig darzustellen. Das hat zur Folge, dass es ihnen ab einer bestimmten codierten Nitszahl einer Farbe nicht mehr gelingt, noch zu differenzieren. Das heisst, sie klippen und die Farbunterschiede sind in so einer Konstellation schwer darstellbar: die Farbe wirkt dann nicht zu hell, sondern zu dunkel. Beim Tonemapping von HDR Material muss also entsättigt werden. Kommt jetzt noch "parasitäres Streulicht " aus benachbarten Bildelementen dazu (die also unabhängig von der untersuchten Farbe codiert sind), wird man IMO genau das gleiche obige Phänomen feststellen: nämlich eine zusätzliche Entsättigung dieser Extremfarben ! Die Farbe wird dann also a) zu dunkel und b) zu wenig gesättigt dargestellt. Dieses Phänomen ist je nach Projektor unterschiedlich ausgeprägt und die Empfindlichkeit für dieses Phänomen des "parasitären Streulichtes" spiegelt sich IMO im messbaren ANSI Kontrast wieder. Ideal wären demzufolge Projektoren, die es schaffen, die Grundfarben möglichst rein und hell darzustellen. Das sind Projektoren mit möglichst hoher Farbraumabdeckung und hohem ANSI Kontrast. Diesen Kriterien werden also am besten die RGB 3 Chip Laser gerecht.

  • Das hat zur Folge, dass es ihnen ab einer bestimmten codierten Nitszahl einer Farbe nicht mehr gelingt, noch zu differenzieren.

    Du sprichst von HDR, richtig?

    Bei SDR gibt es diese Limitierung so nicht, da es keine absoluten Leuchtdichten gibt. Relativ zu Weiß passt die Luminanz bei 3-Chippern automatisch. Die Luminanz hoch gesättigter Farben ist ja nur bei 1-Chip-DLPs limitiert, wenn sie entsprechend eingestellt sind.


    Ansonsten stimme ich dir zu: durch das Tone Mapping schieben wir die hellen, hochgesättigten Töne in einen unteren Bereich und entsättigen sie zusätzlich durch die Schwarzwertanhebung (->Streulicht). Ich bezweifle aber etwas, dass diese Töne so weit nach unten geschoben werden, dass die Beeinträchtigung wirklich sichtbar wird. Das müsste man genauer untersuchen. Jedenfalls dürfte die Veränderung durch das Tone Mappings um Größenordnungen stärker ausfallen.

  • Einerseits spreche ich das grundsätzliche Problem an, bspw. eine blaue Polizeisirene (sehr helles farbintensives Blau) darzustellen. Und ja, bei HDR Material ist dann die darzustellende Farbe genau (absolut) definiert. Und hier kann man dann auch die Abweichung vom Soll entsprechend genau quantifizieren.

    Ich sehe ja bei diesen HDR-Farbclipping Bilder, dass die hohen Werte bspw. bei meinem Sony 760 nicht überragend hell sind: das hält sich alles sehr in Grenzen. Von daher denke ich, dass das Phänomen in der Praxis auch bei diesen Extremfarben ebenfalls wirkt. Wie stark müsste man dann natürlich messen.

  • Ich sehe ja bei diesen HDR-Farbclipping Bilder, dass die hohen Werte bspw. bei meinem Sony 760 nicht überragend hell sind

    Eventuell reden wir etwas aneinander vorbei. :)

    Bei SDR ist ja die maximale Luminanz immer in Bezug auf den Weißpunkt definiert. Blau ist dann natürlich nie richtig hell, da es nur 6 % zur Helligkeit beträgt. Das ist ja systemimmanent. Wenn ich richtig informiert bin ist das auch bei HDR noch so, nur dass wir mit unseren Projektoren die Regionen nicht erreichen, wo der Unterschied zwischen Primärfarbe und Weißpunkt relevant wird. Wir "clippen" also weit bevor Weiß heller als die Primärfarben werden kann.

  • Die Frage ist ja vielmehr: In wiefern lassen sich die Messergebnisse der Messpattern 1:1 auf reale Filmbilder übertragen?


    Bei HDR habe ich unlängst ermittelt, dass der Farbreiz sichtbar näher ans "Original" herankommt, wenn via Tone Mapping in der Luminanz limitierte Farben mittels "Sättigung" leicht angehoben werden.

    Mittlerweile hat sogar Lumagen diese Ergebnisse meiner Untersuchung ins Tone Mapping einfließen lassen und Farben innerhalb der Farbraumkoodinaten entsprechend "verschoben".

  • Eventuell reden wir etwas aneinander vorbei. :)

    Die Gefahr besteht natürlich immer. :)

    IMO spielt es für dieses Phänomen ja erstmal keine Rolle, ob HDR oder SDR, weil es ein Phänomen ist, dass durch die limitierte Technik des Projektors verursacht wir, je nach Proketortyp mal mehr mal weniger und je nach BIldkomposition (je nach ADL; Helligkeit in der Nähe des untersuchten Bereiches).

    Der Grund, warum ich speziell HDR Material angesprochen habe: weil Ihr beiden die Relevanz in Bezug auf sehr helle und gesättigte Bildbereiche angesprochen habt. Ich habe dann versucht, mir das in der Praxis auszumalen :) und bin zu einer anderem Schluss gekommen.


    Bei HDR ist der Blauanteil des Weiss auch definiert (so wie bei SDR, aber etwas anders - die genauen Werte müsste ich nachschauen) . Mir geht es im obigen Bsp darum , dass ein extremes "Blau" bei HDR definiert ist und durchaus auch sehr hell sein kann in absoluten Zahlen. Der Punkt ist aber, dass IMO dieses Blau dann in der Praxis durch die limitierten Projektoren zu dunkel dargestellt wird und das Phänomen des "parasitären Streulichtes" genauso einen Einfluss hat. Weil es eben IMO Bauart bedingte Ursachen hat.

  • IMO spielt es für dieses Phänomen ja erstmal keine Rolle, ob HDR oder SDR, weil es ein Phänomen ist, dass durch die limitierte Technik des Projektors verursacht wir, je nach Proketortyp mal mehr mal weniger und je nach BIldkomposition (je nach ADL; Helligkeit in der Nähe des untersuchten Bereiches).

    Das ist aber ein Grundproblem der additiven Farbmischung. Jedes Anzeigegerät, dass additiv per RGB die Farben erzeugt, ist bei Mischfarben zu höheren Luminanzen fähig als bei den Primärfarben. Das hat mit der spezifischen Technologie gar nichts zu tun, sondern mit der Art, wie Farben erzeugt werden. Auch ein Laser-Gerät hat diese Limitierung (und auch Röhrenprojektoren). Wenn man diese Limitierung für RGB-Anzeigegeräte umgehen möchte, müsste man alle Farben (auch Weiß) künstlich in der Luminanz beschränken und auf die von Blau runterziehen. Wenn man genug Licht und Kontrast übrig hätte, wäre das für HDR sogar eine reale Möglichkeit und alle Farben könnten gleich hell sein. :)


    Bei SDR dagegen würde das nicht zum Mastering der Filme passen, denn auch der Masteringmonitor unterliegt den selben Regeln der additiven Farbmischung.

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!