Beiträge von FoLLgoTT

    Könntest Du sie bitte noch ein wenig erläutern?

    Klar. Ganz allgemein kann man die Kürrmung mit distortionFactorY einstellen. Fang einfach mal mit 0.2 oder ähnliche kleine Werte an. Mit distortionCenterY kannst du dann die Mitte der Verzerrung festlegen. Werte kleiner 1 verschiebt die Mitte nach unten und >1 nach oben. Mit den beiden Parametern (die reichen schon fast) würde ich erstmal anfangen und ein bisschen rumspielen. Das Schöne ist, dass MPC-HC das Bild sofort aktualisiert, wenn du die Datei im Editor änderst und speicherst.


    Wenn du dann konkrete Fragen hast, nur zu. :)

    Hier ein Script mit freundlichen Grüßen von ((( atom ))), mit dem MPV Dateien in Kodi als gesehen markiert. Ich selbst habe es nicht getestet. :)


    In Kodi muss unter "Services" noch die HTTP-Steuerung aktiviert werden.


    Kodi:


    Und die zugehörigen LUA-Teile (müsst ihr selbst in eure Scripte integrieren) für MPV:

    Die Werte sagen leider nichts darüber aus, wie hoch die mittlere Helligkeit im Bild ist. Man kann sich die "target nits" beim Tone Mapping wie einen Regler vorstellen, den man hin- und herschieben kann und damit das Referenzweiß erhöht oder verringert. Die mittlere Helligkeit ist dann stark unterschiedlich, weil sich der Großteil des Bildes unter 100 Nits abspielt. Der Maximalwert, der auftreten kann, ist aber immer derselbe.


    Das heißt, die relevantere Frage ist eigentlich eher, wo das Referenzweiß liegen sollte. Natürlich kann man es "streng nach Vorschrift" auf 100 Nits setzen, aber in der Regel stellt man es sich so ein, wie es einem gut gefällt. Und das kann stark davon abweichen und macht riesige Unterschiede aus.

    Ich möchte auf einen Effekt aufmerksam machen, der sehr selten diskutiert wird. Bei planen Leinwänden kommt es mit Verringerung des Sitzabstands zunehmend zu geometrischen Verzerrungen. Durch die immer spitzeren Winkel zwischen Beobachter und den Rändern der Leinwand kommt es zu einer Tonnenverzerrung und einer Nichtlinearität. Ich habe mal versucht, das zu illustrieren. Auf der Leinwand sind in der Mitte und am Rand dieselben Abstände eingezeichnet. Durch die verschiedenen Winkel werden sie vom Auge aber unterschiedlich verzerrt.



    Das Bild auf der Leinwand wird also leicht tonnenförmig und nichtlinear verzerrt wahrgenommen. Das Bild wird zu den Rändern hin gestaucht. Ungefähr so:



    Das ist in der Regel kein großes Problem, da wir es in der Realität nicht anders kennen, aber je geringer der Sitzabstand, desto ausgeprägter ist der Effekt. Wenn man es aber einmal bemerkt hat, kann das schon störend sein.

    Mit gekrümmten Leinwänden und entsprechend dimensioniertem Radius lässt sich das umgehen. Bei planen Leinwänden kann man die Geometrie problemlos entzerren. Das sieht dann z.B. so aus:



    Die Werte in meinem Warping-Shader sind dann wie folgt:

    Code
    float distortionFactorX = 0.01; // higher = more curved distortion
    float distortionFactorY = 0.03; // higher = more curved distortion
    float linearityCorrectionX = 1.02; // corrects horizontal linearity for anamorphic lens
    float linearityCorrectionY = 1.05; // corrects horizontal linearity for anamorphic lens


    Es reicht für einen Test auch ein großer Monitor oder TV, an den ihr entsprechend nah rangeht. Die Entzerrung oben habe ich bei einem Sitzabstand 0,8 x Bildbreite an einem 42" TV ermittelt. Wenn die Entzerrung aktiv ist, wirken die Ränder gerade. Ohne sieht man schön die Tonnenverzerrung. Im Filmbild macht es sich auch positiv bemerkbar. Menschen außerhalb der Mitte wirken perspektivisch korrekter und nicht mehr wie ein Pappkamerad, den man schräg von Vorne betrachtet. Das kann man hier im Forum nicht zeigen, weil man eben den geringen Sitzabstand zum Bild haben muss, damit es funktioniert.


    Probiert es einfach mal aus. :)

    Hier noch mal eine erweiterte Korrekturmöglichkeit. Man kann die Biegung (bow) angeben und damit die waagerechte Linie (also die ohne Verzerrung) nach oben oder unten verschieben. An der Gesamtkrümmung ändert das nichts.


    Ohne Biegung:


    Mit Biegung:


    Ich denke damit hat man so langsam alle Parameter, um das Bild an die gekrümmte Leinwand anzupassen. Und das komplett ohne Punktkorrektur. :)

    Ergänzungen und Aktualisierungen erwünscht. :)

    Ich hätte noch folgende Ergänzungen:

    • Spectracal PC Client (läuft auf dem Zielrechner und wird von CalMAN über TCP/IP angesteuert)
    • AVIA (eine der besten Test-DVDs aus vergangenen Tagen)
    • ADL-Testbilder (ProjectionDreams und hier)
    • MURIDEO Testbilder-Sammlung (unter anderem alle möglichen Farbgradienten, zum Überprüfen von Banding in 3D-LUTs usw. Hier der Direktlink zu allen Bildern)


    Ich hatte mit damals aus der ersten Version des Nokia Monitor Testers noch folgendes Testbild rausgezogen und auch eine UHD-Version erstellt. Das eignet sich sehr gut zum Einstellen und beurteilen des Fokus.


    Für Chroma-Subsampling usw. hatte ich mir schon vor Urzeiten HD-Varianten der Burts-Testbilder von Peter Finzel erstellt. Die Quelle war aber nicht die DVD, sondern echte PNG-Dateien mit voller Auflösung (war mal kostenlos im Netz verfügbar). Der Siemensstern existiert auch in HD. Wegen des Urheberrechts kann ich die aber leider nicht veröffentlichen.


    Um Skalierung zu testen, eignen sich unter anderem diverse Testbilder von Burosch (sind ja oben verlinkt). Neben synthetischen Bildern ist auch das bekannte Hamburg-Foto von George Lucas in allen relevanten Auflösungen dabei. Ich hatte Herrn Burosch damals an ihn verwiesen, als er mich über Beisammen anschrieb und fragte, ob ich Lust hätte, Testbilder für ihn zu erstellen (hatte ich aber nicht :beated:)*. Das Ergebnis ist schön hochauflösend und zumindest im deutschsprachigen Raum ein guter gemeinsamer Nenner für Vergleiche. Was nicht zuletzt daran liegt, dass GL dieses Foto regelmäßig in seinem Blog verwendet.


    * einige Beisammen-Mitglieder waren damals von Burosch eingeladen worden und hatten sein Labor besichtigt (war schon recht beeindruckend). So entstand der Kontakt. Das nur als Hintergrundinfo. :)

    Alles mein Reden seit Jahren. Selbst die Ansätze des "Brightness wars" hatte ich schon angesprochen. Mit Projektion schauen wir immer SDR und der relevante Bereich liegt unter 100 Nits. Den begrenzten Kontrast der Projektoren für (unwichtige) Highlights zu verschwenden, ist nicht zielführend.


    Ein absoluter Standard bezogen auf die EOTF an sich ist Mist, da er die Umgebung nicht einbezieht. Und das Referenzweiß ist für TVs viel zu niedrig angesetzt. Für Projektion ist der zwar in Ordnung, aber dort wird es niemals HDR geben. Zumindest nicht das, was die Spezifikation (also 10.000 Nits) hergibt mit praktisch unendlichem Kontrast. Man kann es drehen und wenden wie man will, wir mit unseren Projektoren wären mit UHD und BT.2020 in SDR besser und problemloser gefahren.

    Die LUTs mit DC sehen in der Tat wirklich sehr gut aus, ich kann ebenfalls kein Banding feststellen.

    Mittlerweile habe ich mindestens 6 LUT erstellt, und bereits die "kleinen" um 783 Pattern liefern augenscheinlich sehr gute Ergebnisse.

    Ja, das kann ich so bestätigen. Ich mache das inzwischen per Segelmessung. Starten, rausgehen, irgendwann wiederkommen, fertig. Klappt problemlos und das Ergebnis ist richtig gut. :)


    Einzig nervt mich dass mein Kalibrier Laptop in die Jahre gekommen ist und DC recht lange (bis 30 Minuten!) an dem LUT rumrechnet.

    Die LUT-Generierung dauert wirklich lange. Mein betagtes Mess-Notebook braucht auch seine 20 Minuten pro LUT.

    Kann man eigentlich den Envy auch mit einer in Displaycal erstellten 3D-LUT füttern ?

    Ja, er nutzt das madVR-Format (.3dlut) und kann wohl, wie madVR auch, direkt von DisplayCAL angesteuert werden.


    wolf352

    Hast du eigentlich mal die 3D-LUTs von DisplayCAL mit denen von Colorspace/Lightspace verglichen? Abgesehen davon, dass man mit DisplayCAL keine Messungen grafisch auswerten kann, finde ich das Programm für Freeware extrem gut. Die LUTs, die ich bisher generiert hatte, waren bandingfrei. Da entsteht nicht der Wunsch, für die LUT-Erstellung viel Geld für ein anderes Programm auszugeben. Und mein altes CalMAN taugt zwar zur grafischen Auswertung (Analyse usw.), aber zu mehr auch nicht.

    Ich finde es gruselig, dass wir die Krücke Interlaced mir rüber geschleppt haben in den digitalen Broadcast. Das war nicht notwendig.

    Da gibt es leider noch mehr gruselige Dinge, die weiterhin mitgeschleppt werden. Z.B. der beschränkte Wertebereich (sogar bei 10 Bit). Und selbst HDMI überträgt noch alle Parameter eines Pixeltakts, wie Schwarzschulter, Syncbreite usw. Alles unnötiger Ballast und potentielle Problemverursacher.

    Für zeilenbasierte Geräte (Röhren TVs und Projektoren) passt das dann, für Sample&Hold Displays muss dann Display oder Player die Halbbilder wieder richtig zu Vollbildern zusammensetzen (De-Interlacing), wobei es ja auch diverse Probleme gab/gibt.

    Viele DVDs waren damals schon in 23,975 FPS gespeichert, so dass man sie auch ohne Deinterlacer sauber als Vollbilder ohne 3:2-Pulldown ausgeben konnte. Zumindest mit einem HTPC. Die meisten DVD-Player konnten wohl nur 50/60 Hz, wenn ich mich richtig erinnere. Ist lange her...:zwinker2:

    audiohobbit hat ja schon mit den Missverständnissen aufgeräumt. Ich möchte noch hinzufügen, dass es Projektoren gab, die 24 Hz ohne Bildwiederholung und mit Dunkelphasen wiedergeben konnten: Röhrenprojektoren. Ich hatte das damals ausgiebig an meinem Sony 1292 getestet. Es ist wirklich so, dass 24 FPS mit 24 Hz wiedergegeben absolut (!) flüssig sind. Nur das Geflimmer ist natürlich unerträglich.


    Das Interessante ist: mit jeder Bildwiederholung sieht man an bewegten Kanten eine Kante zusätzlich. Bei 48 Hz konnte ich damals zwei Kanten sehen, bei 72 Hz drei und bei einem Sample&Hold-Anzeigegerät schließlich wurde aus der Kante nur noch ein breiter Matsch.


    Die wichtige Erkenntnis daraus ist folgende: schon die erste Bildwiederholung (also 48 Hz) führt dazu, dass es ruckelig aussieht. Jede weitere Wiederholung verschlechtert das Ergebnis nur noch minimal. Der Schritt von 24 Hz zu 48 Hz ist extrem stark ausgeprägt. Das muss man einmal selbst gesehen haben, um es zu glauben. Die Erklärung ist, soweit ich das mal recherchiert hatte, die, dass unser Gehirn in den Dunkelphasen die Bewegung interpoliert. Taucht nun stattdessen das Objekt nach Zeit X noch mal an derselben Stelle auf, beißt sich das mit dem, was wir erwarten und es kommt zu Mehrfachkonturen.

    Weißt Du zufällig wie man MPV entlocken kann welcher Farbraum zur Ausgabe aktuell genommen wird?

    Starte mal mit -v, dann kommen mehr Informationen raus. Bei mir steht dann z.B. irgendwo:


    Code
    [vo/gpu/d3d11] Queried output: \\.\DISPLAY1, 3840x2160 @ 8 bits, colorspace: RGB_FULL_G22_NONE_P709 (0)
    [vo/gpu/d3d11] Selected swapchain format R8G8B8A8_UNORM (28), attempting to utilize it.
    [vo/gpu/d3d11] Selected swapchain color space RGB_FULL_G22_NONE_P709 (0), attempting to utilize it.
    [vo/gpu/d3d11] Swapchain capabilities for color space RGB_FULL_G22_NONE_P709 (0): normal: yes, overlay: no
    [vo/gpu/d3d11] Swapchain successfully configured to color space RGB_FULL_G22_NONE_P709 (0)!