Der Lightspace Thread

  • Das verstehe ich grad nicht. Nur nochmal zur Sicherheit nachgefragt. Ich stelle am Patterngenerator (Hier MadVR TPG) DCI/P3 ein und am N7 auch. Dann wird gemessen und daraus eine 3D-LUT erstellt. Die 3D-LUT wird dann in MadVR oder Radiance eingespielt. Während der Filmwiedergabe wird im MadVR/Radiance und am Beamer DCI/P3 eingestestellt. Dann "wandelt" MadVR/Radiance aus dem Quellmaterial alles in DCI/P3 um und es passt alles. Korrekt?


    Ich musste mir mal kurz die Optionen von madVR bei Benutzung von LUTs ansehen, weil ich dachte, es würde dann zwangswesie BT.2020 ausgeben. Das ist aber scheinbar nicht so. Und deswegen kannst Du das so machen, wie Du es beschrieben hast.



    Zitat

    ich möchte auf den nichtlinearen Sättigungsverlauf zurück kommen. Hier hast Du das BT.2020 und DCI/P3 Farbprofil des N7 dargesteööt inkl. der zugehörigen Sättigungsverläufe. Was ist da nichtlinear?


    Für einen linearen Sättigungsverlauf müssten z.B. die grünen Messpunkte auf der weißen Linie liegen.

  • Also hast Du bei der Messung den JVC auf BT.2020 eingestellt und wenn das zu 100% könnte, müsste im Idealfall das gemessene Gamut so wie das große, weiße Gamut aussehen. Tut es aber nicht, es ist kleiner. Dadurch entsteht ein anderer (falscher) Sättigungsverlauf. Das bedeutet im Klartext, dass das Hellgrün mehr Grün ist als das Dunkelgrün. Mal ganz salopp formuliert. Korrekt?


    Edith: Wenn man also am JVC einen Farbraum einstellt, den er zu 100% erfüllt, dann passt der praktische Sättigungverlauf 1:1 mit dem gemessenen überein. Wieder plump gesprochen, weil die Ecken der Dreiecke übereinander liegen und somit die Sättigungsverläufe. Korrekt?

  • Und deswegen kannst Du das so machen, wie Du es beschrieben hast.


    welcher ist den mit filter jetzt linear Bt2020 oder DCI, also im PJ? die lut rechnet dann ja wieder in Bt2020, richtig?


    beckersounds, da ich ein wenig verwirrung gestifftet habe ;) ohne filter würde man den farbraum AUS benutzen und du könntest ohne filter mit einem preset farhren.
    mit filter frage ich gerade oben welcher farbraum geht ;)

  • Also hast Du bei der Messung den JVC auf BT.2020 eingestellt und wenn das zu 100% könnte, müsste im Idealfall das gemessene Gamut so wie das große, weiße Gamut aussehen. Tut es aber nicht, es ist kleiner. Dadurch entsteht ein anderer (falscher) Sättigungsverlauf. Das bedeutet im Klartext, dass das Hellgrün mehr Grün ist als das Dunkelgrün. Mal ganz salopp formuliert. Korrekt?


    Korrekt. Ab 50% driftet Grün etwas in Richtung Gelb ab.



    Zitat

    Edith: Wenn man also am JVC einen Farbraum einstellt, den er zu 100% erfüllt, dann passt der praktische Sättigungverlauf 1:1 mit dem gemessenen überein. Wieder plump gesprochen, weil die Ecken der Dreiecke übereinander liegen und somit die Sättigungsverläufe. Korrekt?


    Ja.



    welcher ist den mit filter jetzt linear Bt2020 oder DCI, also im PJ? die lut rechnet dann ja wieder in Bt2020, richtig?


    DCI ist linear.
    Man braucht aber weder beim Radiance noch bei madVR zwangsläufig eine LUT, die auf BT.2020 konvertiert.

  • Hallo Stefan,
    ich glaube Du zäumst gerade das Pferd von hinten auf, in dem Du ungeduldig versuchst die kompliziertesten Themen als erste anzupacken.
    Ich kann Dir nur raten, Dich erst einmal in die Grundlagen der Bilddarstellung und Videokalibrierung einzulesen und dann mit einer einfachen Messung eines SDR/BT709-Zieles, das die meisten Projektoren auch recht gut erreichen, anzufangen.
    So habe ich das vor 20 Jahren auch gemacht und im Gegenzug käme ich z. B. heute nicht auf die Idee, einen Abhörmonitor für ein Aufnahmestudio zu bauen, obwohl ich sowohl einen Lötkolben sowie ETF5 und REW samt Messmikrofon besitze. :big_smile:


    Light Illusion hat zum Thema Videokalibrierung sehr umfangreichen Lesestoff dazu unter:
    https://www.lightillusion.com/profiling_manual.html
    Zum Programm HCFR gibt es von Huffman, aber auch von "unserem" George Lucas schöne Anleitungen, die viel Grundsätzliches erläutern.
    Das ist alles kein Hexenwerk, aber man muss bestimmte Zusammenhänge einfach verinnerlichen, damit kein Unsinn draus wird.
    Als erstes sollte man sich kurz mit dem CIE-Observer von 1931 und dem Dreifarbensystem beschäftigen. Da basiert der ganze Farbraumkram drauf und man versteht plötzlich, warum die Farbfilter in den Messgeräten auf CIE 1931 abgestimmt sind und was eine 3-D-LUT eigentlich macht, aber auch, warum ein Projektor beim Farbraum nicht zaubern kann.


    Dazu gehören auch grundsätzliche Kenntnis zu den Messgeräten und Techniken. Man sollte Colorimeter und Spektrometer sowie Luminanzmessung und Illuminanzmessung schon unterscheiden können und wissen was ein Cosinusdiffusor ist und welche Aufgabe er hat.


    Das Meiste davon ist völlig unabhängig von der eingesetzten Software.
    In der Messpraxis kommen dann der Messaufbau und so Themen wie Videolevel (0-255/16-235) oder Bitgenauigkeit der HDMI-Ausgabe bei Laptops dazu. Nur wenn man sicher ist, dass eine Messung in Ordnung ist, kann man damit etwas anfangen.


    Erst ganz zum Schluss stellen sich die Fragen nach Einsatz von 1-D- oder 3-D-LUTs, HTPC oder Prozessor.


    "Eine Messung ist immer die Antwort auf eine bestimmte Frage und daher muss man lernen, die richtige Frage zu stellen und dann auch die Antwort zu verstehen"


    Wir helfen ja gerne weiter, aber dieser Thread zeigt, dass es ganz ohne Grundlagen dann doch nicht geht. ;)
    In dem Sinne wünsche ich ein schönes Weihnachtsfest. :sbier:

  • Hallo Omardris,


    ich muss gestehen Dein Posting saß ;)


    Wenn man sich den Anfangspost ansieht, sieht man, dass ich erst einmal versucht habe eine Messung zu machen. Daraus bzw. aus diesem Thread habe ich dann schon vieles gelernt. Beispielsweise wie man den Sensor positioniert, dass der N7 kein BT.2020 Farbraum darstellen kann, was ein linearer Sättigungsverlauf ist etc. Parallel dazu habe ich mir die Grundlagen nochmal reingezogen, unter Anderem auch dem Dreifarbensystem etc. Vielleicht macht es in diesem Thread nicht so den Eindruck. Vielleicht ist meine Lernkurve auch anders als Deine. Vielleicht ist auch meine Art zu lernen anders als Deine. Dennoch finde ich es gut, dass ich es überhaupt versuche. Und ich weiß auch, dass meine ersten Schritte immer recht durcheinander sind. Auch versuche ich Dinge zu verstehen und frage gern nach, ob das so korrekt ist, wie ich es verstanden habe. Und Ratschläge, wenn sie mir gut erscheinen, nehme ich auch an.


    Daher vielen Dank an alle, die sich bisher die Mühe mit mir gemacht haben und mir Dinge erklärt haben, meine Fragen beantwortet haben und mir Ratschläge gegeben haben. :)



    Gruß


    Stefan

  • Mal ein kleiner Zwischenstand :)


    Ich hab es hinbekommen eine Messung zu machen, eine 3D-LUT zu erstellen und sie nach MadVR zu laden. Leider passte sie nicht wirklich. Das Bild war vieeel zu blass und zu rot. Aber egal, ich hab den Workflow grds. mal hinbekommen. Das freut mich. Mich wundert nur etwas, dass die 3D-LUT unter "HDR" in MadVR geladen wird.

  • Mal ein kleiner Zwischenstand :)


    Ich hab es hinbekommen eine Messung zu machen, eine 3D-LUT zu erstellen und sie nach MadVR zu laden. Leider passte sie nicht wirklich. Das Bild war vieeel zu blass und zu rot. Aber egal, ich hab den Workflow grds. mal hinbekommen. Das freut mich. Mich wundert nur etwas, dass die 3D-LUT unter "HDR" in MadVR geladen wird.


    Es gibt ja zwei Stellen an denen Du im madVR eine 3D-lut einladen kannst - direkt beim Display/Projektor oder eben im HDR-Reiter. Entsprechend müssen dazu auch die 3D-luts passen.
    Ich hatte ja vor Monaten mal auf die Schnelle eine 3D-lut mit DisplayCAL erzeugt und das passte schon sehr gut.

  • über die feiertage wurde mit der familie Herr der Ringe geschaut. immer noch schöner film aber eben in die jahre gekommen was die bildqualität betrifft ;) den ersten teil schaut man lieber mit gamma 2,2, die nächten teile sind dann mit gamma 2,4 zwar blaß in den farben aber die bildtiefe geht.


    die blaßen farben, haben mich dann aber doch schon gestört. einfach nur einen erweiterten farbraum oder den DCI filter in den lichtweg haben mich nie überzeugt. andererseits sind die filme im kino ja auch in DCI ;)


    ich hatte mir schon eine 3D LUT mit dem DCI filter für solche sachen gemacht, war aber nicht wirklich zufrieden, da mir das ganze zu übertrieben war. zudem kommt das mir mein filter zu viel licht klaut und ich bei SDR max. 10 Nits abgeben kann ;)
    da mein PJ für die grundlagen der Luts den farbraum AUS benutzt, sollte dieser auch für DCI reichen. dazu muss man nur einen Cutom farbraum bei LS erstellen da die angebotenen nur ein gamma von 2,6 anbieten und ich gerne ein 2,4 gamma hätte.


    da ich nicht über das tiefste wissen der kalibrierunng verfüge, war ich auch ein wenig abgeschreckt vom custom ;)
    doch das ergebniss was ich jetzt für blu ray bekommen habe finde ich sehr ansprechend, laut LS habe ich 99% DCI abdeckung. muss mir natürlich noch ein paar mehr filme so anschauen. wie der radiance bei der auswahl des farbraums bei dem eingang, richtig bemerk: ´ich kann das nur es ich nicht standart´ :rofl: muss man sich natürlich bewusst sein!


    ich gebe Omardris natürlich recht mit seiner aussage das es sinn macht sich sehr gut mit der materie auszukennen. doch kalibrieren soll nicht mein hobby sein und so kann ich auf das ein oder andere tiefere verständniss auch mal verzichten :blush: mit dieser software habe ich möglichkeiten, natürlich mit einen gerät was die 3d Luts verarbeiten kann, die ich vorher so nicht hatte. und mal schnell eine lut berechnen lassen unsd schauen was da rauskommt finde ich wirklich einfach. und ich kann damit gut leben das da auch mal totaler mist bei rauskommt. ich finde mit ein wenig grundlagen darf man sich da schon drantrauen :sbier:

  • Genau, zwei Stellen. Lightspace schiebt sie "automatisch" in den HDR Reiter. Wenn ich die selbe 3D-LUT in den Display/Projektor Reiter laden will, meckert MadVR, dass das Dateiformat nicht stimmt. Ich tendiere dazu, dass sie in den Display/Projektor Reiter gehört.


    Hi Stefan,
    beim suchen im Forum über Deinen Post gestolpert:
    Da ich an dem Thema (3dlut für madvr) auch gerade dran bin:
    (Disclaimer: alles gefährliches Halbwissen meinerseits, da ich in das Thema erst einsteige ;) )
    Die Luts für HDR und die "allgemeine" Kallibrierung unterscheiden sich und müssen unterschiedlich erzeugt werden.
    In DisplayCal gibt es da unterschiedliche Einstellungen. In Lightspace wird es nicht anders sein, denke ich.
    Die Logik dahinter dürfte sein:
    Eine "Kalibrierungs"-Lut sagt nur welche Korrektur-Werte für eine bestimmte Farbe angewendet werden müssen um sie richtig darzustellen.
    Bei einer HDR-Lut ist auch gleich noch die Funktion für das Mapping HDR to SDR mit hinterlegt.

  • Hi,
    es gibt von Light Illusion einen "madVR User Guide" für das Zusammenspiel von LightSpace und MadVR unter:


    madVR User Guide


    Insbesondere möchte ich auf die Notwendigkeit hinweisen, dass die berechnete LUT vor dem Speichern in MadVR vom PC- auf das Video-Format umgerechnet werden muss.
    Dazu dient in LightSpace die Funktion "Edit/LUT Manipulation/VideoScale", die mehrere Optionen bietet:


    LUT-Manipulation


    Wer die Wahl hat, hat die Qual - Ich würde als ersten Versuch die Option "PassBlack" nehmen.

  • Nabend,


    hat sich schon einmal jemand erfolgreich mit dem RemoteControl-Protokoll von LS auseinandergesetzt?
    Eigentlich gibt es nach Aufbau einer TCP-Verbindug nur drei relevante Befehle, die im ASCII-Format übertragen werden müssen. Aber es scheint noch einen Trick dabei zu geben, den ich übersehen habe, denn es möchte nicht mit mir sprechen. :think:

  • Nabend,


    hat sich schon einmal jemand erfolgreich mit dem RemoteControl-Protokoll von LS auseinandergesetzt?
    Eigentlich gibt es nach Aufbau einer TCP-Verbindug nur drei relevante Befehle, die im ASCII-Format übertragen werden müssen. Aber es scheint noch einen Trick dabei zu geben, den ich übersehen habe, denn es möchte nicht mit mir sprechen. :think:


    Firewall-Problem?


    EDIT: Hab´s gerade mal selbst probiert.
    Verbindung wird aufgebaut. Grundsätzlich funktioniert die auch denn wenn ich auf Measure gehe und z.B. mal das Colour Target wechsel, dann bekomme ich von LS auch ein XML Paket.
    Nur auf Befehle ("RemoteOn") reagiert LS bei mir auch nicht...

  • Danke für's Testen. Jetzt komme ich mir wenigstens nicht mehr ganz so dumm vor. ;)
    Ich habe es mir auch schon mit wireshark angesehen. Die Verbindung zu Port 20002 wird aufgebaut. RemoteOn kommt an. Aber dann ist Funkstille.


    Dann muß ich Steve dazu doch mal eine Mail schreiben.

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!