Sensor Profilierung mit DisplayCal (und andere Programme)

  • Hi zusammen,


    aus dem 3D LUT Thread hervorgehend ein kurzer Überblick zur Profilierung eines Colorimeters mittels Spectrometer am Beispiel DisplayCal.


    Zunächst Theorie.


    Warum:

    Ein Colorimeter ist schon für relativ kleines Geld zu bekommen zB der beliebte Spectracal i1 Display Pro (EODIS3) in der aktuellen Revision für ca 190 € Straßenpreis.

    Zudem ist ein Colorimeter relativ schnell und auch in den unteren Schwarzwerten ausreichend genau.

    Besser geht immer zB mit dem Klein K10A, das ist deutlich teuerer (um 6k) , dafür erheblich schneller und genauer in den untersten Schwarzwerten.

    Bei Profis ist Zeit Geld, und ein 3D LUT verschlingt schnell und gerne mehr als 800 Testbilder.


    Leider sind die Schwankungen bei Colorimetern nicht unerheblich.

    Meiner Meinung nach die des I1 Display Pro schon für eine normale Kalibrierung vielleicht gerade noch akzeptabel .

    Mit einem 3D LUT wollen wir aber maximale Präzision um das letze aus unseren Projektoren herauszuholen.

    Und wer weiß schon wie gut oder schlecht "sein" i1 Display Pro nun ist, vielleicht hat man einen Ausreisser erwischt....


    Spectrometer sind idR von Haus aus sehr viel genauer und selbst in der Einsteigerklasse mit dem i1 Pro 2 oder 3 noch erschwinglich, und auch gebrauchte Geräte zumeist noch auf der Höhe der Zeit.

    Als mein i1Pro 2 frisch war habe ich mit einem >10 Jahre alten iPro verlgichen und diese waren gleichauf.


    Daher bieten alle Messprogramme an, ein Colorimeter mittels eines Spectrometer abzugleichen, zu Profilieren.


    Wie:

    Ein Spectrometer misst 4 Testpattern, Weiss, Rot, Blau und Grün. Die daraus ermittelten Koordinaten werden im Programm abgespeichert und mit den Messwerten des Colorimeters verglichen.

    Abweichung werden berechnet und daraus eine Korrekturmatrix erstellt, diese sieht zB so aus:

    Diese Korrekturmatrix bildet die Profilierung des Colorimeters und kann nun im Messprogramm gespeichert und vor jeder Session geladen werden.

    Somit misst man schnell und genau.


    Man muss je nach Lichtquelle (UHP, Laser, OLED usw) und Messart (direkt oder reflektiv) jeweils eine Profilierung durchführen.

    Daher sollte man den Profilierungen immer sprechende Namen geben, um sie später identifizieren zu können.


    Auch sollte man nach einer gewissen Zeit erneut Profilieren, aufgrund der Alterung der Lichtquelle und des Colorimeters.

    Aber bereits ein Abgleich ist besser als kein Abgleich!


    An dieser Stelle möchte ich aus meiner Sicht etwas sehr wichtiges einwerfen.

    Nämlich dass man der Korrekturmatrix nicht blind vertraut sondern nach Möglichkeit diese verifiziert!


    Ich habe dazu ein Template in dem man sehr genau sieht ob die Profilierung erfolgreich war, denn zT sind mehrere Versuche notwendig!

    Dieses Template sieht so aus, man sieht hier im Detail die ermittelten Koordinaten (rechts im Fenster) und den gemessen Weisspunkt und auch die Werte und Punkte von R G und B (hier nicht enthalten)

    In diesem Beispiel einmal 3 Messwerte im Weissbild links oben.

    1) der freistehend Punkt ist das unprofilierte Colorimeter - und das war schon ein gutes.

    2) die beiden fast aufeinander liegenden Punkte sind der profilierte Colorimeter zu 99,9% auf dem Punkt der Spectrometers, so soll das aussehen. By the way: Der Wert liegt nicht auf Zielkoordinate da es um die relative Abweichung geht.



    FOV

    Der Field of View beschreibt die Fläche, die ein Sensor aus einem bestimmten Abstand erfasst.

    Der FOV ist unterschiedlich groß bei den og Sensoren, daher ist es wichtig diesen zu kennen!

    Mit den diesen Abständen macht man nichts verkehrt

    30cm für das Colorimeters

    43- 45 cm für das Spectrometer.

    Somit wird dieselbe Flächengöße erfasst. Mehr dazu im nun kommenden Praxisteil.


    Denn in der Praxis ist der Setup der Sensoren sehr wichtig.


    Wir wollen nicht nur die selbe Größe messen sondern auch denselben Bereich, um vergleichbare Werte zum Abgleich zugrunde zu legen.

    Dafür nutze ich ein Testbild zur Ausrichtung der Sensoren, dass in fast allen Testbildsammlungen enthalten ist:


    Dazu nehme ich eine Lasermessgerät zur Hand, peile in der Ausrichtung die Mitte der Kreuzes an und habe so auch gleich den korrekten Abstand.


    Bei mir dies es so aus.


    Selbstverständlich ist der Laser wie gezeigt nur abgelegt und wird so nicht zum messen angesetzt.


    Bevor man loslegt hier noch ein Tip.

    Das Spectrometer benötigt viel Strom, und ich arbeite mit USB Verlängerung, da ist es ratsam eine aktive USB Verteilung einzusetzen, die genügend Strom liefert.

    Ohne hatte ich Probleme mit nicht reproduzierbaren Werten.


    Nachdem die Sensoren verbunden sind und man loslegt wird noch eine Referenzmessung des Spectrometer verlangt, ohne diese lässt es sich nicht in Betrieb nehmen.

    Hierzu erfolgt ein Weissabgleich mittels einer zum Lieferumfang gehörten Vorrichtung.

    Man platziert das Spectrometer darauf und drückt lediglich einen Button im Messproramm, die Messung dauert wenige Sekunden, und danach ist das Spectrometer für 240 Minuten Einsatzbereit.

    Nach 240 Minuten wird eine erneute Refenrenzmessung verlangt.

    Das alte iPro verlangte nach ca 10 Minuten (vielleicht war es auch 15) eine neue Referenzmessung.


    Das schaut zB so aus:


    Die Refernmessung habe ich vorgezogen, da wir uns nun DisplayCal "am Stück" ansehen.

    Ich speichere an dieser Stelle schon mal ab, und mache nachher weiter :-)

  • Hier nun das eigentlich Vorgehen bei DisplayCal.


    Sofern beide Sensoren angeschlossen sind, noch einmal die Erkennung durchführen:


    Hier kann man kontrollieren ob beide Sensoren erkannt wurden, klappt idR absolut problemlos.


    Danach im Menu den Abgleich auswählen:



    Es erscheint dieses Fenster:

    Als Referenz ist bereits der iPro 2 ausgewählt und der i1 Display Pro als abzugleichender Sensor.


    Man klickt nun auf "Measure" - hier wird man zunächst aufgefordert das iPro2 zu initialisieren, das was ich oben bereits beschrieben habe.


    Danach kann man nacheinander jeweils erst beim Spectrometer und beim Colorimeter auf "Measure" klicken.

    DisplayCal misst die Sensoren nacheinander, so dass man nicht beide Sensoren gleichzeitig positionieren muss, falls man keine zwei Stative zur Hand hat.


    Nach jeweils erfolgreiche Messung erscheint ein grünes Häckchen.


    Nach der Messung erhält man die Korrekturmatrix mit den ermittelten Werten angezeigt.


    Gibt der Messung noch einen aussagekräftigen Namen, und hat die Option die Messung in der Cloud zur Verfügung zu stellen - aus dem Gedächtnis, ich habe keine Screenshot dazu gemacht.


    In DisplayCal kann man die Profilierung auswählen ganz unten unter "Correction".


    Fertig!

  • Wie peinlich :blush: .. wollte mir das Ganze mal vermerken und stelle fest, dass ich mir ja schon mal eine Anleitung erstellte und das ich es auch letztes Jahr so durchführte und es sogar hier Anleitung "Sensoren per DisplayCal profilieren" schon mal beschrieb:waaaht:
    Werde halt alt :cray:

    Sieht auch recht identisch aus, nur hatte ich damals nicht "minimiere xy-Farbtonunterschiede" aktiviert.


    Meinst Du das ist relevant?



    PS: und ich habe bei DisplayCal immer madVR ohne HDR ausgewählt, da ja madVR SDR ausgibt:



    Du nimmst aber mit HDR


    Ob das eine Rolle spielt beim Profilieren? :think:
    Und nutzt Du immer das Setting "HDR" sprich auch bei einer 3DLut Erstellung in DisplayCal?

  • Ja, ich musste erstmal selber den Thread suchen indem ich nach dem Datum schaute, wo ich das mit HCFR verfasste, da es der gleiche Tag war :rofl:

    Könntest bitte oben kurz nach dem "PS" schauen, da es micht gerade bezogen auf die 3DLut interessieren würde.

  • Das scheint ein anders "Bundle" zu sein, der Koffer schaut anders aus, und es fehlt nicht nur Stativhalterung sondern auch die Metallplatte, die finde ich auch ganz hilfreich für den Fall das mein kein Stativ hat aber zB einen Karton worauf man den Sensor aber ohne die schwere Platte nicht aufgeteilt bekommt.


    Gut gesehen von sven29da:sbier:, wäre mir auf den ersten Blick nicht aufgefallen, erst beim genauen hinsehen dann aber auch die Platte und Koffer.

  • Wärst Du noch so nett und könntest mir diese Frage beantworten ob Du das auch bei der 3DLut Erstellung nutzt:sbier:

  • Du meinst mich?


    In dem Screenshot geht um die Korrekturmatrix im unteren Bereich des Fensters, zwecks Auswahl der zuvor erstellten Profilierung,an der Stelle hatte ich noch keinen LUT erstellt mit DisplayCal.


    Ich habe auf dem Rechner von dem ich schreibe kein DC installiert, aber ist es nicht so dass an dieser Stelle eine Art "PreSetting" abgerufen und gespeichert werden kann.


    Die eigentliche Einstellung ist mMN einen Schritt weiter und dort stellt Du ein wie der LUT zusammengestellt sein soll.

    Für madVR HDR nach SDR

    • Farbraum Rec2020
    • Weisspunkt D65
    • Gamma SDR 2.2 oder 2.4 (egal, Hauptsache im LUT und madVR Ausgabe ist dasselbe enthalten)
  • Danke wolf352 für die Anleitung ! Ich finde Displaycal sehr übersichtlich und fast selbsterklärend. Bei mir war es so, dass ich das beste Resultat bekommen habe, wenn ich als Zielfarbraum 709 genommen habe und Gamma 2.4 ; und zwar nicht nur für SDR, sondern auch für HDR. Bei HDR sah aber auch 2.4 und P3 sehr überzeugend aus (besser als P3, 2.2) . 2020 habe ich nicht probiert.

    P3 und Gamma 2.4 sieht zwar auch für HDR sehr gut aus, aber für mich nicht stimmig für SDR (etwas flach).


    Ich konnte neulich einen Blick auf Colourspace werfen; wesentlich komplizierter und unübersichtlicher - aber das Ganze wirkt sehr professionell, ausgereift mit einem etwas anderen Ansatz. Gerade auch bei der Profilierung offensichtlich. Hat jemand parallel beides ausprobiert ? Ich spiele mit dem Gedanken, mir die SW zu kaufen. Wie sehen da die Erfahrungen im Vergleich der beiden Programme aus ? Gerne auch per PM.

  • Danke wolf352 für die Anleitung ! Ich finde Displaycal sehr übersichtlich und fast selbsterklärend. Bei mir war es so, dass ich das beste Resultat bekommen habe, wenn ich als Zielfarbraum 709 genommen habe und Gamma 2.4 ; und zwar nicht nur für SDR, sondern auch für HDR. Bei HDR sah aber auch 2.4 und P3 sehr überzeugend aus (besser als P3, 2.2) . 2020 habe ich nicht probiert.

    P3 und Gamma 2.4 sieht zwar auch für HDR sehr gut aus, aber für mich nicht stimmig für SDR (etwas flach).


    Ich konnte neulich einen Blick auf Colourspace werfen; wesentlich komplizierter und unübersichtlicher - aber das Ganze wirkt sehr professionell, ausgereift mit einem etwas anderen Ansatz. Gerade auch bei der Profilierung offensichtlich. Hat jemand parallel beides ausprobiert ? Ich spiele mit dem Gedanken, mir die SW zu kaufen. Wie sehen da die Erfahrungen im Vergleich der beiden Programme aus ? Gerne auch per PM.

    Weisst du welche Colourspace man kaufen muss damit es mit dem Envy funktioniert ? es gibt ja mehrere Versionen mit zum teil extremen Preis Unterschieden ?

  • Hi,


    ich habe für 3D LUT:

    DisplayCal

    Calman

    Lightspace HTL ( Germs: das wäre auch heute noch die korrekte Version für ca 425 GBP)


    Calman ist mit der Engine welche ich in der Enthusiast Version habe mMn schlechter als DC Und LS (Banding und zT Colorshift) - meine Version ist aber auch ca 3 Jahre alt.


    Zwischen DC und Lighstapce ist mNn visuell kein Unterschied, mag sein das LS den noch besseren Algorithmus hat, dazu müsset ich aber meine alte LS Version noch mal auspacken.
    Davon verspreche ich mir momentan aber keinen wirklichen Mehrwert. Zumindest sind die Ergebnisse mit DC sehr gut. Kein Banding, neutrale Gesichtsfarben inkl weiss, schöner Pop bei entsprechenden Titeln.


    LS bzw madVR empfiehlt für HDR den LUT auf DCI P3 mit Gamma 2.2 zu erstellen, im "howTo"


    Wenn ich mit DC den LUT erstelle zeiht der Envy den LUT aus dem PreSet "BT2020", der DCI P3 LUT wird nicht genutzt.


    Re 709 verkleinert den Farbraum auf eben 709, wenn Du den LUT so angelegt hast, dann sollten alle Farben ausserhalb 709 clippen.

  • Germs

    Kann ich abklären. Ich denke aber, dass alle Versionen grundsätzlich mit dem Envy kompatibel sind. Genauso wie mit madVR (PC). Es kommt wahrscheinlich im Wesentlichen "nur" - wie eigentlich immer - auf den Sensor an, den man dann benutzen will.


    wolf352

    Ja, es ist sehr naheliegend, die LUT für HDR auf P3 und 2.2 (allenfalls 2.4) einzustellen. Ich habe verschiedene Kombinationen probiert und zu meinem Erstaunen ergab oben genannte Kombination für mich das visuell stimmigste Resultat.

    Nach dem Erstellen der LUT wird diese automatisch im entsprechenden zum Farbraum passenden Folder in madVR abgelegt. Bei der SDR LUT, 2.4 wählte ich übrigens "Sättigung" als eine der Optionen aus.

    Warum dieser komische Befund, kann ich mir auch nicht recht erklären. Aber das ist mir insofern lieber, weil das Ergebnis für mich visuell so stimmt. Lieber als umgekehrt. :heilig:

    Anhand von HDR Testpattern ist es so, dass ich im Vergleich zu Ohne LUT auch mit dieser Kombination kein früheres Klippen feststelle. Alles wie gehabt: mit madVR Stufen bis weit über 4000 Nits. Einzig bei der Problemfarbe Rot beim Sony wird früher geklippt (Bereich 4000 Nits).

  • Hi Mori,


    letztendlich ist es immer besser wenn das visuelle Ergebnis passt, egal wie wir dahergekommen sind, da bin ich vollkommen bei Dir.


    Interessant wenn den 709 einstellst im LUT und dann kein Clipping stattfindet, hattest Du diesen dann mit LS und Fit Chroma erstellt?

  • Hi wolf352

    Weder noch. Ich möchte demnächst auch noch mit Colourspace eine LUT für meinen 760er erstellen und schauen, wie das mit P3 und 2.2 aussieht. Dann wartet noch ein NZ9 (eigentlich eher ich :big_smile: ) , um mit LUTs gefüttert zu werden.

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!