Beiträge von wolf352

    Würde mich auch interessieren, ob und wie es bei Dir weitergeht!


    Lass mal von Dir hören.


    delorentzi: Kennst Du Dirk nur durch seinen YT Kanal, oder auch seine Gewerke aus eigener Erfahrung?

    Danke aber schon mal für den Tip, ich habe ihn so eben angefragt und bin gespannt, zu mir hat er nur 25 Minuten Fahrt, mal schauen ob wie zusammenkommen.

    Und wenn ich schon mal am Fragen bin und was bislang unbeantwortet blieb ... ich nutzte ja bislang immer als Grundlage für DisplayCal die Auswahl "madVR Rec709" (Gelb markiert) aber Kollege wolf352 hatte letzt einen Screenshot mit Auswahl "madVR HDR Rec2020" (Rot markiert) und möchte das noch mal hinterfragen da ja madvR eigentlich nicht HDR ausgibt:think:

    sven29da: Kann sein das es ausgewählt war (war das evtl im Screenshot zur Profilierung, da ist es erstmal egal) .

    Ich stelle aber manuell Gamma 2.2 ein, HDR wollen wir an der Stelle ja nicht, korrekt.

    wolf352

    Ja, verschiedene ColorChecker-Pattern gibt es auch bei HCFR. Calman Classic, Calman Skin Tones SG, Calman SG, sind nutzbar und auch auf der AVSHD709 als Pattern enthalten, oder über den Pattern-Generator von HCFR verfügbar.

    Diese sind über die Preferences/Color-Checker-Pattern auswählbar und werden über Measure/Saturation/All Colors zusätzlich zu den 30 Primär-/Sekundärfarben-Teilsättigungen mit gemessen.


    Wie justierst Du diese Achsen-fernen Zwischentöne? Durch gemeinsame Justage der beiden nächstliegenden Farbachsen? Z.b. bei den Hauttönen. Ich habe damit auch erst wenig Erfahrung.

    Ah, das ist sehr gut dass diese Colorchecker Pattern enthalten sind.


    Ich bin kein Gegner der 100% Stimulus Test Pattern, aber man sollte wissen was man damit anfängt.


    Mein Anwendungsfall dafür ist, zu ermitteln welcher Farbraum a) am größten ist und b) am linearsten um damit einen 3D LUT zu generieren.


    Für eine Kalibrierung ohne 3D LUT liegt mein Augenmerk viel mehr auf dem Colorchekcer als auf Messpunkten die idR so gut wie nie vorkommen.

    Daher meine Frage nach dem Colorchekcer Pattern.


    Um hier gute Ergebnisse zu erzielen nimmst Du Test Pattern zur Hand zB mit 75% Sättigung und 75% Stimulus, das Messergebnis kann anders aussehen.

    Für Calman habe ich eigene Temples wo du ganz exakt ablesen kannst an welchen der 3 Achsen in welcher Richtung eingestellt werden muss, das macht es einfacher und schneller.


    Die Hauttöne zu treffen ist aber nicht schwer Der Checker zeigt sie dir ja an und du erkennst selbst wo du schrauben musst.

    Das kann durchaus ein itterativer Prozess sein.


    Bei Calman gibt es dazu auch ein FleshTones Pattern, und noch ein sehr großes ColorChecker Pattern das auch alle Fleshtones beinhaltet. das willst Du nicht manuell (ohne TPG) messen...


    Ich will jetzt hier nicht von HCFR ablenken, nicht falsch verstehen!

    Nur einmal bewusst machen dass man nicht stumpf nur auf den Sättigungsverlauf achten sollte.


    Aber besser als nur RGB und Gamma einstellen ist das allemal, nur ist Colormanagement nicht so easy und mann sollte auch mit geeigneten Testbildern gegenprüfen ob man sich evtl Banding reinkalibriert hat.

    Das kommt bei älteren Geräten schon gerne vor wenn man Werte massiv verbiegen muss.

    Magenta sieht schon mal viel besser aus, auch die restlichen Sättingverläufe sind linearer, aber was ist mit grün passiert?


    Gibt es bei HCFR einen Colorchecker wie bei Calman?

    Generell ist es nice wenn die Punkte wie gemessen gut aussehen, aber der Film spielt eher selten mit 100% Stimulus Y im oben gezeigten Farbverlauf.

    Die Neumänner passen nicht schlecht.


    Welche Neumänner ? die KH120 ?

    Ich nutze die KH120 8mal als Surround und überlege die kleinere KH80 an die Decke zu schrauben oder ggfs doch eine passive Lösung.

    Bei 8 Stück (6 Height, 1 VOG, 1 Center Height) ist das mit zusätzlichem Strom etwas mehr Aufwand.

    Meine jetzige passiv Lösung mit 4mal Dali Faso Sat (die mit dem genialen Kugelkopf inkl Signalübetrgung) ist daseinfacher gestrickt.

    OK, das Gerät ist dann mindestens 10 Jahre alt und läuft nur ca 20 Minuten (oder 10, ist lange her...) , dann muss es erneut initialisiert werden.

    Eigentlich beides kein Problem sofern das Gerät noch verlässliche Werte liefert und man nur kurz profilieren möchte.


    Aber einen iPro 2 anbieten und einen Gretag aushändigen. Geht nicht.

    Bei Musik ein statisches Bild zu projizieren fand ich auch sinnlos.

    Bei mir war das nur bei Atmos Musik von Tidal so, aber da habe ich kürzlich eine Lösung gefunden. Den Anbieter geweschselt und nun wird Apple Music mit Atmos Titeln direkt aufs ATV4k gestreamt (per iPad oder iPhone bedient). Ich vermute das ATV4K wir ähnlich wie Sportiv Connect direkt angesprochen und nicht über den Umweg AirPlay.

    Für alle anderen Musik Formate hatte ich bereits Lösungen.


    Laserlaufzeit hin oder her, aber die Resource kann man in solch einem Fall schonen, auch im Sinne von Nachhaltigkeit.

    Ich nehme an, Du meinst mit "Custom 2" den Farbraum 2 ? Das ist der grösste und native Farbraum - von daher bietet sich der insbesondere für eine 3D-LUT eigentlich an. Wenn ich aber UHD Material mit Farbraum 2 anschaue, sind die Farben total entsättigt und offensichtlich falsch. Ich vermute eine falsche (inkompatible) Kodierung ? Ok, das mag ganz anders sein, wenn auch die 3DLUT mit Farbraum 2 erstellt wird. Ich bezweifle das, aber probieren geht über studieren. Einen grundsätzlichen Haken hat die Sache aber: durch den Flag wird beim Umschalten von Mediaportal (Kodi) auf einen UHD HDR Film und wieder zurück jeweils eine zusätzliche Sync Zeit benötigt, was sehr unschön ist.


    Falls Farbtemperatur 5 (Custom 5, Benutzerdefinierte Farbtemperatur 5) gemeint ist: ja die verwende ich, weil dann am meisten Helligkeit da ist. Das bietet sich für eine 3D-LUT geradezu an.

    Custom2, User5 und LUT ist schon sehr sehr gut.


    Custom2 ist (minimal) größer aber wesentlich linearer - bis es in die Sättigung geht - nicht nur in Sättigungsverlauf. Denn bis auf Grün beschriebt der Verlauf auch keine Kurven auch mit weniger Stimulus.


    Mit 3D LUT habe ich die gleichen Satten Farben wie mit Farbraum BT2020 - jedenfalls auf meinem Envy.

    Nur muss der LUT vermeintlich viel weniger rumschubsen und das ist Immer gut, zB um Banding zu verhindern, was durchaus ein Faktor bei den SONYs ist.

    Für displaycal in der Mac Version benötigt man kein madvr. Definitiv!!!!. Habe schon etliche 3D Lut`s damit erstellt.

    Wichtig ist es allerdings, dass das Macbook wie der envy per Kabel und NICHT über WLAN im gleichen Netzwerk liegen. Dispalycal kommuniziert direkt mit dem envy, d.h. die Testbilder werden aus dem envy gelesen und auch die LUT`s werden in den envy geschrieben. Mit envyIPcontrol (nur Windows; läuft bei mir unter Parallels) kann man z.B. die LUT`s umbenennen oder löschen.

    Ach cool. Werde ich die Tage mal probieren mit aktuellen M1 sollte das berechnen des Lut erheblich schneller gehen.

    Danke schon mal für den Tip

    Bin gespannt ob und wie das Spectro erkannt wird. Notfalls kann man die Profilierungs Datei bestimmt vom PC über nehmen.

    Mori, vielen Dank für Deine Reviews, das bringt wieder Substanz in den Thread :sbier:


    Immerhin kann man damit in grösseren Kinos inkl. separaten Technikräumen auch recht grosse LW angemessen beleuchten. Für mich ist das fast schon ein massgeschneiderter Projektor - wenn auch nicht billig. Er ist es mir aber wert.

    So groß ist mein Kino nicht aber 4m Breite sind weiterhin eine Herausforderung im bezahlbaren Rahmen vernünftig zu bespielen.

    Daher halte ich weiterhin an meiner Bestellung fest.

    das kommt ggfs auf den Skin an der installiert ist.


    Vielleicht hilft das: stelle den Standar Skin ein ggfs direkt OSMC dann taucht das generische OSMC Menu als Auswahlpunkt direkt auf der Hauptebene zur Auswahl auf (links ganz unten)

    Hi,


    ja, DisplayCal steuert den Envy direkt an, kein Problem, auf dem Rechner muss aber madVR installiert sein, sonst meckert DC.

    Zudem muss auch die IP Steuerung aktiv sein - wie immer bei Messprogrammen die den Envy als TPG nutzen.


    Um den 3DLUT direkt hochzuladen muss

    installiert sein (das war bei mir vorher schon so, ich habe nicht getestet ob es auch ohne geht) um den LUT nach der Messung direkt hochzuladen.

    Das Tool sollte man eh haben, als Envy Besitzer.

    Man findet es auf der madVR Envy Seite im Bereich Downloads.


    by the way: Im Download Bereich gibt es seit kurzem eine Auswertung 1D LUT via Lighstpace, wer sich das einmal geben mag!


    Die LUTs mit DC sehen in der Tat wirklich sehr gut aus, ich kann ebenfalls kein Banding feststellen.

    Mittlerweile habe ich mindestens 6 LUT erstellt, und bereits die "kleinen" um 783 Pattern liefern augenscheinlich sehr gute Ergebnisse.

    Einzig nervt mich dass mein Kalibrier Laptop in die Jahre gekommen ist und DC recht lange (bis 30 Minuten!) an dem LUT rumrechnet.

    Da kann DC natürlich nichts dafür.


    Ich bin erstaunt, wie neutral zb Gesichtsfarben, Schneefelder usw sind, und wie "gesättigt und trotzdem differenziert" extreme Farben dargestellt werden.


    Das ist ehrlich gesagt auch der Grund warum ich gerade wenig motiviert bin noch mal mit Lightspace ranzugehen.

    Ich hab ihn nicht fertig geschafft, hab pausiert und bin pünktlich ins Bett. Passiert mir auch eher selten.

    Dito.


    Ich dachte zuerst mit dem Envy stimmt was nicht, teilweise war das Bild flau und Kontrastarm, dass ich kurz gegenprüfte.

    Dann hatte das Bild wieder seine Momente!

    Daher kann ich die Wertung von JS-Movie nachvollziehen.

    Zum Beispiel um LS anzusprechen die nativ nicht oder extrem selten angesprochen werden, z.B. Front Wides oder Rear Center.

    genau.

    Objekte wird man kaum upmixen können und vermutlich nicht müssen, siehe oben.


    Nachtrag: hatten wir das nicht schon mal?

    Video Trinnov mit neuem DSU


    Objekte gibt es nicht nur in der Höhe sondern auch auf der unteren / normalen Ebene.


    Und sofern vorhanden kann der neue DSU künftig Wide, Center Surround usw. ansprechen.

    Das sehe ich durchaus einen Vorteil was die Abbildung auch von Objekten angeht.

    Trinnov selbst nennt es eine "glaring obmission" das der jetzige keine Wide kann (was sollen sie auch sonst sagen ;-) )