Beiträge von Omardris

    Ormardris hat diese Kombi (Lumagen+VW 1100) ja einige Zeit betrieben.


    Hi,
    ich habe den Radiance Pro extra für den VW1100ES gekauft, aber eben nicht Ende 2019, sondern Mai 2016, also vor 3,5 Jahren.
    Da war die Ausgangslage eine ganz andere und zudem ist das Thema Kalibrieren ein Hobby von mir.
    Der VW1100ES verfügt über kein CMS, kann kein BT2020, von HDR ganz zu schweigen. Das kann über den Radiance alles realisiert werden, aber in der Summe ist der Radiance kein plug und play-System, sondern eher auf Installer ausgelegt, die ihn beim Klienten einrichten.
    Richtig ist, dass ein Radiance locker drei Projektorgenerationen überlebt und beim Einsatz von Zusatzlinsen sehr hilfreich ist. Seine ursprüngliche Bedeutung als "Schaltzentrale" hat angesichts der AV-Receiver/Vorstufen mit vielen HDMI-Eingängen sicher abgenommen.


    Also bei einem Alter von 8 Jahren möchte ich den ON/Off-Kontrast Deines VW1100ES lieber gar nicht messen, aber mein erster VW1000ES hat sogar mit 1:2500 immer noch ein tolles Bild gemacht, wenn man DLP-Geräte gewohnt war. Die schwarzen Balken waren eben grau. Der ist dann gegen einen neuen VW1100ES getauscht worden. Aber auch der hat gedriftet und ich habe ihn nach 2 Jahren und mit korrigierten Gammakurven verkauft. Da hat er noch ein super Bild gemacht - in SDR auf jeden Fall besser als der VW760ES. Beim VW760 habe ich den Radiance erst seit dem dynamischen HDR wieder "ernsthaft" in Betrieb und bin sehr zufrieden - eine klare Steigerung gegenüber Standard und meinen eigenen ARVE-Kurven.
    Wenn die Entwicklung zum dynamischen HDR bei den Projektoren so weitergeht, braucht man bald dafür weder Envy noch Radiance. Dann müssen andere Anforderungen als Gründe für einen zusätzlichen externen Prozessor und die aufgerufenen Preise herhalten.


    Meine Meinung: Nein, für den VW1100ES lohnt ein Radiance Pro nicht mehr, wenn nicht grundsätzliche andere Baustellen damit erschlagen werden sollen - lieber Geld für einen neuen NX?? (JVC mit Laser) zurücklegen.
    Gruß
    PF

    Kann der Lumagen Radiance Pro eigentlich in 4K (oder generell) eine "Frame Interpolation" - daher eine Zwischenbildberechnug von z..B. 24 Bildern auf 60 Bilder o.ä.?


    Der Radinace Pro kann zwar jede Bildwiederholrate in jede andere umrechnen, führt dabei aber keine Zwischenbildberechnung durch.
    Hierzu das Originalzitat von Jim Peterson (Lumagen):
    "Playing 24p at 60p is not like "frame interpolation" which does cause the "soap opera" effect, and creates artifacts. Playing 24p at 60p shows each frame for either a slightly longer time, or a slightly shorter time, than output of 24p at 24p. It does not try to create new information and so - other than the judder - you see the same images that you would see at 24p."
    Was immer das dann auch heißen mag. :think:
    Gruß
    PF

    Bescheidene Frage. Kann man dem Lumagen sagen, dass er automatisch den aktiven Teil des Bildes (ohne schwarze Streifen) an den unteren Bildrand schieben soll?


    Vollautomatisch glaube ich nicht. Aber es gibt die Funktion "vertical shift", die das Bild nach oben oder unten schiebt. Diese ist an einen Input-Modus gebunden.
    Im praktischen Betrieb wird man am besten einen der 4 Memories A - D damit belegen, um den entsprechenden Input-Modus zu verwenden. Dann muss man auf der FB eine Taste (A - D) drücken. Hört sich etwas kompliziert an, ist aber ganz einfach.
    Gruß
    PF

    Also ich mache mir weniger Gedanken, dass der Envy nicht zukunfts- oder leistungsfähig genug ist, sondern habe eher Sorge, dass das Vertriebskonzept am Ende nicht trägt.
    Warum lassen sie MadVR, das inzwischen ein echt hohes Qualitätsniveau hat, als Freeware gegen ihr eigenes Produkt Envy anrennen? So groß ist der Markt doch gar nicht. In zwei Jahren ist HDR-DTM Standard bei den Projektoren, wenn sicher auch nicht auf diesem hohen Niveau.
    Hinzu kommen die technischen Detailprobleme, die auch den Geräten von Lumagen begegnet sind. Die HDMI-Schnittstellen von unzähligen verschiedenen Quellgeräten, mal korrekt, mal schlampig ausgeführt, waren eine echte Herausforderung für Patrick. Und die Anpassungen haben irre Zeit gefressen. Schuld hat immer das Gerät, was in der Mitte steckt.


    Ob je ein Serien-Envy das Licht dieser Videowelt erblicken wird? :unsure:


    Ich würde mich freuen und wäre auf jeden Fall ein Interessent. :sbier:


    Aber da ja inzwischen "amtlich" festgestellt wurde, das in Wirklichkeit der 5 Jahre alte Sony Contrast Enhancer die wahre Mutter allen dynamischen Tonmappings ist, kann ich mich beruhigt zurücklehnen. :big_smile:
    Gruß
    PF

    Wenn der Projektor weder HDR noch BT2020 verarbeiten kann, kann man den Radiance - auch mit DTM - einsetzen, benötigt aber eine 3-D-LUT, die BT2020 auf REC709 umrechnet. Dabei nimmt man dann den größten Farbraum, den man beim Projektor einstellen kann. LightSpace ist z. B. ein Programm, dass eine solche LUT korrekt erstellen kann - übrigens auch für MadVR. So habe ich zwei Jahre mit dem Sony VW1100ES HDR BT2020 nutzen können.


    Allgemeine Info und hier nicht so wichtig , da viele ja eh das Tool von Karl() einsetzen:
    Steve hat meine Bitten erhört und "endlich" die CMS-Speicherauswahl in LightSpace implementiert.



    Das war vor "RadianceControl" immer lästig, den Radiance per FB auf den gewünschten CMS-Speicher zu schalten.
    Gruß
    PF

    Hi,
    vielleicht bringt ein ganz einfacher Rechengang etwas Klarheit in die Sache mit dem Zoom, obwohl Karl() ja schon genau erläutert hat, dass es auf die tatsächlich belichtete Fläche ohne die "schwarze Balken" ankommt.


    Nehmen wir einen UHD-Film in Format 1:2,40:
    Lässt man die berühmten schwarzen Balken oben und unten außen vor dann haben wir 3840 x 1600 = 6.144.000 "belichtete" Pixel.
    Weiterhin gehen wir mal davon aus, dass wir das Bild seitlich in den Rahmen eingepasst haben.
    Aktiviert man nun die Zoom-Funktion, dann skaliert der Projektor das Bild auf 4096 x 1707 (gerundet) = 6.991.872 "belichtete" Pixel und wir müssen das größer gewordene Bild etwas verkleinern, damit es seitlich wieder in den Rahmen passt. Das 1:2.40-Format und damit die "belichtete" Bildfläche bleibt erhalten.
    Die Differenz beträgt in diesem Fall rund +847.972 Pixel. Die Steigerung der Pixelanzahl beträgt also ca. 13,8 % auf der gleichen "belichteten" Bildfläche wie vorher. Der Anteil der schwarzen Balken hat entsprechend abgenommen.
    Wenn Karl() in einem solchen Fall ein Plus von 12% bei der Leuchtdichte misst, ist das absolut nachvollziehbar.


    Als nächste nehmen wir einen älteren Film im Format 1:1,85
    Dieser liefert 3840 x 2076 "belichtete" Pixel
    Hieraus macht die Zoomfunktion 3996 x 2160 "belichtete" Pixel.
    Diesmal haben wir nur rund 8% mehr Pixel durch das Zoom und es wird die volle Höhe der Panels (2160) genutzt. Mehr geht halt nicht.


    Nun noch eine Fernsehserie im 16:9-Format also 1:1,78
    Diese liefert 3840 x 2160 "belichtete" Pixel.
    Hier kann die Zoomfunktion keine Skalierung machen, die die Bildproportionen beibehält, da auch das 17:9-Panel maximal 2160 Zeilen zur Verfügung hat. Oder aber die Funktion muss oben und unten Zeilen weglassen.


    Ob man nun diese Zoomfunktion einsetzt, muss man selbst entscheiden und testen. Ich habe sie bei 2,35 - 2,70er Filmen immer aktiviert und bei HDR auf jeden Fall, weil ich jedes Nit gebrauchen kann.
    Gruß
    PF

    Vielen Dank dass Ihr mal im AVS-Forum getestet habt - ich weis auch nicht warum da einer die Bilder nicht sehen kann.


    Ja, bei LightSpace reicht die HTL-Version aus. Wer 2019 eine LightSpace-Lizenz erwirbt, erhält das entsprechende Update auf das neue Programm "ColorSpace" kostenlos. Steve und Ted werfen zwar mit tollen Grafiken aus ColorSpace nur so um sich, hinsichtlich Veröffentlichungstermin wird es aber dann ganz leise. ;)


    Wer unsicher ist, sollte sich zunächst die Demo-Version von LightSpace installieren. Diese unterstützt alle Sensoren, kann messen und rechnen, aber nichts abspeichern. Auf einem Laptop mit 4k-Auflösung ist LightSpace eine echte Herausforderung und eher etwas für Briefmarkensammler.
    Daher warten sicher etliche auf die neue - hoffentlich skalierbare - Oberfläche von ColorSpace.


    Bin beim Radiance jetzt wieder auf die 092019 zurück und kann mich wieder nicht so recht entscheiden, ob ich das Dimming des Sony`s aktiviere oder nicht.
    PF

    Und um mal wieder was zum Radiance zu schreiben: Beta 100619 darf übersprungen werden...


    Ich mache im Augenblick kaum etwas mit HDR, aber das mit den Lichtwechseln - es kommt ein Szenenwechsel und dann sieht es so aus als ob jemand das Licht eingeschaltet hätte - ist mir auch aufgefallen. Jim & Co sind gerade dabei, ihr DTM-Kind im Chris Deering-Sumpf zu ertränken. Aber den MatVRlern scheint es nicht anders zu gehen - Mathias hat auch jeden Tag eine neue Idee. :big_smile:


    Also bleibt mir nur noch, auf das Sony-DTM zu hoffen :rofl:


    Aber immerhin hat Sony ja schon in weiser Voraussicht die automatische Helligkeitsanpassung des Schwarzwertes an das Volumetric Probe Matching eingebaut. :dancewithme
    PF


    Ich habe mal bei meinem NX9 so lange den Helligkeitsregler hochgezogen, bis die Messwerte des i1 Pro 2 nicht mehr wild in der Gegend umher gesprungen sind.


    Ja, das ist sicher ein Weg, auch wenn es einen erst einmal dabei schüttelt. ;)
    Aber Steve kennt ja seine internen Algorithmen der Korrekturberechnung und braucht immer auch eine Null-Messung (0,0,0) egal wie die Patchliste sonst ausgestaltet ist. Ich habe auch Tests mit 5x5x5 gemacht, aber so richtig eingeschlagen hat die Edge-Messung. Die scheint der Algo zu lieben.
    Gruß
    PF

    Sorry, die "alten" Radiancler müssen daran denken, dass nicht jeder hier mit einem Colorimeter unterm Kopfkissen schläft. :sbier:
    Die RGB-Balance oder auch Graustufen-Balance ist eine der Standardmessungen. Sie zeigt wie korrekt das Displays die Farben Rot, Grün und Blau zu Grau mischen kann ohne einen Farbstich zu erzeugen.
    Dabei werden Messbilder (Patches) verwendet, die immer die gleichen Anteile von Rot, Grün und Blau haben (=Grau) und sich nur in der Helligkeit unterscheiden.
    Die X-Achse zeigt die Helligkeitsstufen von 0 bis 1 (das entspricht 0% bis 100% IRE), wobei 0 = Schwarz und 1 = Weiß ist. Meist wird in 10 bis 20 Schritten gemessen. Also 0% (=Schwarz), 5%, 10% ......... 90%, 95%, 100% (=Weiß).
    Die y-Achse zeigt nun die Abweichung der vom Display gelieferten Graustufen von der idealen Linie in +-10%-Schritten an und zwar nach den drei Grundfarben getrennt. Im optimalsten Fall liegen alle drei Farben Rot Grün und Blau von x = 0 bis x = 1 genau aufeinander (y = 0). Das ist in der Praxis aber selten der Fall.
    Beim Vergleich der 1. Grafik des Spyder X mit der 2. Grafik des Jeti erkennt man, dass das Spyder X deutlich mehr Helligkeit bei Blau misst. Dies würde bei einer Kalibrierung mit dem Spyder X dazu führen, dass die Helligkeit von Rot etwas gesteigert und die von Blau deutlich reduziert würde. Das Ergebnis wäre dann ein rotstichiges Bild.
    Daher der Wunsch, die Messfehler eines Sensors im Vorfeld zu ermitteln und auszubügeln.
    In der Messpraxis stellt sich dann natürlich immer die Frage: "Welcher der Sensoren hat denn nun recht" :big_smile:
    PF

    Da vermutlich nicht allen ganz klar ist, wovon wir eigentlich reden, hier noch einmal ein paar Grafiken, die unser "Erstaunen" über die Leistungsfähigkeit der neuen Profilierungsmethode in LightSpace etwas deutlicher machen. Testopfer waren wieder mein PC-Monitor Samsung SyncMaster 245B und das geheimnisumwitterte Spyder X.
    Wie an anderer Stelle schon erwähnt, hat der Monitor einen Schwarzwert von 0,12 bis 0,13 Nit. Diesen kann das Jeti ohne Probleme erfassen. Ich habe daher keine Veränderung am Helligkeitsregler vorgenommen. Das von mir eingestellte Weiß des Monitors liegt bei ca. 93 bis 97 Nit - ich mag es nicht so grell.
    Alle Messungen wurden natürlich an der gleichen Position und mit den gleichen Einstellungen bei warmen Monitor gemacht.


    1. Als erstes die RGB-Balance mit dem Spyder X ohne Profilierung (Schwarzwert ist 0,382 Nit)



    2. Hier die RGB-Balance mit dem Jeti 1501 - das ist Quasi die Referenz (Schwarzwert ist 0,121 Nit):



    3. Hier nun die RGB-Balance mit dem Spyder X mit der alten 4-Farb-Matrix-Profilierung und Jeti als Referenz (Schwarzwert ist 0,40 Nit):



    4. Als Letztes die RGB-Balance mit dem Spyder X mit der neuen LS-Profilierung auf Basis der Edge-Messungen (Schwarzwert ist 0,139 Nit):



    Ich glaube man kann gut erkennen, warum ich einerseits vom Spyder X so enttäuscht bin und andererseits von der neuen Profilierungsmethode so überrascht war. Das grenzt an Zauberei. Das Spyder X wurde hier extrem gut korrigiert.
    Gruß
    PF

    Und ich dachte, dass Klein 10A wäre nicht kompatibel zu Laserprojektoren, wegen der Wellenlänge...


    Das K10A kommt sehr gut mit Hybrid- und RGB-Lasern klar, muss aber dann unbedingt mit einem Spektro profiliert werden.
    Allen Gerüchten zum Trotz kommt auch mein EODIS3, profiliert mit dem Jeti, wunderbar mit dem VW760ES klar. :)


    Meine Überlegungen gingen natürlich auch nicht in die Richtung, dass sich nun jeder K10-User auch noch ein Spyder X anschaffen soll. :byebye:


    @All
    Ich bin immer wieder an Lösungsansätzen interessiert, die eine Möglichkeit der Profilierung einfacher (günstiger) Sensoren bieten.
    Bei der allgemein üblichen 4-Farb-Matrix-Methode zur Profilierung von Colorimetern werden ja Weiß und die Primärfarben Rot, Grün und Blau bei hohem Stimulus (=Helligkeit) gemessen. Dies hat den Vorteil, dass selbst bei Blau noch ordentlich Licht zum Messen für das weniger empfindliche Spekto vorhanden ist.
    Bei umfangreicheren Messungen, die auch dunklere Patches enthalten, kommt man mit den Spektrometern schnell an die Grenze ihrer Empfindlichkeit. Da hilft m. E. auch ein "besseres" Spektro nicht. Mein Jeti ist mit 0,1 Nit und das I1 Pro2 mit 0,2 Nit angegeben. Das Jeti kann seine Integrationszeit auf 60 Sekunden ausdehnen und kommt dann vielleicht auf 0,01 Nit. Das gibt dann aber irre Messzeiten.
    Daher meine Idee, zunächst das Klein mit dem Jeti über die 4-Farb-Matrix-Methode zu profilieren - das Klein speichert die Matrix intern ab - und dann mit dem Klein einen Egde-Messung (mit der internen Jeti-Korrektur aktiv) zu machen und diese als Referenz zu nehmen. Okay, das ist von hinten durchs Auge.... ;)


    Beim I1Pro2 könnte man vielleicht mal versuchen, den Projektor näher an die Leinwand zu stellen, oder die Leinwand näher an den Projektor.
    Manche besorgen sich auch ein Stück des eingesetzten Leinwandmaterials und basteln ein "Segel", das zum Messen dichter an den Projektor positioniert wird.


    Ich habe mich ja noch gar nicht genauer mit Steve`s neuer Methode beschäftigt, aber der Haken daran ist die Lichtunempfindlichkeit der Spektros.
    Mein tolles neues Spyder X ist da genau das richtige Opfer, um das mal mit dem Projektor zu testen.
    Zumindest muss ich jetzt hoffentlich nicht mehr beim Start den Luftfilter wechseln, weil Sony Gestern die neue Firmware mit dem Bugfix frei gegeben hat.
    Gruß
    PF

    Sorry wenn ich die Zappiti-Jagt unterbreche, aber ich möchte gerne auf die neue Methode zur Sensor-Profilierung in LightSpace hinweisen. Mache ich hier, weil ja viele Radiancler auch LS einsetzen. Ich habe nur einen ersten Versuch hinter mir, bin aber echt erstaunt über das Ergebnis.
    Ich habe mich doch mit dem blöden Spyder X rum geschlagen und dann mal eine Edge-Messung für das Jeti und das Spyder X an meinem PC-Monitor gemacht. Aus den Ergebnissen dann die beiden Profildateien für die Profilierung erstellt, aktiviert und mal gemessen. Da war ich baff. Die Korrektur umfasste nicht nur Farbraum und RGB-Balance, sondern auch den mangelhaften Schwarzwert sowie den dunklen Bereich des Spyder X. Der Gegentest mit einer "einfachen" 4-Farbmatrix bestätigte dann auch, dass dort keine wirksame Korrektur des unteren Bereiches und des Schwarzwertes erfolgt. Auch scheint die Edge-Messung - eine Empfehlung von TED - wirklich gut als Grundlage für die 21x21x21er Korrekturwürfel zu sein. Jeder der beiden Profildateien enthält wirklich 9261 Werte.
    Eigentlich ist das ja mehr für WRGB-TVs gedacht, aber das muss ich unbedingt noch mit dem Projektor testen.
    Man stelle sich vor, dass man ein sorgfältig profiliertes Klein (das ja die Standard-Korrektur mit dem Jeti intern selber speichert) eine Edge-Messung machen lässst und als Referenz nimmt und damit dann ein EODIS3 profiliert, damit es unten herum besser misst.
    Hoffentlich war das jetzt noch irgendwie verständlich. :big_smile:
    Gruß
    PF

    Inzwischen ist das Spyder X eingetroffen und ich habe auch die Argyll 2.1.1-Treiber installiert, um neben LightSpace auch noch DisplayCal und HCFR nutzen zu können.
    Während LightSpace auf dem USBDevice-Treiber von Microsoft aufsetzt, ist der Argyll-Treiber wieder ein eigenes Produkt und bietet eine Funktion zur Schwarzkalibrierung des Sensors an, die bei LightSpace fehlt. Allerdings habe ich eine solche Funktion auch nicht bei der dem Sensor beiliegenden Software gefunden.


    Eigentlich ist das Spyder X ein recht nettes und einfach zu handhabendes Teil, wäre da nicht die massive Schwäche bei Messungen unter 1 Nit. Während man beim Spyder 5 noch über die Erhöhung der Integrationszeit bis 0,1 Nit recht vernünftige Werte erhält, liefert das Spyder X da viel zu hohe Werte. Ich kann die Messung von Graham bestätigen, dass der minimal zu ermittelnde Schwarzwert bei ca. 0,013 - 0,014 Nit liegt, auch wenn der Sensor komplett abgedeckt ist und eigentlich NULL melden müsste. Und auch bei mir nützt der oben genannte Schwarzabgleicht dabei nichts. Vielleicht wird er deswegen auch gar nicht öffentlich genannt.


    Das ist sehr schade, denn damit ist dieser Sensor noch nicht einmal für normale Monitore wie meinen ollen SyncMaster geeignet. Der hat einen Schwarzwert von 0,12 bis 0,13 Nit und da sind sich alle meine anderen Sensoren einig. Nur das Spyder X kommt mit 0,36 bis 0,4 Nit daher, also Faktor 3. Und das bei LightSpace, DisplayCal und HCFR.
    Und je dunkler es wird, umso schlimmer wird es. Bei 0,05 Nit ist das Spyder X schon bei Faktor 4, zeigt also 0,2 Nit an. Erst ab 1 bis 3 Nit kommt er in die Spur. Da ist ja das Spyder 5 besser.


    In LightSpace habe ich mir den Spaß gemacht die Messpatches für meinen Monitor von Null langsam zu erhöhen und das Spyder X zeigte bei RGB 3,3,3 noch immer den gleichen Y-Wert an wie bei 0,0,0. Da ist intern im Spyder X irgendeine "Rundung" aktiv.


    Die Farbfilter des Spyder X sind eindeutig besser als die vom Spyder 5 und reichen an das EODIS3 heran. Da gibt es nichts zu meckern. Auch Gamma misst der Sensor grundsätzlich korrekt. Nur die RGB-Balance unter IRE20 kann man vergessen, da die dunklen Werte gewürfelt werden.


    Also ich halte diesen Sensor - zumindest das Teil, was ich erworben habe bzw. mit der von mir eingesetzten Software - für absolut überflüssig und fast unbrauchbar. Und daher bin ich auch gar nicht erst mit dem Ding ins Kino. :hell_boy:


    Vielleicht kommen andere zu besseren Ergebnissen und entdecken das wahre Geheimnis des Spyder X. :sbier:
    Gruß
    PF

    Und wenn Du den Oppo direkt an den OLED anschließt? Ohne Radiance.
    Wenn dann das Banding auch stark ist, kommt es von der Quelle. Vielleicht wurde da bei der Produktion an einem Schritt auf 8-Bit zurück gerechnet.
    Wenn das nur die beiden Filme betrifft, würde ich die unter Ehrengeleit ins Archiv überführen oder in der Bucht schwimmen lassen. :big_smile:
    Gruß
    PF

    Habe letztens King Kong über meinen Zappiti und per Oppo 203mit DTM gestreamt und hatte heftiges Banding. Habe Chroma und Farbtiefe auf 4:2:2 und 12 bit (wie von Jim empfohlen) gestellt.


    Hi,
    da ist sicher die Ursache schwer zu fangen. Gerade beim Streamen. Wieviel Quelle und wie viel Setup?
    Dazu kommt noch jede Woche ein Update, das einen Fehler korrigiert und zwei neu dazu liefert.
    Mit welchem Signal gehst Du in den Sony (HDR2020, SDR2020, SDR709)?
    Ist eine 3-D-LUT im Radiance aktiv (=kein Null Cube) ?


    Ich hab sicher nicht so drauf geachtet, aber kann mich eigentlich an keinen Film erinnern, in dem mir so ein starkes Banding aufgefallen ist. Die beiden von Dir genannten Filme habe ich leider/zum Glück nicht. Ich gehe mit SDR2020 raus und im Radiance-CMS liegt ein Null Cube. Ich nutze also nur das IM+DTM, die BT2020-Anpassung erfolgt im VW760ES und Benutzerdef 5 ist einigermaßen auf D65 eingestellt.
    Aber ich hab ja an anderer Stelle schon geschrieben, dass ich nur deswegen so viel Messen muss, weil ich nichts sehe. :big_smile:
    Gruß
    PF

    Bei den Spyder 4/5 ist das wirklich etwas Glücksache.
    Daher biete ich ja auch an, die Teile zu profilieren und dabei gleich zu überprüfen.
    Somit habe ich die Messergebnisse vieler Spyder vorliegen und nenne diese heimlich mein Gruselkabinett. :big_smile:
    Hier mal ein Vergleich eines meiner eigenen Spyder 5 Prunkstücke:
    Messung der Primaries meines ganz einfachen LCD-PC-Monitors (Samsung SyncMaster 245B), wirklich messtechnisch kein kompliziertes Teil:
    Zunächst mit dem Spektroradiometer Jeti 1501:



    Die Sensoren von Klein (K10A) und Xrite (Spectro und EODIS3) kommen mit marginalen Abweichungen zu dem gleichen Ergebnis.


    und nun mit meinen Spyder 5 Nummer 1, weil es das erste meiner Sammlung ist.



    Oh jeh, und das Ergebnis bei Rot ist sogar noch von LightSpace korrigiert, da es außerhalb der CIE 1931-Norm lag und damit Z negativ wurde und durch LightSpace auf Null gerettet/gesetzt werden musste.
    Das dieser Sensor auch noch 20% zu wenig Luminanz anzeigt, stört dann eh keinen mehr. :rofl:


    Nun, ich will nicht meckern. Wenn dieser Spyder 5 richtig profiliert ist, dann misst er ganz ordentlich. Aber an einen JVC zur AutoCal - das ja leider keine Korrekturmatrix unterstützt - würde ich dieses Teil lieber nicht ranlassen, auch nicht für "Nur Gamma". Da nehme ich einen anderen, der wenigstens im CIE 1931 bleibt und die Luminanzen korrekter misst. Ursache sind übrigens die Toleranzen bei den Farbfiltern.
    Was ohne Zweifel begeistert ist die Lichtbelastbarkeit der Spyder 5 auf Grund des Wabengitters vor der Optik. Ich habe da schon locker 8000 Nits gemessen, ohne das Gefühl zu haben, dass der Sensor übersteuert wird. Daher setzt ihn JVC ja auch für Messungen im Lichtstrom ein.
    Das Spyder X werde ich mir anschauen, weil/ob es vielleicht eine Alternative für die N-Serie ist.
    Gruß
    PF

    Bei mir sind es 80 nits mit Anamorphot. Das kommt mir irgendwie etwas wenig vor... Vlt. liegt es am Messegerät. Wieviel kommen bei Euch an?


    Viel Leinwand will viel Licht und da Du das HDR-Tuning schon eingerichtet hast, hilft für mehr Licht nur noch ein VW5000 :big_smile:


    Bei meinen mickrigen 3m Bildbreite (Gain 1,0) komme ich maximal auf 145 Nits (HDR-Edition). Bei SDR ist der VW760 auf 70 Nits und bei HDR auf 120 Nits eingestellt. Bei den vollen 145 Nits braucht man vor jedem Kapitel einen Schnaps wegen das Farbstiches, nur darf dann der Film nicht zu lang sein. ;)
    Mein HDR-Betrieb ist wahrlich nichts für Feingeister. :sbier:
    PF

    Gibt es irgendwo schon Erfahrungen mit dem SpyderX?


    Kaum, weil im Augenblick nur LightSpace, AgryllCMS, DisplayCal und HCFR den Sensor unterstützen.
    Wer eine EODIS3 hat, braucht kein Spyder X.
    Die Erfahrungen mit JVC-AutoCal und dem neuen Spyder X müssen erst noch gemacht werden, da es vermutlich reflektiv messen wird.
    Hier eine erste Einschätzung vom Autor des ArgyllCMS auf dessen Treiber auch DisplayCal und HCFR aufsetzen:
    Erste Kritik des Spyder X
    Gruß
    PF