HTPC mit MadVR

  • Eine Norm gibt es aber nur ohne Tone Mapping. BT.2020 ist ja ein absoluter Standard*. Für das Tone Mapping gibt es zwar auch ein Paper, das kam aber erst raus, nachdem BT.2020 veröffentlicht war. Also viel zu spät. Und soweit ich weiß, sind dort auch nicht alle Feinheiten definiert (wie z.B. Sättigungsanpassung usw.), sondern nur die Verzerrung der EOTF. Das Tone Mapping von madVR basiert jedenfalls nicht auf einem offiziellen Standard.

    Ich sehe darin keinen Widerspruch zu dem was ich oben im Beitrag 100 schrieb. Dieses nachgereichte Paper adressiert das Problem, dass die Consumer Geräte die Norm mangels physikalischer Voraussetung gar nicht erfüllen können und wir uns mit bspw. einem Gamma D von JVC herumschlagen mussten ; auch bei Sony war es kaum besser. Bei den TV lief es ähnlich und obwohl teilweise die gleichen Panels verbaut wurden, sah das HDR Bild je nach Marke beträchtlich anders aus: ein echter Wildwuchs. Das ist IMO der Hintergrund dieses Papers und man muss klar festhalten, dass das sich auf statische Kurven bezieht. Wir reden hier bei madVR aber von einem dynamische Tonemapping und deshalb muss man sich IMO von diesen "best-Kompromiss-Kurven" lösen.


    Zitat


    Ich persönlich habe von Anfang an eher niedrige "Display Peak Luminance" bevorzugt.

    FoLLgoTT

    Das heisst, Du trägst bei real target nits einen Wert ein, der tatsächlich weniger beträgt, als tatsächlich vorhanden ist ?

    Ich hatte das als "cheap trick" auch ausprobiert und ich kann verstehen, dass Leute mit wenig Nits auf der LW versucht sind, das so zu machen. Das Problem ist u.a. dass der Schwarzwert (gerade bei 0.005 Nits Titeln) plus sehr dunkle Bereiche (Nachthimmel) aufgehellt werdem. Bspw. Skyfall , Cityline beim Anflug auf Shanghai, als 007 auf den Auftragmörder Patrice wartet. Da ich eine Hochkontrastleinwnad benutze, die einen Hotspot von etwass über 20% aufweist kam mir irgendweinmal auch der Gedanke, wie das zu berücksichtigen ist. Ich trage deshalb unter real target nits effektiv einen Durchschnittswert gemittelt über den Bereich der Leinwand (wobei ja durch Black Bar Detection das Bild immer an der unteren Lw-Kante ist und dadurch übrigens eine bessere Immersion erlaubt). Bei einer Spannbreite von 125-150 Nits sieht man natürlich sofort (minimale) Unterschiede, aber ich könnte in der Regel nicht sagen, was besser wäre : das sieht dann für mein Empfinden nämlich gleich gut aus. Von daher würde ich mir auch keine grossen Gedanken machen, wenn ich als User mangels Messgerät nicht ganz genau weiss, was jetzt genau vorliegt.

    Beim Envy kann man übrigens sogar einen separaten Wert für 21:9 btw. 16:9 eintragen.


    Beim Wert für das dynamische Target Nits hatte ich auch relativ viel experimentiert. Für meinen Geschmack bin ich immer bei einem hohen Wert gelandet. D.h ist nehme den gleichen Wert wie für real target nits. IMO bekommt man mehr Kontrast und Pop und mehr "HDR-Effekt". Helligkeit habe ich ausreichend. Selbst beim Nero 3 setzte ich DT=RT=75 Nits. Erst dann gefiel es mir. Wenn man madVR verwendet reichen 75 Nits reichen IMO für ein sehr gutes HDR Bild .


    Das führt direkt zu einer weiteren Interessanten Frage: welche Helligkeit braucht es denn für HDR, damit es opimal funktioniert ? Auch hier wieder: optimal (perfekt) ist natürlich nur jene eines Referenzmonitors, den wir aber durch den wunsch nach grossen Bildgrössen nicht haben ...

    Wie ich festgestellt habe, gibt es diesbzgl. 2 Glaubensrichtungen: Sim2 verwendet die DLP Technologie, die mit einem schlechten Schwarzwert (SW) verbunden ist. Dort vermeidet man das Thema SW und verweist darauf, dass

    "a higher brighness leads to an increased percepton, according to the contrast sensitivity curve". Damit nimmt man bezug, dass wir ein helleres Bild in der Regel auch als Kontrastreicher und schärfer wahrnehmen ("Auch SDR sieht mit >30 fL im dunklen Heimkino saugeil aus"). Das ist IMO auch nicht von der Hand zu weisen, ignoriert aber IMO vollend die Tatsache, dass Im Kino auch sehr dunkle Szenen vorkommen und ein akzeptabler SW sehr wichtig ist und bleibt. Einfach das Bild dann unter Umständen doppelt oder mehr heller darstellen als auf dem Referenzmonitor ist zu hinterfragen. Tatsächlich ist dynamische Tonemapping bei Sim2 kein Thema und noch nicht angekommen. Dort versucht man HDR über Doppelstak Setup: 2 Projektoren, die mit statischen Kurven für unterschiedliche Helligkeitsbereiche zuständig sind.

    Die andere extreme Richtung sagt, die effektiv zur Verfügung stehende Helligkeit für HDR sei ziemlich unwichtig und es käme eigentlich nur auf den Dynamikumfang an, d.h. das wichtigste ist der SW. Im AVS Forum vertritt K. Deering diese These. Auch das ist zu hinterfragen und ignoriert völlig den obigen Sachverhalt, den Sim2 aufgreift. Tatsächlich habe ich bei mir festgestellt, dass es bei meinem VW760 nicht optimal ist, bei madVR die volle Helligkeit von 180 Nits zu nutzen, da der SW unnötig leidet. Vergleiche ich 100 Nits vs. 150 Nits dann gefällt mir aber wiederum ein 150 Nits wesentlich besser und die Sim2 Philosophie wird also IMO insofern bestätigt. Den Sweetspot fand ich dann bei mir bei ca. 140-150 Nits, wobei das in dem Bereich dann nur noch Nuancen sind. Das hat ausserdem noch den Vorteil, den Laser nur bei 55% (von 100%) zu fahren. Bei anderen Projektoren wird dieser Sweetspot sicherlich wieder etwas anders zu liegen kommen.


    Ich möchte aber hier nochmals klar festhalten, dass HDR wie gesagt IMO auch mit deutlich unter 100 Nits ausgesprochen gut funktiniert. Vorausgesetzt natürlich man verwendet echtes DTM, das wie madVR ohne Metadaten auskommt und ausschliesslich auf die Daten jeden einzelnen Frames und Pixel zurückgreift und diese für ein ideales Tonemapping verwendet. Bei unter 100 Nits und madVR muss man allerdings zunehmend auch mit kleineren zusätzlichen Problemchen / Artefakten rechnen (Flackern, Farbsättigungsfehler). Ach madVR kann also letztlich nicht zaubern kann: Je grösser der Spagat, desto mehr die potentielle Probleme.



  • Das heisst, Du trägst bei real target nits einen Wert ein, der tatsächlich weniger beträgt, als tatsächlich vorhanden ist ?

    Nein, so niedrig kann man es in madVR gar nicht einstellen. :zwinker2:

    "Display Peak Luminance" steht bei mir auf 100 Nits und "Dynamic Target Nits" auf 50 Nits. Das ergibt bei den meisten in etwas das Bild, das mit SDR vergleichbar ist. Was ich meinte ist, dass in den Anfangszeiten des ToneMappings von madVR die meisten die DPL auf 200 oer 400 Nits gestellt haben und damit war die durchschnittliche Helligkeit niedriger als bei SDR.


    Ich halte aber generell auch nichts davon, die echte bei "Display Peak Luminance" einen realen Wert einzutragen. Das ist auch meine Kritik an dem Standard. Eine absolute Leuchtdichte ist einfach nicht sinnvoll, weil die Umgebungen, Sehgewohnheiten und Bildgrößen total unterschiedlich sind. Das ist in etwas so, als wenn eine absolute Lautstärke vorgegeben wird und alle nur noch mit Referenzpegel hören. Leider fehlt ein "Leuchtdichteregler". Das gibt es nur bei Laserprojektoren und Multilampensystemen. Aber selbst da ist die nach oben limitiert.


    Das führt direkt zu einer weiteren Interessanten Frage: welche Helligkeit braucht es denn für HDR, damit es opimal funktioniert ? Auch hier wieder: optimal (perfekt) ist natürlich nur jene eines Referenzmonitors, den wir aber durch den wunsch nach grossen Bildgrössen nicht haben ...

    Ich sehe den Referenzmonitor nicht als Referenz. Er ist ja viel kleiner als unsere Leinwände und die Umgebung war beim Grading ggf. auch nicht so dunkel wie unsere Heimkinos. Ein großes Bild (bzw. großer Blickwinkel) wirkt heller als ein kleines. Es gibt für mich auch keinen Grund, warum man den digitalen Wert für 100 Nits nur mit 100 Nits wiedergeben sollte. Das entspricht 30 fL. 60 fL sehen aber noch besser aus. Die Farben wirken dann noch "leuchtender". Wir nehmen ja logarithmisch wahr, von daher sind die zusätzlichen 30 fL, um bei dem Beispiel zu bleiben, nicht so viel wie es scheint (das Verhältnis ist die relevante Größe).


    Bei ICC-Profilen gibt es den Rendering Intent. Das bezieht z.B. auch die Umgebung ein. Daran müsste man sich eigentlich orientieren, wenn man das Bild möglichst wie beim Referenzmonitor sehen möchte. Sowas wird aber im Heimkinobereich komplett ignoriert.


    Wie ich festgestellt habe, gibt es diesbzgl. 2 Glaubensrichtungen:

    Ja, das sehe ich auch so. Wobei beide daneben liegen, wie du selbst schreibst. :)


    Kontrast und maximale Leuchtdichte sind zwei Parameter, die grundsätzlich nichts miteinander zu tun haben. Hoch/niedrig kann in allen Kombinationen vorkommen. Bei HDR geht es im Grunde auch gar nicht ausschließlich um einen hohen Kontrast oder eine hohe Leuchtdichte. Ersteren hatten wir bei Röhrenprojektoren mit SDR auch schon (1.000.000 : 1 war bei gut eingestelltem Schwarzwert kein Problem) und zweiteres konnte man mit Profiprojektoren auch erreichen.


    HDR hat zwei "Kernfeatures":


    1. die absolute Zuordnung zwischen digitalem Wert und physikalischer Leuchtdichte

    2. die Aufteilung der EOTF in einen Bereich bis Referenzweiß (100 Nits) auf der linken Seite und einen Bereich für Highlights auf der rechten Seite. Wobei die Highlights bis 10.000 Nits definiert sind (also drei Zehnerpotenzen).


    Die relevanten Bildinformationen sind auf der linken Seite enthalten, die wir beim Tone Mapping möglichst nicht verändern wollen. Die Highlights komprimieren wir dann ähnlich wie bei SDR-Material. Im Grunde unterscheiden sich dann SDR und HDR nur noch durch die höhere Auflösung (die die bisherigen Filme fast nie erreichen), den höheren Gamut und die höhere Genauigkeit (10 Bit pro Komponente).

    Und jetzt kommt das, was viele nicht verstehen: mit dem richtigen Grading kann ein SDR-Film dann praktisch genauso kontrastreich aussehen wie ein tone-gemappter HDR-Film! Das ist überhaupt kein Problem. Wenn die HDR-Filme kontrastreicher aussehen, dann ist das so gewollt (ist übrigens auch nicht bei allen so). So etwas wie einen "HDR-Effekt" gibt es also nur, wenn die Highlights nicht komprimiert werden, denn die sind so auf SDR nicht vorhanden und können auch nicht rekonstruiert werden.


    Was auch häufig zu Missverständnissen führt: in der digitalen Domäne gibt es sowas wie Kontrast überhaupt nicht. Schwarz = 0, damit ist der mögliche Kontrast immer unendlich groß. Erst das Anzeigegerät legt seinen nativen Kontrast darüber. Es bestimmt also immer, wie hoch der Kontrast des Bildes ist. Und das ist bei SDR dann eben exakt gleich wie bei HDR. Geht ja physikalisch gar nicht anders.

    Nur die Abständer der Töne (ungleich 0) untereinander können sich eben je nach Gradation und Tone Mapping stark unterscheiden, das bestimmt dann auch den wahrgenommen Kontrast. Aber wie oben geschrieben, ist das kein grundsätzlicher Vorteil von HDR.


    So, genug vor mich hin philosophiert...:zwinker2:

  • Ach madVR kann also letztlich nicht zaubern kann: Je grösser der Spagat, desto mehr die potentielle Probleme.


    Und jetzt kommt das, was viele nicht verstehen: mit dem richtigen Grading kann ein SDR-Film dann praktisch genauso kontrastreich aussehen wie ein tone-gemappter HDR-Film!

    Das Problem ist, dass die Projektoren nicht mal den SDR Kontrastumfang darstellen können.
    Selbst wenn wir die 0 weglassen, bei den 0,001 Nits bis 100 Nits bräuchten wir schon 1:100.000. Und zwar nicht bei 2 verschiedenen Bildern (Weiß/Schwarz hinter einander), sondern in einem Bild. Stattdessen wird vom Beamer das ganze Bild in viel niedrigeren Kontrastumfang komprimiert (z.B. X7900: 1:1500 bei ADL 10%, einem durchschnittlich hellem Bild, 1:2000 beim VW760).
    Letztendlich sind die Beamer der limitierende Faktor, HDR, Tonemapping, oder welche Software auch immer, kann nicht mehr Kontrastumfang herbeizaubern, als physikalisch vorhanden ist. Die HDR Filme behelfen sich nur damit, dass der Film, bzw. gewisse Szenen dunkler gemastert werden, damit gewisse HDR Effekte schöner herausstechen.

  • Das alles bestätigt mich darin einen HTPC mit MadVR gebaut zu haben.

    Demnach entmündigt man am besten den Projektor und spielt optimiert mit 3D Luts und allen anderen Optimierungen zu.

    Damit kommen je nach Anforderung auch Projektoren in Frage die abseits von JVC und Sony ihre Stärken haben.

    Stichwort: Lichtleistung :big_smile:

  • Damit kommen je nach Anforderung auch Projektoren in Frage die abseits von JVC und Sony ihre Stärken haben.

    Stichwort: Lichtleistung :big_smile:

    Nicht wirklich. Der An/Aus-Kontrast ist bei den hellen und bezahlbaren Profikisten immer schlecht. Der Gamut ist praktisch nie groß und auch 4K findet man kaum. Bei den DLPs kommen noch die Weiß/Gelb-Segmente dazu. Ich habe letztens erst in der Ecke gesucht und es gibt leider nichts, was meinen Anforderungen entsprach. Erst im Kinosegment wird es wieder interessant. Da reden wir aber über ganz andere Preise.

  • Nicht wirklich. Der An/Aus-Kontrast ist bei den hellen und bezahlbaren Profikisten immer schlecht. Der Gamut ist praktisch nie groß und auch 4K findet man kaum. Bei den DLPs kommen noch die Weiß/Gelb-Segmente dazu. Ich habe letztens erst in der Ecke gesucht und es gibt leider nichts, was meinen Anforderungen entsprach. Erst im Kinosegment wird es wieder interessant. Da reden wir aber über ganz andere Preise.

    Da bist Du weiter als ich. Das Ergebnis ist aber so wie Du schreibst dann eher ernüchternd. Die Ausgangsposition ist mit einer MadVr Kiste deutlich besser.
    Mein alter Epson lebt seit dem Einsatz von MadVR und 3D-Luts förmlich auf. Und obwohl der Schwarzwert für ein Kino unterirdisch ist macht das Bild richtig Laune.

    Da kann ich ganz entspannt die Neuerungen abwarten.

  • Nein, so niedrig kann man es in madVR gar nicht einstellen. :zwinker2:

    "Display Peak Luminance" steht bei mir auf 100 Nits und "Dynamic Target Nits" auf 50 Nits. Das ergibt bei den meisten in etwas das Bild, das mit SDR vergleichbar ist. Was ich meinte ist, dass in den Anfangszeiten des ToneMappings von madVR die meisten die DPL auf 200 oer 400 Nits gestellt haben und damit war die durchschnittliche Helligkeit niedriger als bei SDR.


    Ich halte aber generell auch nichts davon, die echte bei "Display Peak Luminance" einen realen Wert einzutragen. Das ist auch meine Kritik an dem Standard. Eine absolute Leuchtdichte ist einfach nicht sinnvoll, weil die Umgebungen, Sehgewohnheiten und Bildgrößen total unterschiedlich sind. Das ist in etwas so, als wenn eine absolute Lautstärke vorgegeben wird und alle nur noch mit Referenzpegel hören. Leider fehlt ein "Leuchtdichteregler". Das gibt es nur bei Laserprojektoren und Multilampensystemen. Aber selbst da ist die nach oben limitiert.

    Nabend,


    Ja ich habe bei mir auch ca. 30% unter den echten "Nits" den Peak Wert eingestellt und verändere das auch teils, je nach Film (andere Settings) inkl. HSTM Kurve. Je nach Rael Nit Mastering fahre ich das daher angepasst.

    Ähnlich wie beim Ton somit.:zwinker2:

    Ich sehe den Referenzmonitor nicht als Referenz. Er ist ja viel kleiner als unsere Leinwände und die Umgebung war beim Grading ggf. auch nicht so dunkel wie unsere Heimkinos. Ein großes Bild (bzw. großer Blickwinkel) wirkt heller als ein kleines. Es gibt für mich auch keinen Grund, warum man den digitalen Wert für 100 Nits nur mit 100 Nits wiedergeben sollte. Das entspricht 30 fL. 60 fL sehen aber noch besser aus. Die Farben wirken dann noch "leuchtender". Wir nehmen ja logarithmisch wahr, von daher sind die zusätzlichen 30 fL, um bei dem Beispiel zu bleiben, nicht so viel wie es scheint (das Verhältnis ist die relevante Größe).

    Sehe ich auch so was ist denn Referenz ? Wenn ich HDR auf unserer Fine Pitch LED Wall schaue, dann bin ich nochmal mehr als doppelt so hell (zu meinem PJ), bei gleichzeitig mögl. SW Wert von unendlich.

    In der Tat macht es einen erheblichen Unterschied wie gross das Bild dann überhaupt dargestellt wird.

    Und 100 Nit ist einfach immer noch zu dunkel, um auch allen Farben den nötigen Punch zu geben, so ist meine Erfahrung dazu. 50 - 60 ftL für SDR übermittelt einfach viel realistischer das Farbgamut und auch dessen Hellligkeitsspreizung in der Graubalance (für HDR gern nochmal 30 - 50 % mehr). Die Folge ist dann auch mehr Durchzeichnung im Allgemeinen.


    Daher drehe ich Z.B. die LED Videowall auf 100 Nit statt 500 - 800 Nit zurück, dann ist das Ergebnis absolut ernüchternd, mit im Prinzip nicht sonderlich veränderten SW Werten.

    Mache ich das mit meinem PJ verhält es sich ähnlich. Natürlich wird auch der SW Wert besser, nur ich verliere Durchzeichnung in den unteren IRE und der Punch in den Farben ist weg. Zudem wirken viele Filme dann in der Helligkeit

    unrealistisch. Wenn man den Vergleich zudem hat ist das sofort sichtbar.


    Und gerade HDR mit etwas "schärferen" Werten und HSTM Kurven profitiert unglaublich von mehr Helligkeit.:)

    Das ist ja ein Vorteil von Mad VR, das auch SDR Content einfach besser durch die Eingriffe wird, inkl. Upsacling.

    Was auch häufig zu Missverständnissen führt: in der digitalen Domäne gibt es sowas wie Kontrast überhaupt nicht. Schwarz = 0, damit ist der mögliche Kontrast immer unendlich groß. Erst das Anzeigegerät legt seinen nativen Kontrast darüber. Es bestimmt also immer, wie hoch der Kontrast des Bildes ist. Und das ist bei SDR dann eben exakt gleich wie bei HDR. Geht ja physikalisch gar nicht anders.

    Nur die Abständer der Töne (ungleich 0) untereinander können sich eben je nach Gradation und Tone Mapping stark unterscheiden, das bestimmt dann auch den wahrgenommen Kontrast. Aber wie oben geschrieben, ist das kein grundsätzlicher Vorteil von HDR.


    So, genug vor mich hin philosophiert...:zwinker2:

    Nur wird der Kontrasteindruck größer je mehr Helligkeit das Anzeigegerät umsetzen kann.

    Wieder Beispiel LED Wall. Der SW Wert ist unendlich groß. Der Kontrast daher auch, nur je heller die Wall, desto mehr Kontrasteindruck entsteht.


    ANDY

  • FoLLgoTT

    Eventuell habe ich es ja überlesen, aber was hast Du jetzt konkret an Helligkeit max auf der LW ?



    Nur wird der Kontrasteindruck größer je mehr Helligkeit das Anzeigegerät umsetzen kann.

    Wieder Beispiel LED Wall.

    Ja, das sehe ich auch so und das geht auch aus der Graphik von Sim2 hervor. Allerdings muss IMO klar betont werden, dass bei einem Vergleich dann die EOTF bei den beiden Vergleichmonitoren dann gleich steil sein muss. Helligkeit per se ist noch kein Garant für ein kontrastreiches Bild . Konkretes Bsp, das ich vor kurzem bei einm 3-Chip RGB Laser sah ( :zwinker2: ) bei Bladerunner 2049. Tonemapping durch einen Panasonic. Als der Blade Runner KD.. ins Haupquartier zurückfliegt, nachdem er den Proteinfarmer Morten Sapper eliminierte: das Bild war weit heller als die ca. 40 Nits der Quelle, vermutlich eher das doppelte oder dreifache: da die Kurve allem das doppelete Tonemapping (Pana / Laser Projektor) offenbar zu flach war, wirkte das Bild flach und wenig kontrastreich trotz mehr als genügend Helligkeit ... schlechtes Tonemapping !

    Kleiner Teaser: dort wird auch in Bälde madVR einziehen, und ich werde sicherlich da auch die eine oder andere interessante Erfahrung sammeln können . Das Ganze hat definitiv Potential - soweit darf ich verraten :big_smile:

  • Nur wird der Kontrasteindruck größer je mehr Helligkeit das Anzeigegerät umsetzen kann.

    Ja, das kann ich bestätigen. Der empfundene Kontrast nimmt mit höherer Maximallleuchtdichte definitiv zu.


    Eventuell habe ich es ja überlesen, aber was hast Du jetzt konkret an Helligkeit max auf der LW ?

    Momentan sind es knapp 14 fL auf 4 m Breite. Wenn das High-Gain-Tuch da ist, sollten es ca. 22 - 25 fL sein.

  • Danke FoLLgoTT ! Also aktuell gegen 50 Nits ... ich hatte mal im Freundeskreis den Nero 3 auf 3.5 Meter Bildbreite zum Spass für HDR herausgefordert. Waren ca. 25 Nits. "HDR" war da für mich absolut kein Genuss trotz madVR. 50 Nits hattte ich bisher noch nie getestet. Könnte noch knapp gehen, aber sicher supotimal ?! 25 fL hingegen wird mit einem JVC oder Sony sehr gut gehen und sicherlich toll aussehen. :sbier:

  • ich hatte mal im Freundeskreis den Nero 3 auf 3.5 Meter Bildbreite zum Spass für HDR herausgefordert. Waren ca. 25 Nits. "HDR" war da für mich absolut kein Genuss trotz madVR.

    7 fL sind nie ein Genuss. So düstere Bilder kenne ich von früher. Schön war das nie, trotz teilweise extrem hohen An/Aus-Kontrast damals.

    Könnte noch knapp gehen, aber sicher supotimal ?!

    Ich sage es mal so: ich hätte gerne eine deutlich höhere Leuchtdichte. Ich habe ja in den letzten Monaten viel evaluiert: Stacking, Edge Blending, High Gain, alternative Projektoren. Letztendlich habe ich mich aus diversen Gründen für den X7900 mit einem High-Gain-Tuch entschieden. Die aktuellen Heimkinoprojektoren sind für große Leinwände schlicht und ergreifend nicht hell genug. Die Leinwandgröße ist aber ein Parameter, der nicht zur Debatte steht. Die absolute Größe ist für mich einer der wichtigsten Parameter im Heimkino.


    Trotzdem können 14 fL auf der Größe immer noch richtig gut aussehen (wenn man von einer hohen Leuchtdichte nicht komplett verdorben ist :zwinker2:). Das Bild wirkt teilweise schon richtig plastisch. Aber wir schweifen ab. :)

  • Nicht wirklich. Der An/Aus-Kontrast ist bei den hellen und bezahlbaren Profikisten immer schlecht. Der Gamut ist praktisch nie groß und auch 4K findet man kaum. Bei den DLPs kommen noch die Weiß/Gelb-Segmente dazu. Ich habe letztens erst in der Ecke gesucht und es gibt leider nichts, was meinen Anforderungen entsprach. Erst im Kinosegment wird es wieder interessant. Da reden wir aber über ganz andere Preise.

    Hi Nils, bist du dir da sicher, dass es nichts brauchbares gibt? Ich suche nämlich derzeit auch mein Heil in der Profi-Ecke, weil ich mit dem matschigen D-ILA Bild einfach nicht richtig warm werden kann und bissl mehr Lichtstrom trotz High Gain schon auch gut täte - eben genau in Hinblick auf HDR mit MadVR. Hochinteressant finde ich da z. B. einen Barco / Projectiondesign F35, der hat mit VizSim Farbrad (RGBRGB) eine 96%ige DCI-P3 Abdeckung und dank Doppel-Iris auch einen recht annehmbaren On/Off Kontrast. UND, was ich persönlich noch viel entscheidender finde, er hat halt einen rund 3-4mal so großen ANSI Kontrast wie ein D-ILA! Der Clou ist, den gibt's sogar mit WQXGA Auflösung, oder als Panorama mit 2560X1080 :mad:. Alternativ einen Christie Mirage, der mit yellow notch filter auch haarscharf an P3 kratzt und 4mal so hell und wesentlich schärfer als ein JVC ist.

    Ich bin da ganz bei Michael, dass mit solchen Geräten dank hoher Lichtleistung und extrem hoher Dynamik innerhalb eines Frames (wo die JVCs leider so gar nicht glänzen :beated:) HDR mit MadVR richtig Spaß machen sollte!

  • Die Mirages (HD6-k-m oder WU7-k-m o. ä.) sind Full HD, korrekt. Die F35 aber wie erwähnt WQXGA, also 2560x1600 bzw. direkt schon im Cinemascope Format mit 2560x1080. Spätestens damit sind sie einem Full HD Wobbel D-ILA in Punkto Detailschärfe haushoch überlegen. Wenn ich mir ein referenzwürdiges Bild wie Gemini Man oder Alita von UHD anschaue, stinkt mein X5000 von der Dynamik, dem "Pop" und der Detailschärfe sowas von dramatisch ab gegenüber meinem Sim2 mit "nur" FHD, aber dafür halt nem 0,95" DC4 und einem ANSI Kontrast von 900:1 :beat_plaste. Das einzige was der D-ILA besser macht ist das weniger sichtbare Fliegengitter (und zugegebenermaßen das schwarz ;-)). Drum schiele ich eben immer in Richtung des F35 mit WQXGA Auflösung. Denn wie Du leider richtig sagst, 4k Barcos und Christies sind leider für Normalsterbliche unbezahlbar, und 4k Consumergeräte haben allesamt andere Schwächen, die für mich trotz Betrachtungsverhältnis von rund 0,7:1 schwerer wiegen als die reine Auflösung.

    Aber ich wollte nicht zu sehr OT werden. Mich interessiert nur, ob Nils die von mir genannten Geräte bei seiner Suche auf dem Schirm hatte und wenn ja, aus welchen Gründen aussortiert hat?

  • Der Digital Projection E-Vision sieht nicht uninteressant aus. Wobei ich noch keinen genauen Blick riskiert hab.

    Ich hatte eine JVC DLA Z1 auf 340cm 16:9 LW (Gain 0,9) gesehen und das war schon sehr nett anzusehen.

    Ein super Schwarzwert ist natürlich wünschenswert, nur nicht um jeden Preis. Das Bild macht ungleich mehr Spaß wenn Power drin ist. Von daher würde ich persönlich eher beim Kontrast als bei der Helligkeit Kompromisse eingehen.

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!