Beiträge von FoLLgoTT

    Aha, das ist also Offtopic und der Post von Oto nicht? Naja, dann verabschiede ich mich gerne aus diesem Forum. Ist ja hier nicht besser als im H... admin: Bitte meinen Account löschen. Danke!

    Fände ich schade. Lass dich von oto nicht ärgern. Der eckt hier oft mit kruden Theorien an. Ich kann ein Lied davon singen.

    Mal unabhängig von einem möglichen Bug in der Konvergenz-Einstellung bei der NZ-Serie, hier mal ein Hinweis auf ein Tool, das dabei unterstützen kann.

    Auch Offtopic: man kann per Shader in der GPU übrigens total simpel eine Konvergenzkorrektur realisieren. Wenn ich mal Zeit und Lust habe, probiere ich mal aus, ob das qualitativ besser oder schlechter ist. Nur, falls jemand Interesse hat...

    Bzgl. Pegel. Das Dokument setzt ja keinerlei Entzerrung voraus, oder?

    Nein, es geht dort nur um den Maximalpegel und nicht um den Amplitudengang. Entzerrung ist für die Untersuchung irrelevant.


    Wenn ich mir die Bassreflexsubwoofer von zozi anschaue, dann gehe ich mal davon aus, dass in dem Bereich, in dem es einen Gewinn gibt, der akustische Kurzschluss vorliegt. Die Teile sind sicherlich auf >20 Hz abgestimmt. Oder, zozi?

    eine Sache die Moe geschrieben hat möchte ich nochmal unterstreichen, damit sie nicht untergeht.
    Du hast bei Multisub die doppelte Membranfläche weil alle Treiber agieren und nicht 2 davon rein absorbierend wirken.

    Je nach Raumgröße hält sich der Nutzen aber stark in Grenzen. Bei einem ca. 6 m langen Raum steigt der Maximalpegel erst unterhalb von 20 Hz an und erreicht die +6 dB dann irgendwo bei 10 Hz. Siehe auch hier (Anordnung 9). Und der gefühlte Tiefbass liegt ja eher im Bereich zwischen 25 - 40 Hz.

    Könnte ich irgendwie die Abklingzeiten reduzieren, oder steht nur ein DBA/SBA als Lösung vor mir?!

    Mit einem Equalizer kannst du die Abklingzeiten derzeit nicht verringern, weil dein Amplitudengang schon linear ist.


    Ich sehe das wie Moe, das Abklingen ist nicht schlecht. Vielleicht wird es mit DBA-Ansteuerung etwas besser. Das kannst du ausprobieren, aber großartige Gründe zum Handeln sehe ich (zumindest aus der einen Messung) auch nicht. Es sei denn, auf den anderen Sitzplätzen misst es sich deutlich schlechter.

    Das ist ein schönes Beispiel dafür, dass Screenshots in dieser Art gar nicht brauchbar sind, um die tatsächliche abgebildete Auflösung darzustellen.

    Aha, und wieso benutzt du solche Fotos dann in deinem Blog? :zwinker2:


    Aber im Ernst: ich gebe dir ja grundsätzlich Recht. Die Kamera hat keine konstante MTF, es wird runterskaliert usw. Man musss schon weit genug von der Bandgrenze entfernt sein, um möglichst objektive Fotos, mit denen man die Auflösung bewerten möchte, zu erstellen. Also möglichst scharfes Objektiv, sehr kleiner Bildausschnitt, damit der möglichst den gesamten Sensor (oder den scharfen Teil in der Mitte) benutzt, niedrige ISO (->längere Belichtungszeit) usw. Das ist ganz klar.


    Dass ein Projektor mit verlustbehaftetem Objektiv und drei Panels nicht die MTF eines LCD-TVs oder LED-Wand erreicht, ist auch völlig klar. Ich denke, darüber müssen wir nicht diskutieren.


    Trotzdem wäre es halt interessant, ob die AI-Skalierung mit 8k zugespielt einen kleinen Tick detailreicher aussieht als die 4k-Zuspielung und Aufbereitung durch den Projektor (also beides mit E-Shift). Dass E-Shift etwas mehr Details erzeugt bei Zuspielung größer der nativen Auflösung, ist ja nicht neu.

    Hier müsste madVR erstmal zeigen, dass es dies noch besser bewerkstelligt.

    Naja, das ist aber auch ein etwas unfairer Vergleich. Du hast das Bild mit "Nearest Neighbour" hochskaliert. Den schlechtesten aller Skalierungsalgorithmen, der starkes Aliasing erzeugt.

    Wenn ein guter Player (in diesem Fall MPV) mit einem AI-Algorithmus (FSRCNNX) 2x hochskaliert, sieht das so aus. Ich habe dein hochskalierte Bild links ersetzt. Rechts ist weiterhin dein Foto von der Leinwand.



    Und da sieht man dann schon, dass das ordentlich hochskalierte Bild doch mehr Details zeigt und schärfer wirkt als der NZ7 mit E-Shift. Man achte z.B. auf die Schrift am Haus oder auf den Zaun unter dem Baum. Ich finde das aber auch nicht verwunderlich, denn die MTF wird bei 4k sowieso schon um einiges runter sein. Volle Amplitude wird man bei einem (3-Panel-)Projektor mit Objektiv wohl nie erreichen. Das soll den NZ7 gar nicht schlecht machen. Ob das gut hochskalierte Bild auf der Leinwand ein besseres Ergebnis erzeugt, müsste man einfach mal ausprobieren.


    Wenn du etwas für einen Test brauchst, melde dich einfach per PN. :)

    In Summe ist BG für mich eine der besten Sci-Fi Serien, mein Favorit ist jedoch weiterhin Babylon 5.

    Ja, "Battlestar Galactica" gehört definitiv zu den großen Weltraumserien, von denen es ja leider nicht so viele gibt. Sie ist schön düster und vermittelt gut den Eindruck von permanenter Bedrohung. Die Menschheit steht ja quasi kurz vor dem Exitus. Durch ihren Stil hat sie relativ wenig Ähnlichkeit zu "Star Trek *", "Babylon 5", "Stargate SG-1" oder "The Expanse". "BG" ist irgendwie etwas ganz eigenes. Als Science-Fiction-Fan sollte man sie auf jeden Fall gesehen haben!

    Bei voller Ausnutzung des C4K Panel des NZ9 wäre der Streckungsfaktor 1,25. Also 25%.

    Korrekt?

    Ja.


    Ich konnte auf die Schnelle allerdings nicht finden, welchen Streckungsfaktor der Paladin DCR-J1 besitzt. Der JVC hat zwei anamorphe Modi, für 1,25 und 1,33. "A" wurde im Video benutzt, was für 1,33 gedacht ist. "C" ist extra für 4096 Pixel horizontal und damit für 1,25 vorgesehen.

    Im besagten Video wird es zumindest nicht umgeschaltet, ich verlinke es Hier.

    Um die Rechnung mal ein bisschen aufzudröseln: 0,74 mal weniger heißt nicht, dass der andere Wert 0,26 mal größer ist. Man muss den Kehrwert rechnen, also 1,35. Das heißt, es sind in dem Video 35 % mehr Licht mit der Paladin. Darin ist aber, wie Scorpion66 schon schrieb, ggf. auch noch die 6,6 % Zugewinn durch die volle Panelnutzung enthalten. Dann kommt noch dazu, dass man mit der Paladin den Zoom am Projektor vergrößern muss. Damit lässt das Objektiv mehr Licht durch, was noch draufgeschlagen werden muss. Bei der ISCO dagegen muss der Zoom verkleinert werden, was weniger Licht durch das Objektiv lässt. Das dürfte die hier besprochenen Diskrepanzen erklären.


    Denn rein von den Anamorphoten her muss das Licht auf der Leinwand exakt mit dem Streckungsfaktor übereinstimmen (minus der vernachlässigbare Verlust des Glases selbst), alles andere würde die Physik austricksen. Da der Streckungsfaktor dummerweise nichtlinear über die Breite verläuft, kommt es leider darauf an, wo man misst. Solche Punktmessungen sind also immer mit Vorsicht zu genießen.

    Kann mir das nicht vorstellen wie man auf seinem Handy oder PC Monitor ohne die BT2020 Fähigkeiten es vergleichen können soll.

    Das kannst du auch nicht. PC-Monitore haben in der Regel nur sRGB, also BT.709 (außer der von Stefan :zwinker2:).


    Aber darum geht es auch gar nicht. Ziel ist ja nicht, anhand von BT.709 zu zeigen, wie ein beschränktes DCI-P3 oder BT.2020 aussieht. Es geht darum, dass man auch auf Anzeigegeräten mit großem Gamut mittels dieser konkatenierten 3D-LUTs simulieren kann, wie eine Gamutverkleinerung aussieht. Und das, ohne andere Parameter zu verändern. Das tun nämlich leider alle Vergleiche, die da draußen so stattfinden. Und eine Änderung an Farbtemperatur, Leuchtdichte, Kontrast, Gamma oder Sättigungsverlauf kann dann schnell mal das Ergebnis stärker beeinflussen als ein etwas größerer oder kleinerer Gamut. Diese Parameter wirken nämlich auf alle Farbtöne, die Gamutverkleinerung nur auf die stark gesättigten.


    Also: bisher können wir noch nicht viele Aussagen treffen, weil ich nur BT.709 eingeschränkt habe und die Bilder jeder an seinem Monitor anschauen kann. Für andere Leuchtdichten oder andere Farbräume muss das nicht so direkt übertragbar sein (->nichtlineare Wahrnehmung). Aber immerhin konnte ich bisher an zwei Monitoren feststellen, dass bezogen auf BT.709 ein 75 % kleinerer Gamut praktisch genauso "bunt" aussieht wie ein um 75 % dunkleres Bild. Die Erkenntnis finde ich zumindest bemerkenswert, auch wenn sie sicherlich keine Allgemeingültigkeit hat.


    Ich bin da kein Experte, aber beim Umschalten in wenigen Sekunden sind es für mich deutliche Unterschiede und nicht nur wie oft behauptet in hellen Farben die sich in den Ecken der Diagramme befinden.

    Ich bin mir inzwischen ziemlich sicher: wenn deutliche Unterschiede im gesamten Bild sichtbar sind, ist nicht der Gamut die (Haupt-)Ursache, sondern vor allem andere Parameter.

    Hast Du mit Deinem Projektor auch mal ~100% DCI-P3 -> 80...85% DCI-P3 -> Rec.709 verglichen?

    Noch nicht, ich stehe da noch ganz am Anfang und habe das Verfahren bisher nur an meinem Arbeits-PC ausprobiert.

    Die Frage ist, was man genau vergleichen möchte. Es ist ja z.B. so, dass Blau in DCI-P3 dieselben Koordinaten besitzt wie in BT.709, also sind dort keine Unterschiede zu erwarten. Anders bei Rot und Grün. Man müsste definieren, welche Koordinaten man vergleichen möchte, wenn es halbwegs realistisch sein soll.


    Übrigens finde ich es interessant, was ArgyllCMS bei der Farbraumabdeckung ausspuckt. Der native Gamut des X7900 sieht ohne Filter im Vergleich zu DCI-P3 so aus:



    Er ist bei Blau also größer und bei Grün und Rot kleiner. ArgyllCMS errechnet das Schnittvolumen und gibt dann an, wie viel Prozent das Schnittvolumen vom jeweiligen Farbraumvolumen einnimmt.



    Auf gut Deutsch: der X7900 erreicht ohne Filter nur ca. 80 % von DCI-P3. DCI-P3 deckt allerdings auch nur 94 % vom X7900 ab. Wie sich das mit Filter verhält, müsste ich noch mal messen.

    Da bei neuen Projektoren immer wieder die Gamutabdeckung besprochen wird und dieser Wert von einigen enorm hoch gehalten wird, wollte ich seit längerem mal untersuchen, wie sichtbar dieser Parameter überhaupt ist. Und das im Verhältnis zu einer höheren Leuchtdichte. Häufig tauscht man ja das eine gegen das andere, indem ein Filter in den Lichtweg geschoben wird. Da von mehr Licht dank Stevens- und Hunt-Effekt alle Farben und sogar Schwarzweißbilder profitieren, würde ich einfach gerne mal wissen, wie viel Licht man gegen mehr Gamut eintauschen kann, bis der Nutzen die Nachteile überwiegt und umgekehrt.



    Die Idee ist einfach: man kann beides auf digitalem Wege simulieren, indem man die Werte nicht vergrößert, sondern verkleinert. Die Helligkeit auf einen definierten Weg zu reduzieren, hatte ich ja mit dem Bildparametersimulator bereits gemacht. Das ist eine Kleinigkeit. Beim Farbraum hatte ich bis bisher keine Lösung parat. Gestern bin ich allerdings auf diese Seite gestoßen. Dort kann man zwei 3D-LUTs quasi konkatenieren. Ich mache also folgendes:


    1. Synthetisches ICC-Profil für kleinen Farbraum erzeugen
    2. 3D-LUT erzeugen: großer Farbraum -> kleiner Farbraum (Clipping auf den äußeren Grenzen)
    3. 3D-LUT erzeugen: kleiner Farbraum -> großer Farbraum (Farben außerhalb des kleinen existieren nicht, alle innerhalb werden korrekt dargestellt)
    4. LUTs aus 2. und 3. konkatenieren und neue 3D-LUT erzeugen

    Wenn man die resultierende 3D-LUT z.B. in einem Player oder auf dem Desktop anwendet, dann werden alle Farben innerhalb des kleinen Farbraums unverändert dargestellt. Die Farben außerhalb werden allerdings auf seine Grenzen gelegt. Das heißt, man kann dann auf demselben Zielgamut mit derselben Kalibrierung per Knopfdruck vergleichen. Dieser Satz ist essentiell wichtig, denn hier umgehen wir die größten Fehlerquellen, wenn man z.B. am Projektor oder im Videoprozessor verschiedene Profile umschaltet. Farbtemperatur und Gamma bleiben konstant.


    Ich habe das mal mit BT.709 als Quellfarbraum durchgeführt. Einfach deswegen, weil das jeder an seinem Monitor darstellen kann. Man kann das natürlich auch mit DCI-P3 oder BT.2020 machen. Das ist prinzipiell völlig egal.


    Ich habe hier also zwei kleine Gamuts. Einmal mit 75 % und einen mit 50 % Abdeckung bezogen auf BT.709. Die Sättigung der Primärfarben wurden dabei ungefähr gleich stark reduziert (ich habe die Koordinaten frei gewählt). Die Abdeckung bezieht sich auf das Volumen, nicht auf die Fläche.


    75 % BT.709:


    50 % BT.709:


    Natürlich habe ich die resultierenden 3D-LUTs auch messtechnisch validiert. Die Sättigungsverläufe waren wie erwartet (hier nicht gezeigt).

    Das Ganze kann man sich übrigens auch in 3D anschauen:




    Nun kann man diverse Screenshots aus Filmen erstellen und z.B. 50 % weniger Gamut 50 % weniger Leuchtdichte gegenüberstellen usw. Das ist natürlich alles entsprechend aufwändig. Hier mal ein Beispiel:


    50 % Gamut:


    50 % Leuchtdichte:



    75 % Gamut:


    75 % Leuchtdichte:



    Man kann hier pro Beitrag immer nur 10 Bilder reinstellen, daher muss ich hier stark reduzieren.


    Hier noch mal ein Realbild, um mal ein Gefühl dafür zu bekommen, wie viel 50 % (!) weniger Farbraum eigentlich ausmachen. Man sieht hier schön, dass das rote Kleid betroffen ist und ein bisschen der Himmel und ein paar gelbe Bäume. Der Rest sieht nahezu identisch aus. Und 50 % sind schon enorm viel!


    100 % Gamut:


    50 % Gamut:



    Das Prinzip funktioniert jedenfalls und die Unterschiede sind teilweise sehr gering. Das hatte ich auch immer so erwartet. Stark gesättigte Farben kommen eben nicht so oft vor. Dagegen wirkt die Leuchtdichte regelrecht brachial auf das gesamte Bild. Sowohl in die eine als auch in die andere Richtung. Das ist im Grunde alles nicht neu, aber es gibt keine objektiven Zahlen, mit denen man argumentieren könnte. Das fehlt uns leider komplett und müsste erarbeitet werden.


    Ich will daher auch kein voreiliges Fazit ziehen, dafür müsste man mehr Zeit reinstecken und systematischer Vergleichen. Der Grundstein ist jedenfalls gelegt. Ich kann gerne 3D-LUTs veröffentlichen, wenn gewünscht. Derzeit allerdings nur im CUBE-Format. Ich weiß nicht, ob es Converter nach 3dlut (madVR/Envy) gibt.


    Vielleicht habt ihr ja Szenen, die ihr gerne mal untersucht haben wollt. Meldet euch einfach. Und Diskussionen sind natürlich gerne willkommen. :)

    Zum Film möchte ich gar nicht viel schreiben. Ich fand ihn ganz nett, aber mehr auch nicht. Ich bin kein großer Bond-Fan und er war mir deutlich zu lang. Man kann ihn sich einmal anschauen und wird gut unterhalten, aber mehr auch nicht.


    Interessant fand ich dagegen das Bild. Der Film wurde ja zum Großteil in 35 mm mit anamorphen Objektiven gedreht und teilweise auch in 65 mm bzw. IMAX 65 mm. Und das sieht man auch. Die IMAX-Szene am Anfang in Italien sieht richtig gut aus. Hier sieht man im Direktvergleich auch den Unterschied zur Blu-ray, die da weniger Details zeigt.


    Blu-ray:


    UHD:


    Im Rest des Films ist das leider nicht so. Da ist der Detailgrad von beiden Scheiben nahezu identisch.


    Blu-ray:


    UHD:



    Soweit ich das gelesen habe, sind IMAX-Kameras für einige Szenen wohl ungeeignet. Sie sollen laut sein und stärker rauschen. Das war wohl auch der Grund, warum einige Nolan-Filme nicht komplett in IMAX gedreht wurden.

    Wie auch immer, man sieht im Rest des Films praktisch jederzeit, dass 35 mm mit anamorphen Objektiven zum Einsatz kamen. Das Bild wirkt immer schnell etwas unscharf, wie auch bei "The quiet Place" oder anderen moderneren, in 35 mm gedrehten, Filmen. Das erzeugt definitiv einen eigenen "Look", ich weiß allerdings nicht, ob ich das gut oder schlecht finden soll. Nostalgisch gesehen hat es irgendwie was, aber durch einige knackscharfe Referenzen ("Tenet", "Passengers", "Lucy" usw.) heutzutage, ist das dann doch nicht mehr ganz so akzeptabel...

    Hat das schon mal jemand gemacht, kann das funktionieren?

    Mit zwei Grafikkarten nicht, aber mit zwei Ausgängen einer NVIDIA Quadro. Das hat leider nicht gut funktioniert. Die beiden waren immer ein bisschen asynchron und das wirkte zufällig. Ich konnte es nie komplett ausgleichen. Das hilft bei deinem Vorhaben vielleicht nicht wirklich, aber ich habe Zweifel, dass das gut funktionieren wird (wenn überhaupt).

    Hier im Vergleich noch mal ST.2084, also die Perceptual Quantizer, die bei HDR zum Einsatz kommt.


    Interessant dabei:

    • die Hälfte der Werte ist für Highlights reserviert
    • 1/4 nur für den Bereich zwischen 1.000 und 10.000 Nits
    • 1/3 der Werte wird für <10 Nits benutzt (und damit ca. 3 mal so viel wie bei 8 Bit SDR)
    • ca. 4 mal so viele Werte <1 Nits gegenüber 8 Bit SDR


    Für Projektoren hätte man die Kurve weitaus sinnvoller nutzen können. 1/4 für den Bereich >1000 Nits, den wir dann komplett zusammenstauchen, ist reine Verschwendung. Aber gut, wir sind halt nicht die Zielgruppe...

    wer wissen will, warum wir das gamma haben lese hier https://de.wikipedia.org/wiki/Gammakorrektur

    Dann lies auch mal die Links... :poppy:

    Misconception:

    The main purpose of gamma correction is to compensate for the nonlinearity of the CRT.


    Fact:
    The main purpose of gamma correction in video, desktop graphics, prepress, JPEG, and MPEG is to code luminance or tristimulus values (proportional to intensity) into a perceptually-uniform domain, so as optimize perceptual performance of a limited number of bits in each RGB (or CMYK) component.