Beiträge von FoLLgoTT

    Ich glaube, das Missverständnis liegt hier zwischen einer einfachen Reflexion und einer Mode, also einer stehenden Welle. Bei der Mode trifft die Schallwelle mehrfach auf den Absorber und jedes Mal wird ein Teil der Schallenergie absorbiert. Daher funktioniert das bezogen auf das Abklingen im Bassbereich auch so erstaunlich gut, obwohl man es nicht erwarten würde. Und der Amplitudengang wird in der Regel mit einem extrem langen Fenster ausgewertet. Das heißt, die gesamte Bassenergie in dieser Zeit fließt da mit ein, was den Unterschied bezüglich der Überhöhung ohne und mit Absorber erklärt.


    Bei 60 cm Sonorock liegt der Absorptionskoeffizient bei 27 Hz auch nur im Bereich von 0,5 und trotzdem bewirkt eine ausreichende Fläche hier massiv etwas, wie ich damals im leeren Raum nachvollziehen konnte.

    Wobei bei mir weniger "böse" hängengeblieben ist als "existentielles Drama" - wogegen ich die Kinofassung eher eine "Romanze mit Kausalitätsspielerei" empfand.

    Die Unterschiede gibt es hier aufgelistet.


    Soweit ich weiß, ist der DC die Originalfassung und beinhaltet das, von den Regisseuren bevorzugte, Ende. Anscheinend war es für den Mainstream zu hart und zu abstrakt und musste daher dem Happy End weichen. Schade!

    Hast du den "Director's cut" (oder wie der heißt) gesehen?

    Falls nicht, würde ich den empfehlen. Hat für mich den Film noch besser gemacht.

    Deftinitiv! Der "Director's Cut" macht einen richtig schön bösen Film daraus. Leider ist der nur in Englisch verfügbar. Trotzdem sollte man sich den unbedingt anschauen. Meiner Meinung nach die deutlich bessere Variante.

    Wie schätzt ihr das ein?

    Ich habe ihn noch vor mir, allerdings lassen die Durchschnittsbewertungen 5,7 bei IMDb und 5,6 bei OFDb bei mir nicht unbedingt Vorfreude aufkommen. Ein Freund und Matrixfan der ersten Stunde ("Agent_Smith" bei Beisammen damals) meinte, der Film wäre eine Beleidigung des Zuschauers. Mal schauen, ob er Recht hat...:think:

    wenn denn die Screenshots überhaupt in ein P3-Farbprofil eingebettet sind, was ich bezweifle.

    Screenshots sind in der Regel in BT.709, also sRGB, erstellt. Aber es spricht nichts dagegen, sie in DCI-P3 oder BT.2020 zu erzeugen. Wenn man sie dann auf einem Anzeigegerät darstellt, dass diesen Farbraum erwartet, passt es. Theoretisch könnten wir sogar die großen Gamuts unserer Smartphones mit LED-Displays nutzen. Aber kalibriert ist da in der Regel auch nichts.


    Es bleibt leider dabei, dass man im Netz immer nur eingeschränkt vergleichen kann. Es hängt halt von der Gegenseite ab, wie sie die Screenshots darstellt. Technisch ist es jedenfalls kein Problem auch BT.2020 mit 10.000 Nits in 48 Bit als Screenshot zu übertragen. Sieht auf einem Tablet oder Monitor dann halt Sch... aus. :zwinker2:

    Aha, das ist also Offtopic und der Post von Oto nicht? Naja, dann verabschiede ich mich gerne aus diesem Forum. Ist ja hier nicht besser als im H... admin: Bitte meinen Account löschen. Danke!

    Fände ich schade. Lass dich von oto nicht ärgern. Der eckt hier oft mit kruden Theorien an. Ich kann ein Lied davon singen.

    Mal unabhängig von einem möglichen Bug in der Konvergenz-Einstellung bei der NZ-Serie, hier mal ein Hinweis auf ein Tool, das dabei unterstützen kann.

    Auch Offtopic: man kann per Shader in der GPU übrigens total simpel eine Konvergenzkorrektur realisieren. Wenn ich mal Zeit und Lust habe, probiere ich mal aus, ob das qualitativ besser oder schlechter ist. Nur, falls jemand Interesse hat...

    Bzgl. Pegel. Das Dokument setzt ja keinerlei Entzerrung voraus, oder?

    Nein, es geht dort nur um den Maximalpegel und nicht um den Amplitudengang. Entzerrung ist für die Untersuchung irrelevant.


    Wenn ich mir die Bassreflexsubwoofer von zozi anschaue, dann gehe ich mal davon aus, dass in dem Bereich, in dem es einen Gewinn gibt, der akustische Kurzschluss vorliegt. Die Teile sind sicherlich auf >20 Hz abgestimmt. Oder, zozi?

    eine Sache die Moe geschrieben hat möchte ich nochmal unterstreichen, damit sie nicht untergeht.
    Du hast bei Multisub die doppelte Membranfläche weil alle Treiber agieren und nicht 2 davon rein absorbierend wirken.

    Je nach Raumgröße hält sich der Nutzen aber stark in Grenzen. Bei einem ca. 6 m langen Raum steigt der Maximalpegel erst unterhalb von 20 Hz an und erreicht die +6 dB dann irgendwo bei 10 Hz. Siehe auch hier (Anordnung 9). Und der gefühlte Tiefbass liegt ja eher im Bereich zwischen 25 - 40 Hz.

    Könnte ich irgendwie die Abklingzeiten reduzieren, oder steht nur ein DBA/SBA als Lösung vor mir?!

    Mit einem Equalizer kannst du die Abklingzeiten derzeit nicht verringern, weil dein Amplitudengang schon linear ist.


    Ich sehe das wie Moe, das Abklingen ist nicht schlecht. Vielleicht wird es mit DBA-Ansteuerung etwas besser. Das kannst du ausprobieren, aber großartige Gründe zum Handeln sehe ich (zumindest aus der einen Messung) auch nicht. Es sei denn, auf den anderen Sitzplätzen misst es sich deutlich schlechter.

    Das ist ein schönes Beispiel dafür, dass Screenshots in dieser Art gar nicht brauchbar sind, um die tatsächliche abgebildete Auflösung darzustellen.

    Aha, und wieso benutzt du solche Fotos dann in deinem Blog? :zwinker2:


    Aber im Ernst: ich gebe dir ja grundsätzlich Recht. Die Kamera hat keine konstante MTF, es wird runterskaliert usw. Man musss schon weit genug von der Bandgrenze entfernt sein, um möglichst objektive Fotos, mit denen man die Auflösung bewerten möchte, zu erstellen. Also möglichst scharfes Objektiv, sehr kleiner Bildausschnitt, damit der möglichst den gesamten Sensor (oder den scharfen Teil in der Mitte) benutzt, niedrige ISO (->längere Belichtungszeit) usw. Das ist ganz klar.


    Dass ein Projektor mit verlustbehaftetem Objektiv und drei Panels nicht die MTF eines LCD-TVs oder LED-Wand erreicht, ist auch völlig klar. Ich denke, darüber müssen wir nicht diskutieren.


    Trotzdem wäre es halt interessant, ob die AI-Skalierung mit 8k zugespielt einen kleinen Tick detailreicher aussieht als die 4k-Zuspielung und Aufbereitung durch den Projektor (also beides mit E-Shift). Dass E-Shift etwas mehr Details erzeugt bei Zuspielung größer der nativen Auflösung, ist ja nicht neu.

    Hier müsste madVR erstmal zeigen, dass es dies noch besser bewerkstelligt.

    Naja, das ist aber auch ein etwas unfairer Vergleich. Du hast das Bild mit "Nearest Neighbour" hochskaliert. Den schlechtesten aller Skalierungsalgorithmen, der starkes Aliasing erzeugt.

    Wenn ein guter Player (in diesem Fall MPV) mit einem AI-Algorithmus (FSRCNNX) 2x hochskaliert, sieht das so aus. Ich habe dein hochskalierte Bild links ersetzt. Rechts ist weiterhin dein Foto von der Leinwand.



    Und da sieht man dann schon, dass das ordentlich hochskalierte Bild doch mehr Details zeigt und schärfer wirkt als der NZ7 mit E-Shift. Man achte z.B. auf die Schrift am Haus oder auf den Zaun unter dem Baum. Ich finde das aber auch nicht verwunderlich, denn die MTF wird bei 4k sowieso schon um einiges runter sein. Volle Amplitude wird man bei einem (3-Panel-)Projektor mit Objektiv wohl nie erreichen. Das soll den NZ7 gar nicht schlecht machen. Ob das gut hochskalierte Bild auf der Leinwand ein besseres Ergebnis erzeugt, müsste man einfach mal ausprobieren.


    Wenn du etwas für einen Test brauchst, melde dich einfach per PN. :)