Beiträge von Binap

    Ich nutze eine 16:9 Multiformat mit 120 Zoll Diagonale in meinem Heimkino.


    Selbsterklärte Cineasten bevorzugen hier eigentlich grundsätzlich immer das 21:9-Format.

    Aber ist dieses wirklich in allen Fällen zu bevorzugen?

    Wie üblich ist die Antwort, es kommt darauf an….

    Hier mal ein paar Überlegungen meinerseits zur Leinwand-Wahl:

    ES GIBT ZWEI ANSICHTEN, EINE RICHTIGE UND EINE PRAKTISCHE:

    Zusätzlich muss man beachten, dass bei einer Blu-ray und einer UHD-Blu-ray das Bild IMMER im 16:9-Format gespeichert ist, Breitbild, also 21:9, ist dabei oben und unten mit schwarzen Pixel-Balken gespeichert.

    • Blu-ray: 1920x1080 Pixel / 16:9
    • UHD-Blu-ray: 3840x2160 Pixel / 16:9
    ZUERST DIE RICHTIGE: 21:9

    Das nennt sich ganz einfach das „Gesetz der konstanten Bildhöhe“. Für echte Cineasten muss ein 21:9-Bildformat IMMER breiter sein, als ein 16:9-Bildformat.
    D.h. im Umkehrschluss: Man muss sich eine 21:9-Leinwand kaufen, die man dann rechts und links maskieren muss, wenn man ein 16:9-Bild sehen will. Nur so bleibt das Bild immer auf konstanter Bildhöhe.
    Das ist immer dann ideal, um in einem Raum mit relativ niedriger Decke das anteilsmäßig größte Bild zu projezieren.
    Eine Blu-ray mit einem 21:9-Bild mit horizontalen Balken oben und unten wird nun soweit herausgezoomt, dass die Maskierungsbalken genau ausserhalb der 21:9-Leinwand liegen, was wiederum das korrekte Bildformat in der Höhe erzeugt (Gesetz der konstanten Bildhöhe)
    Nachteil und das größte Hassgebilde für alle 21:9-Leinwand-Fans:

    Format-Wechsler, wie „Tenet, „The Dark Knight“ oder „Interstellar“, da dann ein Teil der IMAX-Bilder ausshalb der Leinwand liegen würden. Bei “Tenet“ macht der 16:9-Anteil sogar 50% des Films aus.

    NUN DIE PRAKTISCHE: 16:9

    Die Leinwand ist im 16:9-Format maximal hoch, ideal bei Räumen mit hohen Decken.

    Das 16:9-Bildformat ist damit genauso breit wie ein 21:9-Bildformat, da man die Leinwand dann oben und unten maskieren muss. Damit verstößt man gegen das Gesetz der konstanten Bildhöhe, da ein 16:9-Bild eine real größere Bildhöhe besitzt, als ein 21:9 Bild, welches maskiert wird.
    Vorteil ist aber, dass man so das maximal größtmögliche Bild besitzt, z.B. bei 3D-Fullscreen-Filmen, bei Streaming-Serien, bei Spielkonsolen, bei Fussballübertragungen, bei IMAX-Formatwechslern. Alles ist darstellbar!Wer einmal „Avatar 3D“ in 16:9-Fullscreen-3D oder „Planet Erde 2“ in 16:9-4K gesehen hat, weiß genau, was ich hier meine.

    Deshalb besitze ich eine 16:9-Leinwand, die ich in sieben Positionen in der Höhe maskieren kann.

    Damit lassen sich auch neue Formate, wie das immer öfters genutzte 2:1-Univision-Format (Netflix) oder andere Zwischenformate abspeichern, da IMMER lediglich in der Höhe maskiert wird.
    Was aber eigentlich falsch ist, siehe oben.

    Hätte ich einen riesigen Raum mit einer fünf Meter breiten Leinwand zur Verfügung, würde meine Wahl wahrscheinlich auch eher in Richtung des 21:9-Leinwand-Format ausfallen, allerdings ist bei mir bei einer verfügbaren Breite von 2,60m Schluss.

    Somit habe ich mit einer maskierbaren 16:9-Leinwand den maximalen Spassfaktor. :respect:

    Das steht doch alles GENAU DREI BEITRÄGE vor Deiner Frage samt Screenshot aus meinem Guide… Kommentar #34 in diesem Beitrag hier… :dancewithme


    Und hier nochmal der Direkt-Link auf meinen One-for-all-Setzup-Guide (da steht alles im Appendix)

    One-for-all-Setup-Guide

    Ich wollte hier nicht eine O-Ton-Diskussion auslösen.

    Pitch Black ist 20 Jahre alt, Turbine hat den Director‘s Cut nach Deutschland geholt und ihn samt 4K-Bild mit einem neuen Atmos-Ton abgemischt, samt der vier Minuten Director‘s Cut Szenen auch in Deutsch.

    Deshalb seh ich mir die deutsche Version samt deutschen Atmos-Ton an.

    Als O-Ton-Schauer hat man doch schon lange die Arrow-Version in 4K zur Verfügung, für was dann 55 Euro ausgeben?

    Aber ist ja auch egal.

    Warum hört man sich denn jetzt die englische Atmos-Spur an?

    Jetzt gibt es ein kleines deutsches Label, das extra eine deutsche Version herausbringt mit speziell erstellten deutschen Atmos-Ton und dann nutzt man diese Möglichkeit trotzdem nicht?

    Dolby Atmos gibt es als verlustfrei komprimiert codierte Variante und als verlustbehaftet komprimiert codierte Variante.


    - verlustfrei komprimiert: Atmos-Metadaten im Dolby TrueHD Container

    - verlustbehaftet komprimiert: Atmos-Metadaten im Dolby Digital Plus Container

    - Zusätzlich gibt es noch die Dolby Atmos-PCM-Variante, bei der die Atmos Metadaten in einem speziellen PCM-Tonformat namens Dolby MAT eingebunden sind, das kein Kanalbett enthält.


    Streaming-Provider verwenden für Atmos ausnahmslos Dolby Digital Plus als verlustbehaftet komprimierten Codec.

    Einige Geräte, wie Apple TV 4K und Xbox Series S/X, konvertieren den Atmos-Ton dann intern sofort in Dolby MAT (PCM).

    Verlustfrei komprimierter Atmos-Ton liegt eigentlich nur auf physischen Disks wie UHD-Blu-ray oder manche Blu-ray vor.


    Werden 3D-Upmixer benutzt, wird immer nur das Bed ausgelesen, also 7.1 TruHD oder 7.1 DD+, die Metadaten gehen dabei verloren. Da bei Dolby MAT kein Kanalbett vorliegt, lassen sich dann keine Upmixer zuschalten.

    Logitech hat übrigens gestern eine neue Hub-Software bereit gestellt:


    George Lucas - trifft diese Aussage deiner Meinung nach auch für die aktuellen 290/590 Modelle von Sony zu?

    Du kaufst Dir einen 4K-Projektor für 5000-6000 Euro und hängst dann einen UB424 ran… wobei ein UB9004 auch nicht viel besser ist…

    Tu Dir einen Gefallen, behalten den UB424 als normalen Abspieler (am besten mit der Custom-Firmware samt freigeschalteten 350nits Modus…) , stell DIr einen madVR-Rechner mit Kodi/MPC-BE zusammen und genieße mit HSTM und SDR-Tone Mapping ein nahezu perfektes Bild am VW290/VW590.


    Der statisch arbeitende HDR Optimizer ist schon lange technisch überholt.

    Ich konnte es gestern abend noch testen und es war in der Tat Kodi, was ich falsch eingestellt habe. Mit folgenden Einstellungen läuft alles toppi

    Super, dass Du die Einstellung gefunden hast. :thumbup:

    Liegt aber an der Verwendung des integrierten DS-Players.

    Wenn man den MPC-BE als externen Player einsetzt, dann hat man diese „Baustelle“ überhaupt nicht. :sbier:

    Zitat

    Es ruckelt, sobald der Exclusive Mode läuft. Sobald ich während des Filmes in den Windowed Mode versetze, läuft alles flüssig.


    VSYNC in den Nvidia-Settings sollte immer AN sein, da es beim Abschalten dann zu Tearing im oberen Bildbereich kommt.

    Die Ruckler sind dann zwar weg, aber da hat man das hässliche Tearing.


    Ich lass madVR IMMER im Windowed Mode laufen, ansonsten kannst Du ja keine andere Fenster überblenden, wie zum Beispiel das madVR-Settings-Fenster, oder den Player in Fullscreen.


    Meine persönliche Empfehlung als Player ist übrigens der „MPC-BE“.


    Hier nochmal die Einstellungen:





    Viele Grüße,

    Holger

    Guten Abend Freund, ich habe gerade einen neuen PC aufgesetzt mit Kodi 17.6 und madvr und soweit funktioniert auch alles, jedoch habe ich permanent kleine Ruckler. LAV Filter habe ich entsprechend konfiguriert und madVR zeigt mir weder dropped noch repeated Frames bei ~23-25ms Renderzeiten. Hat da evtl. jemand einen Lösungsansatz parat? Danke

    Die Ruckler bekommst Du mit folgenden Einstellungen in den Griff:


    1. Haken bei Checkbox: "Present several frames in advance"

    2. "How many video frames shall be presented in advance?" "1" (Default "8" )


    Steht übrigens alles bei meinem hier veröffentlichten Erfahrungsbericht:

    Erfahrungsbericht madVR

    hat mal jemand versucht, ob der Panasonic 424/824/9004 im Netzwerk m2ts-Dateien abspielt, mit HD Tonspuren? Die wären ja schnell erstellt.

    Mittlerweile sollte doch wirklich jedem bekannt sein, dass weder UB424, UB824 noch UB9004 HD-Ton über USB oder Netzwerk abspielen können…

    Ich habe doch hier sogar eine Playerübersicht erstellt, in der das alles ausführlich drin steht.