Beiträge von Binap

    Nicht ganz: der Fury gaukelt dem Abspielgerät ein DV taugliches Gerät vor. Dort, beim Abspieler, wird per LLDV ein Tonemapping betrieben, was dann statisch als HDR zum Beamer durchgereicht wird bzw. das Abspielgerät verwertet die DV Informationen , die dann als ein HDR Paket fertig gemappt weiter gereicht werden.

    Man muss noch ergänzen, dass bei diesem „statisch als HDR zum Beamer“ das natürlich so gemeint ist, dass jedes Einzelbild immer wieder neu umgerechnet wird und dann als HDR10 ausgegeben wird. Aus den vielen statischen Einzelbildern ensteht dann sowas wie ein „dynamisches“ Tone Mapping.

    Danke für den Hinweis, hat vor allem mit Caps-Lock und 3 Ausrufezeichen wirklich weiter geholfen, damit es jeder versteht.

    Ich freue mich immer, wenn ich den HD RGB Members etwas DEUTLICHER unter die Verständnisarme greifen kann. :sbier:


    Ach ja, sollte ich das mit den Silicon Image Chipsätzen auf den HDMI-Boards und den oft berichteten HDMI-Problemen auch noch mal erwähnen? Erst mal ohne Caps-Lock und ohne Ausrufezeichen…

    Du beschreibst die Neigung und nicht den Elevationswinkel…


    Am besten liest Du Dir auch mal meinen One-for-all-Setup-Guide durch, Punkt 9, Die verschiedenen Winkel: Elevationswinkel vs. Lautsprecherausrichtung

    Aber diese FB lebt doch nicht in der Infrarotwelt, oder? Die alten Universalfernbedienungen wie meine alte Harmony können nur Infrarot.

    Ich steuere alle drei Apple TV 4K mit meiner Harmony Elite bzw. über den Hub, der ja auch BT unterstützt.

    Gibt sogar ein spezielles Profil.

    Die Original-Apple-Remotes liegen schon seit Anfang an im Schrank.


    Die IR-only-Geräte wie z.B. eine Harmony One gehen natürlich nicht..


    Nachdem in letzter Zeit die Steuerung meines Apple TV mit meiner Logitech Harmony immer wieder Probleme bereitet bin ich auf die Suche nach einer Alternative gegangen.

    Zuerst mal die Frage, von welchen Problemen sprichst Du mit der Harmony und dem Apple TV 4K?

    Ich nutze sowohl im Wohnzimmer als auch im Heimkino eine Elite zur Steuerung des Apple TV 4K und kann mich nicht beschweren.


    Ich hatte hier dazu auch einen Beitrag geschrieben, wie man die Harmony und den Apple TV einstellt:


    Link: Tutorial: Apple TV 4K Gen.2 (6. Generation) und Logitech Harmony

    Binap wird wohl gleich auf die Barrikaden steigen, weil Du hier die Screenshots gepostet hast.

    Im Hifi-Forum ist ein einen User, der nur einen Screenshot gepostet hat, sehr böse angegangen.....

    Angeblich nicht, er wäre mit Sony in Kontakt, sie seien eher interessiert.

    Hier geht es ja nicht um ein inhaltliches Problem, sondern dass hier Screenshots aus einer GESCHLOSSENEN PRIVATEN Facebookgruppe gepostet werden, in der ich auch noch Moderator bin. Ich bin nicht Eigentümer oder Admin der Gruppe, in Ordnung finde ich das hingegen nicht. Vor allem, da sich hier immer auch ziemlich negativ gegenüber Facebook geäußert wird.

    Und ich betone es nochmals, es hat NICHTS mit dem Thema oder Inhalt zu tun!


    Ich weiß auch nicht, wie die Admins und Mods mit diesem Thema hier im HKV-Forum umgehen.

    Also irgendwas stimmt da bei Dir nicht. :think:


    Wenn der Apple TV 4K ein Dolby Atmos-Signal im „Dolby Digital-Plus“-Audio-Stream erkennt, dann konvertiert er sofort in Dolby MAT (PCM). Und da dort das Kanalbett nicht vorhanden ist, lassen sich UPMIXER NICHT AKTIVIEREN!

    Im Stream liegt 5.1.4 Dolby Atmos vor, kein 7.1.4.


    Im Falle von Dolby MAT mit Amos Metadaten erscheint dann im Display meines AV-Controllers „Dolby Atmos“


    Liegt kein Atmos-Signal vor, wird immer nach 5.1/7.1 LPCM konvertiert, mit Kanalbett, folglich lassen sich ALLE UPMIXER AKTIVIEREN. Bei mir erscheint dann die letzte Vorauswahl im Display des AV-Controllers, in meinem Fall „Auro-3D“, da automatisch Auro-Matic als Upmixer verwendet wird.

    Ich nutze eine 16:9 Multiformat mit 120 Zoll Diagonale in meinem Heimkino.


    Selbsterklärte Cineasten bevorzugen hier eigentlich grundsätzlich immer das 21:9-Format.

    Aber ist dieses wirklich in allen Fällen zu bevorzugen?

    Wie üblich ist die Antwort, es kommt darauf an….

    Hier mal ein paar Überlegungen meinerseits zur Leinwand-Wahl:

    ES GIBT ZWEI ANSICHTEN, EINE RICHTIGE UND EINE PRAKTISCHE:

    Zusätzlich muss man beachten, dass bei einer Blu-ray und einer UHD-Blu-ray das Bild IMMER im 16:9-Format gespeichert ist, Breitbild, also 21:9, ist dabei oben und unten mit schwarzen Pixel-Balken gespeichert.

    • Blu-ray: 1920x1080 Pixel / 16:9
    • UHD-Blu-ray: 3840x2160 Pixel / 16:9
    ZUERST DIE RICHTIGE: 21:9

    Das nennt sich ganz einfach das „Gesetz der konstanten Bildhöhe“. Für echte Cineasten muss ein 21:9-Bildformat IMMER breiter sein, als ein 16:9-Bildformat.
    D.h. im Umkehrschluss: Man muss sich eine 21:9-Leinwand kaufen, die man dann rechts und links maskieren muss, wenn man ein 16:9-Bild sehen will. Nur so bleibt das Bild immer auf konstanter Bildhöhe.
    Das ist immer dann ideal, um in einem Raum mit relativ niedriger Decke das anteilsmäßig größte Bild zu projezieren.
    Eine Blu-ray mit einem 21:9-Bild mit horizontalen Balken oben und unten wird nun soweit herausgezoomt, dass die Maskierungsbalken genau ausserhalb der 21:9-Leinwand liegen, was wiederum das korrekte Bildformat in der Höhe erzeugt (Gesetz der konstanten Bildhöhe)
    Nachteil und das größte Hassgebilde für alle 21:9-Leinwand-Fans:

    Format-Wechsler, wie „Tenet, „The Dark Knight“ oder „Interstellar“, da dann ein Teil der IMAX-Bilder ausshalb der Leinwand liegen würden. Bei “Tenet“ macht der 16:9-Anteil sogar 50% des Films aus.

    NUN DIE PRAKTISCHE: 16:9

    Die Leinwand ist im 16:9-Format maximal hoch, ideal bei Räumen mit hohen Decken.

    Das 16:9-Bildformat ist damit genauso breit wie ein 21:9-Bildformat, da man die Leinwand dann oben und unten maskieren muss. Damit verstößt man gegen das Gesetz der konstanten Bildhöhe, da ein 16:9-Bild eine real größere Bildhöhe besitzt, als ein 21:9 Bild, welches maskiert wird.
    Vorteil ist aber, dass man so das maximal größtmögliche Bild besitzt, z.B. bei 3D-Fullscreen-Filmen, bei Streaming-Serien, bei Spielkonsolen, bei Fussballübertragungen, bei IMAX-Formatwechslern. Alles ist darstellbar!Wer einmal „Avatar 3D“ in 16:9-Fullscreen-3D oder „Planet Erde 2“ in 16:9-4K gesehen hat, weiß genau, was ich hier meine.

    Deshalb besitze ich eine 16:9-Leinwand, die ich in sieben Positionen in der Höhe maskieren kann.

    Damit lassen sich auch neue Formate, wie das immer öfters genutzte 2:1-Univision-Format (Netflix) oder andere Zwischenformate abspeichern, da IMMER lediglich in der Höhe maskiert wird.
    Was aber eigentlich falsch ist, siehe oben.

    Hätte ich einen riesigen Raum mit einer fünf Meter breiten Leinwand zur Verfügung, würde meine Wahl wahrscheinlich auch eher in Richtung des 21:9-Leinwand-Format ausfallen, allerdings ist bei mir bei einer verfügbaren Breite von 2,60m Schluss.

    Somit habe ich mit einer maskierbaren 16:9-Leinwand den maximalen Spassfaktor. :respect:

    Das steht doch alles GENAU DREI BEITRÄGE vor Deiner Frage samt Screenshot aus meinem Guide… Kommentar #34 in diesem Beitrag hier… :dancewithme


    Und hier nochmal der Direkt-Link auf meinen One-for-all-Setzup-Guide (da steht alles im Appendix)

    One-for-all-Setup-Guide

    Ich wollte hier nicht eine O-Ton-Diskussion auslösen.

    Pitch Black ist 20 Jahre alt, Turbine hat den Director‘s Cut nach Deutschland geholt und ihn samt 4K-Bild mit einem neuen Atmos-Ton abgemischt, samt der vier Minuten Director‘s Cut Szenen auch in Deutsch.

    Deshalb seh ich mir die deutsche Version samt deutschen Atmos-Ton an.

    Als O-Ton-Schauer hat man doch schon lange die Arrow-Version in 4K zur Verfügung, für was dann 55 Euro ausgeben?

    Aber ist ja auch egal.

    Warum hört man sich denn jetzt die englische Atmos-Spur an?

    Jetzt gibt es ein kleines deutsches Label, das extra eine deutsche Version herausbringt mit speziell erstellten deutschen Atmos-Ton und dann nutzt man diese Möglichkeit trotzdem nicht?