Beiträge von madshi

    Hab das mit JVC und Sony und 48 auch im AVSForum schon geschrieben.


    In Sachen Source Devices fehlt uns leider der Draht zu den Herstellern. Nvidia (Shield), Microsoft (Xbox), Apple usw sind so groß, daß die nicht kümmert, was wir gerne hätten. Denen geht's auch viel mehr um den Massenmarkt und nicht um den High-End-Markt. Zu KScape haben wir allerdings einen guten Draht, aber die können ja eh schon native, und leider sind die ja hauptsächlich nur auf dem USA Markt unterwegs...

    Ja, wenn einer der beiden es implementiert, muß der andere quasi auch... :bbq: Ich befürchte nur, keiner von beiden wird es wahrscheinlich machen. Aber mal sehen...

    Die JVC NZ Projektoren können tatsächlich 48Hz, aber leider nur in 7680x4320, was nicht sehr hilfreich ist, weil es nur mit HDMI 2.1 funktioniert, und auch nicht die volle Panel-Breite ausnutzt. Da ist 4096x2160 mit 120Hz sinnvoller, wenn man den eh schon HDMI 2.1 hat. Bei 4K unterstützt der JVC leider kein 48. Wir haben sowohl bei Sony als auch JVC angefragt, ob die nicht 48 nachrüsten können. Es wurde an die jeweils zuständige Abteilung weiter gereicht. Aber ob das tatsächlich kommt? Keine Ahnung...

    Ich denke schon, daß das gehen sollte, wobei "Full" noch etwas mehr GPU verbrät als "High", es wird dann bei der 2080 schon etwas kanpper. Du kannst im Debug OSD gucken, ob die Frame-Drops kontinuierlich ansteigen oder ob sie gleich bleiben. Wenn sie gleich bleiben, ist alles in Ordnung. Bei Default Remote Control Assignments kriegst Du das Debug OSD durch 3 Sekunden drücken der gelben Kreistaste.


    (Ein paar Frame Drops beim Signal-Wechsel gibt's immer, von daher sind die selten wirklich 0, das ist kein Problem, nur sollten sie nicht ständig steigen.)

    Freut mich zu hören, suke!


    Die 2080 wird Dragon Mouth bei 24 -> 60 nicht schaffen, denke ich mal. Zumindest würde mich das sehr überraschen. Da wirst Du wahrscheinlich Frame-Drops bekommen, was dann das schön smoothe Bild wieder ruckelig macht. Wahrscheinlich bist Du deshalb zurück auf Alpha8?


    Ja, komplett artefakt-frei ist schwer zu schaffen bei MI. Bei 48 oder 120 Ausgabe sind die Artefakte noch etwas weniger als bei 60. In der Zukunft hoffe ich, die Artefakte noch etwas weiter zu reduzieren.

    Ja, der Szenenwechsel muß noch verbessert werden. Ich arbeite dran, wird aber dauern, weil AI halt erst trainiert werden will, und man erst am Ende des Trainings weiß, ob die Änderung überhaupt was gebracht hat <seufz>.


    Und ja, Blur 3 kann Artefakte erzeugen. Besser ist ohne. Allerdings hilft halt der Blur 3 dabei, den SOE zu verringern. Muß dann jeder selbst entscheiden, was das kleinere Übel ist. In der Zukunft finden wir vielleicht auch noch eine bessere Lösung, mal sehen...

    Im Durchschnitt wahrscheinlich schon, aber es ist auch von Szene zu Szene unterschiedlich, manchmal sehen auch die "schnelleren" Algos besser aus.

    Schaut gut aus! Wobei man dazu sagen muß, daß die rechte Seite Frame Blending benutzt, also nicht 100% identisch ist zu nativem 24fps. Sollte aber sehr nahe wie echtes 24fps aussehen.

    Der Envy versucht ja schlau zu sein, und hat als oberste Priorität, daß es nicht ruckeln soll. Das heißt, wenn die GPU zu viel zu tun hat, dann schaltet der Envy halt bestimmte Sachen ab, damit das Bild weiter flüssig bleibt. Ich vermute jetzt - aber das ist im Moment nur eine Vermutung - daß beim 2080 Envy das MotionAI soviel GPU-Power verbrät, daß es dann für die Schärfung gleichzeitig nicht mehr reicht. Ich nehme an, HDR Tone Mapping war auch noch aktiv zur gleichen Zeit?


    Lösung wäre: Ich muß halt optimieren und versuchen die Algos schneller zu machen. Bei MotionAI arbeite ich schon dran, aber das werden eher kleine Fortschritte sein. Ich denke beim DTM gibt es Potential, Performance einzusparen. Bei der Schärfung weiß ich nicht so genau. Ich kann leider nicht versprechen, daß ich das alles gleichzeitig zum laufen kriegen werden - aber ich werde es versuchen.


    Andy, ich gehe davon aus, daß das beim 3080 und 4080 nicht passieren wird. Die automatische Abschaltung von Algos war bis vor kurzem bei MotionAI noch nicht gut gelöst, deshalb konnte die Abschaltung der Schärfung auch bei der 3080 und 4080 passieren. Aber ich denke, daß das mit der neuen Beta inzwischen nicht mehr passieren sollte. Aber ich gucke mir das morgen nochmal hier an.

    24->120 wird mit der 2080 leider nicht gehen, weil die 2080 leider nur HDMI 2.0 hat und kein HDMI 2.1, und 4K120 geht nur mit HDMI 2.1. Schade!! Aber 24->60 sollte gehen. Damit ist die 2080 dann aber auch voll ausgereizt.

    Hallo hallo,


    bin etwas spät in diesem Thread, wollte aber nochmal erklären, daß wir das MK2 Gehäuse eigentlich auf ganz genau 4HE maßgeschneidert haben. Dafür müssen allerdings die Füße ab. Die sind geschraubt und lassen sich von außen "ab drehen". Wir empfehlen aber sehr stark, unter dem Envy 1HE frei zu lassen, damit sich das Belüftungssystem etwas frische Luft von unten holen kann. Wir haben zusätzlich zu den 3 großen Seitenlüftern noch weitere 2 Lüfter drin, die sich von unten (nahe an der Frontplatte) Luft ziehen. Also im Rack bitte 5HE einplanen.


    LG, Mathias.

    Hallo Leute,


    die Beta sollte grundsätzlich auch für die 2080 Envys funktionieren. Allerdings wird es dann auch irgendwann eng mit der GPU-Power. Also wenn noch 20 andere Algos gleichzeitig am laufen sind, könnte der Envy sich möglicherweise dazu genötigt sehen, den einen oder anderen Algo frechweg auszuschalten, damit es nicht ruckelt. Bei 24 -> 60 würde ich empfehlen, bei der 2080 maximal "High" als MotionAI Strength zu wählen, weil "Full" nochmal mehr GPU-Leistung verbrät.


    LG, Mathias.

    FYI, der User mit der Sennheiser Soundbar berichtet, daß mit Auto-Lipsync jetzt alles perfekt für ihn ist. Scheint also so, als würde zumindest diese Soundbar per Auto-Lipsync mit Envy's relativ großem Delay klar kommen, obwohl sich manuell nur max 100ms einstellen lassen.

    Beim HTPC krieg ich die Frames vom Decoder im voraus, und zwar nicht nur einen, sondern (fast) so viele wie ich will. Deshalb gibt's da nur ein relativ kleines Delay. Der Envy kann dem Quellgerät aber nicht sagen: "Schick mir die Frames bitte mal früher als sie eigentlich angezeigt werden sollen". Das geht technisch leider nicht. Deshalb ist der Delay beim Envy größer als bei einem HTPC. Die nächste Firmware wird aber Auto-Lipsync unterstützen, und ich hoffe, daß AVRs, die manuell nicht genug Delay zulassen, dann per Auto-Lipsync doch größere Delays können (?). Auto-Lipsync geht laut Spec bis 500ms. Ob das der AVR kann, ist natürlich eine andere Frage.


    Kein sein, daß ich das Delay im Envy auch noch ein bißchen senken kann, aber das kann ich im Moment nicht versprechen.

    audiohobbit, hab grad mal die EDID-Blöcke von Barco Thor, Sony VW5000, JVC RS500 und JVC Z1 geprüft, und keiner von denen unterstützt framepacked 1080p60. Leider. Rein technisch sollte es möglich sein, aber hilft ja nix wenn keiner der Projektoren das unterstützt. :( Notfalls könnte man evtl ausweichen auf SBS, wie Du sagst, aber das tut schon etwas weh. Wenn's wenigstens 4K SBS wäre, aber das unterstützt scheinbar auch niemand.


    Mori, kann leider gar nicht sagen, wie schnell die Motion Interpolation kommen wird. AI Algos brauchen eine Menge Zeit zum Trainieren, also kann das schon ein Weilchen dauern...

    Hi ANDY,


    ja, Motion Flow ist geplant. Wie gut meine AI Algo-Ideen da wirklich funktionieren werden müssen wir noch sehen, aber ich bin derzeit vorsichtig optimistisch. Natürlich ist mein Ziel, alle anderen Algos zu schlagen, wie auch bei Upscaling und HDR Tone Mapping. Und ja stimmt, gerade Profi-Projektoren würden davon profitieren. Für 3D wird's allerdings schwierig(er). Nicht der Algo selbst, sondern die Ausgabe zum Projektor, weil manche Projektoren 3D gar nicht in 1080p60 unterstützen. Und ob ich die Nvidia zur Ausgabe von 1080p60 3D überreden kann, weiß ich auch noch nicht so genau. Also da kann ich noch nicht versprechen, daß das für 3D funktionieren wird. Aber ich werd's versuchen...


    Motion Flow ist natürlich auch stark Geschmackssache. Viele mögen es nicht. Aber naja, vielleicht mögen sie es dann, wenn es in guter Qualität gemacht wird? :big_smile: Indirekt könnte der Algo aber auch Leuten helfen, die kein Motion Interpolation mögen. Z.B. könnte ich durch Motion Compensation einen besonders guten Denoise/Degrain-Algo entwickeln, oder auch einen besonders guten Schärfe-Algo (der nur wirklich Bildstrukturen schärft und kein Grain/Noise).


    Deine Frage zum Thema "speed" verstehe ich nicht ganz?


    Bei HSTM gibt's ja verschiedene Kurven, die auch einen etwas unterschiedlichen "Look" haben. Inwieweit manche Kurven vielleicht besser bei helleren Displays funktionieren als bei dunkleren Displays bin ich mir ehrlich gesagt nicht sicher. Ich denke fast, das sollte keinen großen Unterschied machen. Generell ist die Logik hinter HSTM ja so, daß die Helligkeit eines Pixels gar keine große Rolle für den Algo spielt, sondern eher die Häufigkeit, wie oft ähnlich helle Pixel im Bild auftreten. Von daher denke ich nicht, daß ich da HSTM so tunen kann, daß es besser oder schlechter für hellere oder dunklere Displays funktionieren würde.

    suke,


    danke für die netten Worte!


    AI ist jetzt schon drin, sowohl beim Pro als auch beim Extreme: Und zwar derzeit beim Upscaling, Deinterlacing und beim Entfernen von Kompressions-Artefakten. Beim Extreme werden aber noch weitere AI Algos dazu kommen, z.B. Motion Interpolation (wie Sony's MotionFlow, nur hoffentlich mit besserer Qualität) ist geplant, und weiteres. Auch beim HDR Tone Mapping würde ich gern AI verwenden, was ich im Moment noch nicht mache.


    Im Moment ist der Unterschied zwischen Pro und Extreme noch nicht so groß. Es sei denn, Du aktivierst gleich alle Algos gleichzeitig, die der Envy anbietet, dann muß der Pro schon bei einigen Algos etwas sparsamere Settings fahren, während der Extreme mehr Power hat und deshalb dann höhere Qualitätsstufen fahren kann. In Zukunft wird das noch Extreme(r), wenn dann die neuen AI Algos kommen, die der Pro wahrscheinlich gar nicht wird ausführen können. Trotzdem kann der Pro natürlich eine Menge, und wenn alle Algos beim Stand heute bleiben würden, würde ich als Kunde vielleicht auch einen Pro wählen. Aber die Algos werden ja eben nicht auf dem heutigen Stand bleiben, sondern immer weiter entwickelt werden, und dann wird der Extreme irgendwann davon ziehen...


    Kann Dir leider nicht sagen, wann die neuen AI Algos kommen. Im Moment baue ich noch fehlende Features ein (z.B. als nächstes virtual inputs, profiles und IP control). Wenn ich damit dann irgendwann (hoffentlich bald) mal fertig bin, kann ich endlich wieder an den neuen AI Algos arbeiten. Da freue ich mich schon drauf!! Das macht nämlich mit Abstand am meisten Spaß.