• Ich meinte das schon ernst und nicht lustig 😉


    Aber Pixel bei ner Röhre?

    Das haben wir auch richtig verstanden.


    Mit den Röhren TV war es doch ähnlich. Ganz aus der Nähe sah das Bild flach/flau aus. Aus der "richtigen" Entfernung schön scharf / plastisch.

  • Aber Pixel bei ner Röhre?

    Hast natürlich Recht. Genauer: durch den höheren Abstand findet eine Erhöhung der Ortsfrequenzen statt. Das entspricht im Audiobereich eine Erhöhung der Abtastfrequenz ohne Anpassung des Inhalts. Bei Audio steigt die Tonhöhe, bei Video werden gröbere Strukturen zu feineren Details (Kanten werden steiler usw.). Das dürfte die passende Analogie sein. :)

  • Hast natürlich Recht. Genauer: durch den höheren Abstand findet eine Erhöhung der Ortsfrequenzen statt. Das entspricht im Audiobereich eine Erhöhung der Abtastfrequenz ohne Anpassung des Inhalts. Bei Audio steigt die Tonhöhe, bei Video werden gröbere Strukturen zu feineren Details (Kanten werden steiler usw.). Das dürfte die passende Analogie sein. :)


    Ja klar, deswegen sieht ein aus Punkten gedrucktes Bild von Weitem auch aus, als ob es flächig ist und nicht gepunktet. Pixel sind ja Nichts anderes.

  • Ist die Frage ernst gemeint oder nur rhetorisch?


    Nur kurz: der (Inbild-)Kontrast hängt bei unseren Projektoren vor allem vom Panel, dem Zoom und der Iris ab. Die Lichtquelle hat keinen Einfluss (sofern sie nicht komplett abgeschaltet wird, aber das lassen wir mal raus).

    Nein, die Frage war schon eher rhetorisch.:zwinker2:


    Aber eine nicht ganz unwichtige Sache bei der Projektion fehlt dabei und nimmt spätetstens jetzt eine doch nicht ganz unerhebliche Rolle ein.

    Das Thema Röhre als Beispiel hier einzubringen halte ich an diesem Punkt für nicht ganz ungefährlich.

    Und zwar wegen der mutmaßlich verwendeten Leinwand.


    Wir hatten zwar festgestellt daß der Sreulichtanteil im Raum immer gleich groß ist, aber natürlich nur unter gleichen Projektionsbedingungen.

    Ich kann mich noch gut daran erinnern, daß meine LW, Videotek hieß die damals meine ich, einen Gain um die 3,2 hatte. Allerdings nur mit einem Betrachtungswinkel von ca. +-15°.

    Bei Röhrenprojektion hatten damals fast alle ein ähnliches Tuch verwendet.

    Dadurch ändert sich natürlich auch die Verteilung des Streulichts im Raum im Vergleich zu einer "normalen" LW mit 180° Abstrahlwinkel (Lambertscher Strahler).

    Gehe ich näher an die Leinwand, verändert sich natürlich auch der Betrachtungswinkel und als Resultat nimmt die Leuchtdichte ab, der Kontrast nimmt ab und das Bild wird "flach".


    An der Stelle wird es also schwierig zwischen Schärfe und (ungeeigneten) Projektionsbedingungen sinnvoll zu unterscheiden.

    Ich hatte damals einen Quadrupler verwendet, was die Bildschärfe an sich stark verbessert hat, aber der Tiefeneindruck hat sich meines Wissens kaum erhöht, wenn ich das noch richtig in Erinnerung habe.


    Gruß

    J

  • Ich hatte mal ein kleines dachbodenkino mit ner Röhre. Wir haben das Bild Bzw den Projektor eingestellt und mit einem Lumagen kalibriert. Es wollte sich die Bildtiefe (schreckliches Wort) nicht so richtig einstellen. Als dann der n@t sich weiter weg setzte, sagte er plötzlich, hier ist die Bildtiefe klasse.

    So ähnlich gings mir mir Computerspielen. Früher konnte man die Bildgröße vom Spiel variieren. Umso kleiner ich es gemacht habe, umso flüssiger und schärfer kam es mir vor, obwohl die FPS gleich waren.

  • Aber eine nicht ganz unwichtige Sache bei der Projektion fehlt dabei und nimmt spätetstens jetzt eine doch nicht ganz unerhebliche Rolle ein.

    Das Thema Röhre als Beispiel hier einzubringen halte ich an diesem Punkt für nicht ganz ungefährlich.

    Das sehe ich nicht so. In meinem Umfeld wurden damals in der Regel für Röhrenprojektoren dieselben Leinwandtücher eingesetzt wie für Digitalos. Nur einige wenige hatten gekrümmte High-Gain-Leinwände.


    Wer Leinwand und Projektor geistig nicht trennen kann, auf den nehme ich keine Rücksicht. :big_smile:



    @alle

    Übrigens ganz interessant: wir hatten das Thema vor 18 Jahren schon diskutiert (hier und hier). Das muss man natürlich im zeitlichen Kontext sehen. Es war die DVD-Zeit, die Digitalen hatten noch nicht genügend Auflösung, kalibrieren konnten die wenigsten (sauteuer) und der Inbildkontrast über verschiedene ADL-Stufen war auch unbekannt. Aber trotzdem wurden die hier am häufigsten genannten Parameter (Schärfe, Kontrast, Gamma) damals auch schon genannt.

    Das ist jedenfalls interessant zu lesen. Ich kannte viele der Freaks persönlich und kann mich noch an so manche Testsession erinnern. Bildtiefe war damals immer ein Thema und sozusagen die "Kür" des großen Bewegtbildes. Aber so richtig systematisch erforscht, hat es nie jemand. Vielleicht wird das ja mal Zeit...

  • Vielleicht wird das ja mal Zeit...


    Was jetzt genau zu tun..?

    Die Röhre aus dem Museum zu holen ? :rofl:

    Also ein High-Gain Tuch habe ich wohl noch irgendwo herumliegen. Das wird ab und zu mal bei Fußball-WM für Außenprojektion genutzt. :poppy:

    Aber die Röhre habe ich natürlich schon lange nicht mehr.

    Die Auflösung war damals unter Verwendung eines Quadrupler mit den heutigen Beamern zumindest vergleichbar (3200x2400px), wenn nicht sogar besser.

    Über mangelnde Schärfe konnte man sich also höchstens bei dem verwendeten Scaler beklagen.

    In meinem Umfeld wurden damals in der Regel für Röhrenprojektoren dieselben Leinwandtücher eingesetzt wie für Digitalos.

    Das ist wirklich lange her, aber ich kann mich zu der Zeit ('90 bis '94) nicht mal an irgendeinen Digitalbeamer erinnern, der überhaupt ernstzunehmend fürs HK in Frage kam.

    Von Kontrast im Zusammenhang mit Digitalprojektion mal völlig abgesehen. Die ersten Digitalos an die ich mich erinnere, hatten einen Schwarzpegel, falls man das überhaupt noch so nennen darf, oberhalb 5 Lumen.

    Erst 1994 kam mit irgendeinem NEC für ca.25kDM ein Digitalo heraus, der einigermaßen konkurrenzfähig zu den Röhren war.

    Was das ganze Hobby zur damaligen Zeit betraf, war das eigentlich eher was für Millionäre. Da kam es auf die 1000DM für ne Kalibrierung wirklich nicht mehr an.


    Ich wollte aber auf was anderes hinaus:

    LW und Projektor sind natürlich eine Sache, aber Digital- und Röhrenprojektion sind auch noch mal zwei völlig verschiedene Stiefel und darum auch nicht so ohne weiteres in einem Korb zu vermischen.

    Bei Röhren waren halt alle Projektionsbedingungen fix vorgegeben. Darum machte es auch wenig Sinn z.b. den Betrachtungsabstand zu verringern, ohne den Projektionsabstand zu verändern, was wiederum eine andere Leinwandgröße und somit eine (ich nenne das jetzt einfach mal so) Pixeldichte und in Folge auch Leuchtdichte zur Folge hat.


    Also vergleichbare (aktuelle) Testbedingungen wären schon irgendwie angebracht, damit das in Folge auch zu irgendwas führt



    Gruß

    J

  • Was jetzt genau zu tun..?

    Die Röhre aus dem Museum zu holen ? :rofl:

    Na, die Ursachen der Bildtiefe systematisch untersuchen natürlich. Keine Ahnung, wie man das so missverstehen kann. Um Röhren geht es hier doch überhaupt nicht. :think:


    Lass uns bitte den alten Röhrenkram nicht weiter vertiefen, zumal einiges von dem, was du schreibst, nicht richtig ist (fix war nur das Projektionsverhältnis, sonst nichts). Darauf möchte ich aber nicht weiter eingehen, weil die Dinger tot sind und keinen mehr interessieren. Es gibt keinen rationalen Grund, warum eine systematische Untersuchung der Bildtiefe Röhrenprojektoren noch einschließen sollte. Und die Bildtiefe ist schließlich das Thema hier. :)

  • Kein Problem. Ich habe das Röhren-Thema nicht ausgekramt. :tire:

    Wie genau willst du denn vorgehen ?

    Mankra hat ja schon ein paar Bilder zum Thema Kontrastumfang-/Verhältnis veröffentlicht.

    Willst du das weiter vertiefen ?

  • Wie genau willst du denn vorgehen ?

    Gute Frage. Ich weiß nicht mal, ob ich da überhaupt viel Zeit investieren will. Möchte das nicht jemand anderes tun? Ist hier vielleicht ein Student, der ein Thema für seine Bachelor-Arbeit sucht? :zwinker2:


    Der Ansatz, das Quellmaterial zu verändern ist schon mal gut. Aber er funktioniert im Grunde nur in eine Richtung, nämlich in Richtung Verschlechterung (es sei denn, man dreht die Testbilder um). Inbildkontrast, Gradation und Schärfe können wir leicht verschlechtern. Um den inbildkontrast allerdings möglichst realitätsgetreu zu emulieren, müsste man jedes Einzelbild für sich betrachten und verändern. Möglicherweise geht das mit Avisynth. Wäre mal eine kleine Forschung wert.


    Die Ergebnisse müsste man dann aber auf einem Anzeigegerät betrachten, das in der zu untersuchenden Eigenschaft sehr gut ist. Wenn z.B. der Inbildkontrast ohnehin schon schlecht ist, bringt eine weitere Verschlechterung auch nicht wirklich die Erkenntnis, die wir gerne hätten.


    Vielleicht wäre es auch ratsam, verschiedene Eigenschaften auf verschiedenen Anzeigegeräten zu untersuchen. Nämlich genau die, in denen sie gut sind. Also z.B. Auflösung auf einem DLP oder TV. Inbildkontrast in den unteren ADL-Stufen auf einem D-ILA. Usw.


    Einen Masterplan habe ich also nicht. Wichtig ist aus meiner Sicht, dass die Tests so wenig anfechtbar wie möglich sein müssten (und in ihnen exakt eine Eigenschaft verändert wird). Ansonsten entstünden wieder Zweifel und alles wäre für die Tonne. Vorschnelles Handeln ohne genauen Plan kann so ein Vorhaben schnell zum Scheitern verurteilen. Hinzu kommt noch, dass Bildtiefe etwas Subjektives ist, das nicht gemessen werden kann. Man bräuchte also quasi "Blindtests" mit Bewertungsbögen. Das macht die Sache auch nicht weniger aufwändig...

  • Hmm, ob der Student mal bereit ist sich so einen "High-End Beamer" anzuschaffen ?

    Oder gleich mehrere ?:unsure:

    Am wenigsten anfechtbar wäre es doch, immer denselben Beamer zu verwenden, bei dem die Veränderung der Eigenschaft z.b. Kontrast, unkompliziert und unveränderlich beliebig oft reproduziert werden kann.


    Zum Beispiel, wie ich schon erwähnte, mit einem Kontrastfilterglas, das Epson damals schon verwendete. (Unveränderliche Eigenschaften=Konstante Testbedingung).

    Ekki hat den 9000 ja damals schon ausgiebig gemessen und dokumentiert. Das wäre also reproduzierbar und auch nachvollziehbar zugleich. Theoretisch zumindest. :think:

    Da gab es auch noch andere Beamer, für die ebenfalls ein solcher Filter entwickelt wurde.

    Eine Verkurbelung von Helligkeits-, Kontrast- und Gammareglern am Gerät, oder noch schlimmer, an verschiedenen Widergabegeräte,n oder Photobearbeitungsprogrammen halte ich da für problematisch, ohne jedesmal wieder neu zu messen und zu interpretieren, was wie du schon richtig angemerkt hast zu erheblichen Diskussionen führen würde.

    Und natürlich müsste man sich auf ein- oder wenige geeignete Testbild(er) festlegen.


    Gruß

    J

  • so schnell wird aufgegeben :think:

    Du weißt doch gar nicht, was mein Excel gerade durchorgeln muss...


    Wie man den statischen Kontrast um einen konstanten Faktor verändert, habe ich raus. Dafür benötigt man dann nur noch den nativen An/Aus-Kontrast als Eingabe und ich kann den Wert berechnen, auf dem der Schwarzwert für Verschlechterungsfaktor X liegen muss. Das kann dann direkt in Avisynth benutzt werden.


    Für den dynamischen Kontrast versuche ich gerade eine sinnvolle Funktion zu extrapolieren, die man parametrieren kann. Die soll dann die Schwarzwertanhebung für jedes Frame anhand der ADL ausrechnen, was dann auch wieder in Avisynth angewendet werden kann.


    So viel zum aufgeben...:zwinker2:

  • Sehr interessant. Und der einzige Unterschied der beiden Bilder ist die Schärfe?

    Also beim oberen Bild erscheint mir das Blau des Burosch-Schriftzugs deutlich satter. Das lässt sich doch nicht durch einen Schärfeunterschied und der damit bedingten Wahrnehmung erklären, oder?

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!