Die Sache mit der Zeitrichtigkeit

  • Kann es sein, dass du eine gesamte Periode "daneben" liegst?

    Periodendauer bei 100Hz = 10ms. Und wenn ich das letzte Diagramm anschaue, sieht das doch eher nach einer Gesamtverschiebung um diese ~10ms aus...?

    Ja, gut erkannt.

    Eigentlich müsste ich den Center noch um weitere 720° (=20ms=6,8m) früher losschicken, damit die 100Hz mit LR-Sub ganz synchron sind, dann ist aber der Mittel- und Hochton im Vergleich zu LR zu weit weg - da dies ja auch weit von der realen Distanz entfernt ist.

    Aus irgendwelchen Gründen ist bei meinem Center der Tiefton extrem verzögert, oder es ist ein Messfehler.

    Am DoppelCenter liegt es nicht, auch eine Center-LS alleine verhält sich so.

  • Ich kenne deine genaue Konfiguration nicht (auswendig) und wo du überall dran drehen kannst.

    Alles akustisch gleiche Lautsprecher unsw..?


    Wie kommst du auf die 20ms?

    Wenn ich das letzte Diagramm anschaue, dann ist der max. Peak (Welle) des Centers als Referenz etwas über 10ms später als der Peak der anderen.


    mfg

  • Wie kommst du auf die 20ms?

    Wenn ich das letzte Diagramm anschaue, dann ist der max. Peak (Welle) des Centers als Referenz etwas über 10ms später als der Peak der anderen.

    Danke!

    Ich habe da wohl einen Fehler in meiner Rechnung Wellenlänge, Frequenz und Laufzeit.

    Ich schaue mir das nochmals an.


    Ich kenne deine genaue Konfiguration nicht (auswendig) und wo du überall dran drehen kannst.

    Alles akustisch gleiche Lautsprecher unsw..?

    LCR Klipsch RS35

    LCR hängen am Denon 4700 mit Audysessy-MEQ-X dann zur Endstufe.

    Sub (DBA) mit t.Amp-MiniDSP

  • Es gibt zwei zeitliche Aspekte an einem Lautsprecher:

    Deine Ausführungen beziehen sich vor allem auf die Entwicklung, das Verhaltens eines Lautsprechers.


    Wichtig, interessant ist jedoch auch das Verhalten mehrerer Lautsprecher untereinander, besonders LCR.


    Ich schätze, die Phasenverläufe sollten zumindest Deckungsgleich sein.

    Aber wie stark wirkt es sich aus, wenn die Phasen über den Frequenzgang mehrere Drehungen macht?


    Leider zeigen die Trinnov-Besitzer nur den FG, nie den gemessenen Phasenverlauf, wäre echt interessant, wie "perfekt" die Trinnov Einmessung das hin bekommt.

    zozi hat mir letztens seine REW Kontrollmessung nach seiner Trinnov-Einmessung gemailt. Das sieht wirklich recht ähnlich der Animation auf der Trinnov Seite aus. Ab 100hz aufwärts fast wie mit dem Lineal gezogen, dürfte innerhalb 90° bleiben.
    Das schafft Dirac so nicht, zwar sind meine LCR halbwegs Deckungsgleich, aber zum HT hin gibt es viele, viele Phasendrehungen.


    Bin jetzt schon etwas angefixed ;)

  • Das kann man ohne FIR praktisch vergessen.

    Das ist auch so ein Punkt, den ich nicht verstehe:

    Bei analogen Frequenzweichen, ev. auch Mischpulten, lasse ich mir ja einreden, dass Filter, Frequenzanhebungen/Senkung durch Spulen, Kondensatoren einen zeitlichen Effekt haben.

    Aber warum haben digitale Frequenzfilter in elektronischen DSPs einen definierten Effekt auf die Phase?

    Ein DSP müsste doch z.B. einen Hochpass-Filter, egal ob IIR oder FIR, ohne (nennenswerten) Zeitversatz umsetzen können.

    Eigentlich müsste ich den Center noch um weitere 720° (=20ms=6,8m) früher losschicken, damit die 100Hz mit LR-Sub ganz synchron sind, dann ist aber der Mittel- und Hochton im Vergleich zu LR zu weit weg

    Genau das ist der Unterschied zwischen einer Phasenkorrektur und einem generellem Delay, wie gestern besprochen.

  • Beim HT hast du wahrscheinlich gar keine Phasendrehungen vom Lautpsrecher selbst.

    Das was das in der Messung verursacht sind zu 99,9% Reflexionen die in die Berechnung miteinfließen.

    Ich will jetzt nicht Zozi seine Bilder posten.

    Bei mir sieht es so ähnlich aus, wie bei Namor.

    Bei Zozi sieht es ungefähr so aus, wie bei der Animation hier: https://www.trinnov.com/en/technologies/

    Mit REW gemessen.


    Die Frage ist, hört man den Unterschied, ist der Ton klarer, knackiger, mit solch einem Phasenverlauf vs. so wie von Namor gepostet?

  • Das ist in der Tat die Frage.


    Selbst testen in Stereo geht ja relativ einfach indem man z.B. acourate hat (oder beim Hersteller fragt) und sich dann 2 Files falten lässt. Einmal nur phase entzerrt einmal Amplitude und Phase.

    Natürlich kann das prinzipiell auch jeder der acourate, oder vergleichbares hat - wie es rechtlich aussieht???


    Die Frage ist auch wie weit runter man das macht. Tiefton Phasen Entzerrung heißt i.d.R. hohe Latenz.

    Je nach Display geht es sich aber aus.



    Ich persönlich sehe bei nicht absichtlich "sinnlos" gewählten Weichenfunktionen - also MT/HT - gerade bei Heimkino wenig bis keinen Mehrwert.

    Den sehe ich wenn dann eher bei einem sehr guten TT System und der Ankoppelung zu SATs.


    Da bei dir aber der Rest ja eh schon ziemlich am oberen Ende der Fahnenstange ist.... und Optimimierungswille vorhanden...


    mfg

  • Das ist auch so ein Punkt, den ich nicht verstehe:

    Bei analogen Frequenzweichen, ev. auch Mischpulten, lasse ich mir ja einreden, dass Filter, Frequenzanhebungen/Senkung durch Spulen, Kondensatoren einen zeitlichen Effekt haben.

    Aber warum haben digitale Frequenzfilter in elektronischen DSPs einen definierten Effekt auf die Phase?

    Ein DSP müsste doch z.B. einen Hochpass-Filter, egal ob IIR oder FIR, ohne (nennenswerten) Zeitversatz umsetzen können.

    Genau das ist der Unterschied zwischen einer Phasenkorrektur und einem generellem Delay, wie gestern besprochen.

    https://en.m.wikipedia.org/wiki/Filter_(signal_processing)


    Zu dem Thema gibt es duzende Fachbücher und Vorlesungen. Ein hochkomplexes Thema!

    Jedes Filter verursacht entweder eine Phasenverschiebung (IIR) oder eine Zeitverschiebung (Delay -> FIR). Dabei spielt es keine Rolle ob Analog oder Digital.

  • Ich möchte gerne wissen ob mein Verständis zum Phasenverlauf richtig ist.


    Unten dargestellt habe ich in der linken Spalte den Phasenverlauf meines Linken LS. Oben ist der Phasenverlauf auf der Frequenz aufgetragen und darunter, was das auf der Time-Domain bedeutet.

    Also oben die vollständige Impulsantwort und dann mit Frequenzfiltern (10k, 1k, 400Hz). Man sieht deutlich, dass das Maximum die tieferen Frequenzen immer später kommt. Im FQ-Phasenverlauf ist also dargestellt, um wie viele Grad die jeweilige Frequenzen von einander abweichen. Ich finde das ist auch logisch, da die Treiber für die tiefen Töne mehr Zeit brauchen um voll auszusteuern.


    In der rechten Spalte die von REW erstellte zugehörige mininalphasige Darstellung. Laut REW-Anleitung "Wie würde die Impulsantwort für den Frequenzgang ausehen, wenn man die Phase korrigiert"

    In den Zeitverläufen ist gut zu erkennen, dass jetzt das Maximum jeder Frequenz zeitgleich ist.




    Sorry, wenn das eh logisch ist, oder ganz falsch. Ich lasse mich gerne korrigieren, möchte die Sache es nur endlich verstehen.

  • Jedes Filter verursacht entweder eine Phasenverschiebung

    Ich kenn die Links, die Formeln (nicht aus dem FF, habs mir aber schon öfters mal durch gelesen), versteh aber trotzdem nicht, warum nicht einfach, ohne die diversen Formeln an wenden, ein DSP z.B. einen Frequenzbereich wie angezeigt anhebt. Das müsste doch so schnell gehen, ohne dass eine nennenswerte Phasenverschiebung stattfindet.

    Ist aber vielleicht hier eh nicht der passende Ort, es ist wie es ist.

  • Ich kenn die Links, die Formeln (nicht aus dem FF, habs mir aber schon öfters mal durch gelesen), versteh aber trotzdem nicht, warum nicht einfach, ohne die diversen Formeln an wenden, ein DSP z.B. einen Frequenzbereich wie angezeigt anhebt. Das müsste doch so schnell gehen, ohne dass eine nennenswerte Phasenverschiebung stattfindet.

    Ist aber vielleicht hier eh nicht der passende Ort, es ist wie es ist.

    Der DSP sieht ja nur die momentane Signalspannung am Eingang. Er kann also nicht voraussehen welche Frequenz jetzt diese Spannung sein soll. Darum muss er warten bis die Schwingung fertig ist, bevor er weiss wieviel sie reduziert werden muss.


    Diese Erklärung ist wahrscheinlich vollkommen ungenau aber so stelle ich es mir jedenfalls vor.

  • Namor Noditz

    ....

    Es wird ja häufig versucht, etwas in die Impulsantwort zu interpretieren. Das ist aber kaum möglich. ...

    Aus diesem Grund gehe ich schon von Haus aus einen anderen Weg.

    Solange man nicht FIR nutzt, steht der Amplituden-FG in starrem Zusammenhang zum Phase-FG.

    Das bedeutet linearer Amplituden-FG = linearer Phasen FG.

    Davon ab sind Allpässe, wie sind "über alles" betrachtet dann auch eine Frequenzweiche darstellt.


    Hier entspricht der einzel Amplituden-FG auch dem einzel Phasen-FG.

    Ein Lautsprecher der einen Bandbass darstellt (also unten und oben abfällt) dreht die Phase also an diesen Stellen. Ist er dazwischen Amplituden-FG linear ist das auch die Phase in dem Bereich.

    ..... Ich finde das ist auch logisch, da die Treiber für die tiefen Töne mehr Zeit brauchen um voll auszusteuern....

    Das hat damit aber nichts zu tun.

    Ein Treiber der bis 0Hz linear spielt (spielen würde) der hätte keinen Amplituden-FG Abfall und die Phase wäre linear.

    Alle Frequenzen würden also gleichzeitig abgegeben werden.


    Quelle: neumann.com


    Hier noch mal als Beispiel das Groud Delay (erste - Ableitung der Phase nach Frequenz) der KH420.

    Ich halte dieses Diagramm zum Beurteilen des Zeitverhaltens eines Lautsprechers für viel besser geeignet als die Impulsantwort.


    Aufgrund ihrer Konstruktion und Filter ergibt sich dieser Verlauf. Ja bei 30Hz wird das Signal um ~30ms später abgegeben als bei 5kHz.


    Ich kenn die Links, die Formeln (nicht aus dem FF, habs mir aber schon öfters mal durch gelesen), versteh aber trotzdem nicht, warum nicht einfach, ohne die diversen Formeln an wenden, ein DSP z.B. einen Frequenzbereich wie angezeigt anhebt. Das müsste doch so schnell gehen, ohne dass eine nennenswerte Phasenverschiebung stattfindet.

    Ist aber vielleicht hier eh nicht der passende Ort, es ist wie es ist.

    Hier muss man ein bisschen trennen.

    Ja der Filter bestimmt wie stark das Eingangssignal Amplitude und Phasenwinkel ändert.


    Nur uns interessiert ja nicht was der Filter ansich macht, sondern wie das Signal das dann vom LS abgegeben wird aussieht. Also der akustisch wirksame Filter zählt am Ende.


    mfg

  • Der DSP sieht ja nur die momentane Signalspannung am Eingang. Er kann also nicht voraussehen welche Frequenz jetzt diese Spannung sein soll. Darum muss er warten bis die Schwingung fertig ist, bevor er weiss wieviel sie reduziert werden muss.


    Diese Erklärung ist wahrscheinlich vollkommen ungenau aber so stelle ich es mir jedenfalls vor.


    So wie ich das verstanden habe aus mathematischer Sicht:


    Wenn man digitale FIR Filter verwenden möchte, wird das Audiosignal in kleine Abschnitte aufgeteilt, die eine gewisse Zeit abdecken müssen, um entsprechende Informationen über enthaltende Frequenzen zu enthalten, bzw um einen Daten-Vektor zu erhalten (zb 256 Byte aus dem digitalen Signal, die man sonst so in die Soundkarte schicken würde). Dann wird eine Fouriertransformation in den Frequenzraum gemacht (ich meine die diskrete Fourier Transformation in dem Fall). Dort kann man dann sehr leicht Frequenzen anheben und absenken (weil diese ja als Koeffizienzen vorliegen) und dann werden die Daten wieder zurück in den Funktionsraum also den Signal-Chunk zurückverwandelt (wieder die 256 Byte). Das sind aber alles Matrizenoperationen, also wird so ein Filter wohl eine Matrix sein die man dann immer nur auf die kleinen Abschnitte anwenden kann. Also man multipliziert den Datenvektor aus 256 Byte mit einer 256x256-Matrix und erhält dann einen "korrigierten" Datenvektor (je grösser die Matrix desto grösser die genutzte Rechenkapazität, ggf quadratisch, wobei die schnelle FFT wohl auch irgendwas * log(n) ist, also ggf gehts sogar schneller). Wahrscheinlich sind die Chunks auch viel grösser (eher RIchtung 5000 Bytes). Wenn man sich nun die Datenrate von zb 96Khz ansieht und teilt diese durch die Chunkgrösse + die Zeit für die Mathematische Operation enthält man den Delay des Filters. Ich denke mal sie korreliert überwiegen mit der Grösse des Datenvektors, weil das halt gleichzeitig auch Zeit ist, die man abwarten muss. Das SIgnal kommt ja linear rein und muss gepuffert werden, bevor man es verarbeiten kann (und man kann nicht in die Zukunft schauen, ausser man hat zb ein Mp3 File vorliegen, dann könnte man das alles Preprocessen). Bei HDMI muss aber auch gepuffert werden. Das Delay entspricht nun dem, wieviel man puffern muss, damit die Filter funktionieren. Mehr Zeit wäre besser/genauer, aber niemand möchte 500ms Versatz von Ton und Bild haben.


    Ich hatte mich vor 20 Jahren schonmal damit beschäftigt, war mir dann aber trotz Mathe-/Informatikstudium etwas zu "hoch" für mich. Wie diese Chunks (wenn es denn dann in der Praxis wirklich so gemacht wird) knacksfrei und ohne Qualitätseinbußen hintereinander gelegt werden, ist dann wohl die Magie der DSP-Entwickler oder es liegt einfach daran, dass man sehr grosse wählt und es mathematisch einfach funktioniert.

  • Das bedeutet linearer Amplituden-FG = linearer Phasen FG.

    Linear waagrecht oder "nur" linear?


    Siehe Messung von Namor: Der FG ist bei ihm fast wie mit dem Lineal gezogen, die Phase ist jedoch stark abfallend, von Links nach rechts.

    Nur uns interessiert ja nicht was der Filter ansich macht, sondern wie das Signal das dann vom LS abgegeben wird aussieht.

    Doch schon, wenn ich einen Filter setzen möchte. Klassiker dürfte wohl nicht nur bei mir sein, dass sich der Center im Raum etwas anders verhält, als Li+Re. Den Frequenzgang mit einem Filter korrigieren, dafür eine Phasenverschiebung in Kauf nehmen vs. Buckel/Senke im FG belassen?

  • marc_b_koeln

    Auch das hat ansich nichts mit dem Prinzip zu tun.

    Dieses "Delay" (Latenz) des Geräts ansich ist also der Ausführung geschuldet, hier geht es zwar grundsätzlich schon um Zeit, aber eben vorrangig um die (frequenzabhängige) Gruppenlaufzeit.


    Denn ein globales Delay macht sich ja wenn dann nur durch Bedienung (Playtaste - Latenz abwarten) oder durch Asynchronität zum Bild bemerkbar.

    Und i.d.R. gibt es Abhilfe dafür, auch wenn es außerhalb des PCs z.B. nicht so einfach ist dem Bild ein Delay zu verpassen.


    Linear waagrecht oder "nur" linear?


    Siehe Messung von Namor: Der FG ist bei ihm fast wie mit dem Lineal gezogen, die Phase ist jedoch stark abfallend, von Links nach rechts.

    Doch schon, wenn ich einen Filter setzen möchte. Klassiker dürfte wohl nicht nur bei mir sein, dass sich der Center im Raum etwas anders verhält, als Li+Re. Den Frequenzgang mit einem Filter korrigieren, dafür eine Phasenverschiebung in Kauf nehmen vs. Buckel/Senke im FG belassen?

    Linear meint ja zu jeder Frequenz die gleiche Übertragung, also in dem Fall muss der Strich waagrecht laufen, ja.


    Wäre der Lautsprecher ein sonst filterloser Breitbänder von 1Hz-20kHz (wobei wir den Bereich darüber/darunter jetzt mal gedanklich ausblenden) der im MT einen Buckel/Senke im Amplituden-FG hat, sagen wir von 650Hz bis 850Hz eine Erhöhung von 2dB, z.B. durch eine kleine Resonanz des Antriebs.

    Diesen würde man dann durch einen Filter:


    - IIR Filter in einem DSP (extern, im AVR,...)

    - analoge Bauteile

    - einem strategisch sinnvoll platziertem mechanischen Eingriff am Chassis (Beschichtung, "Wuchtgewicht",...)


    entfernen, also der Amplituden-FG linear (waagrecht) verlaufen (in diesem Bereich)


    Dann wäre auch automatisch der Phasen-FG in diesem Bereich linear.

    Denn der war es zuvor - also mit dem Buckel eben nicht.


    mfg

  • Deine Ausführungen beziehen sich vor allem auf die Entwicklung, das Verhaltens eines Lautsprechers.


    Wichtig, interessant ist jedoch auch das Verhalten mehrerer Lautsprecher untereinander, besonders LCR.


    Ich schätze, die Phasenverläufe sollten zumindest Deckungsgleich sein.

    Die Grundprinzipien gelten natürlich sowohl für einen Mehrweger als auch für zwei Lautsprecher, die eine Phantomschallquelle bilden. Beim Mehrweger haben wir kleine Überlappungsbereiche im Frequenzbereiche, bei kompletten Lautsprechern dagegen den gesamten Frequenzbereich, sobald eine Phantomschallquelle gebildet wird. Phantomschallquelle ist dann auch das Stichwort. Gehen die Phasengänge stark auseinander, dann leidet die Abbildungsschärfe der Phantomschallquelle. Bis hin zur Verschiebung in eine Richtung, was dann vor allem bei frequenzneutralen Verzögerungen (Delay, unterschiedlicher Abstand zum Hörplatz) auftritt.


    Das ist auch so ein Punkt, den ich nicht verstehe:

    Bei analogen Frequenzweichen, ev. auch Mischpulten, lasse ich mir ja einreden, dass Filter, Frequenzanhebungen/Senkung durch Spulen, Kondensatoren einen zeitlichen Effekt haben.

    Aber warum haben digitale Frequenzfilter in elektronischen DSPs einen definierten Effekt auf die Phase?

    Ein DSP müsste doch z.B. einen Hochpass-Filter, egal ob IIR oder FIR, ohne (nennenswerten) Zeitversatz umsetzen können.

    Ich hatte zwar ein Semester Regelungstechnik und eins Signale & Systeme im Studium, aber hundertprozentig habe ich das auch nie verstanden. Dafür war ich nie gut genug in der Mathematik. Jedenfalls ist es anscheinend gar nicht anders möglich als mit IIR und FIR, sonst würde so ein Filter ja existieren. Vielleicht findet sich ja hier jemand, der wirklich fit in Signaltheorie ist und das erklären könnte.


    Siehe Messung von Namor: Der FG ist bei ihm fast wie mit dem Lineal gezogen, die Phase ist jedoch stark abfallend, von Links nach rechts.

    Weil der Gesamtlautsprecher nicht linearphasig ist (+Reflexionen usw.). Die "Minimum Phase", die REW berechnet, ist ein direktes ausrechnen der Phase aus dem Amplitudengang und hat bei einem Mehrweger nichts mit der Wirklichkeit zu tun. Das ist ja genau das, was ich im ersten Beitrag beschrieben habe. :)

  • Quelle: neumann.com


    Hier noch mal als Beispiel das Groud Delay (erste - Ableitung der Phase nach Frequenz) der KH420.

    Ich halte dieses Diagramm zum Beurteilen des Zeitverhaltens eines Lautsprechers für viel besser geeignet als die Impulsantwort.

    Diese Darstellung entspricht doch imho dem abfallenden Phasenverlauf, nur das auf der Y-Achse das Delay[ms] und nicht die Phase[°] darstellt ist, oder?

  • Diese Darstellung entspricht doch imho dem Phasenverlauf, nur das auf der Y-Achse das Delay[ms] und nicht die Phase[°] darstellt ist, oder?

    Nein, die Gruppenlaufzeit ist die negative Ableitung der Phase nach der Frequenz und somit hat die Kurve eine andere Form. Hier aus Beitrag 1:


    Phasengang:


    Gruppenlaufzeit:

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!