Diskussion:Kanalkopplung

Letzter Kommentar: vor 5 Jahren von Pemu in Abschnitt Warum Zentrum?

Da ich die Verwandschaft von Huffman-Kodierung und MS-Stereofonie nicht sehen kann (außer der trivialen Gemeinsamkeit der Verlustlosigkeit), habe ich den folgenden Satz auskommentiert: „Dabei ähnelt er sehr den Entropiecodierungen, wie beispielsweise dem Huffman-Code, die auch auf geschickte Restrukturierung der Information setzen.“ -- Pemu 02:10, 31. Okt 2005 (CET)

Stereo-UKW-Radio / FM-Stereo

Bearbeiten

Beim UKW-Radio wird doch ein ähnliches Verfahren genutzt, um Signale monokompatibel zu machen:
Man überträgt als Hauptkanal L+R und als Nebenkanal oder Seitenkanal L-R. Monogeräte können nur L+R erkennen und demodulieren, hören also nur mono, aber eben mit den Inhalten von den beiden ursprünglichen Kanälen. Und Stereo-Empänger können dann zusätzlich noch L-R demodulieren, woraus dann letztendlich wieder beide Kanäle heraussummiert und rekonstruiert werden können.
Möglicherweise stammt die Idee des Joint-Stereo-Verfahrens aus dem FM-Stereo-Signal, aber das weiß ich nicht. Sollte es so sein, und jemand weiß das bzw. kann es recherchieren, dann könnte man das eventuell noch als historischen Hintergrund und Urspung miteinbeziehen. --Jusco 02:19, 28. Nov. 2007 (CET)Beantworten

DAB-Rundfunk

Bearbeiten

Welches Verfahren wird beim DAB-Rundfunk angewandt? Es wird ja kaum so sein, dass z.B. ein 128kbit/s-Stream je 64kbit/s pro Kanal (L / R ) benötigt. Im Artikel fehlt ein Hinweis auf diese Anwendung.--Sun-kid (Diskussion) 23:08, 2. Jan. 2016 (CET)Beantworten

Definition?

Bearbeiten

Dieser Artikel leidet ebenso wie sein englisches Pendant (dort ist es mir noch stärker aufgefallen) an einer mangelhaften Definition. Es wird insbesondere nicht definiert, was "Joint Stereo" eigentlich ist, sondern gleich das Werkzeug präsentiert, mit dem man es erreichen will. Zudem fehlt der deutschen Version auch noch die deutsche Übersetzung des Begriffs "Joint Stereo".

Eine Definition würde etwa so aussehen: Joint Stereo (dt.: zusammengefasstes Stereo) ist die zusammengefasste bzw. vereinfachte Übertragung oder Speicherung von Zweikanalton in der digitalen Audiotechnik. Ziel sind niedrigere Datenraten bei gleichbleibender Qualität bzw. höhere Qualität bei gleich bleibender Datenrate. Zu diesem Zweck werden in digitalen Audio-Komprimierungsverfahren verschiedene Algorithmen eingesetzt. (Es folgt die Darstellung der Verfahren).

Mangels eigener Fachkenntnisse traue ich mich nicht, den Artikel entsprechend zu verändern, rege aber an, das zu tun (und möglicherweise den englischen gleich mit). --Mottenkiste 03:21, 5. Mär. 2008 (CET)Beantworten

Begriffe falsch

Bearbeiten

Textauszug: Beide Verfahren haben ihre Entsprechung in der traditionellen Tontechnik – Intensitätsstereofonie und MS-Stereofonie – hier bezeichnet als Intensity Stereo und Mid/Side Stereo. Nur eines der beiden Verfahren arbeitet verlustfrei. Dennoch sprechen viele Anwender der Technik nur von dem Joint-Stereo Verfahren, meinen dabei aber größtenteils den verlustfreien MS-Algorithmus. Intensity Stereo hingegen ist ein verlustbehaftetes Verfahren.

In der "traditionellen" Tontechnik zählt die MS- Stereofonie zu den Intensitätsstereofonieverfahren (wie auch xy- und Blumlein- stereo). Intensitätsstereofonie wiederum ist nur ein Oberbegriff für das psychoakustische Phänomen der Lokalisation via Pegeldifferenz (I.stereofonie heisst daher auch Pegeldifferenzstereofonie).

Ich kenne die Algorithmen nicht- aber die Begrifflichkeiten werden hier definitiv falsch angewendet. Vielleicht korrigiert das jemand, der versteht, was der Autor gemeint hat.

Ansonsten kann ich meinem Vorredner nur recht geben: Nicht für Laien formuliert, der Artikel. --Galak76 19:29, 20. Mai 2009 (CEST)Beantworten

Abschnitt „Bewertung“ in katastrophalem Zustand.

Bearbeiten

Das Deutsch in dem Abschnitt is wirklich schlimm, mit vielen peinlichen Fehlern. Wer sich die Mühe machen will, kann das mal komplett überarbeiten. :) (nicht signierter Beitrag von 88.77.140.123 (Diskussion | Beiträge) 23:30, 21. Jul 2009 (CEST))

Dann mach es bitte gleich besser, die Mühe hättest du dir sparen können zu kritisieren. (nicht signierter Beitrag von 77.186.137.55 (Diskussion | Beiträge) 18:08, 9. Sep. 2009 (CEST)) Beantworten

Vor allem der vorletzte Absatz hier ist teilweise gar nicht verständlich, geschweige denn, dass die Grammatik den Regeln genügt. Vielleicht kann das jemand bitte überarbeiten, der sich auch mit der Materie auskennt. --91.6.251.215 12:37, 18. Sep. 2009 (CEST)Beantworten

Was heisst denn das:

"Da Joint-Stereo jedoch in Mitten- und Seiten- Signal kodiert ist, tritt hier dieser Effekt als Pulsieren der Stereobreite von Mitte zur Seite auf, was tonpsychologisch wesentlich günstiger, oder eben als deutlich weniger störend empfunden wird als das die Stereo Mitte, welche im medialem Mainstream Bereich 90% aller wichtigen Informationen enthält nicht eindeutig ortbar ist, oder ihre Position wechselt. Nachteil ist, dass im Falle eines leisen Seitensignals, wie z.B. bei Hallräumen die Tiefenschärfe zu den Seiten leidet." --> besonders: "...,welche im medialem Mainstream Bereich 90% aller wichtigen Informationen enthält nicht eindeutig ortbar ist,..." MfG --86.103.234.52 21:14, 31. Dez. 2009 (CET)Beantworten

Also mir ist das verständlich und halbwegs logisch - da fehlt höchstens noch ein Komma. Vielleicht sind Deine Verständnisfähigkeiten ausbaufähig - vielleicht kann da aber auch durch das Aufteilen von länglichen Sätzen die Verständnis-Anforderung gesenkt werden... Ich finde hier eher himmelschreiend, dass die zuvor bemängelte fehlende Unterscheidung zwischen der an sich nicht unbedingt verlustbehafteten Kanalkopplung insgesamt und der Kombination mit Datenreduktionstechniken oder prinzipiell verlustbehafteten Kanalkopplungstechniken nichtmehr gemacht wird - bzw. wurde.
Zur Erklärung für Dich: Es geht um die Stereo-Mitte, die die Mitte der Klangbühne darstellt, wo sich nach dieser Aussage normalerweise die wichtigsten Signalanteile finden. - Wenn Du beispielsweise eine Nachrichtensendung im Fernsehen guckst, dann findet sich zum Beispiel oft ein Sprecher mitten im Bild - und seine Stimme als der wichtigste, informativste Ton-Anteil findet sich entsprechend mittig im Klangbild.--92.193.15.21 03:03, 12. Jul. 2012 (CEST)Beantworten

Lemma „Joint-Stereo“ versus „Kanalkopplung“

Bearbeiten

joint stereo ist ja Kanalkopplung im Falle von zwei Kanälen. Da die Beschränkung auf diese Kanalkonfiguration den wohl einzigen Definitionsunterschied zum allgemeineren Lemma der Kanalkopplung ausmacht, würde ich den Artikel zu diesem Lemma hin verschieben und die Formulierungen entsprechend verallgemeinern, da wir zu diesem übergeordneten Lemma bislang noch keinen eigenständigen Artikel haben. (Außerdem möchte ich behaupten, dass wesentlich mehr als zwei Verfahren und möglicherweise recht fließende Übergänge dazwischen bekannt und in Verwendung sind und die Behauptung, es handele sich um "zwei Algorithmen" einfach nicht stimmt...)--Muff cabbage 15:00, 25. Jan. 2011 (CET)Beantworten

Warum Zentrum?

Bearbeiten

Im Text heißt es: "Die Differenzsignale können … quantisiert und entsprechend verlustbehaftet kodiert werden; dabei fällt das Quantisierungsrauschen ins Zentrum des Stereoklangbildes, wo es gut vom restlichen Signal maskiert wird."

Warum ist das so? Sind die Differenzssignale quantisiert, ist doch das Quantisierungsrauschen ebenfalls wie ein Differenznutzsignal eben gerade nicht in der Mitte. -- Pemu (Diskussion) 09:08, 15. Aug. 2019 (CEST)Beantworten