AUDIO- KOMPRESSION Weitere Top

Transcription

AUDIO- KOMPRESSION Weitere Top
AUDIOKOMPRESSION
1
Weitere Top-Infos unter ITWissen.info
AUDIOKOMPRESSION
Inhalt
µ-Law-Verfahren
AAC, advanced audio coding
AAC-LD, AAC low delay
aacPlus
AC-3, audio code number 3
AC97, audio codec 97
ADDPCM, adaptive differential
delta pulse code modulation
ADPCM, adaptive delta pulse
code modulation
AIFC, audio interchange file
format compressed
A-Law-Verfahren
Apt-X
ASFS, audiosoft file structure
ASPEC, adaptive spectral
entropy coding
ATRAC, adaptive transform
acoustic coding
ATRAC 3
ATRAC3plus
Audio
Audio-Codec
Audiokompression
Audiovision
BCC, binaural cue coding
BSAC, bit sliced arithmetic
coding
CELP, code excited linear
prediction
CODEC, compression/
decompression
Impressum:
Herausgeber: Klaus Lipinski
Audiokompression
Copyrigt 2008
DATACOM-Buchverlag GmbH
84378 Dietersburg
Alle Rechte vorbehalten.
Keine Haftung für die angegebenen
Informationen.
Produziert von Media-Schmid
www.media-schmid.de
Exit
2
DFT, discrete Fourier
transformation
Digital-Audio
Dolby-Digital
DTS, digital theatre sound
EAC, enhanced audio codec
FFT-Transformation
FLAC, free lossless
audio codec
Fourier-Synthese
Fourier-Transformation
G.711
GSM 06.10
HDA, high definition audio
HE-AAC, high efficiency AAC
HVXC, harmonic vector
excitation
Hörcharakteristik
Hörschwelle
Joint-Stereo
Kompression
Kompressionsrate
Kritische Frequenzbänder
LAME, lame ain’t an MP3
encoder
LPAC, lossless predictive audio
compression
LPC, linear predictive coding
LTAC, lossless transform audio
compression
Maskierung
MLP, meridian lossless packing
Weitere Top-Infos unter ITWissen.info
Monkeys Audio
MP3-Dateiformat
mp3Pro
MPEG, motion picture expert
group
MPEG-1-Audio
MPEG-4
MPEG-Surround
MUSICAM, masking pattern
universal subband integrated
coding and multiplexing
Nero Digital
Ogg Vorbis
OptimFrog
PAC, perceptual audio coder
PASC, precision adaptive
subband coding
Psychoakustik
QDesign
RealAudio
SAC, spatial audio coding
SBR, spectral band replication
Subband-Codierung
TwinVQ, transform-domain
weighted interleave vector
quantization
Verlustbehaftete Kompression
Verlustfreie Kompression
WMA, Windows media audio
XMF, extensible music format
AUDIOKOMPRESSION
µ-Law-Verfahren Das µ-Law-Verfahren ist ein Verfahren mit dem der Dynamikbereich eines Audiosignals
µ law method vor der digitalen Übertragung erhöht wird. Dieses Verfahren ist in der ITU-Empfehlung
G.711 beschrieben und wird in PCM-Systemen eingesetzt. Die Vergrößerung des
Dynamikbereichs erfolgt bei der µ-Law-Kompression, indem das Signal zunächst mit
höherer Bitrate abgetastet wird, um die Daten anschließend mit einem bestimmten
Algorithmus auf eine niedrigere Bitrate zu komprimieren.
Der Empfänger eines solchen Signals arbeitet genau entgegengesetzt und stellt die
ursprüngliche höhere Bitrate wieder her.
Wie das A-Law-Verfahren arbeitet auch das µ-Law-Verfahren mit nichtlinearen
Kennlinien und benutzt andere Quantisierungsstufen als das A-Law-Verfahren. Die
Bestimmung der Bitzahl ist im µ-Law-Verfahren etwas problematisch, da die
Quantisierungsproben logarithmisch mit 8 Bit codiert werden, ihr Dynamikbereich
hingegen linear mit 13 Bit. µ-Law hat im Niedrigpegelbereich eine steilere
Dynamikkennlinie als das A-Law-Verfahren.
Das µ-Law-Verfahren wird in den USA und Japan in ISDN eingesetzt, da die dortige
ISDN-Technik zur Generierung des Taktsignals wechselnde Bitzustände benötigt und
keine kontinuierlichen 0-Folgen verarbeiten kann.
Funktionseinheiten der
µ-Law-Kompression
AAC Advanced Audio Coding (AAC) ist eine Weiterentwicklung von MP3. Das AACadvanced audio coding Verfahren ist ein verlustbehaftete Codierung für qualitativ hochwertiges Audio, das die
Basistechnologie für den sicheren Verkauf von Musik über das Internet werden kann.
AAC eignet sich für mehrkanaliges Audio, es arbeitet mit Übertragungsraten von 64
kbit/s und 320 kbit/s und bietet bei der niedrigeren Datenrate eine befriedigende, bei
Exit
Index
3
Weitere Top-Infos unter ITWissen.info
AUDIOKOMPRESSION
Verzögerungszeiten der AACKompression und
von AAC-LD
AAC-Profile und ihre
Eigenschaften
Exit
Index
4
der höheren Bitraten ab 80 kbit/s eine
gute und bei 128 kbit/s eine sehr
gute Klangqualität. Der starke
Einbruch bei niedrigen Bitraten zeigt
sich auch am Frequenzverhalten,
das bei einer Bitrate von 48 kbit/s
unter 10 kHz liegt, und bei 48 kbit/s
über 13 kHz. Die Kompressionsrate
liegt bei ca. 95 %.
Für AAC wurden einige Profile
definiert, die sich in der Abtastung
und damit im Klang unterscheiden. Das Profil mit der höchsten Klangqualität heißt
Main, das mit guter Klangqualität arbeitet nach einem Verfahren mit skalierbarer
Abtastrate, das Scalable Sampling Rate (SCR), das Profil mit einfacher Klangqualität
heißt Low Complexity (LC) und für verzögerungsarme Sprachübertragungen wurde
AAC-LD entwickelt, was für Low Delay steht. Letzteres verbindet niedrige Bitraten mit
einer mittleren Verzögerungszeit.
AAC bietet gegenüber MP3 bei vergleichbarer oder sogar besserer Audioqualität eine
höhere Kompression und damit eine wesentlich verringerte Datenmenge. Das
Audiodateiformat AAC wurde von der MPEG übernommen, ist internationaler Standard
der ISO und
Bestandteil von
MPEG-2 und
MPEG-4. Das
Advanced Audio
Coding (AAC)
muss lizenziert
werden; die
Lizenzen liegen bei
AT&T, Sony, Dolby
Weitere Top-Infos unter ITWissen.info
AUDIOKOMPRESSION
und dem Fraunhofer Institut.
Das AAC-Format wird ständig weiterentwickelt, wobei mit HE-AAC bzw. aacPlus eine
leistungsfähige Audiokompression mit Bitraten von 64 kbit/s und darunter entwickelt
wurde.
AAC-LD AAC-Low Delay wurde als MPEG-4-Codierung, basierend auf der AAC-Kompression
AAC low delay entwickelt und vereint die Vorteile des Perceptual Audio Coding (PAC) mit den
geringen Verzögerungszeiten für eine Zweiwege-Kommunikation. Die Anforderungen
an AAC-LD sehen zulässige Verzögerungszeiten von 20 ms vor.
Darüber hinaus zeichnet sich AAC-LD durch eine gute Audioqualität für Musik und
Sprache aus. Die Verzögerungszeit beträgt immer 20 ms und ist unabhängig davon,
ob die Datenrate 24 kbit/s, 48 kbit/s oder 96 kbit/s beträgt. Im Gegensatz zu AAC-LD
weist die AAC-Kompression bei einer Datenrate von 24 kbit/s eine Verzögerungszeit
von über 300 ms auf, bei 48 kbit/s eine von ca. 170 ms und bei 96 kbit/s eine von etwa
100 ms. Kürzere Verzögerungszeiten weise nur die für die Sprachkommunikation
optimierten G.-Codecs auf: G.711, G.721 und G.722.
aacPlus MPEG-4 HE-AAC ist eine von Coding Technologies entwickelte Audiokompression, die
AAC+, aacPlus vom MPEG Komitee standardisiert wurde. HE-AAC, vermarktet unter aacPlus, ist der
obligatorische Audio-Codec für die “Compresssed Zone” von DVD-Audio mit dem
Musikstücke im hochkomprimierten Audioformat auf Musik- und Multimedia-Playern
übertragen werden können.
aacPlus ist eine Weiterentwicklung der AAC-Kompression, speziell für niedrige
Bitraten von 64 kbit/s und darunter. Das Verfahren arbeitet mit der Technik der
Spectral Band Replication (SBR) und zeichnet sich durch eine sehr gute Klangqualität
aus, die vergleichbar ist mit der der Audio-CD. Mehrere Tests zeigen unabhängig
voneinander, dass die Höhenwiedergabe nicht beeinträchtigt ist, ebenso wenig wie die
Trennung der Stereokanäle. Das Verfahren ist danach bei 64 kbit/s allen anderen
Audiokompressionen überlegen. Was die Höhenwiedergabe betrifft, so werden mit
aacPlus bei eine Bitrate von 64 kbit/s Frequenzen von über 20 kHz wiedergegeben;
Exit
Index
5
Weitere Top-Infos unter ITWissen.info
AUDIOKOMPRESSION
selbst bei 48 kbit/s liegen diese noch über 16 kHz. Die Kompressionsrate variiert nur
geringfügig mit der Bitrate und liegt bei ca. 95 %.
aacPlus arbeitet mit konstanter Bitrate (CBR), kann aber auch mit variabler Bitrate
(VBR) arbeiten. Es umfasst ein digitales Rechtemanagement (DRM) und unterstützt
Mehrkanaligkeit mit bis zu 48 Kanälen.
AC-3 AC-3 ist eine Audiokompression, die auf einem Modell der Psychoakustik basiert. Das
audio code number 3 Verfahren arbeitet mit Filtern, bei der das transformierte Audiosignal in mehrere
Frequenzbänder aufteilt wird. Die überlappenden Blöcke aus 512 Audio-Abtastungen
werden ähnlich einer MDCT-Transformation behandelt und in 256 spektrale
Koeffizienten transformiert.
AC-3 wird in Dolby-Digital für einen 6-kanaligen Dolby-Rundum-Sound für Filme und
audiovisuelle Präsentationen, für Compact Discs (CD), DVDs und HDTV eingesetzt.
Dieses 6-kanalige System arbeitet mit sechs getrennten Musikkanälen, um eine
optimale realistische Klangwiedergabe zu erreichen. Die fünf Hauptkanäle haben eine
Bandbreite von 3 Hz bis 20 kHz, der sechste Kanal, der der Betonung besonderer
Effekte dient, hat eine Bandbreite von 3 Hz bis 120 Hz.
AC-3 unterstützt den Austausch von Audiodaten und arbeitet Abtastraten von 32 kHz,
44,1 kHz und 48 kHz.
http://www.dolby.com/tech/multipc.html
AC97 Der AC97 ist eine Intel-Spezifikation für einen Audio-Codec aus dem Jahre 1996. Die
audio codec 97 AC97-Spezifikationen definieren einen Audio-Codec (AC), einen Modem-Codec (MC)
oder einen Audio-Modem-Codec (AMC) mit seinen an ihn angeschlossenen
Komponenten.
Der Funktionsumfang des AC97 schließt die Digitalisierung der analogen Audiosignale
ebenso mit ein, wie deren Pegelanpassung. Der Audio-Codec 97 kann auf dem
Motherboard untergebracht sein oder auf einem Riser-Board, das in
Erweiterungssteckplätzen wie dem Communication and Networking Riser (CNR), dem
Advanced Communication Riser (ACR) oder dem Audio Modem Riser (AMR) betrieben
Exit
Index
6
Weitere Top-Infos unter ITWissen.info
AUDIOKOMPRESSION
werden kann.
Der AC97 hat diverse Audio-Ein- und Ausgänge, so einen Stereo-Line- und einen
Mikrofon-Eingang, zwei Stereo-Ausgänge für
Stereo- und Surround-Klang und eine
optionale S/PDIF-Schnittstelle. Die
Auflösungen liegen bei 16 Bit, 18 Bit und 20
Spezifikationen des
Audio-Codec AC97
Bit, wobei die Dynamik bei 20-Bit-Auflösung
120 dB beträgt.
Die Qualität des Audio-Codecs AC97 wird als
moderat bezeichnet und eignet sich nicht für hohe Klangqualität.
ADDPCM ADDPCM ist eine Delta-Pulscodemodulation für die Audiokompression. Bei diesem
adaptive differential delta Modulationsverfahren werden die Unterschiede zwischen vorhergehenden
pulse code modulation Abtastungen mit der aktuellen Abtastung gespeichert.
Das Verfahren soll die Datenmenge bei der Speicherung von Audio reduzieren.
ADPCM Das ADPCM-Verfahren ist eine Pulscodemodulation mit einem
adaptive delta pulse code Vorhersagemechanismus. Diese Prädiktion versucht die mögliche Signalform zu
modulation ermitteln und bildet daraus die Differenz mit dem tatsächlichen Signal. Da die
Differenz zwischen diesen beiden Signalen geringer ist als das tatsächliche Signal,
kann diese Differenz mit einer kleineren Bitzahl codiert werden. Das vorhergesagte
Signal wird kontinuierlich an das tatsächlich vorhandene Signal angepasst. Die
Anpassung des vorhergesagten Signals an das tatsächliche Signal erfolgt beim
Eingangssignal, wodurch eine bessere Vorhersage als bei DPCM möglich ist.
Das verlustbehaftete Kompression ADPCM reduziert das Datenaufkommen von
Sprache und Musik von 64 kbit/s um mindestens 50% auf 32 kbit/s.
Das ADPCM-Verfahren wurde 1986 als ITU-Standard G.721 spezifiziert und benutzt
eine Extrapolation zwischen zwei benachbarten Abtastwerten mit einer gewissen
Unsicherheit in der Vorhersage des folgenden Abtastwertes. Dem Verfahren nach wird
Exit
Index
7
Weitere Top-Infos unter ITWissen.info
AUDIOKOMPRESSION
bei der ADPCM-Codierung
zunächst das Eingangssignal
linear quantisiert. Das
resultierende Signal wird
gewichtet und dient als Offset für
die Vorhersage des
Signalverlaufs. Codiert wird die
Differenz zwischen dem
tatsächlichen Abtastwert und
einem extrapolierten Signalpegel,
die auf den momentanen
Prinzip der adaptiven
Unterschied in beiden Pegeln
Deltamodulation, ADPCM
zurückzuführen ist. Der
extrapolierte Pegel wird durch die beiden vorherigen Abtastwerte ermittelt. Der
implementierte Algorithmus ist abhängig von den Eingangspegeln, der Auflösung und
den Frequenzanforderungen. Ein in G.721 eingesetzter Algorithmus ist beispielsweise
der IMA-Algorithmus von der Interactive Multimedia Association.
Details zu ADPCM legte die ITU-T in den Empfehlungen G.726 und G.727 für SprachCodecs fest, in der Datenraten von 16, 24, 32 und 40 kbit/s vorgesehen sind.
Nach dem neuen ITU-Standard G.722 für breitbandige Sprachübertragung, bei dem
ein Frequenzbereich von 50 Hz bis 7 kHz zugrunde gelegt wird - dieser würde bei
normaler PCM-Technik 128 kbit/s zur Folge haben -, wird eine Kompression auf 64
kbit/s erzielt. Dieser Standard wird beispielsweise bei ISDN-Bildtelefonen angewendet.
Es gibt weitere ADPCM-Varianten, die vom Verfahren her gleich sind, allerdings nur
mit 3 oder sogar nur mit 2 Bit zur Digitalisierung arbeiten.
AIFC Das Dateiformat AIFC oder AIFFC erlaubt im Gegensatz zu AIFF die Speicherung von
audio interchange file unkomprimierten und komprimierten Audio-Dateien. Das von Apple entwickelte
format compressed Dateiformat kann Dateien mit Kompressionsraten von bis zu 6:1 speichern. Das AIFCDateiformat hat Tags im Header in dem diverse Informationen enthalten sein können.
Exit
Index
8
Weitere Top-Infos unter ITWissen.info
AUDIOKOMPRESSION
A-Law-Verfahren Das A-Law-Verfahren ist ein Verfahren für die Dynamikkompression von Audiosignalen,
A-law method das in der ITU-Empfehlung G.711 beschrieben ist. Die Dynamikkompression dient der
Verbesserung des Störspannungsabstands (SNR) bei gleichen
Übertragungsbedingungen. Das Verfahren verwendet eine logarithmische
Dynamikkennlinie, die besonders bei niedrigen Eingangspegeln eine hohe Dynamik
aufweist und bei hohen Eingangspegeln eine sehr geringe. Dadurch wird das
Rauschen bei geringen Pegeln, also bei leisen Tönen reduziert.
Das A-Law-Verfahren ist ein ITU-Standard, der bei der Konvertierung zwischen
analogen und digitalen Signalen in PCM-Systemen eingesetzt wird.
Das A-Law-Verfahren wird hauptsächlich in Europa verwendet, in den USA dagegen
ein geringfügig in den Quantisierungsstufen abweichendes Verfahren, das µ-LawVerfahren. Dieses Verfahren zeichnet sich durch eine Dynamikkennlinie aus, die im
Niedrigpegelbereich noch steiler ist als die des A-Law-Verfahrens.
Apt-X Apt-X ist eine Audiokompression, die 1990 entwickelt wurde und sich durch geringste
Verzögerungszeiten und eine hohe Tonqualität auszeichnet. Die theoretische
Verzögerungszeit liegt bei 3 ms.
Apt-X, in dem ADPCM zum Einsatz kommt, gibt es in auch in einem erweiterten
Format als Enhanced apt-X. Dieses Verfahren bringt eine weitere Verbesserung in der
Verzögerungszeit und den Dynamikumfang, da in diesem Format Wortbreiten von 24
Bit verarbeitet werden.
Zu den Schlüsselfunktionen von atp-X gehören die Datenreduktion von 4:1:4, der
Mono/Stereo-Coder, die hohe Bandbreite von bis zu 22,5 kHz und flexible Abtastraten
bis zu 48 kHz.
ASFS Das ASFS-Audiodateiformat ist ein spezielles Audioformat für die sichere Verteilung
audiosoft file structure über digitale Netzwerke. Die Audiosoft File Structure (ASFS) nimmt MP3-Daten in
einen Container mit Kopierschutz und ist mit einer Seriennummer gekennzeichnet. Die
Audiodatei kann auf Festplatten kopiert und versandt werden. Wenn allerdings eine
Kopie abgespielt werden soll, vergleicht der ASFS-Mechanismus die Seriennummer
Exit
Index
9
Weitere Top-Infos unter ITWissen.info
AUDIOKOMPRESSION
mit der die für den Computer authorisiert ist und verhindert dann ein Abspielen, wenn
diese nicht übereinstimmt.
ASFS unterstützt ein mehrstufiges Sicherheitsmanagement, wodurch
Musikproduzenten eine bessere Kontrolle über die Copyrights haben. Die vergebenen
Copyrights können generell auch auf einzelne Personen lauten, die die Musikstücke
auf ihrem Computer abspielen. Außerdem gibt es freie Lizenzen für einen begrenzten
Zeitraum und preiswertere Lizenzen um damit man die Musikstücke auf seinen
eigenen Laptop laden kann.
ASPEC ASPEC ist eine Audiokompression für Signale mit Bitraten von bis zu 64 kbit/s.
ad. spectral entropy cod. Beim ASPEC-Verfahren werden breitbandige Signale in Teilbänder unterteilt. Im
Gegensatz zu Musicam werden diese durch eine modifizierte Cosinus-Transformation
(MDCT) gebildet. Die Transformation in den Frequenzbereich wird bei ASPEC mit
maximal 512 Koeffizienten vorgenommen. Man arbeitet daher mit 512 Teilbändern und
hat dadurch eine genaue Frequenzaufteilung.
Bei der ASPEC-Kompression werden aus dem Eingangssignal Blöcke
herausgeschnitten, die dann transformiert werden. Die Länge eines jeden Blocks wird
signalabhängig variiert, wobei die Größe von einer Impulserkennung gesteuert wird.
Nachdem die Blöcke mit der MDCT-Transformation in den Frequenzbereich
transformiert wurden, werden die Mithörschwellen errechnet.
Die Quantisierung von ASPEC wird von psychoakustischen Bewertungen gesteuert.
Für die Codierung benutzt ASPEC die Huffman-Codierung mit variablem Längencode.
Dabei werden häufig benutzten Elementen ein kürzere, wenig häufig benutzten
Elementen längere Codeworte zugeordnet.
ATRAC ATRAC ist ein Audio-Codec, der von Sony für die MiniDisc entwickelt wurde. Dem 1991
adaptive transform vorgestellten Verfahren folgten 2000 ATRAC3 und ATRAC3plus.
acoustic coding Die Audiokompression basiert i. A. auf der Psychoakustik. Auch bei ATRAC werden
irrelevante Daten von nicht wahrnehmbaren Tönen ausgefiltert. Des Weiteren wird die
menschliche Hörcharakteristik in das Verfahren implementiert. Dies vor allem um das
Exit
Index
10
Weitere Top-Infos unter ITWissen.info
AUDIOKOMPRESSION
Quantisierungsrauschen,
das durch den
Quantisierungsfehler
hervorgerufen wird, zu
reduzieren. ATRAC
nutzt dabei den
psychoakustischen
Effekt, dass der Mensch
bestimmte
Frequenzbereiche
Blockschaltbild der
ATRAC-Kompression
besser, andere schlechter wahrnehmen kann.
Die höchste Hörempfindlichkeit liegt bei Frequenzen um 4 kHz, höhere, aber auch
tiefere Töne werden bei gleichem Schalldruck als leiser empfunden.
Des Weiteren kann ein lauter Ton einen leiseren Ton überdecken, man spricht dann
von Maskierung. Dieser Maskierungs-Effekt ist umso ausgeprägter, je unterschiedlich
der Schalldruck der beiden Töne ist und je näher sie frequenzmäßig bei einander
liegen. ATRAC macht sich diese Effekte zunutze, indem es bei der Kompression die
Tonbereiche bewertet und daraus die Quantisierung ableitet. So werden
Frequenzbereiche, in denen das Ohr sehr empfindlich ist, höher quantisiert als
solche, bei denen das Hörvermögen unempfindlicher ist. Durch diese Maßnahme wird
das Quantisierungsrauschen gering gehalten und vom Tongemisch überlagert.
ATRAC, das ständig weiter entwickelt wurde, passt die Lautstärke und die Frequenz
des Tongemischs ständig an die Hörcharakteristik an.
Das Verfahren eignet sich für qualitativ hochwertiges Audio, es arbeitet mit einer
Abtastrate von 44,1 kHz, hat eine Quantisierung von bis zu 24 Bit und eine
Datenkompresssion von 5:1. Der resultierende Datenstrom liegt bei 292 kbit/s.
ATRAC arbeitet mit drei Frequenzbändern von 0 bis 5,5 kHz, von 5,5 kHz bis 11 kHz
und von 11 kHz bis 22 kHz, die jeweils mit MDCT in 128 Bänder untergliedert sind. Es
gibt einen Blockmodus von 11,6 ms und einen Modus bestehend aus drei kurzen
Blöcken von 2,9 ms, 2,9 ms und 1,45 ms.
Exit
Index
11
Weitere Top-Infos unter ITWissen.info
AUDIOKOMPRESSION
ATRAC 3 ATRAC3 ist eine von ATRAC abweichende Audiokompression. Sie arbeitet in zwei
Modi, dem LP2- und dem LP4-Modus mit Kompressionsraten von 10:1 und 20:1.
Im Gegensatz zu dem Standardverfahren von ATRAC werden die Signale bei ATRAC3
über drei
Quadrature Mirror Filter (QMF) in vier Frequenzanteile gefiltert: von 0 bis 2,75 kHz, von
2,75 kHz bis 5,5 kHz, von 5,5 kHz bis 11 kHz und von 11 kHz bis 22 kHz. Die Qualität
entspricht im Wesentlichen der von MP3; die Klangqualität von Ogg Vorbis, AAC+ und
der AAC-Kompression wird allerdings nicht erreicht. Die obere Frequenzgrenze von
ATRAC3 im LP2-Modus liegt bei 17,5 kHz. Dieser Modus arbeitet mit einer Datenrate
von 132 kbit/s, die sich aus der Halbierung der Datenrate von 292 kbit/s für Stereo
ergibt, abzüglich 14 kbit/s, die für die Unterdrückung von störenden Signalen bei der
Wiedergabe auf älteren Musik-Playern gebraucht werden.
Um die Aufzeichnungslänge von Musikstücken zu erhöhen, wird im LP4-Modus die
Datenrate auf 66 kbit/s halbiert, was eine entsprechend geringere Klangqualität zur
Folge hat. LP-4 hat eine obere Frequenz von 13,5 kHz und eignet sich bestens für
Sprachaufnahmen.
ATRAC3plus ATRAC3plus ist eine weitere Variante von ATRAC. Das mit Subband-Codierung und
MDCT-Transformation arbeitende Verfahren benutzt gegenüber ATRAC3 viermal
größere Transformationdeinheiten. Die Signale werden vor der MDCT-Transformation
in 16 Subbänder unterteilt.
Audio-Codecs nach ATRAC3plus arbeiten mit Datenraten von 48 kbit/s, 64 kbit/s und
256 kbit/s und werden in Musik-Playern, Memory-Stick-Playern und ATRAC-CDPlayern eingesetzt.
Von der Klangqualität her ist ATRAC3plus Ogg Vorbis, aacPlus und der AACKompression unterlegen. Allerdings soll der Klang bei einer Bitrate von 64 kbit/s
vergleichbar sein mit dem von MP3 bei 128 kbit/s.
Audio Audio, abgeleitet aus dem lateinischen audire (hören), bezeichnet den menschlichen
audio Hörbereich, der als Frequenzbereich spezifiziert zwischen 20 Hz und 20 kHz ist.
Exit
Index
12
Weitere Top-Infos unter ITWissen.info
AUDIOKOMPRESSION
spatial audio coding
Tonfrequenzbereich
Dieser Frequenzbereich ist abhängig von der menschlichen Hörcharakteristik und im
oberen Frequenzbereich stark dem menschlichen Alterungsprozess unterlegen. Der
hörbare obere Frequenzbereich kann im Alter bis auf 10 kHz und darunter sinken.
Zu den Audiosignalen gehören die Sprache, Musik und Geräusche.
Audio-Codec Audio-Codecs sind software- oder hardwaremäßige Funktionseinheiten in denen das
AC, audio codec entsprechende Audiokompressionsverfahren umgesetzt wird. Sie dienen sendeseitig
der Codierung mit der Kompression, empfangsseitig der Decodierung und
Dekompression. In den Audio-Codecs wird der angewandte Kompressionsalgorithmus
umgesetzt.
Audio-Codecs lassen sich hinsichtlich ihrer Leistung qualifizieren, die sich im
Klangbild, der oberen Frequenzgrenze, der Bitrate, der Kompressionsrate und der
resultierenden Dateigröße ausdrückt. Im Sinne der Frequenzökonomie und um eine
möglichst geringe Speicherkapazität zu belegen, werden Audio-Codecs mit möglichst
niedrigen Bitraten entwickelt. Allerdings verschlechtert sich das Klangbild der meisten
Audio-Codecs bei niedrigen Bitraten. Diesen Nachteil behebt das in aacPlus und
mp3Pro verwendete SBR-Verfahren. Neben dieser Technik wird in vielen Audio-Codecs
auch die Technik der Maskierung benutzt.
Je nach Vermarktungskonzept können Audio-Codes lizenzfrei sein oder nur gegen
Lizenzgebühren genutzt werden. Zu den lizenzfreien Audio-Codecs gehören Ogg
Vorbis, LAME und Windows Media Audio (WMA), zu den lizenzierungspflichtigen
gehören u.a. MP3, MP3Pro, aacPlus und die AAC-Kompression.
Exit
Index
13
Weitere Top-Infos unter ITWissen.info
AUDIOKOMPRESSION
Eingesetzt werden Audio-Codecs in Musik-Playern und Multimedia-Playern, in der
Sprachkommunikation, Internet-Telefonie, beim Herunterladen von Musiktiteln, beim
Streaming, im Digital-Rundfunk und Digital-TV.
Da die Entwicklung von Audio-Codecs viele Patentente hervorbringt und
firmenspezifisches Know-How umfasst, bleiben viele Details der Codecs
unveröffentlicht.
Audiokompression
audio compression
Die Audiokompression basiert auf der
Psychoakustik und verwendet
Kompressionsverfahren, die sich am
menschlichen Hörverhalten orientieren.
Dazu wird die menschliche
Hörcharakteristik mit der Hörschwelle
berücksichtigt, ebenso wie die Trägheit
Verlustfreie und
des Ohres, die sich in der Technik der
verlustbehaftete
Maskierung ausdrückt. Man spricht bei
Audiokompressionen
dieser Kompression auch von der
Reduzierung von Irrelevanzen, das bedeutet, dass Töne im Audiosignal, die das
Gehör nicht wahrnehmen kann, auch nicht bearbeitet werden. Diese Technik ist in den
meisten Audiokompressions-Verfahren implementiert.
Bei der Audiokompression kann es sich um eine verlustbehaftete Kompression
handeln oder um eine verlustfreie Kompression. Generell werden bei der
verlustbehafteten Audiokompression die Signale mit der Fourier-Transformation, DCTTransformation oder FFT-Transformation in die Frequenzebene transformiert und
mittels Subband-Codierung in einzelne Frequenzbänder aufgeteilt. Bei dieser Technik
kann jedes Frequenzband für sich eine variable Quantisierung und Sampletiefe
haben. So können Frequenzbänder mit hoher Audiodichte und Dynamik mit hoher
Auflösung, andere dagegen mit geringerer Auflösung digitalisiert werden. Bekannte
verlustbehaftete Kompressionsverfahren sind MPEG, MP3, AC-3, ATRAC, TwinVQ,
Ogg Vorbis, aacPlus, mp3pro und die AAC-Kompression.
Exit
Index
14
Weitere Top-Infos unter ITWissen.info
AUDIOKOMPRESSION
Die verlustfreie Kompression zielt auf die Wiedergabe in Originalqualität und auf die
Reduzierung der digitalen Audiodaten, um damit Speicherplatz einzusparen. Die
Verfahren arbeiten teilweise mit Vorhersage-Techniken, wie die LPC-Codierung und die
LPAC-Kompression, andere sind vergleichbar der ZIP-Technik von Daten. Zu diesen
Verfahren gehören OptimFrog und Monkeys Audio.
Auch die Vorhersage-Technik, das Predictive Coding, wie die LPC-Codierung oder das
Long Term Prediction (LTP), wird zur Datenreduktion von Audiosignalen eingesetzt.
Dabei wird nur die Differenz eines Samples zum vorhergehenden gespeichert. Ein
typisches Verfahren ist die adaptive, differenzielle Pulscodemodulation (ADPCM), bei
der die differenziellen Audiosignale adaptiv quantisiert werden.
Neben dem von der ITU standardisierten ADPCM gibt es weitere von der ITU
standardisierte Verfahren für die Dynamikkompression wie das A-Law-Verfahren und
das µ-Law-Verfahren.
Audiovision Audiovision ist eine Wortschöpfung aus den lateinischen Wörtern “audire”, hören, und
AV, audiovision “videre”, sehen. Es der Sammelbegriff für die kombinierte Darbietung von Ton- und
Bildinformationen. Die Entwicklung audiovisueller Medien beginnt beim Tonfilm, geht
über Fernsehen und Video bis zu den Projektionen auf multimedialen Handys.
Audiovisionstechniken werden in der Unterhaltungsindustrie, im Heimbereich, in der
Präsentation, den Auskunftsystemen, im Unterrichtwesen usw. eingesetzt, also überall
dort, wo Informationen gleichzeitig mittels Audio und Bild- oder Bewegtbilddarstellung
übermittelt werden.
BCC Das Binaural Cue Coding (BCC) ist eine Kompressionstechnik, bei der stereophones
binaural cue coding Audio in mono Audio umgesetzt und mit Zusatzinformationen versehen wird. Generell
wird bei allen Kompressionstechniken versucht die Informationsdichte ohne
wahrnehmbare Qualitätsverluste zu erhöhen. Das BCC-Verfahren setzt darauf, dass
ein stereophoner Effekt auf Laufzeit- und Pegelunterschieden zwischen den beiden
Stereokanälen basiert. Man kann also aus einem Monosignal ein Stereosignal
erzeugen, wenn man bestimmte Frequenzanteile anhebt oder absenkt und diese in
Exit
Index
15
Weitere Top-Infos unter ITWissen.info
AUDIOKOMPRESSION
ihrer Laufzeit verändert. Alles weitere wird vom menschlichen Gehirn bearbeitet.
Um die Datenrate so gering als möglich zu halten, wird bei der BCC-Codierung aus
einem Stereosignal ein Monosignal über einen Downmix generiert. Zusätzlich werden
spezielle Informationen zu den Kanaldifferenzen erzeugt. Diese
Seitenbandinformationen haben einen geringen Datenumfang, so dass beide
Informationen zusammen, das errechnete Monosignal und die Seitenbandinformation,
einen wesentlich geringeren Datenumfang haben, als zwei Stereokanäle.
Aus dem errechneten Monosignal und der Seitenbandinformation wird das
Stereosignal rekonstruiert. Das BCC-Verfahren kann auch für drei Kanäle angewendet
werden.
BSAC Bit Sliced Arithmetic Coding (BSAC) ist eine von Samsung entwickelte skalierbare
bit sliced arithmetic Audiocodierung, die Bestandteil von MPEG-4 ist. Im Gegensatz zur AACcoding Kompression, mit dem BSAC im wesentlichen identisch ist, benutzt BSAC eine
rauschlose Codierung. Ein mit AAC-Kompression erzeugter Bitstrom, kann mit einen
rauschlosen BSAC-Bitstrom transcodiert werden.
Das Verfahren kann Bitströme mit präzisen Bitraten zwischen 16 kbit/s und 64 kbit/s
pro Kanal erzeugen, hat aber zwischen 40 kbit/s und 64 kbit/s seine besten
Eigenschaften. Die Skalierbarkeit bezieht sich auf die Datenrate, die in 1-kbit/sSchritten verfeinert werden kann. Bei niedrigen Bitraten ist die Effizienz von BSAC
relativ gering.
Eingesetzt wird BSAC im Audio-Streaming, Digital Multimedia Broadcast (DMB), Audio
on Demand und im Internet-Streaming.
CELP CELP ist ein hybrides Verfahren der Sprachkompression, das die Vorteile der
code excited linear Signalformcodierung, wie sie in PCM eingesetzt wird, mit denen der parametrischen
prediction Codierung, wie bei der LPC-Codierung, vereint. CELP zeichnet sich durch ein gute
Sprachqualität aus, vergleichbar mit PCM, hat allerdings eine geringere Datenrate im
Vergleich zu PCM oder ADPCM. Ein hybrider Vocoder basierend auf CELP hat
bedingt durch die doppelte Codierung eine wesentlich höhere Komplexität.
Exit
Index
16
Weitere Top-Infos unter ITWissen.info
AUDIOKOMPRESSION
Die Datenraten von CELP sind in 200-bit/sStufen skalierbar zwischen 3,85 kbit/s und
23,8 kbit/s, bei Abtastraten zwischen 8 kHz
und 16 kHz. Mit diesen Datenraten kann
Musik nur in verminderter Qualität
übertragen werden.
Neben dem normalen CELP-Verfahren gibt
es von der ITU-T spezifizierte Varianten mit
geringeren Verzögerungszeiten und
Übertragungsraten, das so genannte »Low
Delay CELP (LD-CELP)«, das in der ITU-TITU-Empfehlung G.114 für
Empfehlung G.728 spezifiziert ist und das
Verzögerungszeiten bei
»Conjugate Structure ACELP (CS-ACELP)«
Sprachübertragungen
aus G.729.
G.728 erreicht bei einer Übertragungsrate von 16 kbit/s einen MOS-Wert für die
Sprachqualität von 4,0 und zeichnet sich durch eine Signalverzögerungszeit aus, die
durch das Codieren und Decodieren entsteht, die bei 0,625 ms liegt. Bei dem
Standard G.729 wird vor dem Codieren ein Vergleich des Sprachsignals mit dem
Modell durchgeführt. Dieses aufwändige Verfahren benötigt für die Übertragung nur
die halbe Übertragungsrate gegenüber LD-CELP.
Für das in MPEG-4 eingesetzte CELP gibt es zwei Abtastfrequenzen von 8 kHz und
16 kHz. Der Betrieb mit der niedrigeren Abtastrate wird als NB-CELP (Narrowband)
bezeichnet, das mit 16 kHz als WB-CELP (Wideband).
CODEC Das Kunstwort Codec steht für Compression und Decompression.
compression/ Bei einem Codec handelt es sich um eine software- oder hardwaremäßige
decompression Funktionseinheit, die Audio- oder Videosignale nach vorgegebenen Verfahren in
Echtzeit verändert. Die Verfahren sind von der ITU standardisiert und u.a. in den ITUEmpfehlungen H.261, H.263, H.320, H.321 und H.323 beschrieben. Codecs werden in
der Multimediatechnik, der Audio- und Video-Kommunikation eingesetzt. So bei der
Exit
Index
17
Weitere Top-Infos unter ITWissen.info
AUDIOKOMPRESSION
Bildtelefonie, bei Videokonferenzen, bei der Audiowiedergabe in oder bei der InternetTelefonie.
Bei den Video-Codecs unterscheidet man zwischen den Intra-Frame-Codecs und den
Inter-Frame-Codecs. Erstere versuchen so viele Informationen wie möglich aus einem
einzelnen Bild zu tilgen; die Codecs, die mit dem Inter-Frame-Verfahren arbeiten,
vergleichen zwei aufeinander folgende Vollbilder und ermitteln die Differenz zwischen
beiden. Dieses Verfahren wird vorwiegend bei Video eingesetzt.
Da Codecs mit unterschiedlichen Kompressionsalgorithmen arbeiten, kann es zu
starken Qualitätsunterschieden kommen und zwar in Bezug auf die Bild- oder
Tonqualität, die sich in der Kontinuität in der Darstellung und Übertragung ausdrückt.
Die wichtigsten Hardware-Codec für Video sind Motion-JPEG, Px64 nach H.261 und
H.320, und MPEG in den verschiedenen Varianten. An Software-Codecs sind zu
nennen Cinepak, Indeo, DivX, Quicktime, Video for Windows und Windows Media
Video (WMV).
Wichtige Audio-Codecs sind aacPlus, mp3pro, Ogg Vorbis, RealAudio, Windows
Media Audio, QDesign u.a. Da Codecs im Allgemeinen durch viele Patente und
firmeninternes Wissen belegt sind, werden häufig nur wenige Details über deren
Algorithmen und Verfahren publiziert.
Die Abkürzung Codec wird häufig auch im Zusammenhang mit einem Codierer/
Decodierer verwendet.
DFT Die diskrete Fourier-Transformation ist die Zerlegung einer zeitbezogenen
discrete Fourier Schwingung in ihre frequenzmäßigen Spektralanteile. Dieses Verfahren wird in der
transformation Audiotechnik zur Bestimmung und Beeinflussung des Frequenzspektrums und zur
Optimierung des Klangbildes verwendet. Über das Frequenzspektrum kann das
Ursprungssignal wieder regeneriert werden.
In der diskreten Fourier-Transformation wurden die spezifischen Belange der
Datenverarbeitung optimiert. Die Umkehrung des DFT-Verfahrens ist die inverse
diskrete Fourier-Transformation (IDFT).
Da das DFT-Verfahren viel Redundanz enthält, wird in der Praxis in der Regel die FFTExit
Index
18
Weitere Top-Infos unter ITWissen.info
AUDIOKOMPRESSION
Transformation angewandt, deren Ergebnisse identisch sind mit denen der DFTTransformation.
Digital-Audio Digital-Audio ist die Digitalisierung des analogen Audiosignals. Nach dem
digital audio Abtasttheorem von Nyquist muss die Abtastfrequenz mindestens doppelt so groß sein
wie die höchste Frequenz des abzutastenden Signals. Geht man von einer höchsten
Audiofrequenz von 20 kHz aus, dann muss das Abtastsignal für eine gute
Audioqualität mindestens über 40 kHz sein. In den verschiedenen Speichermedien
werden unterschiedliche Abtastraten verwendet, was auch mit der Speicherkapazität
zusammenhängt. So werden Audiosignale auf einer CD-A mit einer Abtastrate von
44,1 kHz abgetastet, bei DVDs sowohl mit 44,1 kHz als auch mit 96 kHz. Bei MPEG-1Audio mit PCM werden Abtastraten von 32 kHz, 44,1 kHz und 48 kHz, bei MPEG-2
Abtastraten von 16 kHz, 24 kHz, 32 kHz, 44,1 kHz, 48 kHz und 96 kHz benutzt.
Neben der Abtastrate spielt die Quantisierung für die Audioqualität eine wesentliche
Rolle. Wird beispielsweise ein Audiosignal mit 4 Bit pro Abtastung quantisiert, dann
ergeben sich daraus 16 Pegel und eine maximale Pegelabweichung von 6,25 %. Bei 8
Bit beträgt die maximale Pegelabweichung noch 0,39 % und bei 16 Bit nur noch
0,0015 %.
Gleichzeitig steigen die Dateigröße und der Speicherbedarf proportional mit der
Abtastrate und der Sampletiefe. So benötigt beispielsweise eine Minute
unkomprimiertes Digitalaudio in Stereo auf einer CD-DA, das mit einer Abtastrate von
44,1 kHz und 16 Bit auf zwei Kanälen digitalisiert wurde, einen Speicherbedarf von
10,584 MB. Auf einer DVD hingegen wäre der Speicherbedarf bei einer Abtastrate von
96 kHz, einer Quantisierung von 24 Bit auf zwei Kanälen 34,56 MB pro Minute.
Bei verringerter Bandbreite und niedrigerer Abtastrate kommt man beispielsweise bei
der CD-ROM/XA in der Klasse C mit einer Abtastrate von 18,8 kHz und 16 Bit für
Sprachqualität in Mono auf ein Volumen von 2,27 MB pro Minute.
Dolby-Digital Unter Dolby versteht man allgemein das Kompressionsverfahren Dolby-Digital. Mit
DD, dolby digital diesem Verfahren, das früher AC-3 hieß, ist eine sechskanalige Tonwiedergabe
Exit
Index
19
Weitere Top-Infos unter ITWissen.info
AUDIOKOMPRESSION
möglich, genannt DD-5.1, wobei bis zu fünf Vollkanäle und ein LFE-Kanal für TieftonEffekte einen Surround-Klang erzeugen. Die Vollbereichskanäle sind für die vorderen
Lautsprecher - links, mittig und rechts - und für die beiden Surround-Lautsprecher
hinten links und rechts, die für realistische Surroundeffekte sorgen. Der
Frequenzbereich dieser Lautsprecherboxen liegt zwischen 20 Hz bis 20 kHz. Der
Tiefbasskanal des Subwoofers hat eine reduzierte Bandbreite bei tiefen Frequenzen.
Dolby Digital (DD) wird in DVD-Audio eingesetzt und gehört neben MPEG und PCM
zu den wichtigsten Audiodateiformaten. Es arbeitet mit Codierraten von 384 kbit/s bis
448 kbit/s.
Die Dolby Laboratories haben neben Dolby Digital viele Standards in Ton- und
Soundsystemen gesetzt. So beispielsweise für die Rauschunterdrückung.
Dolby-Digital kennt mehrere unterschiedliche Modi, die man an der Versionsangabe
erkennt. Dabei bedeutet die Angabe hinter dem Punkt ob ein eigener Kanal für den
Subwoofer existiert.
Dolby-Digital 1.0: einkanalige Mono-Wiedergabe über den mittig angeordneten
Lautsprecher.
Dolby-Digital 2.0: Zweikanalige Stereo-Wiedergabe über den rechten und linken
Lautsprecher.
Dolby-Digital 4.0: Mehrkanalige kombinierte Stereo/Mono-Wiedergabe für DolbySurround über die voderen rechten und linken Lautsprecher in Stereo, aus dem
mittleren und den hinteren Lautsprechern in Mono.
Dolby-Digital 5.0: Mehrkanalige Stereo-Wiedergabe mit allen fünf Lautsprechern außer
dem Subwoofer.
Dolby-Digital 5.1 (DD-5.1): Mehrkanalige Stereo-Wiedergabe mit Vollbereichskanälen
und einem Basskanal, der als Low Frequency Enhancement (LFE) in MPEG-2
übertragen wird. Der Frequenzbereich für den Basskanal liegt zwischen 3 Hz und 120
Hz. DD-5.1 hat folgende Lautsprecheranordnung: Vorne links, vorne Mitte, vorne
rechts, hinten links, hinten rechts und Subwoofer.
Dolby Digital Plus (DD+), eine verlustbehaftete Audiokompression, die in HD-DVD und
Blu-Ray-Disc obligatorisch ist.
Exit
Index
20
Weitere Top-Infos unter ITWissen.info
AUDIOKOMPRESSION
Dolby-Digital EX Hierbei handelt es sich um ein 6.1-Kanal-System, bei dem das 5.1Kanal-System um einen rückwärtigen Center-Kanal (SRC) erweitert wird. Dieser
Center-Kanal umfasst den gleichen Frequenzbereich wie die vorderen Kanäle. Sein
Signal ist als Matrix in den Signalen der beiden Surroundkanäle untergebracht. 6.1
hat ein noch realistischeres Klangbild gegenüber 5.1. Dolby Digital EX ist die
Heimversion von Dolby-Digital-Surround EX.
Neben diesen Versionen gibt es als Mehrkanaltechnik noch Dolby-Surround.
Die Extension für Dolby-Digital-Dateien ist *.dts.
DTS Digital Theatre Sound (DTS) ist ein 6-kanaliges Kompressionsverfahren für Surrounddigital theatre sound Klang, vergleichbar Dolby-Digital. Das Verfahren ist verlustbehaftet und bietet bei
einem niedrigen Kompressionsverhältnis eine bessere Klangqualität als Dolby-Digital.
DTS arbeitet wie Dolby mit Surround-Kanälen.
Bei diesen Kanälen handelt es sich um
berechnete, codierte Tonkanäle, die das
Richtungsempfinden unterstützen.
Das Audiodateiformat gibt es in 3 Varianten:
DTS 5.1: Surround-Klang mit sechs
Audiokanälen für vorne rechts, links und
mittig, für hinten rechts und links sowie einen
LFE-Kanal für einen Subwoofer. Dieser
überträgt einen reduzierten Frequenzumfang
im Tieffrequenzbereich.
DTS 6.1: Bei DTS 6.1 handelt es sich um den
erweiterten Tonstandard DTS-ES für
Surround-Klang mit sieben Tonkanälen. Das
Verfahren entspricht im Wesentlichen dem von
Spezifikationen von DTS für
DTS 5.1 mit dem Unterschied, dass das Signal
DVD, DVD-Audio,
für den hinteren Center-Lautsprecher über
HD-DVD und Blu-Ray
eine Matrix aus den beiden hinteren Signalen
Exit
Index
21
Weitere Top-Infos unter ITWissen.info
AUDIOKOMPRESSION
(links und rechts) gewonnen wird. Neben den sechs Lautsprecher hat DTS 6.1 noch
einen Tieffrequenzkanal für den Subwoofer.
DTS-ES Discrete (6.1): Surround-Klang mit sieben Tonkanälen für vorne rechts, links
und mittig, hinten rechts, links und mittig und einem Tieffrequenzkanal für einen
Subwoofer. Im Unterschied zu DTS 6.1 ist der hintere mittlere Kanal ist ein
Volltonkanal. DTS-ES ist die DHT-Version für THX.
DTS++, dieses Format, das für die Blu-Ray-Disc und die HD-DVD obligatorisch ist,
wurde umbenannt in DTS-HD (High Definition).
EAC Der Enhanced Audio Codec (EAC) ist in unmittelbarem Zusammenhang mit der
enhanced audio codec Entwicklung der EVD-Disk zu sehen. Der von Beijing E-World entwickelte AudioCodec, dessen Kompression Redundanzen und Irrelevanzen der Audiosignale
berücksichtigt, unterstützt Mono, Stereo und Surround 5.1.
FFT-Transformation Die Fast Fourier Transformation (FFT) ist ein mathematisches Verfahren der Fourierfast fourier transformation, Transformation, wie es in Computern implementiert ist. Bei diesem Verfahren werden
FFT zeitbezogene Signale in den Frequenzbereich transformiert. Die Fast Fourier
Transformation ist eine schnellere Variante der diskreten Fourier-Transformation (DFT)
und wird in der Multimediatechnik dazu verwendet, um Audiosignale in einzelne
Sinus-Schwingungen und diese wiederum in die entsprechenden Spektralfrequenzen
zu zerlegen.
In der Frequenzebene ist eine Analyse des Klangbildes möglich.
FLAC FLAC ist eine verlustfreie Kompresion von Audiosignalen, vergleichbar OptimFrog und
free lossless Monkeys Audio, dessen Dateien auf den verschiedensten Musik-Playern abgespielt
audio codec werden können.
Das FLAC-Projekt besteht aus dem Stream-Format, der Library für die Coder und
Decoder, einer Befehlszeile für die Codierung und Decodierung von FLAC-Dateien,
einem Metafile-Editor und den Input-Plugins für verschiedene Musik-Player.
Das frei verfügbare FLAC, dessen Spezifikationen und Formate veröffentlicht werden,
Exit
Index
22
Weitere Top-Infos unter ITWissen.info
AUDIOKOMPRESSION
wird von den meisten Betriebssystemen unterstützt, so von Windows, Unix, Linux,
Solaris, OS/2 und Amiga.
Fourier-Synthese Eine Fourier-Synthese dient der Klangsynthese, der Erzeugung von Klängen aus
fourier synthesis Grund- und Oberwellen. Basis für die Fourier-Synthese ist die inverse FourierTransformation, die die Signale aus der Frequenzachse in die Zeitachse transformiert.
Dem Verfahren nach werden aus einem Frequenzspektrum mit vielen Harmonischen
einzelne Frequenzen ausgefiltert, in ihrer Amplitude geändert und mit anderen
Harmonischen additiv zum gewünschten Klangbild zusammengefügt. Wenn jede
einzelne Harmonische in ihrer Amplitude und dem zeitlichen Verlauf geändert werden
kann, können auf diese Weise beliebige Klangbilder erzeugt werden.
Fourier-Transformation Eine Fourier-Transformation ist ein mathematisches Verfahren, mit dem Signale aus
Fourier transformation, FT
dem Zeitbereich in den
Frequenzbereich transformiert
werden. Sie dient somit der
Bestimmung des Frequenzspektrums
eines zeitbezogenen Signals.
Die Transformation eines reinen
Sinus-Signals von der Zeitebene in
die Frequenzebene hat eine einzelne
Spektrallinie zur Folge. Alle anderen
nicht sinusförmigen Signale wie
Rechtecksignale, modulierte Signale,
Impulse usw. bestehen aus einer
Grundwelle und mehreren in der
Beispiel einer FourierAmplitude unterschiedlichen
Transformation, der
Oberwellen.
Umsetzung von der Zeit- in
In der Computertechnik wird die
die Frequenzebene
Fourier-Transformation meist als
Exit
Index
23
Weitere Top-Infos unter ITWissen.info
AUDIOKOMPRESSION
mathematisches Verfahren in Form der Fast Fourier Transformation (FFT)
implementiert.
Die Umkehrung der Fourier-Transformation, also die Transformation eines
frequenzbezogenen Funktion in eine zeitbezogene, nennt man inverse FourierTransformation.
Die Bezeichnung der Transformation geht auf den französischen Mathematiker Baron
Jean Baptiste Joseph Fourier zurück, der 1768 bis 1830 lebte.
G.711 Die ITU-Empfehlung G.711 beschreibt Transformationsverfahren für die
Audiokompression. Diese Technik, die bereits 1969 von dem CCITT international
standardisiert wurde, ist ein Sprach-Codec mit µ-Law- und A-Law-Verfahren.
Das beschriebene Kompressionsverfahren basiert auf einer logarithmischen
Umsetzung des Audiosignals und einer Pulscodemodulation (PCM) mit 13 Bit
Auflösung, die nach der Quantisierung mit einer logarithmischen Tabelle in einen 8Bit-Wert umgesetzt wird. Durch die Logarithmierung wird die menschliche
Hörcharakteristik adaptiert. Die Kompressionsrate von G.711 beträgt somit 13:8, der
MOS-Wert 4,4.
Die Umsetzung der Empfehlung G.711 im A-Law-Verfahren unterscheidet sich von der
im µ-Law-Verfahren verwendeten durch unterschiedliche 13:8-Umsetzungstabellen.
Der Sprach-Codec G.711 eignet sich nicht für die Kompression von qualitativ
hochwertigem Audio; es wird in ISDN und bei der Übertragung von Audio unter H.261
eingesetzt.
GSM 06.10 GSM 06.10 ist ein von der ETSI standardisiertes Verfahren für die Sprachkompression
im D2-Netz und in der Satellitenkommunikation, das aus einer Reihe von Bitworten
komprimierte Bitgruppen bildet. Das Verfahren komprimiert 160 Abtastungen mit 13 Bit
in Gruppen mit 260 Bits bzw. 33 Bytes, das bedeutet eine Datenrate von 1.650 Bytes/s
(13,2 kbit/s) bei 8 kHz Abtastrate.
Als Codierschema wird Regular Pulse Excitation (RPE) mit Long Term Prediction (LTP)
benutzt.
Exit
Index
24
Weitere Top-Infos unter ITWissen.info
AUDIOKOMPRESSION
HDA High Definition Audio (HDA) ist ein von Intel entwickelter Standard für qualitativ
high definition audio hochwertiges Audio. High Definition Audio soll Personal Computern (PC) die Qualität
von Audiogeräten verleihen. Neben der Wiedergabe, die von der höheren Bandbreite
profitiert, unterstützt HDA auch mehrkanalige Mikrofonanschlüsse, dynamische
Bandbreiten für Streaming und eine flexible Konfiguration der Audiogeräte. Das
Klangerlebnis soll dem von Dolby-Digital entsprechen. Die Bandbreiten können
dynamisch verteilt werden und liegen für Mehrkanal bei 32 Bit bei 192 kHz. Diese
Auflösung und Samplingrate werden bei DVD-Audio benutzt; Audio-CD arbeitet mit
16-Bit-Auflösung und 44,1 kHz Abtastrate.
Das HDA-Verfahren erkennt durch das Sensing der Analog-Buchsen die
angeschlossenen Audio-Geräte.
High Definition Audio soll AC97 ablösen.
HE-AAC Das High Efficiency Advanced Audio Coding (HE-AAC) ist eine von der Coding
high efficiency AAC Technologies GmbH entwickeltes Audiokompression, die unter der Bezeichnung
aacPlus vermarktet wird. HE-AAC bzw. aacPlus nutzt das SBR-Verfahren und ergänzt
die AAC-Dateien mit Informationen, aus denen der Decoder beim Abspielen die hohen
Freuquenzen rekonstruieren kann.
HVXC HVXC ist ein sprachoptimiertes parametrisches Verfahren der Sprachkompression, das
harmonic vector excitation mit 8 kHz arbeitet und Datenraten von 2 kbit/s bis 6 kbit/s erzeugt. Bei dieser äußerst
effizienten Sprachkompression wird das Restsignal aus der LPC-Codierung
transformiert und anschließend parametrisiert. In MPEG-4 V.2 werden die Fähigkeiten
von HVXC durch eine variable Bitrate (VBR) erweitert.
Das HVXC-Verfahren wird u.a. im Digital-Rundfunk eingesetzt.
Hörcharakteristik Das menschliche Ohr hat ein frequenz- und altersabhängiges Hörempfinden: die so
genannte Hörcharakteristik. Der hörbare Frequenzbereich ist lautstärkeabhängig und
liegt bei Kindern im Frequenzbereich zwischen 20 Hz und 20 kHz. Die
Hörcharakteristik ändert sich mit unterschiedlichen Schallpegeln und hat ihre höchste
Exit
Index
25
Weitere Top-Infos unter ITWissen.info
AUDIOKOMPRESSION
SBR
spectral band replication
Hörcharakteristik mit
Hörschwelle
Sensitivität bei Frequenzen zwischen 2 kHz und 4 kHz. Bei diesen Frequenzen
erreicht das Gehör einen maximalen Dynamikumfang bis zur Schmerzschwelle von
etwa 130 dB. Töne mit höheren Frequenzen als 4 kHz werden ebenso wie tiefere Töne
bei gleichem Schalldruck als leiser empfunden. Des weiteren sind bestimmte
Frequenzen oberhalb von 16 kHz und unterhalb von 30 Hz nicht hörbar.
Die empfundene Lautstärke, die in Phon angegeben wird, ist abhängig von dem
akustischen Signal und dessen Signalfrequenz. Der Bezugswert für den Schalldruck
ist 0 dB bei einer Frequenz von 1 kHz. Je nach Tonhöhe werden die Signale mit
gleichem Schalldruck unterschiedlich laut empfunden. Dies wird durch die Linien, die
den gleichen Schalldruck aufweisen, in der Hörcharakteristik verdeutlicht.
Die geringste wahrnehmbare Lautstärke repräsentiert die Hörschwelle. Die
Hörschwelle ist eine frequenzabhängige Kennlinie, die den niedrigsten
Exit
Index
26
Weitere Top-Infos unter ITWissen.info
AUDIOKOMPRESSION
wahrnehmbaren Schalldruck in Bezug zur Frequenz darstellt. Die höchste
wahrnehmbare Lautstärke ist die Schmerzschwelle, die bei Schalldrücken von etwa
130 dB liegt. Der Bereich zwischen der Hörschwelle und der Schmerzschwelle wird
Hörfeld genannt.
Hörschwelle Die Hörschwelle charakterisiert die geringste Lautstärke, die ein Hörender
HL, hearing threshold wahrnehmen kann. Es handelt sich dabei um eine empirisch ermittelte Kennlinie der
Hörcharakteristik, die den niedrigsten wahrnehmbaren Schalldruck über den hörbaren
Frequenzbereich darstellt.
Der Referenzwert beträgt bei 1.000 Hz 0 dB. Die Hörschwelle ist frequenzabhängig
und steigt bei tiefen und hohen Tönen stark an. Das bedeutet, dass tiefe Töne, wenn
sie mit gleicher Lautstärke empfunden werden sollen, einen wesentlich höheren
Schalldruck benötigen.
Die Hörschwelle ändert sich mit der Lautstärke. Bei lauten Tönen steigt die gesamte
Kennlinie zu höheren Pegeln hin an, bei leisen Tönen sinkt sie ab und wird
empfindlicher.
Joint-Stereo Joint-Stereo ist eine Stereotechnik, die gegenüber echtem Stereo eine höhere
Kompression aufweist, da bestimmte Kanalinformationen zusammengefasst werden.
Dieses Verfahren, das in MP3 eingesetzt wird, wird auch als M/S-Stereofonie bzw.
Middle/Side-Stereo-Codierung bezeichnet.
Da bei normalen Stereo-Übertragungen der Unterschied zwischen dem linken und
dem rechten Kanal nicht besonders groß ist, überträgt man bei Joint-Stereo ein
Summensignal aus beiden Kanälen und ein Differenzsignal, das sich in einzelnen
Frequenzbändern in der Lautstärke unterscheidet. So sind für die Klangwiedergabe
die tieferen Frequenzbänder nicht richtungssensitiv und müssen daher auch nicht
getrennt übertragen und abgestrahlt werden.
Joint-Stereo funktioniert nur dann, wenn die Audiosignale vom linken und rechten
Kanal geringe Unterschiede aufweisen.
Exit
Index
27
Weitere Top-Infos unter ITWissen.info
AUDIOKOMPRESSION
Kompression Das Prinzip der Datenkompression von Text-, Grafik- und Bewegtbilddaten beruht auf
compression der Eliminierung redundanter Zeichen bzw. einer dynamischen Zuordnung von
Datenbits in Abhängigkeit oder Häufigkeit eines Zeichens (Character). Im Gegensatz
dazu werden bei der Sprachkompression effiziente Codierverfahren bei den Codes
eingesetzt.
Ausgefeilte Kompressionsalgorithmen ermöglichen die Datenkompression von
beliebigen Datenströmen, auch wenn es sich um Computerprogramme oder
Zufallsfolgen handelt.
Ziel der Datenkompression ist es, die Dateigrößen in ihrem Umfang zu reduzieren, um
dadurch einen schnelleren Datendurchsatz zu erreichen und mit weniger
Speicherbedarf auszukommen.
In der Datenkompression unterscheidet man zwischen echter Kompression,
verlustfreier Kompression und verlustbehafteter Kompression. Die Verfahren setzen
auf unterschiedlichen Algorithmen auf und erfassen häufig nur Zustandsänderungen
gegenüber dem vorherigen Zustand.
Besondere Bedeutung finden die Kompressionsverfahren bei der Bildkompression
(Grafiken, Fotos), bei Audio sowie bei Bewegtbildern (Video). Bei der Kompression von
Bildern und Grafiken setzt man auf die Redundanz von Farben, Flächen und Linien,
bei Audio auf die Irrelevanz von Tonfrequenzen und Pegeln und bei der
Videokompression auf die Unterschiede zwischen aufeinander folgenden Bildern.
Bekannte Kompressionsverfahren für Bilder und Grafiken sind die
Lauflängencodierung, TIFF und JPEG, für die Sprachkompression GSM 06.10, das ALaw-Verfahren nach H.321 und ADPCM, für die Audiokompression MPEG, MP3,
ATRAC und Advanced Audio Coding (AAC) und für die Video- und
Bewegtbildkompression H.261 und MPEG.
Verfahren für die Textkompression sind die Lauflängencodierung (RLE), das WordCoding, die Huffman-Codierung und der LZW-Alorithmus.
In der Modemtechnik wird zur Datenkompression häufig das Kompressionsverfahren
V.42bis eingesetzt, das als Vorgänger MNP4 und MNP5 hat.
Exit
Index
28
Weitere Top-Infos unter ITWissen.info
AUDIOKOMPRESSION
Kompressionsrate Die Kompressionsrate spiegelt das Verhältnis der Dateigröße wider, das zwischen
compression rate einem komprimierten und einer unkomprimierten Signal besteht. Das Verhältnis kann
als solches angegeben werden, beispielsweise 1:100, und besagt, dass die
Dateigröße nach der Kompression einhundertstel der vorherigen Dateigröße beträgt.
Statt der Verhältnisangabe kann die Kompressionsrate auch als Prozentsatz
angegeben werden, beispielsweise 94 %. Das bedeutet, dass die Dateigröße der
komprimierten Datei um 94 % gegenüber der Originaldatei verkleinert wurde.
Die Kompressionsrate ist wesentlich von der Art der Kompression abhängig. Eine
verlustfreie Kompression wird immer eine geringere Kompressionsrate haben, als eine
verlustbehaftete Kompression. Des Weiteren ist die Kompressionsrate von der Art der
Medien abhängig: Daten haben eine geringere Kompression als beispielsweise Audio
oder Video.
Der Spielraum den Kompressionsraten umfassen können liegt zwischen 1:1,.. und
1:1.000 und höher wie beispielsweise bei der Kompression von Videosequenzen nach
H.261.
Kritische
Frequenzbänder
critical frequency bands
Die Unterteilung des hörbaren
Frequenzspektrums in kritische
Frequenzbänder, die von Heinrich
Barkhausen vorgenommen wurde,
spiegelt das Auflösungsverhalten des
menschlichen Ohres wider.
Es handelt sich um die Frequenzbänder,
die durch Maskierung abgedeckt werden.
Sie haben unterschiedliche Bandbreiten,
die zu tieferen Frequenzen geringer
werden und zu höheren ansteigen. Der
vom Gehör wahrgenommene
Frequenzumfang lässt sich in 27 kritische
Frequenzbänder unterteilen, die bei der
Obere Frequenzen der
kritischen Frequenzbänder
Exit
Index
29
Weitere Top-Infos unter ITWissen.info
AUDIOKOMPRESSION
Audiokompression in MPEG, MP3, mp3Pro und ATRAC in 32 Bandpass-Filtern
nachgebildet werden. Die unteren Frequenzbänder unterhalb von 500 Hz haben eine
Bandbreite von unter 100 Hz, die Bänder über 500 Hz entsprechen einer sechstel
Oktave.
LAME LAME ist ein MP3-Encoder, der als Open-Source-Projekt ständig weiterentwickelt und
ain’t an MP3 encoder verbessert wurde. Er gehört heute zu den hochentwickelten MP3-Encodern, der in der
Klangqualität und der Transfergeschwindigkeit mit anderen kommerziellen Encodern
konkurrieren kann.
Die technischen Verfeinerungen von LAME sind auf Modelle der Psychoakustik
zurückzuführen. So arbeitet LAME zur Optimierung der Dateigröße und der
Klangqualität mit mehreren Modi: der durchschnittlichen Bitrate (ABR), der variablen
Bitrate (VBR) und der konstanten Bitrate (CBR). Mit der variablen Bitrate wird bei
Bitraten zwischen 270 kbit/s und 220 kbit/s die höchste Klangqualität erzielt. Bei
Bitraten ab 180 kbit/s wird die Qualität als hoch und bei Bitraten zwischen 140 kbit/s
und 160 kbit/s als gut bezeichnet.
Die verschiedenen Modi sind voreingestellt und können direkt aufgerufen werden.
LAME eignet sich auch als Lerntool für MP3 und kann kostenlos aus dem Netz
herunter geladen werden.
LPAC LPAC ist eine verlustfreie Audiokompression. Das bedeutet, dass die komprimierten
lossless predictive audio Signale nach der Dekompression wieder identisch sind mit den Originalsignalen. Bei
compression der verlustfreien Kompression ist die Kompressionsrate im Gegensatz zu der
verlustbehafteten Kompression wesentlich geringer. So wird mit LPAC eine
Kompressionsrate von 1,5: 1 bis 4:1 erzielt, wohingegen beispielsweise mit der
verlustbehafteten Kompression von MP3 eine Verhältnis von 11:1 erzielt wird.
Die LPAC-Kompression arbeitet mit linearer Prädiktion und kann Audiosignale mit 8 Bit,
16 Bit, 20 Bit und 24 Bit in Mono und Stereo digitalisieren. Diese lineare Prädiktion
arbeitet mit einer Voraussage hinsichtlich der kommenden Signale.
LPAC hat zyklische Blockprüfung (CRC) für die Fehlererkennung, ein grafisches
Exit
Index
30
Weitere Top-Infos unter ITWissen.info
AUDIOKOMPRESSION
Interface und insgesamt sechs verschiedene Kompressions-Modi für unterschiedliche
Kompressionen und Geschwindigkeiten. Die Wiedergabegeschwindigkeit kann ein
Vielfaches der Echtzeitgeschwindigkeit betragen. Die Dateien, die die Extension *.pac
haben, können über einen WinAmp-Player abgespielt werden.
Es gibt LPAC-Versionen, die von Windows, Linux und Solaris unterstützt werden.
LPC, linear predictive Die LPC-Codierung ist ein Transformationsverfahren, das in der Sprachkompression
coding von Mobilfunksystemen eingesetzt wird. Das Verfahren arbeitet mit Filtertechniken und
filtert aus einem Signalgemisch sprachrelevante Komponenten wie die
Sprachgrundfrequenz, die Lautstärke und die Stimmhaftigkeit heraus. Dazu wird das
digitale Sprachsignal in ein Erregersignal und in Koeffizienten eines zeitvarianten
Filters transformiert. Dies geschieht durch regelmäßige Abtastung (160 Abtastwerte
pro Sekunde) des zu übertragenden Sprachsignals, aus dem dann Filterkoeffizienten
gebildet und zum Decoder übertragen werden. Bei der Aufteilung in kurzzeitige
Segmente geht man davon aus, dass die Änderung zwischen zwei Segmenten
marginal ist. Durch die lineare Vorhersage brauchen daher nur die Änderungen
zwischen zwei aufeinander folgende Kurzzeitsegmente übertragen zu werden,
wodurch die Dateigröße wesentlich reduziert werden kann.
Mit der LPC-Codierung können bei Abtastraten von 8 kHz und 16 kHz Datenraten von
6 kbit/s bis 24 kbit/s erreicht werden. Das Verfahren wird u.a. auch zur
Sprachcodierung in GSM eingesetzt.
LTAC, lossless transform Die verlustfreie Kompression von Audiosignalen ist ein Thema der professionellen
audio compression Audiotechnik, von Rundfunkanstalten und Tonstudios. Bei dieser Technik werden
digitale Audiodaten ohne Qualitätsverlust komprimiert.
Die LTAC-Kompression ermöglicht die verlustfreie Kompression von pulscodierten
Audiosignalen und der fehlerfreien Dekodierung in den originalgetreuen Bitstrom. Es
gibt mehrer LTAC-Versionen, die sich in einer verbesserten Kompression, in der Anzahl
der Audiokanäle, der Benutzeroberfläche und einer Leistungserhöhung durch einen
neuen Adaption-Algorithmus unterscheiden.
Exit
Index
31
Weitere Top-Infos unter ITWissen.info
AUDIOKOMPRESSION
Die LTAC-Kompression hat gegenüber der LPAC-Kompression einige Nachteile
hinsichtlich der Codier- und Decodiergeschwindigkeit und wird daher nicht
weiterentwickelt.
Mit der Lossless Predictive Audio Compression (LPAC) gibt es ein Verfahren, dass auf
der Vorhersage von Ereignissen basiert. LPAC ist in die Aktivitäten von MPEG-4
eingeflossen als MPEG-4 Audio Lossless Coding (ALS).
Da es bei der verlustfreien Kompression keine Qualitätsunterschiede im Klang gibt,
liegt bei diesen Audio-Codecs der Fokus auf der Codec-Geschwindigkeit für die
Kompression und die Dekompression sowie auf der Abtastrate und der daraus
resultierenden Dateigröße.
Maskierung Maskierung ist ein Effekt der Psychoakustik, der in Audiokompressionen wie in MPEG,
masking MP3 und ATRAC zur Reduzierung des Speicherbedarfs eingesetzt wird. Bei der
Maskierung handelt es sich um zwei unterschiedliche Phänomene, eines, das
lautstärke- und frequenzabhängig ist und ein zweites, das zeitabhängig ist und
temporal auftritt.
Der lautstärke- und frequenzabhängige Effekt besagt, dass man Töne dann nicht
mehr subjektiv wahrnehmen kann, wenn lautere Töne oder Störgeräusche leisere
Töne überdecken. Da das menschliche
Gehör zwei Töne mit benachbarten
Frequenzen nicht auflösen kann, wird der
leisere Ton durch den lauteren Ton
überdeckt. Der Überdeckungsbereich, die
Maskierung, ist abhängig von der
Frequenz der Töne. Hohe Töne haben
einen größeren Überdeckungsbereich,
der über 4 kHz betragen kann, bei
tieferen Tönen liegt dieser bei unter 100
Hz.
Die Maskierung deckt den
Die Maskierung bildet in Verbindung mit
leiseren Ton ab
Exit
Index
32
Weitere Top-Infos unter ITWissen.info
AUDIOKOMPRESSION
der Hörschwelle den nicht hörbaren Bereich.
Bei mehreren Tönen, die in der Frequenz hinreichend voneinander abweichen,
überschneiden sich die Maskierungsbereiche, und der nicht hörbare Bereich
vergrößert sich entsprechend.
Bei hinreichender Lautstärke kann das menschliche Gehör auch Töne, die in der
Frequenz stark voneinander abweichen, nicht mehr wahrnehmen. Der
Maskierungseffekt nimmt allerdings mit größerer Frequenzdifferenz zwischen den
Tönen stark ab. Diesen Effekt, bei dem die Hörschwelle zu höheren Pegeln hin
verschoben wird, nennt man spektrale Maskierung.
In dem zweiten Effekt, der temporalen Maskierung, spiegelt sich die Trägheit des
menschlichen Ohrs wider. Das Gehör stellt sich auf laute und leise Tongeräusche ein
und benötigt nach einem Übergang von lautem Audio hin zu leisem Audio - und
umgekehrt - eine gewisse Erholungszeit. Besonders eklatant tritt dieses Phänomen
SAC
spatial audio coding
SBR
spectral band replication
Maskierung und Hörschwelle
bilden den nicht hörbaren
Bereich
Exit
Index
33
Weitere Top-Infos unter ITWissen.info
AUDIOKOMPRESSION
bei einem lauten Knall nach oder während leiser Musik auf. Diese temporale
Maskierung verdeckt für eine gewisse Zeit leise Töne vor und nach einem lauten Ton.
Die Hörcharakteristik verändert dabei ihr Verhalten, die Hörschwelle sinkt in wenigen
Millisekunden und das normale Hörverhalten wird erst nach 200 ms wieder erreicht.
Diese temporale Maskierung wird in der Audiokompression zur Reduzierung der
Datenmenge genutzt.
MLP Meridians Lossless Packing (MLP) ist eine von der Firma Meridian Inc. entwickelte
meridian lossless packing verlustfreie Audiokompression für Mehrkanalton, das als Quasi-Standard für DVDAudio gilt. Das MLP-Verfahren ist ein sehr effizientes Verfahren, mit dem die AudioDatenströme im Schnitt um über 50 % komprimiert werden. Im Gegensatz zu DolbyDigital, Digital Theatre Sound (DTS) und MPEG arbeitet MLP verlustfrei indem es
mehrfach vorhandene Daten gepackt speichert und bei der Dekompression wieder in
ihren ursprünglichen Zustand bringt.
Die MLP-Kompression arbeitet im PCMFormat mit Abtastraten von 44,1 kHz, 48 kHz,
96 kHz und 192 kHz. Die Quatisierung
beträgt 16 Bit, 20 Bit und 24 Bit. Bei der
geringsten Abtastrate von 44,1 kHz und einer
Quantisierung von 16 Bit können auf einer
Kompression mit MLP
DVD-Audio bis zu 25 Stunden Musik in Mono
und 12 Stunden Stereo gespeichert werden. Für die Wiedergabe werden spezielle
MLP-Decoder benötigt, die das Originalsignal ohne Qualitätsbeeinflussung
wiederherstellen.
Monkeys Audio Monkeys Audio ist ein schnelles und einfaches Verfahren für die verlustfreie
monkeys audio Kompression von Audiosignalen. Die mit Monkeys Audio komprimierten Signale sind
nach der Kompression und anschließender Dekompression fehlerfrei und entsprechen
in allen Bits dem Original. Der Vorteil einer solchen verlustfreien Audiokompression
liegt in den reduzierten Audiodateien und dem dadurch geringeren
Exit
Index
34
Weitere Top-Infos unter ITWissen.info
AUDIOKOMPRESSION
Speicherplatzbedarf. Vom Einsatz her ist diese Kompression vergleichbar Winzip,
allerdings für Audiodaten.
MP3-Dateiformat MP3 ist eine MPEG-Kompression, basierend auf MPEG-1-Audio Layer-3 für die
MP3, MPEG audio layer 3 Kompression von Audiosignalen. Das vom Fraunhofer Institut in Erlangen entwickelte
Verfahren zeichnet sich durch eine hohe Wiedergabequalität bei einem
Kompressionsfaktor von über 10 aus.
Dem Verfahren nach werden bei MP3 nicht hörbare Signalanteile ausgefiltert. Bei
dieser Maskierung werden Bandpässe unterschiedlicher Bandbreite verwendet, die
den menschlichen Hörbereich abdecken. Diese Subband-Codierung erfolgt mit 32
Subbändern, die wiederum in 18 Teilbereiche unterteilt sind, sodass insgesamt 576
Bandpässe zur Filterung benutzt werden. Die Filterung wird begleitet von einer DCTTransformation oder einer Fourier-Transformation, die das zeitbezogene Audiosignal in
die Frequenzebene transferiert. Der Filterung folgt eine Bewertung des
Informationsinhaltes der einzelnen Filteranteile.
Diese Bewertung legt die Quantisierung fest. Dabei hat jedes Subband eine
Maskierungsschwelle, die von dem
Schalldruck der Tonfrequenz abhängt.
Ist beispielsweise im Subband um 1
kHz ein Ton mit einer Lautstärke von
65 dB, dann stellt der Codierer
anhand des psychoakustischen
Modells fest, dass die
Maskierungsschwelle für dieses
Subband bei 30 dB liegt, also der Ton
mit 35 dB quantisiert werden muss,
was mit einer 6-Bit-Digitalisierung
Digitalisierung oberhalb der
erfolgen kann. Hat der Ton bei
Maskierungsschwelle bei
gleicher Maskierung eine Lautstärke
MP3
von 80 dB, muss er mit 8 Bit
Exit
Index
35
Weitere Top-Infos unter ITWissen.info
AUDIOKOMPRESSION
digitalisiert werden, um die Dynamik von 45 dB zu erreichen.
MP3 unterstützt drei Hauptmodi: Mono, Stereo und Joint-Stereo. Das Abspielen von
MP3-Dateien erfolgt über MP3-Player wie Winamp, Macamp oder mpeg123. Die
Extension für MP3-Dateien ist *.mp3.
mp3Pro mp3Pro ist eine Weiterentwicklung von MP3, die als wesentliche Neuerung das
mp3Pro Spectral Band Replication (SBR) benutzt. mp3Pro hat auch bei niedrigen Bitraten eine
hohe Klangqualität, die sich besonders bei hohen Tönen bemerkbar macht.
Außerdem ist die Dateigröße bei gleicher Klangqualität etwa nur halb so groß wie die
einer MP3-Datei.
mp3Pro wurde von Coding Technologies entwickelt, einem Unternehmen, das aus der
Kooperation einer schwedischen Firma und einem Spin-Off des Fraunhofer Instituts
für Integrierte Schaltungen hervorgegangen ist. Der Audio-Codec ist
abwärtskompatibel zu MP3 und kann auf MP3-Playern abgespielt werden; allerdings
in MP3-Qualität. Um das volle Klangbild von mp3Pro hören zu können, sind MusikPlayer mit mp3Pro-Audio-Codecs erforderlich.
Die Spezifikationen von mp3Pro weisen bei Bitraten von 80 kbit/s CD-nahe Qualität
aus mit Frequenzwiedergaben von oberhalb 16 kHz. Bei niedrigeren Bitraten sprechen
die veröffentlichten Testergebnisse von befriedigender und ausreichender
Klagqualität. Die Audiokompression, die mit konstanter Bitrate (CBR) arbeitet, liegt je
nach Bitrate und Musiktitel zwischen 94 % (hohe Bitrate) und 97 %.
Wie bei MP3 können auch bei mp3Pro Zusatzinformationen über den Musiktitel, den
Interpreten oder das Album gespeichert werden.
MPEG Moving Picture Experts Group (MPEG) steht gleichermaßen für ein Standardisierungsmotion picture expert Gremium und für mehrere asymmetrische Codierverfahren sowie für verschiedene
group Dateiformate für die Bewegtbild- und Audiokompression. Die MPEG-Kompression wird
für Digitalvideo auf Computern, für Streaming-Media und für die Übertragung von
digitalen Fernsehbildern eingesetzt. 1988 begannen die ISO und das IEC einen
Standard für die Video- und Audiokompression zu entwickeln, der 1992 in der ersten
Exit
Index
36
Weitere Top-Infos unter ITWissen.info
AUDIOKOMPRESSION
Version als MPEG-1 unter ISO 11172 verabschiedet wurde. Die Audiokompression wird
u.a. in Compact Discs (CD), DVDs und im Digital Audio Broadcast (DAB) eingesetzt.
Bei MPEG handelt es sich um eine verlustbehaftete Kompression, das bedeutet, dass
bei der Decodierung das Originalbild nicht mehr exakt generiert werden kann. Darüber
hinaus ist die Codierung technisch sehr viel aufwändiger als die Decodierung.
MPEG-1 wurde 1992 verabschiedet und ist ein integrierter Standard für die Codierung
von Bewegtbildern mit zugehörigem Audio zur Speicherung auf CDs. Der Standard ist
in einen Videoteil und einen Audioteil untergliedert. MPEG-1-Audio sieht die
Codierung von Mono- und Stereosignale vor. MPEG-1 entspricht in der VideoWiedergabequalität der Auflösung von VHS und eignet sich für multimediale
Präsentationen auf CD-ROM oder CD-I.
Für die Übertragung von Bewegtbild in Standard-Fernsehqualität und Studioqualität
mit mehreren Tonkanälen wurde Ende 1994 MPEG-2 standardisiert. MPEG-2 zeichnet
sich durch seine hohe Flexibilität in der Audiokompression aus, unterstützt Audio für
höchste Ansprüche und kann theoretisch einen Raumklang aus bis zu 48 Kanälen
bilden.
MPEG-4 kam 1999 auf den Markt und legt im Gegensatz zu MPEG-1 und MPEG-2
SAC
spatial audio coding
Audioqualität in
Abhängigkeit vom
MPEG-Verfahren
Exit
Index
37
Weitere Top-Infos unter ITWissen.info
AUDIOKOMPRESSION
kein einheitliches Kompressionsverfahren fest, sondern definiert eine Sammlung von
Audio- und Video-Kompressionsverfahren. Es bildet ein Rahmenwerk das die
Integration beliebiger Medienobjekte unterstützt, ebenso wie die Interaktion zwischen
menschlichen Benutzern und der audiovisuellen Welt.
MPEG-7 wurde 2001 standardisiert, um multimediale Inhalte zu beschreiben und ein
Ordnungssystem für die vielen MPEG-Varianten zu schaffen. MPEG-7 berücksichtigt
neben den audiovisuellen Inhalten auch Textinformationen und wird von der
Description Definition Language (DDL) unterstützt. Mit XML-Anwendungen soll ein
Multimedia Description Scheme (MDS) entwickelt werden, mit dem sich Audio- und
Video-Inhalte mittels Schlüsselwörtern identifizieren lassen.
MPEG-21 unterstützt den multimedialen Nachrichtenaustausch. Die vorherige
Abgrenzung in Bezug auf fest strukturierte Benutzergruppen wie Videostudios öffnet
sich damit zur Konsumelektronik. Der Endverbraucher hat damit die Möglichkeit,
persönliche Fotos, Audio- und Videosequenzen mit Fremdproduktionen zu
kombinieren. Auch die Weiterverarbeitung kann Online erfolgen, ebenso können die
semiprofessionellen Aufnahmen und Videoclips kommerziellen Anbietern angeboten
werden.
http://www.mpeg.org
MPEG-1-Audio MPEG-1-Audio hat sich aus dem klassischen MPEG-1 herauskristallisiert und dient
der Kompression von Audiodateien. Bei dieser verlustbehafteten Kompression werden
nicht hörbare Töne ausgefiltert und nicht bearbeitet.
MPEG-1-Audio unterscheidet zwischen verschiedenen Layern, die unterschiedliche
Filterverfahren, Transformationstechniken und, daraus resultierend, unterschiedliche
Kompressionsfaktoren und Qualitätsstandards repräsentieren. So sind einige
Kompressionsverfahren besser geeignet für die Audiokompression von qualitativ
hochwertigem Audio in HiFi-Qualität, andere für Radioqualität und wieder andere für
Sprachübertragungen. Das Verfahren arbeitet mit Abtastraten von 32 kHz, 44,1 kHz
und 48 kHz. Die Abtastrate von 44,1 kHz wird bei Audio-CDs benutzt. Bei
Studioqualität mit einer Abtastrate von 48 kHz und einer Quantisierung von 16 Bit
Exit
Index
38
Weitere Top-Infos unter ITWissen.info
AUDIOKOMPRESSION
ergibt sich eine
resultierende Datenrate von
768 kbit/s für Mono und
1,536 Mbit/s für Stereo,
daraus errechnet sich eine
Datenmenge von 11,52 KB/
min. Bei niedriger
Audioqualität können die
Datenraten zwischen 32
kbit/s und 192 kbit/s für ein
Verhältnis von Kompression
zur Datenrate bei den
verschiedenen
MPEG-1-Varianten
monophones Signal liegen.
Entsprechend reichen die Spannen in den Kompressionsfaktoren von etwa 4:1 für
MPEG-1 (Audio) Layer-I bis 12:1 für MPEG-1 (Audio) Layer-3 und sogar 88:1 für
Sprachübertragungen mit MPEG-2 auf Layer-3.
Bei der Kompression in MPEG-1 Layer-I (MP1) werden die Frequenzanteile des zu
komprimierenden Audiosignals mittels Subband-Codierung in 32 Bandpass-Filtern mit
identischen Bandbreiten von 625 Hz ausgefiltert. Zur Datenreduktion werden die
einzelnen Frequenzbänder nach dem menschlichen Hörverhalten maskiert, bevor sie
einzeln quantisiert werden. Die Codierung erfolgt mit 384 Samples je Kanal, die ein
Frame bilden. Auf MP1 können zur weiteren Datenreduktion die beiden Tonkanäle
getrennt oder teilweise gemeinsam bearbeitet werden.
MPEG-1 (Audio) Layer-II (MP2) hat gegenüber MP1 eine höhere Komplexität und
verwendet für die Codierung drei Subframes mit je 384 Samples pro Frequenzband;
also insgesamt 1.152 Samples pro Band. Dadurch wird eine effizientere Maskierung
der Bänder erreicht. Die resultierende Datenrate liegt bei MP2 mit ca. 200 kbit/s unter
der von MP1 mit 380 kbit/s. MP2 wird im Musicam-Verfahren für StreamingÜbertragungen im Digitalrundfunk wie dem Digital Audio Broadcast (DAB) eingesetzt.
MPEG-1 (Audio) Layer-III (MP3) ist das bekannteste Kompressionsverfahren von
MPEG-Audio. Es arbeitet mit einer wesentlich höheren Anzahl an Frequenzbändern
und kann dadurch die Maskierung besser der menschlichen Hörcharakteristik
Exit
Index
39
Weitere Top-Infos unter ITWissen.info
AUDIOKOMPRESSION
anpassen. Außerdem nutzt MP3 die FFT-Transformation oder die DCT-Transformation
(MDCT), um die Psychoakustik in die Quantisierung einfließen zu lassen. Mit MP3
reduzieren sich die Datenraten für die Audiodatenströme auf ca. 160 kbit/s für CDQualität.
Auch die anderen MPEG-Varianten unterstützen die Kompression von Audio. So
wurde bei MPEG-2 und bei MPEG-4 mit dem Advanced Audio Coding (AAC) von dem
Verfahren mit den Bandfiltern abgewichen. Darüber hinaus benutzt MPEG-4 noch
weitere Audio-Codierungen wie beispielsweise CELP.
MPEG-4 Bei MPEG-4 handelt es sich um einen von MPEG im Jahre 1998 entwickelten und von
ISO/IEC verabschiedeten Standard. Die rückwärtskompatible Version 2 von MPEG-4
wurde im Jahre 2000 verabschiedet. MPEG-4 befasst sich mit Video, interaktiven
audiovisuellen Anwendungen und interaktivem Multimedia.
MPEG-4 legt im Gegensatz zu MPEG-1 und MPEG-2 kein einheitliches
Kompressionsverfahren fest, sondern definiert eine Sammlung von Audio- und VideoKompressionsverfahren. Es bildet ein Rahmenwerk, das die Integration beliebiger
Medienobjekte unterstützt, ebenso wie die Interaktion zwischen menschlichen
Benutzern und der audiovisuellen Welt. Darüber hinaus definiert MPEG-4 eine
Sprachcodierung mit niedrigen Datenraten, audiovisuelle Objekte, die individuell
komprimiert und zu Audiosequenzen zusammengestellt werden können,
Mehrkanalton, Animation von Objekten der virtuellen Realität, das Einfügen von
Einzelbildern und einiges mehr.
Mit MPEG-4 kann eine Szene in audiovisuelle Objekte aufgeteilt werden. Die Objekte
können separat mit einer speziellen Beschreibungssprache beschrieben und beim
Benutzer durch Interaktion verändert und neu zusammengefügt werden. Die
Komposition von multimedialen Präsentationen kann somit beim Empfänger erfolgen.
Zu diesem Zweck ist in MPEG-4 ein binäres Format für die Beschreibung von Szenen
definiert, das Binary Format for Scene Description (BIFS), das auf einer Erweiterung
der Virtual Reality Modelling Language (VRML) basiert.
MPEG-4 hat viele unterschiedliche Profile wie die Visual Profiles, Audio Profiles,
Exit
Index
40
Weitere Top-Infos unter ITWissen.info
AUDIOKOMPRESSION
Graphics Profiles, Scene Graph Profiles, MPEG-Profiles und die
objektbeschreibenden Profile. Mit diesen Profiles werden grafische Elemente in Form
von einfachen Linien oder komplexen Polygonen unterstützt, Körper und Flächen, 2Dund 3D-Modelle, reale, synthetische und Video-Objekte und verschiedene
Audiokompressionen wie CELP, HVXC, HILN, TwinVQ und die AAC-Kompression.
Das generische Interface zwischen der Anwendung und den Transportnetzen bildet
bei MPEG-4 das Delivery Multimedia Integration Framework (DMIF) mit die DMIFSchnittstellen zum Netzwerk (DNI) und zur Applikation (DAI).
Die Datenraten von MPEG-4 liegen bei Video zwischen 5 kbit/s und 4 Mbit/s, also wie
bei MPEG-1 und MPEG-2. Darüber hinaus unterstützt MPEG-4 diverse
Videodateiformate mit und ohne Zeilensprungverfahren vom CIF-Darstellformat bis hin
zu HDTV.
Bei der Audiokompression von MPEG-4 werden mehrere effiziente Codierverfahren
eingesetzt, die speziell für Sprache, Musik oder synthetische Klänge optimiert sind.
Dazu gehören die AAC-Kompression, CELP und HVXC für Sprachkompression und
HILN für Musik.
MPEG-Surround
Für den Surround-Klang gibt es
einige Audiodateiformate, die sich
durch eine hohe Audioqualität und
hervorragende Trennung der
einzelnen Kanäle auszeichnen.
Dazu gehören Dolby Digital und
Digital Theatre Sound (DTS), die
allerdings eine hohe Datenrate
benötigen und häufig nicht
rückwärtskompatibel zu
vorhandenen Mono- und StereoEmpfängern sind. Auch können
bestimmte Surround-Verfahren nicht
Codierung von
MPEG-Surround
Exit
Index
41
Weitere Top-Infos unter ITWissen.info
AUDIOKOMPRESSION
über die bestehende Sende-Infrastruktur übertragen werden. Diese Nachteile soll
MPEG-Surround eliminieren.
MPEG-Surround ist ein Audiodateiformat für die Übertragung von Mono, Stereo und
Surround-Klang, das mit vielen Audio-Codierverfahren kombiniert werden kann; so mit
MPEG Layer-2, HE-AAC oder MP3. Der Surround-Klang kann in allen Varianten von
5.1 über 7.1 bis hin zu 10.2 mit minimalen zusätzlichen Datenraten von wenigen
Kilobits übertragen werden.
Vom Prinzip her wird aus den verschiedenen Audiokanälen ein Multikanalsignal
gemischt, das in Mono- und Stereo-Empfängern wiedergegeben werden kann. Die
zusätzlichen Surround-Informationen enthalten die Informationen für die Seiten- und
die rückwärtigen Lautsprecher und werden aus den Pegelunterschieden, aus
Kohärenz- und Korrelationswerten zwischen den einzelnen Kanäle gewonnen. Diese
Surround-Informationen können nur von entsprechenden Surround-Empfängern
ausgewertet werden. Die Surround-Informationen werden während der Codierung
extrahiert, sie enthalten die charakteristischen Unterschiede zwischen den einzelnen
Audiokanälen und werden als reine Datensignale übertragen.
MPEG-Surround ist skalierbar und zeichnet sich durch eine hohe Audioqualität aus.
MUSICAM
masking pattern universal
subband integrated coding
and multiplexing
Musicam ist ein Verfahren für die Audiokompression für digitale
Rundfunkübertragungen und wird in Digital Audio Broadcast (DAB) eingesetzt. Das
vom Institut für Rundfunktechnik entwickelte Verfahren wurde als MPEG-1-Audio
Layer-II (MP2) definiert. Es reduziert die Datenrate von Audiosignalen von 1,422 Mbit/s
auf 192 kbit/s.
Das Musicam-Verfahren arbeitet mit Teilband-Codierung, dabei wird der gesamte
Frequenzbereich des Audiosignals in 32 Teilbänder unterteilt, wobei jedes Unterband
eine Bandbreite von 750 Hz hat und jedes Unterband einzeln codiert wird.
Nero Digital Nero Digital ist ein Video-Codec für Audio- und Videokompressionen von hoher
Qualität, der standardkonform mit MPEG-4 arbeitet. Bei der Audiokompression von
Nero handelt es sich um die effiziente AAC-Kompression mit Mehrkanalton mit 5.1
Exit
Index
42
Weitere Top-Infos unter ITWissen.info
AUDIOKOMPRESSION
Kanälen. Nero hat sehr hohe Kompressionsraten und -faktoren und kann außerdem
andere MPEG-4-Implemetierungen wie XviD oder 3ivx decodieren. Die MPEG-4-Videos
von Nero Digital werden in MP4-Containern gespeichert, die mit Kapitelinformationen
und Untertiteln erstellt werden können.
Nero Digital steht im Wettbewerb mit XviD und DivX und wird je nach Tester und
Version mit vergleichbarer oder besserer Qualität bewertet. Wie die anderen VideoCodecs zielt auch Nero Digital auf die Unterhaltungselektronik mit Camcordern, DVDTechnik, Smartphones usw.
http://www.nero.com
Ogg Vorbis Ogg Vorbis ist eine offene, nichtproprietäre lizenzfreie Audiokompression für die
Übertragung von qualitativ hochwertigem Audio. Ogg Vorbis, entwickelt von Xiph.org,
zeichnet bei einer Bitrate von 80 kbit/s durch eine sehr gute Klangqualität aus. Diese
wird auch bei niedrigeren Bitraten von 64 kbit/s und 48 kbit/s als gut resp.
befriedigend bezeichnet. Der Frequenzbereich liegt bei der niedrigen Bitrate noch
über 15 kHz. Die Kompressionsrate ist vergleichbar denen anderer Audio-Codecs und
liegt in Abhängigkeit von der Bitrate bei ca. 95 %.
Ogg Vorbis kann nur mit dem Ogg-Vorbis-Player, OggDrop, abgespielt werden und
wird vom WinAmp-Player ab Version 2.8 unterstützt.
Ogg Vorbis ist für variable Bitraten (VBR) konzipiert, die zwischen 16 kbit/s und 128
kbit/s pro Kanal liegen. Er kann aber auch mit konstanten Bitraten (CBR) von bis zu
500 kbit/s arbeiten. Die Quantisierung liegt bei 16 Bit und höher. Die Kompression
erfolgt über ein modifizierte diskrete Cosinus Transformation (DCT).
Vorbis bietet kein Framing, keine Synchronisation und keinen Fehlerschutz.
Durch die ständige Weiterentwicklung des Audio-Codecs kann Ogg Vorbis auch bei
niedrigen Bitraten von 48 kbit/s überzeugen. Verschiedene Tests haben verdeutlicht,
dass der Audio-Codec bei leisen Passagen eine hervorragende Qualität liefert; aber
erst bei 80 kbit/s sein starkes Klangvolumen zur Geltung kommt.
Ogg Vorbis positioniert sich im Vergleich zu MPEG-4 AAC, aacPlus, TwinVQ, MP3,
mp3pro und WMA.
Exit
Index
43
Weitere Top-Infos unter ITWissen.info
AUDIOKOMPRESSION
Ogg-Vorbis-Dateien haben die Extension *.ogg.
http://www.vorbis.com
OptimFrog OptimFrog ist eine verlustfreie Audiokompression, mit der Audiodateien rin ihrer Größe
reduziert und fehlerfrei reproduziert werden können. Die OptimFrog-Kompression
arbeitet mit einer relativ hohen Geschwindigkeit, die Codier- und
Decodiergeschwindigkeiten betragen ein Vielfaches der Echtzeitgeschwindigkeit. Die
angegebenen Werte liegen je nach Mikroprozessor zwischen dem 12-fachen und dem
28-fachen von Echtzeit. Die verlustfreie Kompression basiert auf einem neuartigen
Kompressionsverfahren, dem so genannten Stereo-Dekorrelation-Verfahren mit
Vorhersage. Die Kompressionsraten liegen je nach Musik zwischen 25 %, bei leiser,
klassischer Musik und 70 % bei lauter Rock-Musik.
OptimFrog gibt es für die verschiedensten Audio-Player unter Windows und Linux.
PAC Das Prinzip des Perceptual Audio Coder (PAC) wurde von den Bell Labs Ende der
perceptual audio coder 90er Jahre entwickelt. Es ist eine Audiokompression für analoge Musik, Sprache und
andere niederfrequente Signale. PAC-Codecs digitalisieren die analogen Audiosignale
in ein digitales Format und haben ihre höchste Leistungsfähigkeit bereits bei 96 kbit/s,
wodurch sie sich besonders für digitalen Hörfunk (DAB), HD-Radio und Internet-Radio
eignen. Diese Datenrate soll in der weiteren Entwicklung auf 64 kbit/s gesenkt
werden. Die Audioqualität entspricht dabei der von Compact Discs, die
Kompressionsrate liegt bei 15:1.
PAC-Codecs arbeiten nach Modellen der Psychoakustik und filtern irrelevante
Informationen aus dem Audiosignal. Die PAC-Kompression ist der AAC-Kompression
ähnlich, beide benutzen gleiche Konstruktionselemente.
PASC PASC ist ein auf MPEG basierendes Datenreduktionsverfahren, das in der Digital
precision adaptive Compact Cassette (DCC) eingesetzt wird. Ziel dieses Verfahrens ist es, digitalisiertes
subband coding Audio in CD-Klangqualität auf Audiobändern zu speichern. Dies erreicht PASC durch
eine Optimierung zweier Faktoren, die das Hörvermögen bestimmen: Der erste in
Exit
Index
44
Weitere Top-Infos unter ITWissen.info
AUDIOKOMPRESSION
PASC berücksichtigte Effekt ist die Hörschwelle. Die Hörschwelle ist die Lautstärke, bei
der das menschliche Hörvermögen überhaupt erst einsetzt. Sie ist frequenzabhängig
und dadurch gekennzeichnet, das das Hörvermögen bei mittleren Frequenzen
empfindlicher ist als bei tiefen oder hohen. PASC berücksichtigt dies, indem es nur
Töne oberhalb der Hörcharakteristik bearbeitet.
Der zweite Effekt ist die Lautstärke, die im Empfinden einer gewissen Dynamik
unterliegt und die Hörschwelle verändert. Das bedeutet, dass bei lauteren Tönen die
Hörschwelle automatisch ansteigt. Diese Dynamisierung der Hörschwelle wird in
PASC ebenfalls berücksichtigt.
Das PASC-Verfahren ist höchst effizient, es benötigt bei gleicher Tonqualität nur ein
Viertel der Bitrate gegenüber PCM. PASC setzt auf den MPEG-Standard und hat eine
Bitrate von 384 kbit/s.
Psychoakustik Die Psychoakustik ist die Wissenschaft zur Wahrnehmung von Schall durch den
psycho acoustics Menschen. Sie befasst sich mit der Hörcharakteristik, der Hörschwelle und den sie
beeinflussenden
Phänomenen. Aus den
Erkenntnissen der
Psychoakustik wurden
verschiedene
Bewertungskriterien und
Maßeinheiten abgeleitet.
So die in Sone
angegebene Lautheit,
die Rauhigkeit,
angegeben in Asper, die
Schärfe mit der
Bewertung in Acum und
Frequenz- und Lautstärkedas Vacil für die
Umfang von Musik und
Schwankungsstärke.
Sprache
Exit
Index
45
Weitere Top-Infos unter ITWissen.info
AUDIOKOMPRESSION
Da viele psychoakustische Phänomene auf dem subjektiven Empfinden basieren,
setzt man die empirisch ermittelten Abhängigkeiten von Frequenzen und Lautstärken
in der Audiokompression zur Datenreduktion um. Einer der wichtigsten Effekte ist
dabei die Verdeckung von Tönen mit unterschiedlicher Lautstärke oder mit temporärer
Abdeckung, die so genannte Maskierung. Dem Hörenden werden bei der Umsetzung
bestimmte Töne vorenthalten, die er nicht wahrnehmen kann. Ebenso wird die
Veränderung der Hörschwelle, die durch laute oder leise Töne erfolgt, für die
Datenreduktion verwendet, da es keinen Sinn macht, Töne zu übertragen, die
unterhalb der Hörschwelle liegen. Auch fasst das menschliche Gehör benachbarte
Tonfrequenzen zu einem einzigen Ton zusammen.
Darüber hinaus kann Sprache und Musik bedingt durch den unterschiedlichen
Frequenz- und Dynamikumfang unterschiedlich stark komprimiert werden.
QDesign QDesign, nach der gleichnamigen Firma benannt, ist eine Audiokompression für
QuickTime. QDesign setzt auf ein Modell der Psychoakustik. Bei dem Verfahren
werden die die Audiosignale parametrisch erfasst, in Komponenten zerlegt und das
Ergebnis als Koeffizienten abgelegt.
Es gibt mehrere QDesign-Kompressionsformate: QDesign Music und QDesign Music
2 Pro (QDX), die in QuickTime eingesetzt werden.
QDX arbeitet mit Datenraten von 64 kbit/s, hat eine höhere Klangqualität als MP3 und
Kopierschutz.
RealAudio RealAudio ist ein komprimiertes Internet-Audiodateiformat von Real Networks, mit dem
real audio, RA sich Echtzeit-Audio über das Internet übertragen lässt. Die Übertragung erfolgt dabei,
ohne dass vorher die komplette Audio-Datei vom Nutzer heruntergeladen wird.
RealAudio ermöglicht also Streaming-Audio, wobei das Abspielen der Audiosequenzen
direkt nach dem Aufruf der Datei startet. Die Datenrate ist relativ gering, was durch
eine Qualitätsminderung erzielt wird. RealAudio wird über das UDP-Protokoll
übertragen, wobei der Verlust von Datenpaketen keinen Einfluss auf die Qualität des
Streaming-Media hat. Die Kompression liegt zwischen 16:1 und 24:1.
Exit
Index
46
Weitere Top-Infos unter ITWissen.info
AUDIOKOMPRESSION
RealAudio bietet Kopierschutz, es wird mit einem speziellen Programm, das in allen
gängigen WWW-Browsern eingebunden werden kann, übertragen.
Die Datei-Extension für RealAudio-Dateien ist *.ra oder *.ram.
http://www.realaudio.com
SAC Bei der SAC-Kompression handelt es sich um eine Audiokompression, die mit Bitraten
spatial audio coding von 128 kbit/s bis 192 kbit/s arbeitet. Die gegenüber anderen Audiokompressionen
geringere Bitrate ist auf ein ausgeklügeltes Verfahren zurückzuführen, bei dem die
Raumklanginformationen von mehreren Kanälen in einem anderen Kanal
untergebracht werden. Es handelt sich um eine Multikanal-Synthese, das Stereokompatibel ist und mit normalen Stereo-Decodern wiedergegeben werden kann. Die
benutzten Algorithmen vermitteln dem Hörer eine Illusion des Raumklangs, indem sie
psychoakustische Gehirnfunktionen ausnutzen.
Die SAC-Kompression soll als Standard der MPEG unabhängig vom verwendeten
Audiodateiformat sein. Vorhandene Audiogeräte sollen mit SAC Surround-Klang
abspielen können.
Die SAC-Kompression ist eine flexiblere Methode als Joint-Stereo und kann auch als
Erweiterung des Binaural Cue Coding (BCC) angesehen werden.
SBR Audio-Codecs nutzen neben verschiedenen Kompressions-Algorithmen auch diverse
spectral band replication andere Techniken um bei niedrigen Bitraten eine möglichst hohe Klangqualität zu
erzielen und dabei die Dateigrößen möglichst klein zu halten.
Das SBR-Verfahren, das in aacPlus und mp3pro angewendet wird, ist eine
Codierungs-Technologie, die sich durch eine hohe Klang- und Sprachqualität bei
niedrigen Bitraten auszeichnet.
Das SBR-Verfahren setzt bei Tönen von über 5 kHz ein, die aus der normalen
Decodierung gewonnen und mittels SBR rekonstruiert werden. Durch diese
Rekonstruktion brauchen die hohen Töne, die eine größere Datenmenge
repräsentieren, nicht mit übertragen werden. Die Ton-Rekonstruktion basiert auf den
tieferen Frequenzen, die von dem normalen Decoder erzeugt werden. Damit eine
Exit
Index
47
Weitere Top-Infos unter ITWissen.info
AUDIOKOMPRESSION
einwandfreie Rekonstruktion der Audiosignale stattfinden kann, werden zusätzlich zu
den übertragenen Audiodaten noch Steuerdaten im Bitstrom übertragen. Die
Rekonstruktion arbeitet sehr effizient mit den Harmonischen und ermöglicht die
richtige Rekonstruktion der Signalform in Bezug auf dessen Zeit- und
Frequenzverhalten.
Subband-Codierung Subband-Codierung ist eine Technik, die bei der Audiokompression in MPEG, MP3,
subband coding mp3Pro und ATRAC eingesetzt wird. Die Subband-Codierung arbeitet in Verbindung
mit der Maskierung und teilt das Frequenzspektrum des Audiosignals in
Frequenzbänder mit unterschiedlichen Bandbreiten, meistens 32, die einzeln und
unabhängig voneinander variabel quantisiert werden können. Wichtige
Frequenzbänder haben eine höhere Bandbreite, unwichtige eine geringere
Bandbreite, oder sie werden gar nicht berücksichtigt. So können Frequenzbänder mit
hohem Audio-Inhalt und großer Dynamik mit hoher Sampletiefe, andere hingegen mit
niedriger Sampletiefe quantisiert werden.
TwinVQ, transformdomain weighted
interleave vector
quantization
Exit
Index
48
Die TwinVQ-Kompression, auch als VQF bekannt, ist eine verlustbehaftete
Audiokompression, die am NTT Human Interface Laboratories in Japan entwickelt
wurde und auf dem Prinzip der Vektorquantisierung basiert. Das Verfahren zeichnet
sich gegenüber MP3 durch eine höhere Kompressionsrate und bessere Audioqualität
aus und eignet sich speziell für die Kompression von Musik. Die Qualität von TwinVQ
ist bei 96 kbit/s vergleichbar mit der von MP3 bei 128 kbit/s.
Bei der TwinVQ-Kompression werden die Audiosignale abgetastet, die Abtastungen
als Muster von Vektoren betrachtet und mit Standard-Mustern verglichen. Entspricht
ein Vektor-Muster einem gespeicherten Standard-Muster oder kommt es diesem sehr
nahe, wird der Index des Vektors übertragen.
Bei diesem Mustervergleich werden störende Beeinträchtigungen wie Rauschen oder
Geräusche vernachlässigt.
TwinVQ ist Teil von MPEG-4 V.1.
Weitere Top-Infos unter ITWissen.info
AUDIOKOMPRESSION
Verlustbehaftete
Kompression
lossy data compression
Die verlustbehaftete Kompression
orientiert sich an der
Wahrnehmungsfähigkeit des Betrachters
oder des Zuhörers. So können aufgrund
der menschlichen Gehirntätigkeit und
der Auflösungsmöglichkeit von Farben,
Formen und Tönen bei Grafiken, Audios
oder Videos Informationen verändert
oder entfernt werden, ohne dass sich die
Wahrnehmung wesentlich ändert und
Verlustfreie und
verlustbehaftete
Audiokompression
der subjektive Eindruck verschlechtert.
Bei der Dekompression einer verlustbehafteten Kompressionsdatei kann nicht mehr
das exakte Originalbild regeneriert werden. Die Abweichungen hängen vom
Kompressionsgrad und vom gewählten Kompressionsverfahren ab. Das bekannteste
verlustbehaftete Kompressionsverfahren für Bilder, Fotos und Grafiken ist JPEG.
Verlustfreie Bei der verlustfreien Kompression werden keine Informationen verändert oder entfernt.
Kompression Bei diesem Verfahren werden lediglich eindeutig redundante Datenbestände
lossless data compression komprimiert, so beispielsweise in der Textkompression, der Audiokompression oder der
Bildkompression.
Bei der verlustfreien Kompression erfolgt die Datenreduktion durch die Ausnutzung
statistischer Häufigkeiten. Dabei werden den am häufigsten vorkommenden Bitstrings
die kürzesten Codes zugewiesen, seltener vorkommende Zeichen erhalten die
längsten Codes. Mit der verlustfreien Kompression sind im Gegensatz zur
verlustbehafteten Kompression nur wesentlich geringere Kompressionsfaktoren
erreichbar.
Eines der bekanntesten Verfahren der verlustfreien Kompression ist das ZIPDateiformat, das mit enorm hoher Kompressionsrate Texte und Grafiken mit
unterschiedlichem Dateiformat komprimiert darstellt. Weitere bekannte Verfahren sind
u.a. die Huffman-Codierung, der LZW-Algorithmus, die Lauflängencodierung (RLE)
Exit
Index
49
Weitere Top-Infos unter ITWissen.info
AUDIOKOMPRESSION
und ein Modus in JPEG.
Mit der LPAC-Kompression und der LTAC-Kompression gibt es zwei Verfahren für die
Audiokompression, die in MPEG-4 als MPEG-4 Audio Lossless Coding (ALS)
berücksichtigt werden. Weitere sind OptimFrog und Monkeys Audio.
WMA Die Audiokompression WMA von Microsoft gehört zu Windows Media Format (WMF)
Windows media audio und arbeitet mit einer Abtastrate von bis zu 192 kbit/s. Die in vielen Tests bewertete
Klangqualität wird allgemein als gut beurteilt. Was die WMA-Kompression allerdings
auszeichnet ist ihre Schnelligkeit. Wie die anderen Audio-Codecs auch wird die WMAKompression ständig weiterentwickelt und unterliegt firmenspezifischen Patenten.
So bietet WMA9 verschiedene Kompressionsarten, die das Archivieren ohne
Qualitätsverlust ermöglichen. WMA9 arbeitet mit mehreren Bitraten, die in Verbindung
mit den aufgerufenen Profilen variieren. Eine direkte Bitratenwahl ist nicht vorgesehen.
Die WMA-Kompression hat gegenüber anderen Audiokompressionen den Nachteil,
dass der Höhenanteil vernachlässigt wird. So werden selbst bei hohen Bitraten von 80
kbit/s Frequenzen oberhalb 13,5 kHz begrenzt; bei 48 kbit/s liegt diese Grenze bereits
bei 12 kHz. Es unterstützt Mono und Stereo, hat Vorkehrungen für Kopierschutz und
digitales Rechtemanagement (DRM) sowie einen Tag für die Speicherung weitere
Informationen. Die Kompressionsrate liegt wie bei den anderen Audio-Codecs bei ca.
95 %, und ist geringfügig abhängig von der Bitrate.
Media-Player, die das Format unterstützen sind WinAmp, Windows Media Player und
Musicmatch.
WMA wird hauptsächlich zum Herunterladen von Dateien aus dem Internet und zur
Darstellung von Streaming-Media verwendet. Das Format ist allerdings mit einem
Kopierschutz versehen.
XMF XMF, extensible music format
extensible music format XMF ist ein offener Standard für die Audiokompression, deren Dateiformat gegen eine
geringe Schutzgebühr erhältlich ist. Die Kompression kann in Verbindung mit
bestimmten Tools, wie der Audio-Engine von Beatnik, um ein Vielfaches höher sein als
Exit
Index
50
Weitere Top-Infos unter ITWissen.info
AUDIOKOMPRESSION
eine MP3-Kompression.
XMF ist eine Weiterentwicklung des von der MIDI Manufacturer´s Association (MMA)
entwickelten RMF-Formats. Das in XMF verwendete Container-Format kann eine
beliebige Anzahl an MIDI und DSL-Dateien beinhalten und erzeugt sehr kleine
Audiodateien.
XMF wird zur Kompression im Audiobereich ebenso wie in Handys oder Spielkonsolen
eingesetzt.
XMF gibt es in verschiedenen Versionen. In der Version 1.0, die 2001 von der MMA
veröffentlicht wurde, wird ein Metafile spezifiziert, in der Standard MIDI Files (SMF)
und DLS-Dateien kombiniert sind. XMF V2.0 hat Änderungen im Header, durch die die
Kennzeichnung von MIME-Daten in Bezug auf XML vereinfacht wird.
Exit
Index
51
Weitere Top-Infos unter ITWissen.info