Aus Gründen der Kapazität von Speichermedien (besonders im WWW)ist es notwendig Bildinformationen im Volumen zu reduzieren.
Es gibt drei Kategorien in die sie sich einteilen lassen:
1. Statistische Verfahren (Entropy Coding) suchen im Eingabestrom nach statistischen Verteilungen welche zur Reduktion der Daten ausgenutzt werden. Dabei wird die Eingabe als reiner Bitstrom betrachtet, ohne die inherente Semantik zu beachten.
2. Semantische Verfahren (Source Coding) gehen von der Annahme aus, dass der Datenstrom eine semantische Struktur besitzt.
Dabei spielen folgende Ansätze eine Rolle:
Kodierung von Unterschieden (Prediction), die davon ausgeht, dass zwei aufeinander folgende Blöcke nicht voneinander unabhängig sind, weswegen man nur die Unterschiede zu kodieren braucht.
Reduktion, hierbei versucht man z. B. durch eine Fouriertransformation Frequenzanteile zu finden, welche eine zu geringe Amplitude haben, um für das Ausgangssignal noch von Bedeutung zu sein. Diese werden gezielt weggelassen. Im Bildbereich verwendet man statt der Fourieranalyse die Diskrete Cosinus-Transformation. Eine weitere Möglichkeit besteht darin, schon bei der Codierung des Eingabestromes ein geeignetes Verfahren zu wählen.
So wird z. B. bei der YUV Codierung eine doppelt so hohe Auflösung für die Codierung der Helligkeit gewählt wie für die Farbinformation.
3. Zusammengesetzte Verfahren (Hybrid Coding) verbinden die Vorteile der oben genannten Kategorien. Dabei folgt der Bildvorbereitung (A/D Wandlung und die Wahl einer geeigneten Codier ) eine Transformation (Picture Processing). Hierbei handelt es sich im Allgemeinen um die DCT.
Nachdem bestimmte Frequenzanteile durch Quantisierung entfernt wurden, wird das Ergebnis einem der normalen statistischen Verfahren unterworfen
|