Wissenschaft

#Theorema Magnum MCMIL: das WKS–Abtasttheorem – Mathlog

Theorema Magnum MCMIL: das WKS–Abtasttheorem – Mathlog

Claude Shannons 1948 veröffentlichte Arbeit „A mathematical theory of communication“ gilt heute als Beginn der Informationstheorie, unter anderem wegen des dort erstmals definierten Begriffs der Entropie.
Am Beginn der Arbeit stand die Definition des Bits als Informationseinheit, und die Definition von Kommunikationssystemen entsprechend dem folgenden Schema:

Im Weiteren unterscheidet Shannon diskrete, stetige und gemischte Systeme.
Diskrete Informationen werden als Markow-Ketten kodiert. Shannon veranschaulichte das am Beispiel unterschiedlich guter künstlicher Approximationen der englischen Sprache. Die schlechteste Approximation erhält man, indem man Buchstaben zufällig und gleichverteilt wählt. Die nächstbeste Approximation wählt Buchstaben zufällig entsprechend ihrer Häufigkeit in der englischen Sprache. Als bessere Approximationen kann man dann Paare oder Tripel von Buchstaben nach ihrer Häufigkeit im Englischen wählen. Und schließlich kann man auch ganze Worte oder sogar Wortpaare zufällig entsprechend ihrer Häufigkeit im Englischen wählen. Man bekommt immer bessere Annäherungen an die englische Sprache.

Um die von einer Markow-Kette produzierte Information zu messen, wollte Shannon eine von den Wahrscheinlichkeiten pi der einzelnen Ereignisse abhängende „Entropie“ H(p1,…,pn) definieren, die drei Bedingungen genügen sollte. Sie soll stetig von den pi abhängen. Für Gleichverteilungen pi=1/n soll sie eine monoton wachsende Funktion in n sein. Und sie soll eine Additivitätsbedingung erfüllen: wenn eine Möglichkeit mit Wahrscheinlichkeit pi in zwei Möglichkeiten zerlegt werden kann, dann soll das ursprüngliche H die gewichtete Summe der beiden einzelnen H sein.

Im Beispiel soll H(1/2,1/3,1/6)=H(1/2,1/2)+1/2H(1/3,2/3) sein, wobei der Faktor 1/2 der Wahrscheinlichkeit des zweiten Prozesses entspricht.
Shannon bewies in seiner Arbeit, dass die (bis auf Multiplikation mit einem konstanten Faktor) einzige Funktion mit diesen Eigenschaften H(p_1,ldots,p_n)=-Sigma_{i=1}^np_ilog p_i ist, die er als „Entropie“ bezeichnete. (Es wird kolportiert, John von Neumann habe ihm diese Bezeichnung nahegelegt: niemand wisse, was Entropie ist, so dass er in Diskussionen immer einen Vorteil haben werde.) Shannon bewies dann einen „Fundamentalsatz“, in dem er die Entropie H der Quelle und die Kapazität C des Kanals in Beziehung setzte: man könne bis zu C/H Symbole pro Sekunde übertragen. Mit Hilfe des Entropiebegriffs weiß man nun also, was die effizienteste Kodierung einer Nachricht ist. Einen ähnlichen Fundamentalsatz bewies er auch für diskrete Kanäle mit Rauschen.
Schließlich wurden im Hauptteil der Arbeit stetige Prozesse diskutiert, wo er in der Definition der Entropie die Summe durch ein Integral ersetzte und mit dieser Definition verschiedene mathematische Sätze bewies.

Die 1948 erschienene Arbeit war bei den Ingenieuren sofort ein voller Erfolg und ist bis heute die Grundlage der Informationstheorie. Im folgenden Jahr 1949 veröffentlichte Shannon dann die Arbeit „Communication in the presence of noise“. Dort bewies er (neben anderen Sätzen) das Abtasttheorem:
Eine Funktion, die keine Frequenzen höher als W enthält, ist eindeutig bestimmt durch ihre Funktionswerte in einer Reihe von jeweils im Abstand W/2 auseinanderliegenden Punkten.

Was bedeutet dieser Satz mathematisch? Als Frequenz einer periodischen Funktion bezeichnet man das Inverse f=1/T ihrer kleinsten Periode T. Die von Shannon betrachteten Funktionen sind L2-Funktionen, die sich bekanntlich in eine Fourier-Reihe als Summe periodischer Funktion zerlegen lassen. Mit den Frequenzen einer Funktion sind die Frequenzen der periodischen Funktionen in der Fourier-Entwicklung gemeint.

Der Beweis des Abtasttheorems ist konstruktiv. Aus den Funktionswerten x(nT) in den ganzzahligen Vielfachen der Periode T kann man die Funktion x(t) mit der Interpolationsformel x(t) = sum_{n=-infty}^{infty} x(nT)cdot mathrm{sinc} left( frac{t - nT}{T}right) rekonstruieren.
Das Bild zeigt die Notwendigkeit der Bedingung: bei zunehmender Frequenz gibt es mehrere interpolierende Funktionen mit denselben Funktionswerten.

Shannon schrieb in seiner Arbeit, der Abtastsatz sei „common knowledge in the communication art“. Tatsächlich war die Interpolationsformel schon 1898 von Borel und 1915 von Whittaker gefunden worden. Das Abtasttheorem hatten Kostelnikow 1933 und Raabe 1939 formuliert. Shannons Beweis fußte wesentlich auf Nyquists Arbeiten über trigonometrische Polynome, deren Ergebnisse ebenfalls parallel von anderen gefunden worden waren. Aber erst durch die Entwicklung der Informationstheorie als Folge von Shannons Grundlagenarbeit bekam dieser Satz seine Bedeutung.

Wenn Sie an Foren interessiert sind, können Sie Forum.BuradaBiliyorum.Com besuchen.

Wenn Sie weitere Nachrichten lesen möchten, können Sie unsere Wissenschaft kategorie besuchen.

Quelle

Ähnliche Artikel

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Schaltfläche "Zurück zum Anfang"
Schließen

Please allow ads on our site

Please consider supporting us by disabling your ad blocker!