"Informationstheorie"        zurück ]      [ Stichworte ]      [ Die Hyper-Bibliothek ]      [ Systemtheorie ]         [ Meine Bücher ]         [ Meine Blogs ]bild
 
bild

Als "Informationstheorie" (in Anführungszeichen) bezeichne ich eine naiv gemeinte "Theorie darüber, was Information sein soll".

Der Ausdruck "Informationstheorie" wird oft quasi synonym zu "Kommunikationstheorie", insbesondere jener von C. Shannon verwendet (obwohl Information und Kommunikation sehr selten synonym aufgefasst wird). "Informationstheorie" bezeichnet dann (keine Theorie i. e S., sondern) eine mathematische oder technische Diziplin, die sich mit der Quantifizierung von Signalübertragung beschäftigt und von C. Shannon eben als "Kommunikationstheorie" bezeichnet wurde. In der "Kommunikationstheorie" von C. Shannon kommt aber der Begriff Information nicht vor, dort wird von einem Informationsgehalt gesprochen.

Und schliesslich gibt es das Fachgebiet, das mit Informatik bezeichnet wird, obwohl es sich insgesamt mit Computern befasst. Informatik heisst das Fach, weil viele Informatiker Computer nur als Medium sehen und sich ausschliesslich mit "Daten" (in Anführungszeichen) befassen, die sie als Informationen auffassen, obwohl sie laut dem Informatik-Duden - leider - keine Definition von Information haben.

bild bild

C. Shannon
G. Bateson

Es gibt zwei Vorstellungen, die oft als "Theorien über Information" bezeichnet werden, weil "Information" darin als Erklärungsprinzip eine wichtige Rolle spielt:

In gewisser Weise kann ich die Texte von G. Bateson als Informationstheorie lesen. Er definiert Information kyberentisch: Ein Unterschied, der einen Unterschied macht

Auch N. Luhmann spricht von Information. Er unterscheidet sie von Mitteilung und bezeichnet damit das, woran in der Kommunikation angeschlossen wird. A sagt etwas. B versteht, indem er versteht, dass es eine Mitteilung ist, was sich darin zeigt, dass er daruf Bezug nimmt. A sagt beispielsweise: Es ist kalt. B antwortet: Ich weiss nicht, was Du meinst.

Die "Theorie" von C. Shannon ist eine Lehre über Codierung. Sein H ist ein Mass für Codierungsdichte von Zeichensequenzen. (Mahner)


 

Literatur

Mahner: Warum Shannons "Informationstheorie" keine Informationstheorie ist.

"Auch dort, wo die Informationstheorie zugestehen muss, dass die formalisierte Sprache immer wieder auf die >>natürliche Sprache<< zurückverwiesen werde, um durch die nicht formalisierte Sprache die Sage des technischen Bestandes zur Sprache zu bringen, bezeichnet dieser Umstand für die gängige Selbstauslegung der Informationstheorie nur ein vorläufiges Stadium. Denn die >>natürliche Sprache<<, von der hier die Rede sein muss, wird im voraus als die noch nicht formalisierte, jedoch als in die Formalisierung bestellte Sprache angesetzt. Die Formalisierung, die rechnerische Bestellbarkeit des Sagens, ist das Ziel und die Massgabe. (...) Die Informationstheorie begreift das Natürliche als den Mangel an Formalisierung" (M. Heidegger, 2003:263).
[es wäre sehr interessant zu wissen, worauf sich M. Heideger mit Informationstheorie bezieht, am ehesten auf seine eigene Interpretation der Komuikationstheorie von C. Shannon].

Wikipedia - Common sense bunt aufgemischt:

bild

Die Informationstheorie ist eine mathematische Theorie aus dem Bereich der Wahrscheinlichkeitstheorie und Statistik, die auf Claude Shannon zurückgeht. Sie beschäftigt sich mit Begriffen wie Information, Entropie, Informationsübertragung, Datenkompression, Kodierung, Kryptographie, Komplexitätstheorie und verwandten Themen. Neben der Mathematik, Informatik und Nachrichtentechnik wird die theoretische Betrachtung von Kommunikation durch die Informationstheorie auch zur Beschreibung von Kommunikationssystemen in anderen Bereichen (Medien in der Publizistik, Nervensystem in der Neurologie, DNA und Proteinsequenzen in der Molekularbiologie, Wissen in der Informationswissenschaft und Dokumentation) etc. eingesetzt. Die Shannonsche Theorie verwendet den Begriff der Entropie, um die Informationsdichte von Nachrichten zu charakterisieren. Je ungleichförmiger eine Nachricht aufgebaut ist, desto höher ist ihre Entropie.

Geschichte
Vor allem Claude Elwood Shannon lieferte in den 1940er bis 1950er Jahren wesentliche Beiträge zur Theorie der Datenübertragung und der Wahrscheinlichkeitstheorie. Er fragte sich, wie man eine verlustfreie Datenübertragung über elektronische (heute auch optische) Kanäle sicherstellen kann. Dabei geht es insbesondere darum, die Datensignale vom Hintergrundrauschen zu trennen. Außerdem versucht man, während der Übertragung aufgetretene Fehler zu erkennen und zu korrigieren. Dazu ist es notwendig, redundante (d.h. überflüssige) Daten mitzusenden, um dem Datenempfänger eine Datenverifikation oder Datenkorrektur zu ermöglichen. Shannon selbst bezeichnet sein Werk als eine „mathematische Theorie der Kommunikation“. Er schließt semantische Aspekte der Information, also Aussagen über den „Inhalt“ übertragener Nachrichten ausdrücklich aus. Dies bedeutet, dass eine „sinnvolle“ Botschaft ebenso gewissenhaft übertragen wird wie eine zufällige Folge von Buchstaben. Obwohl die Shannon-Theorie üblicherweise als „Informationstheorie“ bezeichnet wird, macht sie also keine direkte Aussage über den Informationsgehalt von übertragenen Botschaften.

bild

C. Shannon macht nicht keine Aussagen über den Informationsgehalt, sondern NUR Aussagen über den Informationsgehalt. Im Wikiedia-Artikel verschwimmen die verschiedenen Auffassungen zu Information auf eine ganz typische Weise - eben mangels Theorie.


 
[ wp ]