If you're seeing this message, it means we're having trouble loading external resources on our website.

Wenn du hinter einem Webfilter bist, stelle sicher, dass die Domänen *. kastatic.org und *. kasandbox.org nicht blockiert sind.

Hauptinhalt

Was ist Informationstheorie?

Eine breite Einführung in dieses Studienfeld. Erstellt von Brit Cruise

Willst du an der Diskussion teilnehmen?

Noch keine Beiträge.
Verstehst du Englisch? Klick hier, um weitere Diskussionen auf der englischen Khan Academy Seite zu sehen.

Video-Transkript

Stell dir vor, Alice hat eine Idee und möchte sie teilen. Es gibt viele Möglichkeiten, eine Idee zu teilen. Sie könnte ein Bild malen, eine Gravur anfertigen, ein Lied schreiben, ... einen Telegraphen schicken oder eine E-Mail. Aber wie unterscheiden sich diese Dinge? Und was noch wichtiger ist, inwiefern sind sie gleich? In dieser Geschichte geht es um ein fundamentales Teilchen aller Formen der Kommunikation. Sie beginnt mit einer besonderen Fähigkeit, die du wahrscheinlich für selbstverständlich hältst. Sprache. Jede Sprache ermöglicht einen Gedanken oder geistiges Objekt in eine Reihe von begrifflichen Bruchstücken zu unterteilen. Diese sogenannten "Chunks" werden externalisiert durch eine Reihe von Signalen oder Symbolen. Der Mensch drückt sich durch eine Variation von Lauten und körperlichen Aktionen aus. Vögel zwitschern. Bienen tanzen. Von Menschen geschaffene Maschinen tauschen einen tanzenden Strom von elektrischen Schwingungen aus. Sogar unsere Körper sind nach einer Anleitung gebaut, die in mikroskopisch kleinen Büchern, der DNA, gespeichert ist. Alle sind verschiedene Formen einer Sache: Information. In einfachen Worten ermöglicht Information den Austausch vom einen Ort zum anderen. Sie basiert auf der Idee der Kommunikation als Selektion. Informationen, egal in welcher Form, kann mit einer grundlegenden Einheit gemessen werden. In etwa so, wie wir auch die Masse von verschiedenen Objekten mit einem Standardmaß wie Kilogramm oder Pfund messen können. Dies ermöglicht uns zum Beispiel, das Gewicht von Steinen, Wasser oder Weizen mit einer Waage zu messen und Vergleiche anzustellen. Auch Informationen lassen sich messen und vergleichen. Wir sprechen hier von Entropie. Stell dir das wie eine Informationsskala vor. Intuitiv wissen wir, dass eine einzelne Seite aus einem unbekannten Buch weniger Informationen enthält als das ganze Buch. Wir können es genau beschreiben, indem wir die Einheit Bit verwenden. Ein Maß für die Überraschung. Egal, wie Alice eine bestimmte Botschaft vermitteln will, seien es Hieroglyphen, Musik, Computercode, jede würde die gleiche Anzahl Bits enthalten. Wenn auch in unterschiedlicher Dichte. Und ein Bit ist mit einer sehr einfachen Idee verbunden. Die Antwort auf eine Ja- oder Nein-Frage. Betrachte es als die Sprache der Münzen. Wie wird Information eigentlich gemessen? Hat Information eine Geschwindigkeitsgrenze? Eine maximale Dichte? Die Informationstheorie hat die spannende Antwort auf diese Fragen. Diese Idee ist 3000 Jahre alt und entwickelt sich weiter. Aber bevor wir sie verstehen können, müssen wir einen Schritt zurücktreten und die vielleicht mächtigste Erfindung in der Geschichte der Menschheit betrachten: Das Alphabet. Und dafür kehren wir in die Höhle zurück.