Claude Shannon: Wie Bits, Entropie und Kanalgrenzen die digitale Welt möglich machten
- Benjamin Metzig
- vor 3 Stunden
- 6 Min. Lesezeit

Wenn heute eine Sprachnachricht über Mobilfunk reist, ein Film komprimiert gestreamt wird oder ein Rechenzentrum Milliarden Datenpakete verschiebt, steckt darin eine Idee aus dem Jahr 1948. Nicht irgendein technischer Trick, sondern eine neue Denkweise: Information lässt sich messen, codieren und trotz Störungen zuverlässig übertragen. Claude Shannon hat diese Denkweise in seinem Aufsatz A Mathematical Theory of Communication so präzise formuliert, dass sie bis heute das Fundament digitaler Technik bildet.
Das Erstaunliche daran ist, wie kühn die Abstraktion war. Shannon fragte nicht zuerst, was eine Nachricht bedeutet. Er fragte, was technisch nötig ist, damit sie von A nach B gelangt. Genau darin lag die Revolution.
Die radikale Trennung von Bedeutung und Übertragung
Schon in der Einleitung seines 1948er Textes formuliert Shannon den Kern des Problems: Kommunikation heißt, eine an einem Ort ausgewählte Nachricht an einem anderen Ort exakt oder näherungsweise zu reproduzieren. Gleich danach setzt er eine bis heute produktive Provokation: Die semantischen Aspekte einer Nachricht seien für das ingenieurwissenschaftliche Problem nicht entscheidend. Relevant sei, dass aus einer Menge möglicher Nachrichten eine konkrete ausgewählt wird.
Das klingt trocken, ist aber ein intellektueller Sprengsatz. Denn damit werden Sprache, Musik, Bilder, Messdaten und Telefongespräche auf eine gemeinsame Ebene gezogen. Sie unterscheiden sich in ihrem Inhalt, aber nicht mehr grundsätzlich in der Frage, wie man sie technisch behandelt. Wer das einmal verstanden hat, begreift, warum dieselbe digitale Infrastruktur heute Texte, Videos, Navigationsdaten und medizinische Scans transportieren kann.
Kernidee: Shannons eigentliche Leistung
Shannon hat Information von Bedeutung getrennt, ohne Bedeutung für unwichtig zu erklären. Er hat nur gezeigt, dass Übertragung zuerst ein Problem von Auswahl, Wahrscheinlichkeit und Störung ist.
Warum das Bit kleiner wirkt, als es historisch ist
Shannon führt in seinem Aufsatz aus, dass ein logarithmisches Maß für Information besonders nützlich ist. Verwendet man die Basis 2, entstehen binary digits, kurz bits. Der Begriff, notiert Shannon, wurde von J. W. Tukey vorgeschlagen. Ein Bit ist also die kleinstmögliche Entscheidung zwischen zwei Alternativen.
Heute klingt das banal. In Wahrheit war es die Voraussetzung dafür, sehr verschiedene Medien in eine gemeinsame technische Sprache zu übersetzen. Sobald Text, Ton oder Bild als Folge diskreter Entscheidungen behandelbar werden, lassen sie sich speichern, kopieren, komprimieren, verschlüsseln und durch Maschinen verarbeiten.
Das erklärt auch, warum Shannon nicht nur für Kommunikation wichtig war, sondern für die gesamte Computerwelt. Die Encyclopaedia Britannica erinnert daran, dass bereits seine Masterarbeit über Boolesche Algebra und Schaltkreise die theoretische Grundlage digitaler Schaltungen legte. Shannon lieferte also nicht bloß eine Maßeinheit. Er half dabei, die Denkbrücke zwischen logischen Entscheidungen und physischer Technik zu schlagen.
Entropie: Warum Überraschung messbar wird
Einer der folgenreichsten Schritte in Shannons Theorie ist die Einführung eines Maßes für Ungewissheit. Je weniger vorhersehbar eine Quelle ist, desto mehr Information produziert sie im Durchschnitt. Ein völlig monotones Signal trägt wenig neue Information. Eine Quelle mit vielen möglichen, schwer vorhersagbaren Ausgängen trägt mehr.
Das ist der Punkt, an dem der oft missverstandene Begriff Entropie ins Spiel kommt. Im alltagssprachlichen Sinn klingt Entropie nach Chaos. Bei Shannon geht es präziser um statistische Überraschung. Wenn in einem Text bestimmte Buchstaben oder Wortfolgen besonders häufig sind, dann ist die Quelle strukturiert. Diese Struktur erlaubt Kompression. Genau deshalb können Dateien kleiner gemacht werden, ohne dass jedes Zeichen gleich viel Platz braucht.
Shannon dachte dabei nicht in Smartphone-Apps, sondern in Telegrafie, Telefonie und frühen Nachrichtensystemen. Doch die Logik ist dieselbe wie bei modernen Codecs. Kompression funktioniert, weil echte Quellen nicht völlig zufällig sind. Sie besitzen Muster, Wiederholungen, Gewohnheiten. Technik wird effizient, wenn sie diese Muster ausnutzt.
Der Kanal ist nie neutral
Ebenso wichtig wie die Quelle ist bei Shannon der Kanal. In seinem klassischen Kommunikationsmodell stehen Quelle, Sender, Kanal, Empfänger und Ziel in einer Kette. Der Kanal ist dabei kein unsichtbares Rohr, sondern ein begrenztes, störanfälliges Medium. Kupferleitungen, Funkstrecken, Glasfasern, Speicherchips oder Satellitenlinks haben Eigenschaften, die bestimmen, wie viel Information unter welchen Bedingungen transportiert werden kann.
Shannon zeigte, dass jeder Kanal eine Kapazitätsgrenze besitzt. Es gibt also keine beliebige Steigerung durch Optimismus oder Ingenieursstolz. Unter gegebenem Rauschen und gegebener Bandbreite existiert eine obere Rate, bis zu der zuverlässige Übertragung prinzipiell möglich ist. Darüber kippt das System in wachsende Fehler.
Bell Labs betont in seinem Rückblick Information Theory Turns 75, dass genau diese Kapazitätsidee bis heute als Benchmark moderner Kommunikationssysteme dient. Der sogenannte Shannon-Limit ist keine historische Fußnote, sondern weiterhin ein Maßstab für Mobilfunk, Glasfaser, DSL, Funktechnik und Satellitenkommunikation.
Faktencheck: Was Shannon nicht behauptet hat
Shannon hat nicht versprochen, dass jede Übertragung perfekt wird. Er hat gezeigt, dass es unterhalb einer fundamentalen Grenze prinzipiell möglich ist, Fehler beliebig klein zu machen, wenn man klug genug codiert.
Warum Kompression und Fehlerkorrektur Geschwister sind
Viele populäre Erzählungen über Digitalisierung konzentrieren sich auf Speicherplatz, Prozessoren oder Benutzeroberflächen. Shannons Perspektive macht klar, dass zwei unscheinbare Leistungen im Hintergrund entscheidend sind: Redundanz entfernen und Redundanz gezielt wieder einbauen.
Kompression entfernt unnötige Wiederholung. Fehlerkorrektur fügt strategische Zusatzinformation hinzu, damit eine Nachricht trotz Störungen rekonstruiert werden kann. Diese doppelte Bewegung wirkt paradox, ist aber der Kern moderner Datenverarbeitung. Ein Streamingdienst, ein QR-Code, ein Deep-Space-Signal und ein Mobilfunknetz leben davon, dass Redundanz einmal als Ballast und einmal als Rettungsleine behandelt wird.
Shannons Theorie erklärt damit nicht nur Effizienz, sondern auch Robustheit. Die digitale Welt ist nicht deshalb stabil, weil sie frei von Fehlern wäre. Sie ist stabil, weil sie mit Fehlern rechnet.
Von der Telefonleitung zum Internet
Die historische Größe von Shannon zeigt sich daran, dass seine Theorie eine Zeit überdauert hat, deren konkrete Geräte längst verschwunden sind. Er schrieb für eine Welt der Bell-Labs-Kommunikation, aber seine Begriffe tragen bis in die Gegenwart. Das Internet funktioniert nur, weil Informationen paketierbar, codierbar und unter wechselnden Kanalbedingungen rekonstruierbar sind. Streaming ist nur möglich, weil Quellen komprimierbar sind. Cloud-Systeme, Datenzentren und Unterseekabel arbeiten permanent an der Grenze zwischen Effizienz, Redundanz und Fehlertoleranz.
Genau deshalb passt der Beitrag auch gut zu unserem Artikel über Tim Berners-Lee und das offene Web: Das Web war eine geniale Organisationsform für Information. Shannon lieferte die tiefere mathematische Vorbedingung, dass Information überhaupt kanalunabhängig, maschinenlesbar und skalierbar gedacht werden konnte.
Ebenso führt eine Linie zu Open Standards gegen Lock-in. Standards regeln, wie Systeme miteinander sprechen. Shannon erklärt auf einer fundamentaleren Ebene, warum dieses Sprechen überhaupt als formales Problem modelliert werden kann.
Und wer verstehen will, wie mathematische Zerlegung komplexe Signale lesbar macht, landet fast zwangsläufig bei der Fourier-Analyse. Fourier zeigt, wie Signale in Bestandteile zerlegt werden können. Shannon zeigt, wie solche Signale als Information unter Grenzen und Störungen verlässlich bewegt werden.
Shannon im Zeitalter der KI
Gerade heute ist Shannon wieder verblüffend aktuell. Große Sprachmodelle, Suchsysteme, Empfehlungsmaschinen und generative KI arbeiten ständig mit Wahrscheinlichkeiten, Kodierungen und Musterverdichtung. Das heißt nicht, dass Shannon schon erklärt hätte, was Verstehen, Bedeutung oder Bewusstsein sind. Im Gegenteil: Seine berühmte Ausklammerung der Semantik erinnert uns daran, dass statistische Verarbeitung und menschliches Sinnverstehen nicht dasselbe sind.
Das ist keine Schwäche seiner Theorie, sondern ihre präzise Grenze. Shannon beantwortet die Frage, wie Information technisch übertragen und formal beschrieben werden kann. Er beantwortet nicht die philosophische Frage, wann aus Signal Bedeutung wird. Wer diese Grenze verwischt, missversteht sowohl Shannon als auch KI.
Merksatz: Warum Shannon heute wieder gelesen werden sollte
In einer Zeit, in der Maschinen immer überzeugender mit Symbolen umgehen, ist die Unterscheidung zwischen statistischer Form und menschlichem Sinn wichtiger denn je.
Der stille Architekt des Digitalen
Nokia Bell Labs nennt Shannon mit gutem Grund einen der geistigen Urheber des digitalen Zeitalters. Das Bell-Labs-Archiv beschreibt seine 1948er Arbeit als Fundament für moderne Kommunikation, Computing, digitale Medien und das Internet. Das ist keine übertriebene Gedenkrhetorik. Es ist eine nüchterne Diagnose.
Denn die digitale Welt besteht letztlich nicht zuerst aus Geräten, Apps oder Plattformen. Sie besteht aus der Beherrschung eines Problems: Wie wird aus einer Vielzahl möglicher Zustände eine übertragbare, speicherbare und rekonstruierbare Folge von Entscheidungen? Shannon hat gezeigt, dass man diese Frage mathematisch stellen kann. Und genau dadurch wurde sie technisch lösbar.
Vielleicht ist das die schönste Pointe seiner Arbeit: Einer der zentralen Köpfe des digitalen Zeitalters hat kein soziales Netzwerk erfunden, keine Suchmaschine gebaut und kein Smartphone designt. Er hat etwas Tieferes geliefert. Ein Vokabular, ein Modell und eine Grenzlehre dafür, wie Information in einer rauschenden Welt überhaupt zirkulieren kann.
Ohne diese Denkbewegung gäbe es keine moderne Datenkultur, wie wir sie kennen. Es gäbe vielleicht Signale. Aber keine digitale Zivilisation.
















































































