Fehlerkorrigierende Codes: Warum digitale Kommunikation trotz Rauschen funktioniert
- Benjamin Metzig
- vor 2 Stunden
- 5 Min. Lesezeit

Eine Nachricht verlässt dein Smartphone, wandert durch Funkzellen, Router, Glasfaser und Rechenzentren und kommt trotzdem fast immer korrekt an. Das Erstaunliche daran ist nicht, dass moderne Technik schnell ist. Das Erstaunliche ist, dass sie überhaupt zuverlässig sein kann. Denn jeder reale Kommunikationskanal ist fehleranfällig: elektromagnetisches Rauschen, schwache Signale, Interferenzen, defekte Speicherzellen, Kratzer auf Datenträgern, Störungen in Leitungen.
Dass wir trotzdem streamen, chatten, navigieren und Daten im All empfangen können, verdanken wir einer der stillen Schlüsseltechnologien der digitalen Moderne: fehlerkorrigierenden Codes.
Das eigentliche Wunder der Digitalisierung
Analoge Systeme verschlechtern sich oft schleichend. Ein verrauschtes Radioprogramm klingt nur noch schlechter. Digitale Systeme funktionieren anders: Sie zerlegen Information in diskrete Zeichen, meist in Bits, und können dadurch systematisch unterscheiden zwischen „wahrscheinlich noch richtig“ und „muss rekonstruiert werden“.
Der theoretische Grundstein dafür wurde 1948 von Claude Shannon gelegt. In A Mathematical Theory of Communication beschrieb er Kommunikation nicht als Frage von Bedeutung, sondern als mathematisches Problem aus Quelle, Kanal, Rauschen, Empfänger und Redundanz. Die entscheidende Pointe war radikal: Auch ein verrauschter Kanal kann zuverlässig genutzt werden, wenn man Informationen passend codiert und unterhalb der Kanalkapazität bleibt.
Das ist einer dieser seltenen Gedanken, die erst abstrakt wirken und dann fast die gesamte technische Welt neu ordnen. Ohne diese Logik gäbe es keine robuste digitale Kommunikation, wie wir sie heute für selbstverständlich halten.
Kernidee: Fehlerkorrektur bedeutet nicht, Fehler zu vermeiden.
Sie bedeutet, Kommunikationssysteme so zu entwerfen, dass Fehler erwartet, erkannt und möglichst wieder ausgebügelt werden.
Warum bloßes Wiederholen nicht reicht
Der naive Ansatz wäre simpel: Man sendet alles mehrfach. Aus 1 wird dann etwa 111, aus 0 wird 000. Kippt unterwegs ein Bit, kann eine Mehrheitsentscheidung helfen. Das funktioniert grundsätzlich, ist aber brutal ineffizient. Dreifache Sendung kostet dreifache Bandbreite, dreifache Zeit oder dreifachen Energieeinsatz.
Genau hier beginnt die eigentliche Eleganz der Codierungstheorie. Gute Codes erzeugen nicht bloß Wiederholung, sondern strukturierte Redundanz. Zusätzliche Bits werden so gewählt, dass sie Beziehungen zwischen den Nutzdaten herstellen. Wer diese Beziehungen kennt, kann aus einem beschädigten Datenwort oft rückrechnen, wo der Fehler liegt.
Der Kernbegriff dafür ist die Hamming-Distanz: Wie viele Stellen unterscheiden zwei Bitfolgen voneinander? Je größer der Mindestabstand zwischen gültigen Codewörtern, desto besser kann ein System Irrtümer erkennen oder sogar korrigieren.
Die Faustregel lautet:
Mit Mindestabstand 2 kann man einzelne Fehler sicher erkennen.
Mit Mindestabstand 3 kann man einen einzelnen Fehler korrigieren.
Für mehr Korrekturleistung braucht man noch mehr Abstand und damit mehr Redundanz.
Die MIT-OCW-Einführung zu Hamming-Codes zeigt genau dieses Prinzip: Nicht jede Bitfolge ist erlaubt. Gültig sind nur diejenigen, die ein bestimmtes Prüfschema erfüllen. Ein beschädigtes Wort fällt dann aus diesem Muster heraus und verrät durch sein Fehlerprofil, welches Bit wahrscheinlich gekippt ist.
Der Hamming-Code: klein, alt, genial
Richard Hamming entwickelte seine Codes in einer Zeit, in der Rechner noch viel störanfälliger waren als heute. Die Grundidee ist bis heute didaktisch unschlagbar. Man ergänzt zu einigen Datenbits mehrere Paritätsbits, die verschiedene Gruppen von Bitpositionen überwachen. Wenn beim Empfänger die Prüfungen widersprüchlich ausfallen, ergibt das ein Muster, das direkt auf die fehlerhafte Stelle zeigt.
Der klassische Hamming-(7,4)-Code macht aus 4 Nutzbits insgesamt 7 Bits. Drei zusätzliche Prüfbits genügen, um jeden einzelnen Bitfehler zu lokalisieren und zu korrigieren. Das klingt klein, fast spielerisch, ist aber konzeptionell gewaltig: Information wird nicht nur transportiert, sondern so geformt, dass ihre Reparatur mathematisch möglich wird.
Diese Einsicht ist der Übergang von „Kommunikation mit Hoffnung“ zu „Kommunikation mit eingebauter Selbstprüfung“.
Warum manche Fehler in Blöcken kommen
Nicht alle Störungen sind gleich. Manchmal kippt wirklich nur ein einzelnes Bit. Häufiger aber treten Fehler gehäuft auf: ein kurzer Störimpuls im Funkkanal, ein Kratzer auf einer CD, eine beschädigte Speicherregion. Solche Burst-Fehler sind besonders tückisch, weil sie viele benachbarte Symbole auf einmal treffen können.
Dafür wurden andere Codefamilien wichtig, vor allem Reed-Solomon-Codes. Die NASA beschreibt in ihrem Tutorial on Reed-Solomon error correction coding, warum diese Codes in der Praxis so nützlich sind: Sie arbeiten nicht nur auf einzelnen Bits, sondern auf Symbolen aus endlichen Körpern und sind deshalb besonders gut darin, zusammenhängende Fehlerblöcke zu behandeln.
Genau deshalb tauchten Reed-Solomon-Codes in so vielen Systemen auf:
auf optischen Datenträgern wie CDs und DVDs,
in QR-Codes, die auch mit Schmutz oder teilweise verdeckten Flächen noch lesbar sein können,
in Satelliten- und Raumfahrtkommunikation,
in Archiv- und Speichersystemen.
Wenn ein QR-Code an der Ecke beschädigt ist, steckt darin kein kleines Designwunder, sondern Redundanz mit harter Mathematik im Hintergrund.
Ohne Fehlerkorrektur wäre der Weltraum fast stumm
Gerade in der Raumfahrt wird sichtbar, wie fundamental das Thema ist. Dort sind Signale extrem schwach, Übertragungswege gigantisch lang und Wiederholungen teuer. Ein „Bitte noch mal senden“ ist bei einer Sonde in großer Entfernung keine elegante Option.
NASA-Dokumente zu Reed-Solomon-Verfahren zeigen, wie ernst diese Frage genommen wurde: Fehlerkorrektur ist dort keine Komfortfunktion, sondern Voraussetzung dafür, dass Daten aus dem All überhaupt wissenschaftlich nutzbar werden. Je weiter eine Sonde entfernt ist, desto kostbarer wird jedes einzelne Bit.
Man kann das fast als philosophische Pointe lesen: Unsere Fähigkeit, ferne Welten zu verstehen, hängt nicht nur an Teleskopen und Raketen, sondern auch daran, ob wir kaputte Zeichenfolgen wieder zusammensetzen können.
Auch dein Computer lebt von dieser Logik
Fehlerkorrigierende Codes sind nicht nur ein Thema für Funkmasten und Raumfahrtagenturen. Sie sitzen mitten im Alltag:
ECC-RAM in Servern erkennt und korrigiert einfache Speicherfehler.
SSDs und Flash-Speicher brauchen Fehlerkorrektur, weil Speicherzellen altern und Ladungszustände driften.
WLAN, Mobilfunk und Glasfaser arbeiten laufend gegen Störungen an.
QR-Codes und Barcodes müssen teilweise beschädigte Informationen noch robust lesbar halten.
Besonders in Rechenzentren ist das entscheidend. Ein einzelner Speicherbitfehler kann harmlos sein oder eine komplette Datenstruktur beschädigen. Fehlerkorrektur ist dort gewissermaßen die Hygieneschicht des Digitalen: unsichtbar, aber unverzichtbar.
Moderne Codes: viel stärker, viel komplexer
Die Grundidee ist einfach. Die heutigen Verfahren sind es nicht mehr. Moderne Kommunikationssysteme arbeiten mit Codefamilien, die in ihrer Leistungsfähigkeit weit über klassische Hamming- oder Reed-Solomon-Beispiele hinausgehen.
Für 5G NR ist das sogar standardisiert dokumentiert. Die ETSI-Fassung von 3GPP TS 38.212 weist für Transportkanäle wie UL-SCH und DL-SCH LDPC aus, während für bestimmte Broadcast- und Kontrollinformationen Polar-Codes genutzt werden. Das ist kein akademischer Luxus, sondern direkte Infrastrukturentscheidung.
Warum dieser Wechsel? Qualcomm beschreibt in einem Überblick zu 5G foundational inventions, dass die Turbo-Codes aus 4G für die extremen Datenraten und Effizienzanforderungen von 5G nicht mehr ausreichten. Fehlerkorrektur ist also kein statisches Kapitel der Ingenieursgeschichte, sondern ein laufender Wettlauf zwischen mehr Leistung, weniger Energieverbrauch und härteren Kanalbedingungen.
Fehlerkorrektur ist immer ein Tauschgeschäft
Je besser ein Code Fehler ausgleichen soll, desto mehr verlangt er in irgendeiner Form zurück:
zusätzliche Bits,
Rechenaufwand beim Decodieren,
Energieverbrauch,
Latenz,
Implementierungskomplexität.
Ein perfekter Code für jeden Zweck existiert nicht. Ein Tiefraumsignal stellt andere Anforderungen als ein Smartphone im Stadtverkehr. Ein Server-RAM verfolgt andere Ziele als ein QR-Code auf einem Plakat. Gute Codierung ist deshalb immer ein Kompromiss zwischen Robustheit, Geschwindigkeit, Kosten und physikalischen Randbedingungen.
Faktencheck: Fehlererkennung ist nicht dasselbe wie Fehlerkorrektur.
Ein CRC kann sehr gut erkennen, dass Daten beschädigt wurden. Er sagt aber nicht automatisch, wie der ursprüngliche Inhalt wiederherzustellen ist.
Was daran kulturell interessant ist
Fehlerkorrigierende Codes sind mehr als ein Nischenthema der Elektrotechnik. Sie verkörpern eine Grundhaltung moderner Systeme: Robustheit entsteht nicht durch Reinheit, sondern durch eingeplante Unvollkommenheit.
Digitale Technik funktioniert nicht deshalb so gut, weil ihre Welt sauber wäre. Sie funktioniert, weil sie mit Dreck, Rauschen, Ausfällen und Missverständnissen rechnet. Sie plant das Scheitern einzelner Bits von Anfang an mit ein.
Das ist vielleicht die eigentliche Lehre dieser Technologie. Moderne Zuverlässigkeit ist kein Zustand ohne Fehler. Sie ist die Kunst, Fehler so zu umzingeln, dass sie das Ganze nicht zerstören.
Das Unsichtbare Rückgrat der Verbindung
Wenn dein Smartphone morgen wieder eine Nachricht verschickt, dein Navi korrekt ankommt oder ein QR-Code auf Anhieb gelesen wird, dann wirkt das banal. In Wahrheit steckt darin eine jahrzehntelang verfeinerte Mathematik der Fehlertoleranz.
Fehlerkorrigierende Codes sind das stille Rückgrat der digitalen Welt. Sie machen Kommunikation nicht nur schneller, sondern überhaupt erst belastbar. Ohne sie wäre das Netz kein Netz, sondern ein permanentes Missverständnis.
Wenn man so will, ist digitale Zivilisation zu einem guten Teil die Kunst, beschädigte Signale trotzdem richtig zu verstehen.








































































































Kommentare