Blogverzeichnis Bloggerei.de
top of page

ASCII

Informatik

ASCII, die Abkürzung für "American Standard Code for Information Interchange", ist ein Zeichensatz und eine Zeichenkodierung, die im Jahr 1963 in den Vereinigten Staaten entwickelt wurde. Ihr primärer Zweck war es, eine standardisierte Methode zur Darstellung von Text in Computern und anderen Kommunikationsgeräten zu schaffen. Vor ASCII gab es keine einheitliche Kodierung, was den Datenaustausch zwischen verschiedenen Systemen erheblich erschwerte. Die Einführung von ASCII legte den Grundstein für die Kompatibilität in der digitalen Welt und ermöglichte die Entwicklung globaler Netzwerke wie des Internets.


Der ASCII-Standard definiert eine 7-Bit-Kodierung, was bedeutet, dass jeder Zeichencode aus sieben Bits besteht. Dies erlaubt die Darstellung von 2^7, also 128 verschiedenen Zeichen. Diese 128 Zeichen lassen sich in zwei Hauptkategorien unterteilen: Steuerzeichen und druckbare Zeichen. Die ersten 32 Zeichen (0 bis 31) sowie das Zeichen 127 sind Steuerzeichen. Diese werden nicht direkt auf dem Bildschirm angezeigt, sondern dienen zur Steuerung von Peripheriegeräten wie Druckern oder zur Formatierung von Text, beispielsweise für Zeilenumbrüche (LF), Wagenrückläufe (CR), Tabulatoren (HT) oder den Seitenumbruch (FF). Das Zeichen 127 ist das "DEL"-Zeichen, das ursprünglich zum Löschen von Zeichen auf Lochkarten oder Bildschirmen verwendet wurde.


Die druckbaren Zeichen umfassen die Ziffern 0-9, die Groß- und Kleinbuchstaben des englischen Alphabets (A-Z, a-z) sowie eine Vielzahl von Satzzeichen, mathematischen Symbolen und Sonderzeichen wie Klammern, Klammern, Ausrufezeichen, Fragezeichen und das Dollarzeichen. Jedes dieser Zeichen ist einem eindeutigen numerischen Wert zugeordnet, der dann binär repräsentiert wird. Zum Beispiel hat der Großbuchstabe 'A' den ASCII-Wert 65, der Kleinbuchstabe 'a' den Wert 97 und die Ziffer '0' den Wert 48. Diese klare Zuordnung ermöglichte es Computern, Textzeichen effizient zu speichern, zu verarbeiten und auszutauschen.


Obwohl ASCII eine revolutionäre Errungenschaft war, hatte es aufgrund seiner 7-Bit-Natur eine entscheidende Einschränkung: Es konnte nur Zeichen des englischen Alphabets und grundlegende Symbole abbilden. Zeichen anderer Sprachen, wie Umlaute (ä, ö, ü), Akzente (é, à), kyrillische oder asiatische Schriftzeichen, konnten nicht dargestellt werden. Dies führte zur Entwicklung von "erweiterten ASCII-Zeichensätzen" (Extended ASCII), die das achte Bit nutzten, um weitere 128 Zeichen zu kodieren (insgesamt 256). Diese erweiterten Zeichensätze waren jedoch oft nicht standardisiert und führten zu Kompatibilitätsproblemen, da verschiedene Systeme unterschiedliche Belegungen für die oberen 128 Zeichen verwendeten (z.B. ISO-8859-1 für westeuropäische Sprachen oder Code Page 437 für DOS).


Heute ist ASCII zwar immer noch die Grundlage vieler Textkodierungen, wurde aber weitestgehend durch Unicode ersetzt. Unicode ist ein wesentlich umfassenderer Zeichensatz, der darauf abzielt, jedes Zeichen jeder Sprache der Welt zu kodieren. Die ersten 128 Zeichen in Unicode (der Basic Latin Block) sind identisch mit den ASCII-Zeichen, was eine Abwärtskompatibilität gewährleistet. Daher sind viele moderne Systeme intern Unicode-basiert, können aber problemlos mit ASCII-kodierten Daten umgehen. ASCII bleibt ein fundamentaler Bestandteil der Computergeschichte und ein wichtiges Konzept für das Verständnis der digitalen Textverarbeitung.

bottom of page