Das Byte ist eine fundamentale Einheit digitaler Information in der Computerwissenschaft und Telekommunikation. Es besteht typischerweise aus acht Bits und ist somit in den meisten modernen Computerarchitekturen die kleinste adressierbare Dateneinheit. Ein einzelnes Byte ist in der Lage, 2^8, also 256, verschiedene Werte zu repräsentieren. Dieser Wertebereich ermöglicht es einem Byte, ein einzelnes Zeichen, wie einen Buchstaben, eine Zahl oder ein Symbol, gemäß Zeichenkodierungsstandards wie ASCII oder UTF-8 zu kodieren. Seine Einführung als Standardeinheit revolutionierte die Datenverarbeitung, indem sie über das einzelne Bit hinausging, um aussagekräftigere Informationsblöcke zu verwalten.
Historisch gesehen war der Begriff „Byte“ nicht immer einheitlich als acht Bits definiert. In den Anfängen der Computertechnik variierte seine Größe je nach spezifischer Hardwarearchitektur und reichte von 4 Bit bis zu 12 Bit oder mehr. Mit dem Aufkommen des IBM System/360 in den 1960er Jahren setzte sich das Acht-Bit-Byte jedoch weitgehend durch und wurde zum De-facto-Standard. Diese Standardisierung war entscheidend für die Interoperabilität verschiedener Computersysteme und die Entwicklung universeller Zeichenkodierungsschemata. Der Begriff selbst ist vermutlich eine phonetische Schreibweise von „bite“ (Bissen), bewusst falsch geschrieben, um Verwechslungen mit „bit“ zu vermeiden.
Das Byte dient als primärer Baustein für praktisch alle digitalen Daten. Ob es sich um Textdokumente, Bilder, Audiodateien, Videos oder ausführbare Programme handelt, all diese Informationsformen werden letztendlich als Sequenzen von Bytes gespeichert und verarbeitet. Beispielsweise ist eine Bilddatei eine Sammlung von Bytes, wobei jedes Byte oder jede Gruppe von Bytes die Farbe und Intensität eines Pixels darstellen kann. Ähnlich kodieren Audiodateien Schallwellen in einen Strom von Bytes. Diese einheitliche Darstellung vereinfacht das Design von Hardwarekomponenten wie Speicherchips, Festplatten und Netzwerkschnittstellen, da sie alle mit bytegroßen Datenblöcken arbeiten.
Zur Beschreibung größerer Datenmengen werden standardisierte Präfixe auf das Byte angewendet. Dazu gehören Kilobyte (KB), Megabyte (MB), Gigabyte (GB), Terabyte (TB), Petabyte (PB), Exabyte (EB) und so weiter. Eine häufige Verwirrung entsteht durch die Verwendung dieser Präfixe in zwei leicht unterschiedlichen Kontexten: dezimal (Basis 10) und binär (Basis 2). In der Telekommunikation und für Festplattenhersteller bedeutet ein Kilobyte oft 1000 Bytes (10^3). Im Computerbereich, insbesondere für Speicher- und Dateigrößen, bedeutet ein Kilobyte jedoch traditionell 1024 Bytes (2^10). Um diese Mehrdeutigkeit zu beseitigen, führte die Internationale Elektrotechnische Kommission (IEC) binäre Präfixe wie Kibibyte (KiB), Mebibyte (MiB) und Gibibyte (GiB) ein, um explizit Potenzen von zwei zu kennzeichnen, wobei 1 KiB gleich 1024 Bytes ist. Trotzdem werden die dezimalen Präfixe im Computerbereich weiterhin häufig verwendet, um sich auf Zweierpotenzen zu beziehen.
Das Konzept des Bytes ist wesentlich, um die Funktionsweise von Computern zu verstehen. Dateigrößen werden in Bytes gemessen, Speicherkapazitäten werden in Bytes (oder größeren Einheiten wie GB) ausgedrückt, und Netzwerkdatenübertragungsraten werden oft in Bits pro Sekunde (bps) oder Bytes pro Sekunde (Bps) angegeben. Programmierer arbeiten mit Bytes, wenn sie Daten auf niedriger Ebene manipulieren, und Betriebssysteme verwalten den Speicher in byte-adressierbaren Blöcken. Die Effizienz von Datenkompressionsalgorithmen, die Geschwindigkeit der Datenübertragung und die Kapazität von Speichergeräten sind alle fundamental damit verbunden, wie effektiv Bytes verwaltet und manipuliert werden können. Ohne das Byte als standardisierte Einheit wären die Komplexitäten der digitalen Informationsverarbeitung erheblich größer, was die Entwicklung der modernen Computertechnik behindern würde.