Photonische Rechner sind kein GPU-Killer: Warum Lichtchips bei KI glänzen und am Rest noch scheitern
- Benjamin Metzig
- vor 9 Stunden
- 6 Min. Lesezeit

Wer heute über die Zukunft des Rechnens spricht, landet fast zwangsläufig bei einem alten Problem in neuer Größenordnung: Unsere Maschinen rechnen nicht nur, sie schleppen ständig Daten hin und her. Genau dort entstehen Hitze, Wartezeit und Energiehunger. Das ist der Punkt, an dem photonisches Computing plötzlich wieder attraktiv wirkt. Wenn Information als Licht über einen Chip läuft, lassen sich bestimmte Rechenoperationen parallel, extrem schnell und mit potenziell geringerer Verlustwärme ausführen.
Das klingt nach Revolution. Es ist aber vorerst eher eine sehr präzise Spezialisierung.
Denn der starke Satz über Lichtchips lautet nicht: Sie ersetzen bald CPU und GPU. Der starke Satz lautet: Sie könnten genau dort gewinnen, wo moderne KI, Signalverarbeitung und wissenschaftliches Rechnen heute am schwersten werden, nämlich bei massenhaften Matrixoperationen. Und selbst dort ist der Weg von der Labor-Demonstration zum robusten Rechensystem härter, als viele Schlagzeilen glauben machen.
Was photonisches Computing überhaupt ist
Photonisches Computing bedeutet, dass wenigstens ein relevanter Teil der Rechenarbeit nicht mit Elektronen in klassischen Transistorpfaden, sondern mit Licht in optischen Strukturen ausgeführt wird. Meist geschieht das in integrierten photonischen Schaltkreisen, in denen Laser, Wellenleiter, Modulatoren, Detektoren und Interferometer auf engem Raum zusammenarbeiten.
Definition: Der Kern der Idee
Photonische Rechner nutzen die Eigenschaften von Licht, um bestimmte Operationen direkt im Signalfluss auszuführen. Besonders attraktiv ist das für lineare Algebra, also für Multiplikationen und Summen großer Vektoren und Matrizen.
Genau deshalb taucht das Thema immer wieder im Umfeld von KI auf. Neuronale Netze bestehen im Kern aus vielen gewichteten Summen. Und genau diese Summen lassen sich optisch erstaunlich elegant abbilden. Die große Übersichtsarbeit in Light: Science & Applications beschreibt Matrixmultiplikation nicht nur als Anwendungsfeld, sondern als eigentlichen Motor der ganzen Disziplin.
Warum Licht ausgerechnet bei Matrixoperationen stark ist
Licht hat drei Eigenschaften, die für bestimmte Rechenkerne fast verdächtig gut passen.
Erstens ist es schnell, was banal klingt, aber auf Chip-Ebene als niedrige Signallaufzeit und hohe Bandbreite zählt. Zweitens lässt es sich parallel nutzen, etwa über Raum, Phase oder verschiedene Wellenlängen. Drittens kann ein optisches System Multiplikation und Akkumulation teilweise direkt während der Ausbreitung des Signals erledigen. In der Nature-Arbeit von 2025 wird genau das als eigentlicher Vorteil beschrieben: simultane Multiplikations- und Summationsprozesse entlang geführter Lichtpfade.
Das ist wichtig, weil heutige KI-Systeme nicht nur durch Rechenlogik gebremst werden, sondern durch Datenbewegung. Elektronische Systeme verbringen einen großen Teil ihrer Energie damit, Werte zwischen Speicher, Recheneinheit und Bus hin und her zu schieben. Ein optischer Beschleuniger kann dieses Verhältnis in bestimmten linearen Kernen verschieben, weil die Rechenoperation näher an den Signalfluss rückt.
Die vielleicht eindrücklichste Zuspitzung des Energieversprechens kommt aus Nature Communications: Dort zeigen Forschende ein optisches neuronales Netz im Bereich von weniger als einem detektierten Photon pro Multiplikation. Das ist kein fertiger Produktprototyp, aber ein klarer Hinweis darauf, wie tief das theoretische Effizienzpotenzial reicht, wenn große lineare Operationen optisch parallelisiert werden.
Was die jüngsten Durchbrüche wirklich zeigen
Die wichtigste aktuelle Nachricht aus der Forschung ist nicht, dass plötzlich ein universeller Lichtcomputer existiert. Die wichtige Nachricht ist, dass die Integration deutlich ernster geworden ist.
Die erwähnte Nature-Veröffentlichung von 2025 zeigt einen optischen 64 × 64-Matrix-Vektor-Beschleuniger mit mehr als 16.000 photonischen Komponenten. Entscheidend ist weniger die nackte Zahl als ihre Bedeutung: Photonic Computing verlässt damit die Phase hübscher Einzelbauteile und nähert sich größeren, zusammenhängenden Systemen. Die Autoren berichten speziell bei der Latenz von einem Vorsprung um etwa zwei Größenordnungen gegenüber klassischen elektronischen Lösungen für diesen Rechentyp.
Das ist kein kleiner Schritt. Es ist aber auch keine Generalvollmacht für den Satz „Licht schlägt Silizium“. Denn die Demonstration betrifft einen eng umrissenen Rechenkern unter kontrollierten Bedingungen. Wer daraus ableitet, dass CPUs und GPUs bald überflüssig seien, verwechselt Spezialbeschleunigung mit allgemeinem Rechnen.
Der häufigste Denkfehler: Optische Verbindung ist noch kein optischer Rechner
Zur Verwirrung trägt bei, dass sehr viele reale Industrie-Fortschritte derzeit an einer anderen Stelle passieren: beim optischen Transport von Daten.
Intel beschreibt seine aktuelle Optical Compute Interconnect ausdrücklich als optische I/O-Technik. Das Ziel ist, Daten effizienter zwischen Prozessoren, Beschleunigern und Speichern zu bewegen. Für große KI-Cluster ist das enorm wichtig, weil Kupferverbindungen bei Reichweite, Energie und Bandbreite an Grenzen stoßen.
Doch man muss begrifflich sauber bleiben. Ein optischer Interconnect ist noch kein photonischer Hauptrechner. Er löst vor allem das Transportproblem. Ein photonischer Beschleuniger versucht dagegen, einen Teil der eigentlichen Rechenarbeit im optischen Bereich auszuführen. Beides gehört zur Zukunft von KI-Hardware, aber beides ist nicht dasselbe.
Gerade für die Sichtbarkeit in der Suche ist diese Unterscheidung wichtig, weil der Begriff Silicon Photonics oft pauschal als Synonym für „Rechnen mit Licht“ verwendet wird. Meist stimmt das nicht. Oft geht es zunächst um Kommunikation.
Warum Lichtchips noch nicht den Rest des Computers übernehmen
Die Hürden sind nicht kosmetisch. Sie treffen den Kern der Architektur.
Die erste Hürde ist Speicher. Die MIT-Übersicht zu optischen und elektrischen Speichern für analoges optisches Rechnen macht klar, warum das so heikel ist: Analoge optische Systeme können sehr schnell und effizient sein, bezahlen diesen Vorteil aber mit Präzisionsfragen, Rauschen, Verlusten, Flächenbedarf und schwieriger Gewichtsspeicherung. Anders gesagt: Rechnen mit Licht ist eine Sache, stabile und dichte Zustände halten eine andere.
Die zweite Hürde ist Präzision. Viele photonische Ansätze arbeiten analog. Das ist für KI-Inferenz oder spezielle lineare Algebra nicht automatisch schlecht, weil solche Anwendungen oft mit begrenzter numerischer Genauigkeit auskommen. Aber es setzt klare Grenzen. Die Nature-Arbeit von 2025 benennt diese Genauigkeitsfrage selbst als zentrale Herausforderung für größere und komplexere Schaltungen.
Die dritte Hürde ist Konversion. Sobald Daten aus elektronischem Speicher kommen, optisch verarbeitet und dann wieder elektronisch weiterverarbeitet werden, frisst jede Umwandlung einen Teil des Vorteils. Die Review in Nature Reviews Electrical Engineering legt genau hier den Finger hinein: Elektro-optische Übergänge, Nichtlinearitäten, Verstärkung und Zeitverarbeitung sind keine Randprobleme, sondern strukturelle Engpässe.
Die vierte Hürde ist die Software. Ein optischer Beschleuniger nützt wenig, wenn Modelle, Compiler und Laufzeitsysteme nicht gezielt darauf ausgelegt sind. Auch das benennt die aktuelle Forschung deutlich: Neue Hardware braucht neue Algorithmen und neue Toolchains. Sonst bleibt der theoretische Vorteil praktisch unerreichbar.
Was realistisch zuerst kommt
Die nüchterne Prognose lautet deshalb: Photonisches Computing wird zuerst dort relevant, wo die Aufgabe eng definiert ist und wo lineare Algebra den Aufwand dominiert.
Das betrifft vor allem KI-Inferenz, Signalverarbeitung, bestimmte Such- oder Optimierungskerne und Spezialpfade in Rechenzentren. Noch realistischer und näher am Markt sind optische Interconnects, also genau jene Technik, die den Datenverkehr zwischen großen Rechensystemen entlastet. Dort ist der Nutzen oft unmittelbarer als bei der Vision eines volloptischen Prozessors.
Kernidee: Die wahrscheinlichste Zukunft
Licht ersetzt Elektronik nicht pauschal. Es ergänzt sie dort, wo lineare Rechenkernleistung, Bandbreite und Datenbewegung zum Flaschenhals werden.
Diese Entwicklung erinnert an andere technische Umbrüche, bei denen zuerst die Engpässe ausgelagert wurden, nicht das ganze System. Niemand braucht sofort einen kompletten Lichtcomputer, wenn schon ein optischer Ko-Prozessor oder ein optischer Datenpfad den größten Schmerzpunkt entschärft.
Warum die Debatte trotzdem größer ist als ein Nischenthema
Die Frage nach Lichtchips ist mehr als nur Halbleiterfolklore. Sie berührt ein Grundproblem des KI-Zeitalters: Wir reden gern über Modellgrößen, aber viel zu selten über die Physik des Rechnens. Wenn Modelle wachsen, wachsen nicht nur Fähigkeiten, sondern auch Wärme, Netzlast, Materialbedarf und Stromrechnung. Genau deshalb ist die Suche nach neuen Architekturen strategisch.
Wer sich für die politische Ökonomie von KI interessiert, sollte den Hardware-Unterbau ernst nehmen. Denn die Macht der nächsten Jahre wird nicht nur durch bessere Modelle verteilt, sondern auch durch die Frage, welche Recheninfrastruktur bezahlbar, skalierbar und energieeffizient genug bleibt. In diesem Sinn passt das Thema auch zu unserem Blick auf Die KI-Giganten im Check: Leistung, Kosten & Trends bei LLMs und Bildgeneratoren 2025, weil jede Modellfantasie irgendwann auf physische Grenzen trifft.
Und wer den Lichtaspekt selbst faszinierend findet, findet einen ganz anderen Zugang in unserem Beitrag über Optische Pinzetten: Wie fokussiertes Licht Zellen, DNA und Moleküle greifbar macht. Auch dort zeigt sich, dass Licht nicht nur beleuchtet, sondern aktiv formt, sortiert und arbeitet. Ebenso lohnt der Blick auf Das Licht neu denken: Die faszinierende Welt der Metaspiegel, wenn man verstehen will, wie tief unsere Kontrolle über optische Strukturen inzwischen reicht.
Das Urteil: große Hoffnung, aber nur unter harten Bedingungen
Photonische Rechner sind kein leeres Buzzword. Dafür ist die Forschung inzwischen zu konkret, die Integration zu weit und der Druck auf heutige KI-Hardware zu real. Aber sie sind auch kein absehbarer Universalersatz für elektronische Systeme.
Die ehrliche Formel lautet deshalb: Rechnen mit Licht ist dort stark, wo die Mathematik zu Licht passt. Es wird dort schwach, wo Speicher, Präzision, Flexibilität und Konversion dominieren.
Genau diese Grenze macht das Feld so spannend. Nicht weil hier morgen alle Chips leuchten, sondern weil sich an photonic computing exemplarisch zeigt, wie Technik wirklich vorankommt: nicht als plötzliche Ablösung der alten Welt, sondern als präziser Angriff auf ihre teuersten Engpässe.
Wenn du Wissenschaftswelle auch jenseits des Blogs verfolgen willst, schau hier vorbei: Instagram und Facebook
















































































