Was ist ein Quantencomputer? — Die Maschine, die die Natur selbst rechnen lässt

Ein Quantencomputer tut im Grunde nichts — er lässt die Quantenphysik für sich arbeiten. Dieser Artikel erklärt, wie das funktioniert, wo wir 2026 stehen und warum die Verbindung von KI und Quantencomputing alles verändern wird.

Michael Graf1. März 202622 Min. Lesezeit
QuantencomputingTechnologieQuantencomputerQubitsVerschränkungSuperpositionQuantensimulationKIFehlerkorrekturKryptographie

Wir haben Maschinen gebaut, die rechnen. Jetzt bauen wir Maschinen, die die Natur bitten, es für uns zu tun. Der Unterschied ist nicht graduell — er ist fundamental.

Was ein Quantencomputer wirklich tut

Ein klassischer Computer ist im Grunde ein sehr schneller Buchhalter. Er nimmt Zahlen, schiebt sie durch logische Gatter — UND, ODER, NICHT — und merkt sich die Ergebnisse. Alles ist exakt, alles ist vorhersagbar, alles basiert auf zwei Zuständen: Strom an, Strom aus. Eins und Null.

Ein Quantencomputer funktioniert grundlegend anders. Er manipuliert die Eigenschaften einzelner Teilchen — Atome, Ionen, Photonen — und misst anschließend das Ergebnis. Das klingt zunächst nach einem kleinen technischen Unterschied. Ist es aber nicht.

Denn zwischen der Manipulation und der Messung geschieht etwas Bemerkenswertes: nichts. Zumindest nichts, was der Quantencomputer aktiv tut. Die eigentliche Berechnung überlässt er der Quantenphysik selbst. Er stellt die Ausgangsbedingungen her, drückt gewissermaßen auf Start — und die Naturgesetze erledigen den Rest.

Man kann sich das wie einen Architekten vorstellen, der ein Flussbett formt. Er gräbt keine Rinne von A nach B. Er formt die Landschaft so, dass das Wasser von selbst den gewünschten Weg nimmt. Der Quantencomputer formt die "Landschaft" der Quantenzustände so, dass die Physik von selbst zur Lösung fließt.

Das hat eine weitreichende Konsequenz: Alles, was wir über klassische Algorithmen wissen, ist hier nutzlos. Kein einziger klassischer Algorithmus kann auf einem Quantencomputer wiederverwendet werden. Die gesamte Informatik muss für diese Maschine neu gedacht werden.

Wahrscheinlichkeiten statt Gewissheiten

Um zu verstehen, wie ein Quantencomputer rechnet, muss man sich von einer tief verwurzelten Intuition verabschieden: der Vorstellung, dass Information immer einen exakten Wert hat.

In der Quantenwelt hat jede Information eine Wahrscheinlichkeit, mit der sie existiert.

Stell dir einen Münzwurf vor. Die Münze dreht sich in der Luft — solange sie fliegt, ist sie weder Kopf noch Zahl. Beide Seiten existieren gleichzeitig, jede mit 50% Wahrscheinlichkeit. Erst wenn die Münze auf deiner Hand landet und du hinschaust, entscheidet sich der Zustand: 100% Kopf, 0% Zahl. Oder umgekehrt.

In der Quantenmechanik ist das keine Metapher. Es ist buchstäblich so. Ein Qubit — das Quantenäquivalent eines klassischen Bits — existiert in einer Überlagerung von 0 und 1. Nicht weil wir nicht wissen, welchen Wert es hat. Sondern weil es gleichzeitig beides ist, bis wir messen.

Exakte Werte existieren nur vor der Berechnung (wenn wir die Eingabe setzen) und nach der Messung (wenn wir das Ergebnis ablesen). Dazwischen bewegt sich alles in einem Raum aus Wahrscheinlichkeiten.

Der Trick liegt in der Manipulation dieser Wahrscheinlichkeiten. Bei jeder Wechselwirkung — jedem "Quantengatter" — verschiebt sich die Wahrscheinlichkeitsamplitude der verschiedenen Zustände. Der Quantenalgorithmus ist nichts anderes als eine geschickte Abfolge von Manipulationen, die die Amplitude des gewünschten Ergebnisses immer weiter Richtung 100% treibt.

Zurück zur Münze: Ein klassischer Computer müsste beide Seiten nacheinander ansehen, um festzustellen, ob sie gleich sind. Ein Quantencomputer kann beide Seiten gleichzeitig betrachten, indem er sie in verschränkten Qubits abbildet. Was der Physiker David Deutsch 1985 als erstes formalisiert hat — und damit den Grundstein für die gesamte Quanteninformatik legte.

Die Grundgesetze — ohne sie geht nichts

Drei quantenphysikalische Phänomene bilden das Fundament, auf dem alles steht.

Superposition — Alles gleichzeitig

Ein Qubit in Superposition befindet sich gleichzeitig in den Zuständen 0 und 1. Zwei Qubits können gleichzeitig in vier Zuständen sein (00, 01, 10, 11). Drei Qubits in acht. Das Muster ist exponentiell: n Qubits können 2ⁿ Zustände gleichzeitig repräsentieren.

Das bedeutet: 300 Qubits in Superposition können mehr Zustände gleichzeitig darstellen, als es Atome im beobachtbaren Universum gibt. Nicht nacheinander. Gleichzeitig.

Verschränkung — Spukhafte Verbindung

Verschränkung ist das, was Einstein als "spukhafte Fernwirkung" bezeichnete — und was ihn so sehr störte, dass er bis zu seinem Tod daran zweifelte.

Zwei verschränkte Teilchen verhalten sich wie ein einziges System, egal wie weit sie voneinander entfernt sind. Verändert man den Zustand des einen, ändert sich der des anderen — instantan. Nicht weil Information übertragen wird, sondern weil beide Teilchen ein gemeinsames Quantensystem bilden. Die Information muss nicht reisen, weil sie nie getrennt war.

Verschränkung bedeutet: Eine einzige Manipulation kann viele Informationen gleichzeitig verändern. Statt jede Seite einer Münze einzeln zu betrachten, schaust du einmal hin — und kennst beide.

Für Quantencomputer ist das ungeheuer nützlich. Durch eine einzige Operation — ein einziges Quantengatter — können Informationen über viele verschränkte Qubits hinweg gleichzeitig verarbeitet werden.

Und bevor das Missverständnis aufkommt: Verschränkung erlaubt keine Übertragung von Information mit Überlichtgeschwindigkeit. Um die Information aus einem verschränkten System zu nutzen, braucht man immer einen klassischen Kommunikationskanal. Einstein hatte also doch recht — nur nicht so, wie er dachte.

Interferenz — Die Kunst der Überlagerung

Quantenzustände verhalten sich wie Wellen. Und Wellen können sich überlagern: Konstruktiv, wenn sie sich verstärken. Destruktiv, wenn sie sich auslöschen.

Das Doppelspaltexperiment zeigt dieses Verhalten auf faszinierende Weise. Schießt man einzelne Photonen durch zwei Spalte auf eine Wand, entsteht kein einfaches Zwei-Streifen-Muster — sondern ein Interferenzmuster aus vielen Streifen. Das Photon verhält sich wie eine Welle, die durch beide Spalte gleichzeitig geht und mit sich selbst interferiert.

Aber hier wird es wirklich seltsam: Stellt man einen Detektor auf, der beobachtet, durch welchen Spalt das Photon geht, verschwindet das Interferenzmuster. Das Photon verhält sich plötzlich wie ein klassisches Teilchen. Die bloße Beobachtung verändert das Ergebnis.

Für Quantencomputer ist Interferenz das zentrale Werkzeug. Der Algorithmus ist so konstruiert, dass falsche Antworten sich destruktiv überlagern und auslöschen, während die richtige Antwort sich konstruktiv verstärkt. Am Ende der Berechnung bleibt idealerweise nur noch die korrekte Lösung übrig — mit einer Wahrscheinlichkeit nahe 100%.

Schrödingers Katze — und was sie wirklich bedeutet

Kein Text über Quantencomputer kommt ohne Schrödingers Katze aus. Aber die meisten erklären das Gedankenexperiment falsch — als skurrile Kuriosität. Dabei ist es eine der tiefgründigsten Aussagen über die Natur der Realität.

Erwin Schrödinger beschrieb 1935 folgendes Szenario: Eine Katze wird in eine geschlossene Kiste gesperrt. In der Kiste befindet sich ein tödlicher Mechanismus — etwa ein Fläschchen mit Blausäure, das von einem radioaktiven Zerfall ausgelöst wird. Da der Zerfall ein quantenmechanischer Prozess ist, wird der Mechanismus mit exakt 50% Wahrscheinlichkeit ausgelöst. Solange die Kiste geschlossen bleibt — solange niemand hinsieht — ist die Katze laut Quantenmechanik beides gleichzeitig: lebendig und tot.

Nicht "entweder-oder, wir wissen es nur nicht". Sondern buchstäblich beides. In der Quantenmechanik existiert ein Zustand als Überlagerung aller möglichen Zustände, bis eine Messung stattfindet. Erst das Öffnen der Kiste — die Messung — zwingt das System, sich zu entscheiden.

Übertragen auf den Quantencomputer:

  • Die Katze ist das Qubit — ein Teilchen, das Information trägt
  • Die Kiste ist die Isolation — Vakuum, Tiefkühlung, Abschirmung von der Umwelt
  • Das Öffnen ist die Messung — der Moment, in dem der Quantenzustand zu einem klassischen Wert wird

Die Isolation ist dabei das Entscheidende. Solange das Qubit von der Umwelt abgeschirmt ist, kann es in Superposition bleiben und Quantenberechnungen durchführen. Die geringste unkontrollierte Interaktion mit der Umgebung — ein Wärmephoton, eine elektromagnetische Schwankung — und der Zustand kollabiert. Die Berechnung ist zerstört.

Wer tiefer in die Bedeutung von Schrödingers Katze für unser Verständnis von Zeit eintauchen möchte, findet in meinem Artikel "Das Gewicht der Zeit" eine Verbindung zur Frage, ob die Zukunft selbst ein Quantenzustand sein könnte.

Das größte Problem: Fehler

Bevor wir uns ansehen, wie ein Quantencomputer gebaut wird, müssen wir über sein fundamentalstes Problem sprechen. Denn es erklärt, warum der Bau so unfassbar schwierig ist — und warum jede Hardware-Entscheidung letztlich eine Antwort auf dieses eine Problem ist.

Quantenzustände sind empfindlich. Nicht ein bisschen empfindlich, wie ein feines Uhrwerk. Sondern absurd empfindlich. Ein Qubit in einer supraleitenden Schaltung bleibt typischerweise nur wenige hundert Mikrosekunden kohärent — das sind Bruchteile einer Tausendstelsekunde. In dieser Zeit müssen alle Berechnungen abgeschlossen sein. Jede unkontrollierte Wechselwirkung mit der Umgebung — ein Wärmephoton, eine elektromagnetische Schwankung, eine minimale Vibration — und der Quantenzustand kollabiert. Physiker nennen das Dekohärenz. Es ist, als würde jemand Schrödingers Kiste öffnen, bevor die Berechnung fertig ist.

Warum klassische Fehlerkorrektur hier nicht funktioniert

In der klassischen Informatik ist Fehlerkorrektur ein gelöstes Problem. Das Prinzip ist einfach: Man speichert dieselbe Information mehrfach und vergleicht. Schickt man ein Bit über eine gestörte Leitung, sendet man es dreifach — 0 wird zu 000, 1 wird zu 111. Kommt 010 an, war offensichtlich das mittlere Bit fehlerhaft. Mehrheitsentscheidung, Problem gelöst.

Diesen Trick kann ein Quantencomputer nicht anwenden. Aus einem fundamentalen Grund: Man kann einen Quantenzustand nicht kopieren. Das ist kein technisches Limit — es ist ein Naturgesetz, das No-Cloning-Theorem. Jeder Versuch, ein Qubit zu duplizieren, würde seinen Zustand unwiderruflich verändern. Und auch das simple Auslesen zur Kontrolle scheidet aus — denn jede Messung zerstört die Superposition, die man schützen will.

Quantenfehlerkorrektur muss daher einen völlig anderen Weg gehen. Die Idee: Man verteilt die Information eines einzelnen logischen Qubits auf viele physische Qubits, ohne den logischen Zustand jemals direkt zu messen. Stattdessen misst man nur die Beziehungen zwischen den physischen Qubits — sogenannte Syndrom-Messungen. Diese verraten, ob ein Fehler aufgetreten ist und welcher Art er war, ohne die eigentliche Information preiszugeben.

Das Problem: Dafür braucht man viele physische Qubits pro logischem Qubit — aktuell Hunderte bis Tausende. Ein nützlicher Quantencomputer mit, sagen wir, 1.000 logischen Qubits bräuchte also Millionen physischer Qubits.

Googles Willow-Experiment hat Ende 2024 erstmals gezeigt, dass dieser Ansatz in der Praxis funktioniert: Je mehr physische Qubits für die Fehlerkorrektur eingesetzt werden, desto geringer wird die Fehlerrate — genau wie die Theorie es vorhersagt. Ein Meilenstein, an dem die Community über ein Jahrzehnt gearbeitet hat.

Und genau deshalb ist eine Zahl wie "1.000 Qubits" allein wenig aussagekräftig. IBM hat den Begriff Quantum Volume eingeführt — eine Metrik, die nicht nur die Anzahl der Qubits, sondern auch ihre Qualität, Konnektivität und Fehlerrate berücksichtigt. Ein System mit 50 hochpräzisen Qubits kann leistungsfähiger sein als eines mit 1.000 verrauschten.

Hardware — Wie sieht so ein Ding aus?

Mit diesem Verständnis wird klar, warum der Bau eines Quantencomputers eine solche Herausforderung ist: Jede Hardware-Plattform ist im Kern ein Versuch, die Dekohärenz zu besiegen — und dabei trotzdem genug Kontrolle über die Qubits zu behalten, um sinnvoll rechnen zu können.

Ein Quantencomputer wird nie ein Gerät sein, das man sich auf den Schreibtisch stellt. Im Inneren der meisten Systeme herrschen Temperaturen nahe dem absoluten Nullpunkt — kälter als der Weltraum. Diese extreme Kühlung ist nötig, damit die Qubits nicht durch thermische Schwingungen gestört werden.

Aber wie realisiert man ein Qubit? Hier gibt es nicht eine Antwort, sondern einen ganzen Zoo von Ansätzen. Und der Wettbewerb zwischen ihnen ist einer der spannendsten der modernen Technologiegeschichte.

Supraleitende Qubits — Der aktuelle Platzhirsch

IBM und Google setzen auf supraleitende Schaltkreise, die bei Temperaturen von etwa 15 Millikelvin betrieben werden — rund 0,015 Grad über dem absoluten Nullpunkt. Die Qubits bestehen aus winzigen Stromschleifen, in denen der Strom gleichzeitig in beide Richtungen fließen kann — eine makroskopische Superposition.

Im Dezember 2024 gelang Google mit dem Willow-Prozessor ein historischer Durchbruch: Zum ersten Mal wurde nachgewiesen, dass Quantenfehlerkorrektur tatsächlich funktioniert, wie es die Theorie vorhersagt. Je mehr Qubits für die Fehlerkorrektur eingesetzt werden, desto geringer wird die Fehlerrate — ein Ergebnis, an dem die Community seit über einem Jahrzehnt gearbeitet hat. Publiziert in Nature und bereits über 460-mal zitiert, markiert dieses Experiment den Übergang von der "verrauschten" zur fehlertoleranten Ära.

Ionenfallen — Die Präzisionsmeister

Unternehmen wie IonQ und Quantinuum verwenden einzelne geladene Atome — Ionen —, die in elektromagnetischen Feldern schweben. Die Ionen werden mit Lasern manipuliert und können extrem präzise Quantengatter ausführen.

Der Vorteil: Ionenfallen-Qubits machen die wenigsten Fehler pro Rechenoperation — sie arbeiten präziser als jede andere Plattform. Der Nachteil: Sie sind langsamer als supraleitende Systeme und schwerer zu skalieren. Aber die all-to-all-Konnektivität — jedes Qubit kann direkt mit jedem anderen interagieren — ist ein enormer Vorteil für bestimmte Algorithmen.

Topologische Qubits — Microsofts Langzeitwette

Microsoft verfolgt einen radikal anderen Ansatz: topologische Qubits basierend auf Majorana-Fermionen. Diese exotischen Quasiteilchen sind intrinsisch gegen Störungen geschützt — wie ein Knoten in einem Seil, der sich nicht durch leichtes Ziehen löst.

Im Februar 2025 veröffentlichte Microsoft in Nature den ersten experimentellen Nachweis einer Schlüsselkomponente: die interferometrische Einzelschuss-Paritätsmessung in Indiumarsenid-Aluminium-Hybridstrukturen. Der Weg zum funktionierenden topologischen Qubit ist noch weit — aber wenn er gelingt, könnte er das Fehlerkorrektur-Problem auf Hardwareebene lösen.

Photonische Quantencomputer — Licht als Qubit

Xanadu und PsiQuantum setzen auf Photonen — Lichtteilchen — als Qubits. Der große Vorteil: Photonen interagieren kaum mit ihrer Umgebung und können bei Raumtemperatur betrieben werden. Keine Tiefkühlung nötig.

Im Januar 2025 präsentierte Xanadu in Nature einen modularen photonischen Quantencomputer, der über Glasfaser-Netzwerke verbunden werden kann. Das eröffnet einen Pfad zur Skalierung, der bei anderen Plattformen kaum denkbar ist: Quantencomputer, die wie klassische Server vernetzt werden.

Silizium-Spin-Qubits — Die Halbleiter-Revolution

Intel verfolgt einen besonders pragmatischen Ansatz: Qubits auf der Basis einzelner Elektronenspins in Silizium. Der Vorteil ist offensichtlich — die gesamte Halbleiterindustrie basiert auf Silizium. Im Mai 2024 demonstrierte Intel in Nature, dass einzelne Elektronen auf Standard-300mm-Wafern kontrolliert werden können — denselben Wafern, die heute für Milliarden von Transistoren verwendet werden.

Wenn dieser Ansatz funktioniert, könnte die bestehende Chip-Infrastruktur für die Massenproduktion von Quantenprozessoren genutzt werden. Kein anderer Ansatz bietet dieses Skalierungspotenzial.

Neutral-Atom-Systeme — Die Newcomer

QuEra und Pasqal verwenden neutrale Atome, die mit optischen Pinzetten — fokussierten Laserstrahlen — in präzisen Mustern gehalten werden. Diese Systeme können Hunderte von Qubits gleichzeitig kontrollieren und eignen sich besonders gut für Optimierungs- und Simulationsaufgaben.

Wofür Quantencomputer wirklich geeignet sind

Hier muss ein verbreiteter Mythos sterben: Quantencomputer sind nicht für alles schneller als klassische Computer. Sie werden deinen Laptop nie ersetzen, keine E-Mails schneller laden und keine Textverarbeitung beschleunigen.

Aber für bestimmte Problemklassen sind sie nicht nur schneller — sie sind in einer völlig anderen Liga.

Simulation von Quantensystemen: Das war Richard Feynmans ursprüngliche Vision von 1981. Die Natur ist quantenmechanisch — warum simulieren wir sie nicht mit einer Maschine, die ebenfalls quantenmechanisch arbeitet? Ein klassischer Computer braucht exponentiell mehr Rechenzeit, je mehr Teilchen simuliert werden. Ein Quantencomputer nicht.

Suche in unsortierten Daten: Lov Grovers Algorithmus von 1996 durchsucht eine unsortierte Datenbank mit N Einträgen in √N Schritten statt N. Das klingt bescheiden — aber bei einer Milliarde Einträge ist das der Unterschied zwischen einer Milliarde und 31.623 Schritten.

Primzahlfaktorzerlegung: Peter Shors Algorithmus von 1994 kann große Zahlen in ihre Primfaktoren zerlegen — exponentiell schneller als jeder bekannte klassische Algorithmus. Darauf basiert die RSA-Verschlüsselung, die heute einen Großteil der digitalen Kommunikation schützt.

Optimierungsprobleme: Die beste Route für 1.000 Lieferwagen finden, das optimale Portfolio aus Tausenden von Aktien zusammenstellen, die effizienteste Konfiguration einer Lieferkette berechnen — Probleme, bei denen die Anzahl der möglichen Lösungen explosionsartig wächst.

Ein Quantencomputer wird den klassischen Computer nie ersetzen. Er wird ihn ergänzen — so wie ein Mikroskop das menschliche Auge ergänzt. Man liest keine Zeitung durch ein Mikroskop. Aber wenn man wissen will, was auf molekularer Ebene passiert, reichen Augen nicht mehr aus.

Die Revolution der Simulation

Wenn es einen Bereich gibt, in dem Quantencomputer die Welt verändern werden, dann ist es die Simulation. Nicht die Simulation von Spielwelten oder Wettervorhersagen — sondern die Simulation der Natur auf der fundamentalsten Ebene: der Ebene einzelner Atome und Moleküle.

Neue Medikamente — ohne Jahrzehnte im Labor

Die Entwicklung eines neuen Medikaments dauert heute durchschnittlich 10-15 Jahre und kostet über eine Milliarde Euro. Der Grund: Moleküle sind quantenmechanische Objekte. Wie ein Wirkstoff an ein Protein bindet, welche Nebenwirkungen er hat, ob er im Körper stabil bleibt — all das hängt von quantenmechanischen Wechselwirkungen ab, die klassische Computer nur grob annähern können.

Ein Quantencomputer kann diese Wechselwirkungen exakt simulieren. Nicht annähernd, nicht mit Tricks — exakt. Weil er selbst quantenmechanisch arbeitet.

2024 demonstrierten Forscher erstmals eine hybride Quanten-Computing-Pipeline für reale Wirkstoffdesign-Probleme — nicht mehr nur Proof-of-Concept-Studien, sondern die Simulation kovalenter Bindungen in echten Medikamenten-Kandidaten. Ende 2025 wurde die Vorhersage von Hydratations-Stellen in Protein-Taschen auf einem Quantencomputer mit 123 Qubits durchgeführt — mit einer Präzision, die klassische Methoden erreicht, aber den Weg für Vorteile bei komplexeren Systemen ebnet.

Neue Materialien — vom Supraleiter bis zur Batterie

Die Simulation von Materialien ist vielleicht noch bedeutsamer als die von Medikamenten. Denn hier geht es um die physikalischen Grundlagen unserer Technologie.

Batterien der nächsten Generation: Forscher simulieren bereits die Röntgenabsorptionsspektroskopie von Lithium-Überschuss-Kathoden auf Quantencomputern — die Materialien, die Elektroautos ihre Reichweite geben. Klassische Simulationen dieser Systeme stoßen an Grenzen, weil die Elektronenkorrelationen zu komplex werden. Quantencomputer können diese Korrelationen nativ abbilden.

Der heilige Gral — Supraleiter bei Raumtemperatur: Ein Material, das Strom ohne jeglichen Widerstand leitet. Bei Raumtemperatur. Es würde die Energieübertragung, Magnetresonanztomografie, Teilchenbeschleuniger und Quantencomputer selbst revolutionieren. Klassische Computer können die nötigen Simulationen nicht durchführen — zu viele korrelierende Elektronen. Quantencomputer könnten es.

Physikalische Systeme — Tausende Varianten in Minuten

Stell dir vor, du willst ein neues Flugzeugdesign testen. Heute baust du einen Prototyp, setzt ihn in den Windkanal, analysierst die Ergebnisse, änderst das Design, baust den nächsten Prototyp. Oder du simulierst es klassisch — was bei turbulenten Strömungen Wochen auf Supercomputern dauern kann.

Mit Quantensimulation könntest du Tausende von Varianten durchspielen, bevor du auch nur ein einziges physisches Modell baust. Nicht in Wochen. In Stunden.

Das gilt für alles, was auf fundamentaler Ebene quantenmechanisch ist — also für die gesamte Chemie, die gesamte Materialwissenschaft und weite Teile der Biologie.

KI × Quantencomputer — Die nahe Zukunft

Die Verbindung von künstlicher Intelligenz und Quantencomputing ist kein fernes Zukunftsszenario — sie wird bereits aktiv erforscht. Und das Potenzial ist enorm.

Quantum Machine Learning

Klassische KI-Modelle werden auf riesigen Mengen von Daten trainiert und optimieren dabei Millionen bis Milliarden von Parametern. Dieser Optimierungsprozess ist im Kern ein Suchproblem in einem hochdimensionalen Raum — und genau hier können Quantencomputer ihre Stärke ausspielen.

Quantenneuronale Netze nutzen parametrisierte Quantenschaltkreise, um Daten in einem exponentiell großen Hilbert-Raum zu verarbeiten. Erste Ergebnisse zeigen konsistente Leistungsverbesserungen gegenüber klassischen Modellen — etwa bei der Vorhersage molekularer Eigenschaften für die Medikamentenentwicklung, wo Quanten-LSTM-Netzwerke ROC-AUC-Verbesserungen von 3-6% gegenüber klassischen LSTM-Modellen erzielen.

Quantengestütztes Reinforcement Learning

Besonders vielversprechend ist die Kombination von Quantencomputing mit Reinforcement Learning — dem Lernparadigma, bei dem eine KI durch Versuch und Irrtum in einer Umgebung lernt.

2025 demonstrierten Forscher, dass Quantenalgorithmen — konkret Grovers Suchalgorithmus — die kinematische Optimierung von Roboterarmen um den Faktor 93 beschleunigen können. Der Quantenalgorithmus durchsucht den hochdimensionalen Konfigurationsraum eines Roboterarms nicht sequentiell, sondern überlagert alle möglichen Konfigurationen und findet die optimale Stellung mit quadratisch weniger Rechenschritten.

Was sich seit 2018 verändert hat

Als ich den Originaltext dieses Artikels 2018 schrieb, war ich optimistisch. Ich prognostizierte, dass Quantencomputer "in den nächsten 2 bis 3 Jahren in einem nutzbaren Stadium angekommen sein" würden.

Es ist Zeit für eine ehrliche Bilanz.

Was eingetreten ist:

  • Cloud-basierte Quantencomputer sind Realität. IBM Quantum, AWS Braket, Azure Quantum — jeder mit Internetzugang kann heute auf echten Quantenprozessoren rechnen
  • Die Algorithmenentwicklung hat sich massiv beschleunigt
  • Quantum Supremacy: Google behauptete 2019 mit dem Sycamore-Prozessor, eine Berechnung in 200 Sekunden durchgeführt zu haben, für die ein klassischer Supercomputer 10.000 Jahre bräuchte. IBM widersprach — und die Debatte läuft bis heute
  • Post-Quantum-Kryptographie ist standardisiert: NIST hat 2024 die ersten quantenresistenten Verschlüsselungsstandards verabschiedet

Was anders kam als erwartet:

  • Die Fehlerkorrektur war deutlich schwieriger als gedacht. Erst Ende 2024 gelang der Nachweis, dass sie überhaupt praktisch funktioniert
  • "Nutzbar" ist relativ. Für spezifische Forschungsprobleme: ja. Für Alltagsanwendungen: noch nicht
  • Die Hardware-Diversität hat zugenommen statt sich zu konsolidieren — sechs verschiedene Qubit-Technologien konkurrieren, und es ist unklar, welche gewinnen wird
  • Die Anzahl der Qubits ist schneller gewachsen als ihre Qualität — ein Problem, das die Community zunehmend erkannt hat

Was mich 2018 überrascht hätte: Nicht die Physik war die größte Hürde, sondern die Ingenieurskunst. Die Quantenmechanik funktioniert genau so, wie die Theorie es vorhersagt. Aber eine Maschine zu bauen, die Tausende von Qubits bei 15 Millikelvin kohärent hält, exakt kontrolliert und fehlertolerant betreibt — das ist eine der größten technischen Herausforderungen, die die Menschheit je angegangen ist.

Wohin die Reise geht

Ich verzichte bewusst auf Jahreszahlen. Wer 2018 gelernt hat, dass Prognosen in diesem Feld riskant sind, macht keine spezifischen Vorhersagen mehr.

Aber die Richtung ist klar:

Kurzfristig werden hybride Systeme die Regel sein — Quantencomputer als spezialisierte Beschleuniger, die in klassische Supercomputer eingebettet sind. Die Quantenteile übernehmen das, was sie am besten können: Simulation von Quantensystemen, Optimierung in hochdimensionalen Räumen. Der Rest bleibt klassisch.

Mittelfristig wird die Fehlerkorrektur den Übergang von der verrauschten zur fehlertoleranten Ära markieren. Wenn dieser Übergang gelingt — und nach Googles Willow-Ergebnis spricht vieles dafür — werden praktisch nützliche Quantensimulationen Realität. Neue Medikamente, neue Materialien, neue Katalysatoren.

Langfristig wird ein Quanteninternet entstehen — ein Netzwerk, in dem Quantencomputer über verschränkte Photonen verbunden sind und gemeinsam rechnen. Die Glasfasern dafür existieren bereits. Die Verschlüsselung wäre per Physik garantiert unknackbar.

Und die Kryptographie? Die Post-Quantum-Standards von NIST sind bereits verabschiedet. Die RSA-Verschlüsselung wird abgelöst, lange bevor ein Quantencomputer sie knacken könnte. Hier hat die Menschheit ausnahmsweise einmal rechtzeitig reagiert.

Ein Quantencomputer rechnet nicht schneller. Er rechnet anders — er lässt die Natur eine Abkürzung nehmen, die auf klassischen Wegen nicht existiert. Das ist kein besserer Taschenrechner. Das ist ein neues Werkzeug des Denkens.