Hinweis: Dieser Artikel baut auf meinem Blogbeitrag von 2024 auf, in dem ich die Grundlagen von Qubits, Superposition und Verschränkung erkläre.
Wenn du neu im Thema bist, lies unbedingt zuerst den alten Beitrag – hier steigen wir eine Etage tiefer ein. Den Beitrag findest du unter: Zukunftstechnologie Quantencomputing
Als Microsoft im Frühjahr 2025 seinen neuen Quantenchip „Majorana 1“ präsentierte, klang es fast wie Science-Fiction: Ein Prozessor, der auf einer völlig neuen Art von Qubits basiert – den topologischen Qubits. Das Versprechen: Quantencomputer könnten bald nicht mehr nur im Labor existieren, sondern tatsächlich in den Bereich praktisch einsetzbarer Maschinen rücken.
Während Google, IBM und andere mit klassischen supraleitenden Qubits kämpfen, die empfindlich und fehleranfällig sind, versucht Microsoft, das Problem an der Wurzel zu lösen: nicht bessere Qubits bauen, sondern grundlegend andere.
Bei den bisherigen Quantencomputern wird Information immer lokal gespeichert – ein einzelnes Elektron, ein einzelner Ionen-Zustand, ein einzelnes Photon. Genau das macht sie extrem störanfällig: Ein winziges Magnetfeld, eine minimale Temperaturabweichung, und der Quantenzustand ist zerstört. Topologische Qubits sollen dieses Problem umgehen. Sie speichern Information nicht an einem Punkt, sondern in der Form eines gesamten physikalischen Zustands. Man kann sich das vorstellen wie bei einem Muster, das in ein T-Shirt eingenäht ist: Es bleibt erhalten, selbst wenn man das T-Shirt dehnt oder knittert.
Diese Idee stammt aus der Topologie, einem Zweig der Mathematik, der sich mit den Eigenschaften von Formen beschäftigt, die sich nicht verändern, selbst wenn man sie verformt. Wenn man diese Idee auf Quantenmaterialien überträgt, kann Information auf eine Weise kodiert werden, die robust gegen lokale Störungen ist. Und genau darauf basiert Microsofts neuer Chip.
Während Microsoft auf völlig neue Teilchen und Materialien setzt, verfolgt Google Quantum AI einen anderen Weg – und sorgte im Oktober 2025 für Schlagzeilen.
Das Unternehmen meldete einen Durchbruch mit seinem Willow-Chip und einem neuen Algorithmus namens Quantum Echoes. Laut Google erreichte dieser eine Rechenleistung, die bis zu 13 000-mal schneller war als die modernsten Supercomputer bei einer bestimmten Art physikalischer Simulation. Das Experiment drehte sich um die Simulation von Molekülen – also darum, wie sich Elektronen in einem Material oder Molekül verhalten.
Solche Berechnungen sind für klassische Computer extrem aufwendig, weil die Zahl der möglichen Zustände exponentiell wächst.
Selbst Supercomputer stossen hier an ihre Grenzen. Googles Quantenalgorithmus löste das Problem in zwei Stunden, während ein klassischer Rechner dafür über drei Jahre gebraucht hätte. Der Clou liegt im Algorithmus: Quantum Echoes nutzt die Besonderheiten supraleitender Qubits – winzige Stromschleifen, die gleichzeitig in mehreren Zuständen existieren können.
Statt die Zustände direkt zu messen (was sie kollabieren liesse), lässt Google sie mehrfach miteinander wechselwirken. Diese Wechselwirkungen erzeugen ein „Echo“ aus Informationen, das anschliessend ausgelesen wird.
So erkennt das System Muster, ohne dass der fragile Quantenzustand zerstört wird – daher der Name Quantum Echoes. Besonders daran: Google spricht nicht nur von Quantum Supremacy (also einem theoretischen Beweis der Überlegenheit), sondern von einem verifizierbaren Quanten-Vorteil.
Die Ergebnisse lassen sich nachvollziehen und überprüfen – nur eben nicht in vertretbarer Zeit. Damit ist es das erste Experiment, das sowohl schneller als auch überprüfbar ist – ein wichtiger Schritt zur praktischen Anwendbarkeit. Für die Praxis bedeutet das: Solche Simulationen könnten helfen, neue Materialien, Batterien oder Medikamente zu entwickeln.
Denn ein Quantenprozessor, der die Wechselwirkungen von Atomen direkt simulieren kann, würde die Forschung massiv beschleunigen. Allerdings ist der Durchbruch spezifisch. Der Algorithmus funktioniert nur für eine klar definierte Klasse von Problemen – wir sind also noch weit entfernt von einem universell programmierbaren Quantencomputer.
Google vs. Microsoft:
Google arbeitet mit supraleitenden Qubits und konzentriert sich auf Algorithmen und Steuerung – Microsoft dagegen versucht, mit topologischen Qubits die Fehleranfälligkeit von Grund auf zu beseitigen.
Beide Ansätze zielen auf dasselbe Ziel: Quantencomputer, die zuverlässig, skalierbar und wirtschaftlich nutzbar sind.
Man könnte sagen: Google zeigt, was heute schon geht – Microsoft, was morgen stabil funktionieren soll.
Während Microsoft auf neue physikalische Qubit-Konzeptionen setzt und Google mit Supraleitern und Algorithmen für Schlagzeilen sorgt, verfolgt IBM einen dritten, ebenfalls sehr relevanten Ansatz: die Echtzeit-Fehlerkorrektur. IBM kündigte im Juni 2025 an, dass ihre Maschine namens „Starling“ bis etwa 2029 gebaut werden soll – mit dem Ziel, Quantenprogramme im Umfang von hunderten logischen Qubits und Millionen Quantengattern in Reihe auszuführen, dank eines eingebauten Decoders zur Fehlerkorrektur. Der Fokus liegt darauf, dass Quantenprozessoren nicht mehr nur einzelne Qubits kontrollieren, sondern die Fehler im Betrieb laufend korrigieren – also nicht erst nach der Rechnung, sondern während der Rechnung. IBM bezeichnet dies als eine wichtige Voraussetzung, um von kleinen Prototypen zu echten Quanten-Rechenwerken überzugehen. Technisch heisst das: Ein schneller Fehler-Decoder überwacht die Zustände, erkennt typische Fehlermuster und wendet sofort Korrektur-Gatter („Logical Gate“ statt nur physische Qubits) an, sodass die Wahrscheinlichkeit für einen Rechenfehler deutlich sinkt. IBM sagt, sie hätten bereits die nötigen Bausteine auf der Roadmap oder im Aufbau. Was bedeutet das für die Praxis? Wenn eine Quantenmaschine wie Starling funktioniert, wird der Aufwand für Qubit-Redundanz deutlich geringer. Heute benötigt man tausende physische Qubits für ein einziges logisches Qubit mit hoher Fehlerresilienz. Eine Maschine mit Echtzeit-Fehlerkorrektur hingegen könnte mit deutlich weniger zusätzlichen Qubits auskommen – damit wird die Skalierung realistischer. Gleichzeitig liesse sich der Schritt von “Demonstrator” zu “nutzbarem Quantencomputer” schneller gehen. Kurz gesagt: Während Microsoft an der Qubit-Hardware neu denkt und Google an Algorithmen arbeitet, will IBM die Fehler-Barriere überwinden, die bislang vielen Quantencomputing-Träumen im Weg steht.

Quelle: ChatGPT
Im Herzen von Microsofts Majorana-Chip laufen winzige Nanodrähte, in denen sich Halbleiter- und Supraleiter-Eigenschaften überlagern. Wird ein Magnetfeld angelegt, entstehen an den Drahtenden sogenannte Majorana-Nullmoden – quasiteilchenartige Zustände, die man sich bildlich wie „halbe Elektronen“ vorstellen kann. Zwei dieser Hälften – eine links, eine rechts – bilden gemeinsam ein Qubit, dessen Information über beide Enden verteilt ist. Das Besondere daran: Wenn eine Störung auf der linken Seite passiert, bleibt die Information intakt, weil sie nur im Gesamtsystem existiert. Diese Nicht-Lokalität ist das, was topologische Qubits theoretisch so stabil macht. Microsofts Team nennt das Material, in dem das möglich wird, Topoconductor – eine neuartige Mischung aus Halbleiter und Supraleiter, die genau für diese Bedingungen optimiert ist. In der Praxis bedeutet das: Wenn dieses Prinzip funktioniert, wäre es erstmals möglich, Qubits zu bauen, die nicht bei jeder kleinsten Erschütterung oder Wärmeschwankung ihren Zustand verlieren. Und das wäre ein echter Game-Changer.
Um zu verstehen, warum Microsoft seinen Chip Majorana 1 nennt, muss man kurz in die Geschichte der Physik eintauchen. Der Begriff „Majorana“ geht auf den italienischen Physiker Ettore Majorana zurück – ein brillanter, aber tragisch verschwundener Wissenschaftler der 1930er-Jahre. Majorana beschäftigte sich mit der damals neuen Quantenfeldtheorie und stellte 1937 eine revolutionäre Hypothese auf: Es könnte Teilchen geben, die ihr eigenes Antiteilchen sind. In der klassischen Physik unterscheiden wir zwischen Teilchen und Antiteilchen – zum Beispiel das Elektron (negativ geladen) und das Positron (positiv geladen). Treffen sie aufeinander, vernichten sie sich gegenseitig und wandeln ihre Energie in Licht (Photonen) um. Majorana fragte sich jedoch: Was wäre, wenn es Teilchen gäbe, die keine eigene elektrische Ladung besitzen und daher gleichzeitig Teilchen und Antiteilchen sind? Solche hypothetischen Teilchen nennt man heute Majorana-Fermionen. In der Teilchenphysik hat man bislang kein freies Majorana-Teilchen entdeckt, doch in Festkörpern – also in besonderen Aggregatzuständen der Materie – können Quasiteilchen auftreten, die sich so verhalten, als wären sie Majorana-Fermionen. Genau das nutzt Microsoft aus. In einem topologischen Supraleiter, wie er im Chip vorkommt, bilden Elektronen normalerweise Cooper-Paare, die verlustfrei durch das Material gleiten. Fügt man jedoch Spin-Bahn-Kopplung und ein Magnetfeld hinzu, verändert sich die elektronische Struktur so, dass an den Enden der Nanodrähte Majorana-Zustände entstehen. Diese Zustände sind keine echten Teilchen, sondern mathematische Kombinationen aus Elektron und Loch (also einem fehlenden Elektron). Physiker sagen: Ein Majorana ist halb Elektron, halb Loch. Das faszinierende daran: Zwei solcher „halben Elektronen“ bilden zusammen wieder ein ganzes Elektron. Deshalb kann man ein Qubit aus zwei Majoranas konstruieren – eines an jedem Drahtende. Erst gemeinsam tragen sie Information. Dadurch ist das Qubit nicht an einem Ort gespeichert, sondern über zwei Orte verteilt. Das macht es gegen lokale Störungen erstaunlich robust: Eine Störung müsste beide Enden gleichzeitig treffen, um die Information zu löschen. Diese Nichtlokalität ist der Kern der topologischen Stabilität, die Microsoft anstrebt. Ein Majorana-Quasiteilchen lässt sich allerdings nicht direkt „sehen“. Es zeigt sich nur indirekt, meist als sogenannter Zero-Bias-Peak in einem elektrischen Spektrum – ein charakteristischer Punkt, an dem Strom fliesst, obwohl eigentlich keiner fliessen sollte. Dieses Signal gilt als Fingerabdruck einer Majorana-Nullmode. Genau hier beginnt die Schwierigkeit: Auch gewöhnliche Effekte wie Materialunordnung oder so genannte Andreev-Zustände können ähnliche Peaks erzeugen. Der wissenschaftliche Streit um Microsofts Ergebnisse dreht sich daher um die Frage, ob diese Signale wirklich topologisch sind – oder nur so aussehen. Trotzdem steckt in dieser Forschung enormes Potenzial. Sollte der Nachweis gelingen, wären Majorana-Qubits ein echter Paradigmenwechsel: Der Fehlerschutz wäre nicht mehr eine Frage der Software, sondern direkt in der Physik verankert. Damit könnten Quantencomputer stabiler, einfacher und skalierbarer werden – dank eines Teilchens, das halb Elektron, halb Antiteilchen und ganz aussergewöhnlich ist.
Rechnen mit Majorana-Qubits funktioniert etwas anders als bei den herkömmlichen Systemen. Man misst hier nicht direkt den Zustand „0“ oder „1“, sondern eine Parität – ob eine gerade oder ungerade Anzahl von Quasiteilchen im System ist. Diese Parität repräsentiert die Information. Das klingt kompliziert, ist aber elegant: Statt unzählige empfindliche Einzelzustände abzufragen, misst man robuste, globale Eigenschaften des Systems. Microsoft hat dazu ein eigenes Verfahren entwickelt, das Topological Gap Protocol (TGP). Es soll helfen, die Nanodrähte so zu „tunen“, dass sie genau in den Zustand übergehen, in dem sich diese Majorana-Teilchen bilden. Im Labor sieht das aus wie ein feines Spiel mit Magnetfeldern und Spannungen – und wenn alles richtig eingestellt ist, erscheint ein charakteristisches Messsignal, das die Existenz der Majorana-Moden verraten soll.
Genau an diesem Punkt entzündet sich aber die Diskussion: Sind diese Signale wirklich Beweise für echte topologische Zustände – oder lassen sie sich auch anders erklären?
Microsoft spricht in seiner Kommunikation von einem „Meilenstein“, manche Medien sogar vom Beginn einer „neuen Quantenära“. Doch viele Physikerinnen und Physiker bleiben skeptisch. Das Problem: Die im Fachjournal Nature veröffentlichten Daten zeigen zwar interessante Effekte – aber nicht zweifelsfrei, dass es sich um echte Majorana-Zustände handelt. Einige Experten, darunter Henry F. Legg von der Universität Basel, werfen Microsoft vor, die Ergebnisse überzuinterpretieren. Ihrer Meinung nach kann das beobachtete Verhalten auch durch „triviale“ physikalische Prozesse entstehen, die nichts mit Topologie zu tun haben. Hinzu kommt, dass Microsofts eigenes Analyseverfahren, das Topological Gap Protocol, nicht einheitlich definiert ist – sodass je nach Parametern andere Ergebnisse herauskommen können. Trotz dieser Kritik sind sich alle einig: Der Weg, den Microsoft eingeschlagen hat, ist spannend. Selbst wenn der aktuelle Chip noch kein „echter“ topologischer Quantenprozessor ist, bringt die Forschung enorme Fortschritte in Materialwissenschaft, Messtechnik und Quantenkontrolle. Und genau das sind die Schritte, die irgendwann tatsächlich zu einem stabilen, skalierbaren Quantencomputer führen könnten.
Damit Microsofts Vision Realität wird, müssen gleich mehrere Herausforderungen gemeistert werden. Zunächst muss die supraleitende Energielücke stabil bleiben – sie ist sozusagen der Schutzraum, in dem die Majorana-Teilchen existieren. Wird sie „weich“ oder unrein, können sich falsche Signale einschleichen, die echten Majoranas zum Verwechseln ähnlichsehen. Zweitens spielt das Magnetfeld eine heikle Rolle: Es muss stark genug sein, um den topologischen Zustand zu erzeugen, darf aber die Supraleitung nicht zerstören. Hier kommt die Materialinnovation des Topoconductor ins Spiel, der beides gleichzeitig möglich machen soll. Drittens ist die Messung selbst eine Kunst. Paritätsmessungen müssen extrem genau und schnell sein, ohne das System zu stören – eine technische Gratwanderung. Und schliesslich braucht es Reproduzierbarkeit: Was im Labor in einem Draht funktioniert, muss auch in hundert anderen funktionieren. Erst dann lässt sich ein Computer daraus bauen.
Wenn Microsofts Konzept aufgeht, könnte das die bisher grösste Hürde im Quantencomputing beseitigen: die Fehlerkorrektur. Heute braucht man oft tausende physische Qubits, um ein einziges stabiles „logisches“ Qubit zu erzeugen. Topologische Qubits würden diesen Aufwand drastisch senken, weil sie von Natur aus weniger fehleranfällig sind. Das würde nicht nur die Rechenleistung erhöhen, sondern vor allem das Skalierungsproblem lösen: Statt 50 oder 100 Qubits könnten plötzlich Millionen auf einem Chip Platz finden. Microsoft spricht vom sogenannten Topological Core – einem Bauplan, der viele dieser stabilen Qubit-Module miteinander vernetzt. In Kombination mit Microsofts Cloud-Plattform Azure Quantum könnte man solche Systeme sogar aus der Ferne ansteuern. Klassische Computer übernehmen die Aufgaben, für die Quantencomputer ungeeignet sind, und übergeben nur bestimmte Berechnungsschritte an den Quanten-Chip. So entsteht ein hybrides Gesamtsystem, das das Beste aus beiden Welten vereint.
So beeindruckend die Fortschritte klingen, wir stehen immer noch am Anfang. Momentan kann Microsoft nur einzelne Nanodrähte mit wenigen möglichen Majorana-Signaturen zeigen – von einem funktionierenden, frei programmierbaren Quantencomputer ist man noch weit entfernt. Die kommenden Jahre werden zeigen, ob sich die Messungen reproduzieren lassen, ob sich die Materialien weiter verbessern und ob die Fehler tatsächlich so stark sinken, wie erhofft. Realistisch ist: In den nächsten ein bis zwei Jahren werden wir vor allem mehr Daten und präzisere Experimente sehen, keine fertigen Maschinen. Aber wenn alles zusammenkommt – Material, Messung, Kontrolle – dann könnte Microsofts Ansatz den Quantensprung tatsächlich schaffen, den alle erwarten.

Quelle: ChatGPT
Microsofts Majorana-Chip ist kein Marketing Gag, aber auch noch kein vollwertiger Quantencomputer. Er ist ein Experiment, das zeigt, wie man Quanteninformation auf eine völlig neue Art denken kann – nicht als fragilen Zustand eines Teilchens, sondern als stabilen Zustand eines ganzen Systems. Ob sich die Euphorie am Ende bestätigt oder als Übertreibung herausstellt, wird die Zeit zeigen. Doch selbst die lautesten Kritiker geben zu: Die Richtung stimmt. Der Weg zu stabilen, skalierbaren Qubits führt über bessere Materialien, neue Konzepte und mutige Ideen – und genau das liefert Microsoft jetzt. Vielleicht sind wir also wirklich nicht mehr Jahrzehnte, sondern nur noch einige Jahre von Quantencomputern entfernt, die komplexe Moleküle simulieren, neue Medikamente entwerfen oder Materialien mit bisher unmöglichen Eigenschaften berechnen können. Der Traum bleibt derselbe – aber er wird gerade ein Stück greifbarer.
Bleibe auf dem Laufenden über die neuesten Updates zu Quantencomputing und weiteren spannenden Themen. Folge uns auf unseren Social Media Kanälen: