Immer häufiger wird in der IT-Welt über Quantencomputing gesprochen. Das hat seinen guten Grund, denn diese etwas exotisch anmutende Technologie steht an der Schwelle der kommerziellen Nutzung

In den ersten Märztagen machte in der IT-Welt eine kaum beachtete Headline die Runde: „Wir haben das Quantenvolumen unseres Q Systems verdoppelt“, hieß es in einer IBM-Pressemitteilung. Nur die Insider dieser Technologie konnten ermessen, was das bedeutet, nämlich einen Meilenstein auf dem Weg zur kommerziellen Nutzung von Quantencomputing. Schon auf der jüngsten IBM-Kundenveranstaltung „Think“ und der CES-Messe im Januar in Las Vegas hatte IBM sein Q System präsentiert und über entsprechende Pilotprojekte berichtet. Glaubt man deren Marketing-Chefs, dann werden Quantencomputer schon bald wahre Wunderdinge bewirken. So sollen diese Systeme mit ihrer Leistung die heutigen Computer um etliche Größenordnungen übertreffen. Anwendungen, die in diesem  Zusammenhang immer wieder genannt  werden, sind vor allem Simulationen, Optimierungen und IT-Sicherheit. Letzteres sowohl positiv, wie auch negativ. Das heißt, Quantencomputer können alle heutigen Security-Maßnahmen knacken – können aber auch neue Sicherheitsstandards einführen, die von keinem Quantensystem geknackt werden können.

Forschungs- und Erklärungsbedarf

Die grundlegenden Fragen dieser Technologie und Architektur sind noch immer Gegenstand umfangreicher Forschung. Die Analysten von Gartner meinen beispielsweise, dass diese Technik noch nicht über die erste von fünf Innovationsphasen hinausgekommen ist. Kein Wunder also, dass Quantencomputing sowohl in der allgemeinen Öffentlichkeit, als auch innerhalb der IT-Welt noch immer als sehr exotisch gilt. Schuld daran sind das Zusammentreffen von vielen neuen oder zumindest ungewohnten Basis-Strukturen bei der Funktionsweise  – aber auch irreführende Definitionen.

Versuchen wir es also zunächst mit einer möglichst leicht verständlichen Beschreibung dieser Technologie. Am einfachsten ist es, zunächst auf die Unterschiede zum herkömmlichen Computer hinzuweisen. Wichtigster Punkt: Quantencomputer sind Analog-Rechner und haben auch die damit verbundenen Genauigkeitsprobleme. Das Rechenergebnis eines Quantencomputers wird physisch gemessen und damit wird das System gleichzeitig in seinen Ursprungszustand zurückgesetzt. Die Basiskomponente sind so genannte Qubits. Der wesentliche Unterschied zwischen einem Qubit und einem „normalen“ Bit ist der, dass ein Qubit nicht nur die Zustände Null und Eins, sondern sehr viele Zwischenzustände annehmen kann. In erster Näherung kann man sich ein Qubit wie den Hohlraum einer Kugel vorstellen, bei dem bestimmte Punkte innerhalb des Raumes einem logischen Wert zugeordnet sind. Beispielsweise hat der oberste Punkt auf der Z-Achse, (bei x=0 und y=0) den Binärwert null und der tiefste Z-Punkt den Wert eins. Der Zustand eines Qubits ist dann eine Kombination der Werte entlang aller drei Achsen. Dies wird Superposition genannt. In einigen Erklärungen heißt es dazu, dass ein Qubit „in allen möglichen Zuständen gleichzeitig sein kann“. Doch das ist irreführend, denn das Qubit hat zu jeder gegeben Zeit auch nur einen Zustand – er ist aber nicht bekannt, solange er nicht gemessen wird. In jedem Fall kann ein Quantencomputer tatsächlich mathematische Berechnungen des Qubits durchführen, während es sich in einer Superposition befindet. Hierzu werden die Wahrscheinlichkeiten des Zustandes herangezogen und diese durch Logikgatter geändert, bevor ein Ergebnis schließlich durch Messen ausgelesen wird. Sobald ein Qubit gelesen wurde, fällt es auf den Ausgangszustand eins oder null zurück und verliert seine anderen Zustandsinformationen.

Das alleine ist schon ein bemerkenswerter Unterschied zu herkömmlichen Binärsystemen. Damit aber noch nicht genug. Die große Bedeutung von Qubits basiert auf dem Verschränken (engl. Entanglement). Das Phänomen der Verschränkung liegt vor, wenn die einzelnen Qubits nicht mehr eine Kombination von unabhängigen Ein-Teile-Zustände sind, sondern nur noch einen gemeinsamen Zustand darstellen. Das heißt, eine Änderung an einem Qubit bewirkt automatisch auch eine Änderung an den damit verschränkten Qubits, somit ist ihr gemeinsamer Zustand eine Überlagerung aller Einzelzustände. Im Vergleich mit herkömmlichen Computern entspricht das Verschränken der Qubits einer kontrollierbaren Gatter-Verbindung von jedem einzelnen Bit im System mit jedem anderen. Das macht das Programmieren von Quantencomputern besonders kompliziert. Die Systeme werden mit Sequenzen von logischen Gattern verschiedener Art gesteuert. Außerdem müssen die Programme schnell genug ausgeführt werden, damit die Qubits nicht ihren Zustand verlieren, bevor dieser gemessen wurde.

Vom Labor in die Praxis

Diese fundamentalen Prozesse hat man schon seit geraumer Zeit im Griff, aber ein stabiles großes System muss auch außerhalb der sterilen Laborumgebungen arbeiten. Besonders problematisch sind Umwelt-Störungen. Da es sich um analoge Prozesse handelt, die mit Magnetfeld-Steuerungen arbeiten sind Abschirmungen und Prozess-Stabilität extrem wichtig. Andernfalls können große Fehler auftreten. Folglich gehören zum Qubit-Volumen eines Systems mehrere Faktoren. Es definiert sich aus der Anzahl Qubits, der Connectivity, der Superpositions-Zeit, der Fehlerrate bei den Gattern und beim Auslesen. Und genau diesen Wert konnte IBM jetzt beim System Q von 8 auf 16 verdoppeln, damit hat sich dieser Wert in den letzten Jahren von Jahr zu Jahr verdoppelt.

„Wir haben jetzt die geringste Messfehlerquote aller Zeiten erreicht“, freut sich Dario Gil, Director, IBM Research-Laboratory über diese Performance-Verbesserung.

Wie schon eingangs angedeutet, kommt man damit der kommerziellen Nutzung von Quantencomputing einen großen Schritt näher, denn „Size matters“. So heißt es in einer Research-Note von Gartner: „Es gibt durchaus interessante prototypische Anwendungen, doch die Aufgaben, die man bislang damit lösen kann, sind noch sehr klein. Um umfangreichere Probleme zu lösen, müssen die Systeme erst noch viel größer werden.“ Diese Aufgaben sind dann wirklich von höchstem Interesse. Vor allem in der Automobil-Branche wird schon intensiv damit experimentiert. Daimler arbeitet beispielsweise mit IBMs Cloud-basierten Q-System – sozusagen einem Qubits-as-a-Service. „Wir wollen mit Quantencomputing konkreten Fragestellungen der zukünftigen Mobilität und der Suche nach neuen Werkstoffen nachgehen“,  sagt Ben Boeser, Director Open Innovation im US-amerikanischen R&D-Labor von Daimler. Das bezieht sich vor allem auf die Batterietechnik, bei der mithilfe der Simulation von komplexen elektro-chemischen Prozessen, der Weg zu leichteren Batterien mit einer höheren Kapazität und einer kürzeren Ladezeit geebnet werden soll. Auch Exxon Mobile arbeitet mit IBM beim Quantencomputing zusammen. Der Mineralölgigant will damit seismische Simulationen durchführen, um geologische Strukturen besser abbilden zu können. Insgesamt arbeiten weltweit 40 Fortune-500-Firmen sowie mehrere Universitäten und Forschungseinrichtungen mit IBMs Quanten-System zusammen.

Volkswagen engagiert sich ebenfalls bei der Anwendung von Quantencomputing. In San Francisco hat VW unter der Leitung von Florian Neukart eine 15-köpfige Expertentruppe zusammengestellt, um herauszufinden,   wie sich Quantencomputing für das Unternehmen nutzen lässt. Der Fokus richtet sich vor allem auf Optimierungsprobleme und Simulationen. Zwar ließen sich solche Probleme auch mit konventioneller   Rechentechnik lösen, aber das würde laut Neukart einfach zu lange dauern. Doch nicht nur im Straßenverkehr ist die Thematik relevant, sondern auch in der Produktion. Etwa wenn es darum geht, eine begrenzt vorhandene Menge an Werkzeugen so zu verteilen, dass sie möglichst optimal genutzt werden können.