Quantencomputing: Mit dem hybriden Ansatz lassen sich aktuelle Hürden überwinden

Um komplexe Probleme in den Bereichen maschinelles Lernen, Optimierung und Quantenchemie zu lösen, kommt häufig das sogenannte hybride Quantencomputing zum Einsatz. Hier arbeiten klassische Rechner und Quantencomputer zusammen und spielen ihre jeweiligen Vorteile aus. Allerdings müssen Anwender die dafür benötigte Infrastruktur manuell einrichten und die Interaktionen zwischen den klassischen und den Quantenrechnern verwalten – ein zu hoher Aufwand in Relation zum Ergebnis. Abhilfe schaffen vollständig verwaltete Cloud-Dienste, die keine Bereitstellung und Wartung der Infrastruktur erfordern.
Von   Dr. Fabio Baruffa   |  Senior Specialist Solutions Architect   |  Amazon Web Services (AWS)
5. August 2022

Quantencomputer haben das Potenzial, aktuelle Rechenprozesse mithilfe von Prinzipien aus der Quantenphysik zu beschleunigen und bestimmte komplexe Probleme zu lösen, die mit herkömmlichen Computern nur schwer zu bewältigen sind. Die Grundeinheit der Quanteninformation unterscheidet sich vom klassischen Bit (Null oder Eins) und wird als Qubit bezeichnet. Da sich ein Qubit gleichzeitig in einer Überlagerung von zwei Zuständen befinden kann (|0> und |1>), sind Quantencomputer in der Lage, mehrere Eingaben und Berechnungen gleichzeitig zu kodieren und auszuführen. Dies beschleunigt bestimmte Kalkulationen gegenüber herkömmlichen Computern exponentiell. Im Gegensatz zu klassischen Rechnern liefern Quantencomputer keine konkreten Werte, sondern eine Verteilung von Wahrscheinlichkeiten. Als Ergebnis wird die jeweils höchste Wahrscheinlichkeit akzeptiert.

Allerdings sind Quantencomputer anfällig – zum Beispiel für Temperaturschwankungen, Magnetfelder und Vibrationen. Ihre Fehlertoleranz ist konstruktionsbedingt wesentlich geringer als die eines klassischen Systems. Daraus resultiert häufig das sogenannte Quantenrauschen, das durch eine zufällige Änderung des Quantenzustands der physikalischen Qubits entsteht. Dieses Rauschen kann die Anzahl der Operationen begrenzen, die im Laufe der Zeit ausgeführt werden, und auf diese Weise zu falschen Rechenergebnissen führen.

Hybride Algorithmen: Das Beste aus zwei Welten

Das sogenannte hybride Quantencomputing vereint die Vorteile von Quantencomputern und klassischen Rechnern. Zu lösende Aufgaben werden zwischen den Quanten- und herkömmlichen Computern so aufgeteilt, dass jedes Gerät den Teil der Berechnungen ausführt, für den es am besten geeignet ist. Durch das Zusammenspiel von klassischen und quantenbasierten Computern lässt sich auch das Quantenrauschen verringern. Denn der konventionelle Computer übernimmt den übergeordneten Algorithmus und delegiert nur die kritischen Schritte, die er nicht effizient bewältigen kann, an den Quantencomputer.

Hybride quanten-/klassische Ansätze gelten daher als kurzfristig verfügbare Möglichkeit, Quantencomputer dennoch effektiv einzusetzen. Dabei nutzen die Anwendungen die QPUs (Quantum Processing Units) als Co-Prozessoren für klassische Computer – ähnlich wie Hochleistungsrechner und Applikationen für maschinelles Lernen (ML) die GPUs (Graphical Processing Units) zur Beschleunigung einsetzen. Hybride Quantenalgorithmen lösen das Problem mit einem iterativen Ansatz für ein parametrisiertes, in einem Quantenschaltkreis eingebettetes Problem: Ein Teil des Algorithmus wird auf der QPU ausgeführt und untersucht dort alle möglichen Lösungen, während der „normale“ Computer den Rest berechnet. Da die Quanteninformatik auf Wahrscheinlichkeiten basiert, müssen die Schaltkreise allerdings mehrfach ausgewertet werden, um genaue Ergebnisse zu erzielen.

Dieser Ansatz ähnelt dem Vorgehen, das derzeit bei ML praktiziert wird: Um die beste Lösung für ein Problem zu finden, ist ein Trainingsprozess erforderlich, bei dem der Algorithmus die Parameter iterativ auf Basis der Berechnungsergebnisse anpasst. Das erhöht die Chance, die jeweilige Lösung zu finden. Ähnlich wie ein Grafikprozessor bei einem ML-Modell, trainiert der hybride Algorithmus die optimalen Operationen, die auf der QPU auf Grundlage des vorliegenden Problems auszuführen sind. Dabei findet der Quantenschaltkreis die Lösung, indem er die jeweils besten Parameter in einer Rückkopplungsschleife mit der CPU berücksichtigt. Dieses Vorgehen bietet handfeste Vorteile: Zum einen wird der Ressourcenverbrauch erheblich verringert. Zum anderen lässt sich die eigentliche Berechnung auf klassische Computer auslagern, die etablierte Optimierungsalgorithmen verwenden und fehlerfrei arbeiten können.

Hybride Algorithmen benötigen ihre eigene Infrastruktur

Voraussetzung für den Einsatz hybrider Algorithmen ist allerdings, dass die Anwender die erforderliche Infrastruktur manuell einrichten und die Interaktionen zwischen den klassischen und den Quantenrechenprozessen für die Dauer des Algorithmus verwalten. Zudem müssen maßgeschneiderte Überwachungslösungen entwickelt werden, um Fortschritte verfolgen und die Ergebnisse visualisieren zu können. Damit lässt sich beispielsweise anzeigen, ob der Algorithmus wie erwartet zur Lösung konvergiert, oder ob ein Eingriff oder eine Neuanpassung der Parameter erforderlich ist.

In den meisten Fällen steht dieser Implementierungs-, Wartungs- und Überwachungsaufwand jedoch in keinem Verhältnis zu den erzielten Ergebnissen. Zudem befindet sich die neue Technologie noch im Entwicklungsstadium. Quantencomputer sind teuer und nur in begrenzter Stückzahl verfügbar, den meisten Firmen fehlt es daher noch an den entsprechenden Kompetenzen und Erfahrungen. Für ein einzelnes Unternehmen lohnt sich daher der hohe technische Aufwand in der Regel nicht, der mit dem hybriden Ansatz verbunden ist.

Weitere Herausforderungen beim hybriden Ansatz

Hinzu kommt: Bei den derzeit verfügbaren QPUs handelt es sich um unelastische Ressourcen. Die Laufzeit der Anwendungen variiert je nach Auslastung eines Quantencomputers aber mitunter erheblich. Auch die derzeitige Situation, dass Forscher und Entwickler aus verschiedenen Unternehmen den Zugang gemeinsam nutzen, kann die Ausführung von Algorithmen verlangsamen und sie bei umfangreichen Arbeitslasten sogar zum Stillstand bringen. Dies ist nicht nur lästig, sondern kann sich auch negativ auf die Geschwindigkeit und Qualität der Ergebnisse auswirken, da die QPUs regelmäßig neu kalibriert werden müssen. Im schlimmsten Fall scheitert der Hybridalgorithmus – eine unnötige Verschwendung von Budget und Zeit.

Darüber hinaus gibt es für Quantencomputer verschiedene Hardware-Designs, die jeweils auf eine bestimmte Art optimiert werden müssen, um die Leistung des Algorithmus zu erhöhen. Aufgrund der unterschiedlichen Entwicklungs-, Simulations- und Testumgebungen der einzelnen Hardware-Anbieter ist es für Anwenderunternehmen schwierig, die Technologien in einem frühen Stadium zu testen und ihren Nutzen für bestimmte Einsatzbereiche zu beurteilen.

Die Lösung: Vollständig verwaltete Dienste

Abhilfe schaffen Cloud-basierte, vollständig verwaltete Dienste, die keine Bereitstellung und Wartung der Infrastruktur erfordern und mit den zugehörigen Verwaltungs- und Überwachungslösungen verfügbar sind. So gibt es mittlerweile Funktionen, die es Kunden ermöglichen, klassische Prozessoren auf der Basis von Amazon EC2 (Elastic Compute Cloud) zusammen mit QPUs zu nutzen.

Damit lassen sich viele der Herausforderungen beim hybriden Quantencomputing bewältigen. Denn durch die Nutzung eines vollständig verwalteten Diensts können die Kunden auf Quantenhardware mit unterschiedlichen Architekturdesigns experimentieren. Das heißt, die Verantwortlichen können verschiedene Technologien im praktischen Einsatz vergleichen und problemlos zwischen ihnen hin- und herwechseln, da sie dafür nur wenige Code-Zeilen ändern müssen. Unternehmen sind dadurch in der Lage, hybride Algorithmen auf Simulatoren und verschiedenen Quantencomputern gleichzeitig zu testen, ohne die erforderliche Infrastruktur einrichten und verwalten zu müssen. Der für die Dauer des Auftrags festgelegte vorrangige Zugang zu den QPUs ermöglicht die effiziente Ausführung und iterative Optimierung hybrider Algorithmen. Quantenentwickler können sowohl auf fertige Quantenalgorithmen als auch auf plattformunabhängige, vorinstallierte Tools für deren Erstellung zugreifen – beispielsweise um die Ergebnisse zu visualisieren oder sich mit anderen Entwicklern auszutauschen.

Dies erleichtert Unternehmen das Experimentieren und hilft ihnen zu beurteilen, welche Quantencomputer sich besonders gut für die Lösung bestimmter Probleme eignen. Die Anwendbarkeit lässt sich in verschiedenen Szenarien in Industrie und Wissenschaft testen, das Einrichten und Koordinieren verschiedener Rechenressourcen ist nicht mehr notwendig. Und da die Rechenleistung nach Beendigung der Aufgabe wieder freigegeben wird, zahlt der Kunde nur für die tatsächlich genutzten Ressourcen.

Dr. Fabio Baruffa entwirft bei AWS Großkundenlösungen im Bereich HPC und trägt dazu bei, die Einführung von Quantencomputern mithilfe von Cloud-Infrastruktur zu beschleunigen. Der promovierte Physiker verfügt über mehr als 10 Jahre Erfahrung in der HPC-Branche und im akademischen Bereich.

Um einen Kommentar zu hinterlassen müssen sie Autor sein, oder mit Ihrem LinkedIn Account eingeloggt sein.

28940

share

Artikel teilen

Top Artikel

Ähnliche Artikel