Status Quo und Roadmap von IBM Quantum und erste Lösungsansätze

Von   Dr. rer. nat. Basil Moshous   |  CTO IBM Systems HW Sales DACH   |  IBM Deutschland GmbH
  Dr. Mark Mattingley-Scott   |  IBM Quantum Ambassador Leader EMEA & AP   |  IBM Deutschland GmbH
5. März 2021

Einleitung:

In den vergangenen Dekaden haben wir viele Probleme in Wirtschaft, Wissenschaft und Gesellschaft äußerst erfolgreich mit Computern gelöst. Es gibt aber bis heute schwierige Probleme, die sich nicht mit klassischen Computern lösen lassen. Mit der Entwicklung der Quantencomputer zeichnet sich eine alternative Herangehensweise an einige dieser schwer fassbaren Probleme ab. Aber um diese Probleme erfolgreich zu lösen, bedarf es mehr als nur Quantencomputer – wir müssen ein komplett neues Ökosystem – von der Hardware über die Programmierung bis hin zu den Algorithmen entwickeln und bereitstellen. Zusätzlich müssen wir auch die Industrie mit Partnerschaften in die Forschung mit einbeziehen.

In diesem Artikel fassen wir die Herangehensweise der IBM bei der Entwicklung eines solchen Quantum-Ökosystems zusammen und geben einen Einblick in Anwendungsfelder der Finanzindustrie.

IBM Quantum – Technologie

Die IBM Quantenprozessoren nutzen Elementarteilchen, um über deren quantenmechanischen Interaktionen Quantenschaltungen anstelle der Logikschaltungen digitaler Computer auszuführen. Wir repräsentieren Daten unter Verwendung der elektronischen Quantenzustände künstlicher Atome, die als supraleitende Transmon-Qubits bekannt sind. Diese Atome können bei dem von IBM gewählten Aufbau durch Sequenzen von Mikrowellenimpulsen verbunden und manipuliert werden, damit funktionsfähige Schaltkreise entstehen. Die Energiedifferenz der einzelnen zu unterscheidenden Zustände ist dabei so gering, dass die quantenmechanischen Zustände der Qubits durch minimalste Interaktionen mit der Außenwelt zerstört werden.

Die zentralen Herausforderungen bei Quantencomputern bestehen heute darin herauszufinden, wie die Zustände der Qubits lange genug interaktionsfähig bleiben, die Fehlertoleranz verbessert werden kann und gleichzeitig die Qubits zu großen Verbünden verschaltet werden können. Denn nur so kann ein Verbund von vielen Qubits komplexe Algorithmen mit geringen Fehlern berechnen.

IBM hat eine Metrik – das Quantum Volume – eingeführt, welche Auskunft über die Leistungsfähigkeit der Quantencomputer angibt [1]. Sie berücksichtig unter anderem die Anzahl der verfügbaren Qubits, die Fehlerrate der Gates, die Fehlerrate der Messungen und das Übersprechen zwischen den Zuständen benachbarter Qubits. Ein höheres Quantum Volume bedeutet, dass längere Algorithmen ausgeführt werden können und Ergebnisse genauer sind. Diese Metrik wird inzwischen auch von anderen Anbietern von Quantencomputern genutzt.

IBM Q Systems Roadmap

Seit Mitte der 2000er haben IBM Forscher supraleitende Qubits untersucht, die Kohärenzzeiten erhöht und gleichzeitig die auftretenden Fehler verringert. Diese Forschung ermöglichte Anfang 2010, erste Multi-Qubit-Systeme zu fertigen.

Lassen Sie uns nun auf die Roadmap unserer IBM Quantencomputer eingehen, die uns von den heutigen lauten, relativ kleinen Geräten mit bis zu 65 Qubits zu den geplanten universellen Quantencomputer mit mehr als einer Million Qubits führen wird [2].

Ein Blick auf die IBM Q Quanten System Roadmap. Von den heutigen eher kleinen und verrauschten Systemen zu den fortschrittlichen Quanten Systemen der Zukunft [2].
Im Folgenden werden wir einige Codenamen verwenden. Vogelnamen werden dabei als Codenamen für IBM Q Prozessoren genutzt, Städtenamen als Codenamen für die einsatzfähigen IBM Q Systeme.

Cloud Zugang für IBM Q Systeme

Um Zugriffe auf IBM Q Systeme zu vereinfachen hat sich IBM entschieden, seine Quantencomputer über einen Cloud-Zugang verfügbar zu machen [3].

Heute stellen wir mehr als zwei Dutzend IBM Q Systeme über die IBM Cloud bereit, an denen unsere Kunden experimentieren können. Das Angebot umfasst auch einen kostenfreien Zugang zu ausgewählten Systemen, damit jeder Interessierte die neue Technologie ausprobieren kann.

Für dieses Angebot sind unter anderem die 5-Qubit-IBM Q Canary-Prozessoren und die 27-Qubit-IBM Q Falcon-Prozessoren verfügbar.

Quantum Volume als Metrik für die Leistungsfähigkeit von Quantencomputern

Auf einem im Jahr 2020 installierten IBM Quantum Falcon-System lief eine Quantenschaltung, die zunächst ein Quantum Volume von 32 und dann von 64 erreicht hat. Im weiteren Verlauf des Jahres wurde das System noch soweit verbessert, dass IBM im Dezember 2020 sogar ein Quantum Volume von 128 erreichen konnte [4].

An diesem Beispiel sieht man, dass die Erhöhung der Qubits in einem System nur ein Faktor ist, um bessere Ergebnisse zu erzielen. Die Verbesserungen am Compiler, die Verfeinerung der Kalibrierung der Zwei-Qubit-Gates, die optimierte Rauschbehandlung und die Anpassungen der Mikrowellenimpulse für das Auslesen sind genauso essenziell.

Die Weiterentwicklung unserer IBM Q-Prozessoren ist damit eng mit den Erkenntnissen des Betriebs und der Verbesserung der aktuellen IBM Q-Systeme verbunden.

Im 2.Halbjahr 2020 haben wir dann den 65 Qubit-IBM Quantum Hummingbird-Prozessor in der IBM Cloud zur Verfügung gestellt, auf den wir nun unsere Erkenntnisse anwenden werden.

Optimierung der Ausleseelektronik

Beim Hummingbird-Prozessor haben wir eine Optimierung der Ausleseelektronik vorgenommen. Bisher wurde jedes einzelne Qubit mit Hilfe eines eigenen Kanals ausgelesen. Der Hummingbird-Prozessor nutzt nun ein Multiplexing, um 8 Qubits über einen Kanal auszulesen [2]. Diese Technologie reduziert die Gesamtmenge an Kabeln und Komponenten, die zum Auslesen erforderlich sind. Dadurch verbessert sich die Skalierbarkeit, während alle Hochleistungsmerkmale der Falcon Prozessorgeneration erhalten bleiben. Wir haben zusätzlich die Latenzzeit der Signalverarbeitung im zugehörigen Steuerungssystem erheblich reduziert. Diese Optimierungen beeinflussen Rückkopplungs- und Feed-Forward-Systemfunktionen und erlauben uns in Zukunft die Kontrolle von Qubits anhand von klassischen Operatoren, während gleichzeitig Quanten-Programme laufen. Wir werden im Folgenden noch darauf eingehen, dass wir für diese Funktionalität auch unseren Software Stack anpassen werden.

100-Qubit-Meilenstein

Nächstes Jahr werden wir den 100-Qubit-Meilenstein mit unserem geplanten 127-Qubit-IBM Quantum Eagle-Prozessor übertreffen. Im Zuge dieser Weiterentwicklung werden die folgenden Optimierungen zum Einsatz kommen:

Durchkontaktierungen und mehrstufige Verkabelung

Durchkontaktierungen und mehrstufige Verkabelung, die eine große Dichte klassischer Steuersignale effektiv auffächern und gleichzeitig die Qubits in einem separaten Bereich schützen können, sind in diesem Design die fundamentalen Neuentwicklungen. Diese Technologien ermöglichen es uns, bei dem Prozessor die benötigten hohen Kohärenzzeiten aufrechtzuerhalten.

Fehlerkorrektur

Mit dem in diesem Jahr eingeführte Ansatz der festen Frequenz für Zwei-Qubit-Gatter und einer hexagonalen Qubit-Anordnung haben wir in Falcon ein empfindliches Gleichgewicht zwischen Konnektivität und Reduzierung von Übersprechfehlern gefunden. Dieses Qubit-Layout hat uns ermöglicht, die „heavy-hexagonal“ Fehlerkorrektur zu implementieren [9].

Klassische Rechenfunktionen

Mit dem Eagle-Prozessor werden wir klassische Rechenfunktionen auf den Qubits in Echtzeit einführen. Diese Funktionen ermöglichen die Ausführung einer breiteren Familie von Quantenschaltungen und -codes [5].

Skalierbare Konstruktionsprinzipien

Die für unsere kleineren Prozessoren festgelegten Konstruktionsprinzipien werden uns ermöglichen, 2022 unser IBM Quantum Osprey-System mit 433 Qubits herauszubringen. Effizientere und dichtere Steuerungen und eine neu entwickelte Kühlinfrastruktur stellen sicher, dass die Skalierung unserer Prozessoren nicht die Leistung einzelner Qubits beeinträchtigt, weitere Störquellen einführt oder einen zu großen Platzbedarf erzeugt.

1000-Qubit-Meilenstein

Im Jahr 2023 planen wir den IBM Quantum Condor-Prozessor mit 1.121 Qubit vorzustellen, der die Erfahrungen aus früheren Prozessorgenerationen berücksichtigt und gleichzeitig die kritischen Zwei-Qubit-Fehler weiter senkt, damit wir längere Quantenschaltungen ausführen können.

Wir betrachten Condor als einen Meilenstein, der zeigt, dass wir in der Lage sind Fehlerkorrekturen effizient zu implementieren und unsere Geräte zu skalieren. Dabei ist er gleichzeitig komplex genug, um potenzielle Quantenvorteile zu untersuchen – Probleme, die wir auf einem Quantencomputer effizienter lösen können als auf dem besten Supercomputer der Welt.

Neue Kühlsysteme

Einige der dringendsten Herausforderungen bei der Skalierung eines Quantencomputers sind in der Entwicklung des Condor basierenden Quantensystems berücksichtigt.

Für Quantensysteme, die aus mehreren Quanten-Prozessoren bestehen, müssen zusätzlich neue Kühlsysteme entwickelt werden. Aus diesem Grund haben wir schon heute begonnen, einen neuen Super „Dilution Refrigerator“ zu entwickeln. Dieser ist mit Blick auf ein Millionen-Qubit-System entworfen. Grundlegende Machbarkeitstests sind inzwischen abgeschlossen.  Mit einer Höhe von ca. 3 Metern und einer Breite von fast 2 Metern ist dieser „Goldeneye“ genannte Gigant einzigartig.

Mitglieder des IBM Quantum Teams bei der Entwicklung von neuen Kühlsystemen für die nächste Generation von Quantencomputern. Quelle: Connie Zhou für IBM [2]

Fehlertolerante Quantencomputer

Um eine Skalierung eines Quantencomputers über mehrere Kühlsysteme hinweg zu erreichen, müssen die Quanten-Prozessoren über „Quantum Interconnects Links“ gekoppelt werden.

Auch wenn wir die Entwicklung von fehlertoleranten Quantencomputern schon antizipieren, müssen wir die aufgeführten Hindernisse noch lösen. Dabei stehen wir vor einigen der größten Herausforderungen in der Geschichte des technologischen Fortschritts.

Aufgrund unserer Vision sehen wir aber innerhalb des kommenden Jahrzehnts einen fehlertoleranter Quantencomputer als erreichbares Ziel an.

IBM Quantum – Programmierung

Vor fast 5 Jahren hat das IBM Quantum-Team den Zugang zu unseren ersten IBM Q- Quantencomputern in der IBM Cloud ermöglicht. Heute führen Mitglieder der IBM Quantum Community jeden Tag Milliarden von Schaltkreisen auf den in der Cloud zur Verfügung gestellten IBM Quantum Rechnern aus.

Wir haben zwei Möglichkeiten für Entwickler geschaffen, um Erfahrungen mit der Quanten-Programmierung zu sammeln. Sie können:

  • In einem Deep Dive-Ansatz mit Qiskit [6][7][8], unserem Open Source, Full Stack Quanten-Software-Framework in die Quanten-Programmierung einsteigen,
  • oder mit der IBM Quantum Experience [3] Experimente mit Quantenschaltungen designen und Experimente über eine Webanwendung durchführen.

In beiden Umgebungen setzen wir auf einen kompletten Stack, der von der Anwendungsentwicklung bis hinunter auf die Hardware-Ebene reicht. Dieser Stack besteht grob aus zwei Bereichen:

  1. Die Quantum Code Ausführungsschicht auf Hardware- und Simulator-Ebene
  2. Die Quantum Code Programmierschicht

Quantum Code auf reellen und simulierten Systemen ausführen

Ausführen von Schaltungen auf reeller Hardware

Quanten-Schaltkreise sind die Grundlagen für unseren Software-Stack. Qiskit bietet eine Reihe von Werkzeugen

  • zum Designen von Quantenprogrammen auf der Ebene von Schaltkreisen und Impulsen
  • zur Optimierung der Einschränkungen eines bestimmten physikalischen Quantenprozessors
  • und zur Verwaltung der Batch-Ausführung von Experimenten auf Backends, die über das Internet verfügbar sind.

Qiskit ist modular aufgebaut und vereinfacht das Hinzufügen von Erweiterungen für Schaltungsoptimierungen und Backends und kann auch für Quanten-Systeme anderer Anbieter genutzt werden.

Für Qiskit haben wir die OpenQASM (Open Quantum Assembly Language) entwickelt und frei zur Verfügung gestellt [10]. Auch hier hat IBM Ende 2020 Erweiterungen vorgeschlagen, um zusätzliche Algorithmen abbilden zu können, bei denen Quantum und klassische Rechnungen verschränkt werden [12]. Wie im Artikel schon vorher beschrieben, brauchen wir diese Funktionalität für unsere kommenden Quanten-Systeme.

Ausführung von Schaltungen auf Simulatoren

Zusätzlich bietet Qiskit ein leistungsstarkes Simulator-Framework für den Qiskit-Software-Stack. Es enthält optimierte C++-Simulator-Backends zum Ausführen kompilierter Schaltungen und Werkzeuge zum Erstellen hochgradig konfigurierbarer Rauschmodelle. Damit können realistische Simulationen mit Fehler, die während der Ausführung auf realen Geräten auftreten, durchgeführt werden. Reale Experimente können so mit unseren Erwartungen verglichen werden.

Quantum Code schreiben

Schaltkreise

Qiskit bietet eine Reihe von Werkzeugen

  • zum Erstellen von Quantenprogrammen auf der Ebene von Schaltkreisen und Impulsen
  • zur Optimierung für die Einschränkungen eines bestimmten physikalischen Quantenprozessors
  • und zur Verwaltung der Batch-Ausführung von Experimenten auf Remote-Zugriffs-Backends.

Charakterisierung (Experimentalist Toolbox)

Das Charakterisierungs-Framework bietet Schaltungen und Analysemethoden, um die Fehlerquellen unserer Geräte zu verstehen und zu charakterisieren. Solche Parameter umfassen T1, T2*, T2, Hamiltonian-Parameter wie die ZZ-Interaktionsrate und Regelfehler in den Quantum Gates.

Algorithmen

Qiskit enthält ein generisches Framework von domänenübergreifenden Quantenalgorithmen, gegen das Anwendungen für Quantencomputing entwickelt werden können.

Anwendungen

Aufbauend auf dem gesamten Stack ermöglicht Qiskit eine einfache Methode, an Quanten Computern Forschung zu betreiben. Man kann in jeder Ebene des Stacks entwickeln, Experimente durchführen und den Ablauf der Programme anpassen. Hiermit ist dann schlussendlich auch eine Entwicklung für spezifische Anwendungsfälle in Industriesektoren möglich, die das große Potenzial der Quantenvorteile ausnutzen.

IBM Quantum Network

Nachdem wir die Technologie unserer IBM Quantum-Systeme besprochen und einen Einblick in die Frameworks gegeben haben, die wir zur derer Programmierung zur Verfügung stellen, kommen wir in diesem Abschnitt nun auf das IBM Quantum Network zu sprechen [13], [14].

Da wir ein sehr dynamisches Umfeld haben, in dem ständig neue Erkenntnisse gewonnen werden, sehen wir eine Plattform zum Austausch von Informationen als essenziell an.

Die Grundidee des „IBM Quantum Networks“ ist es, in einer Zusammenarbeit mit Partnern folgende Bereiche zu stärken:

  • Ausbildung und Training
  • Zugang zur Technologie
  • Beschleunigung der Forschung
  • Entwicklung von Anwendungen

Im IBM Quantum Network arbeitet IBM mit Interessierten, Universitäten, Instituten, innovativen Unternehmen und Early Adoptern zusammen und bietet über die Cloud Zugriff auf die leistungsstärksten Quantensysteme der IBM. Wir sind der Überzeugung, dass nur durch diesen Austausch von Ideen, Forschung und Tests die Quantencomputer ihr volles Potenzial entfalten und Durchbrüche erzielen werden.

Je nach Grad des Engagements bietet IBM den Teilnehmern „Open“, „Member“ und „Partner“ Angebote an.

In Deutschland wurde zum Beispiel mit der Fraunhofer-Gesellschaft eine Forschungs-Kollaboration geschlossen [15]. Im Zuge dieser Zusammenarbeit haben wir in 2020 einen IBM Q System One Quantencomputer in der Nähe von Stuttgart installiert. Das System ist seit Januar in Betrieb und das erste seiner Art in Europa.

Die Kooperation hat sich zum Ziel gesetzt, anwendungsorientierte Quantencomputerstrategien unter vollständiger Datenhoheit des europäischen Rechts zu entwickeln. Derzeit arbeiten bereits mehr als zehn Fraunhofer-Institute in verschiedenen Bereichen der Quantentechnologie.

Das forschungstechnisch sehr aktive IBM Quantum Network ist Anfang 2021 schon auf weit über 100 Mitglieder im Member und Partner Status angewachsen.

IBM Quantum – Anwendungsfelder am Beispiel der Finanzindustrie

Vorteile in der Kreditrisikoanalyse und bei der Vorhersage der Preisentwicklung von Derivaten

Quantencomputern wird ein sehr großes Einsatzfeld in Wissenschaft und Industrie zugeschrieben. Denn überall dort, wo mathematische Probleme die klassischen Systeme von heute vor große Herausforderungen stellen, könnten zukünftige Quantencomputern diese Probleme viel schneller lösen, und sogar neue, noch nie angedachte Probleme angehen.

Zum Beispiel ist in der Finanzdienstleistungsbranche das Rechnen auf Quantencomputern ein sehr lukratives Feld (vgl. z.B. [16]). Die dort verwendeten mathematischen Verfahren lassen sich gut auf einem Quantensystem abbilden. So konnten Forscher von IBM und andere Mitglieder des IBM Quantum Networks schon viele Berechnungen mit unterschiedlichen Quantenalgorithmen auf wissenschaftlichem Niveau angehen und gute Ergebnisse aufzeigen, die das zukünftige Potential dieser neuen Technologie erkennen lassen.

Die mathematischen Verfahren umfassen hier:

    • Optimierung (vgl. zum Beispiel in den Anwendungsfeldern Portfolio Optimierung/Management oder Transaktionen-/Sicherheitenabwicklung) [17],[18],[19],[20]
    • Simulation (vgl. zum Beispiel in den Anwendungsfeldern Kreditrisikoanalyse oder Preisentwicklung von Optionen/Derivaten) [21],[22],[23],[24],[25],[26],[27],[28],[29],[30]
    • Maschinelles Lernen (vgl. zum Beispiel in den Anwendungsfeldern Kreditbewertung oder Geldwäsche-/Betrugserkennung) [31],[32],[33],[34],[35],[36]

Damit eröffnet sich ein großes Anwendungsspektrum für einen möglichen Einsatz von Quanten Computern, um zukünftig Verbesserung von geschäftskritischen Finanzberechnungen zu erzielen.

Aber die heutigen Quantencomputer sind noch zu fehlerbehaftet und nicht leistungsstark genug, um schon jetzt Vorteile in realen Anwendungsfällen gegenüber klassischen Verfahren zu zeigen. Daher stellt sich vielfach die Frage, wann und welche Anwendungen am ehesten von Quantenvorteilen profitieren und wie leistungsfähige Quantencomputer ausgestattet sein müssen, um diese Anwendungen deutlich besser laufen zu lassen, als es klassische Systeme können.

Auch wenn diese Frage nicht einfach zu beantworten ist, gibt es schon gute Abschätzungen auf Basis der heutigen Arbeiten über relevante Finanzberechnungen auf Quantencomputern.

Zum Beispiel haben IBM Forscher einen Quantenalgorithmus für die Berechnung von Kreditrisiken, im speziellen dem „Economic Capital Requirement“ (ECR), entwickelt [24]. Das ECR ist eine wichtige Risikometrik, um regulatorische Anforderungen zu erfüllen. Über die Ermittlung des ECRs stellen Finanzunternehmen gegenüber der Regulierungsbehörde dar, wie viel Rückstellungskapital erforderlich ist, um eine Insolvenz zu vermeiden.

Für die Berechnung des ECRs werden heute häufig Monte Carlo-Simulationen auf klassischen Computern eingesetzt, bei denen nach dem Zufallsprinzip simuliert wird, wie sich der Gesamtverlust im Laufe einer Zeitvorgabe und innerhalb eines Vertrauensintervalls entwickelt. Hierzu muss eine große Anzahl dieser Simulationen ausgeführt werden, damit die Ergebnisse zu einer vernünftigen Antwort konvergieren.

Der in diesem Artikel dargestellte Ansatz basiert auf dem „Quantum Amplitude Estimate“ (QAE) Algorithmus, mit dem die ECR-Metrik mit einer quadratischen Beschleunigung im Vergleich zu klassischen Monte-Carlo-Simulationen berechnet werden kann. Doch für wirtschaftlich relevante ECR-Berechnungen mit dem QAE-Algorithmus sind die heutigen Quantencomputer leider noch zu fehlerbehaftet und haben zu wenige Qubits. Trotzdem konnten die Forscher eine Abschätzung darüber geben, wie sich die Laufzeit der Berechnungen auf zukünftigen fehlertoleranten Quantencomputern mit dem beschriebenen Quantenalgorithmus darstellen würde. Ein wichtiger Aspekt bei dieser Abschätzung ist die Schaltkreistiefe in Abhängigkeit der Problemgröße – in diesem Fall von der Anzahl der zu berücksichtigten Credit Assets.
Hierbei spielt insbesondere die Betrachtung der sogenannten Clifford+T Gates eine wesentliche Rolle, deren Anzahl die notwendige Schaltkreistiefe (T-Depth) bestimmen, also die mögliche Anzahl an Gate-Operationen, die auf dem Quantencomputer in der Zeit durchführbar ist, in der das System noch als kohärent gilt. Die T-Gates gelten als die aufwendigsten zu prozessierenden Gates in fehlertoleranten Quantensystemen.

Für ein Portfolio mit 1 Million Assets ermittelten die Forscher eine Laufzeit im Bereich von nahezu Echtzeit, wenn man entsprechende Näherungen und Aggregationen bei den Assets berücksichtigt, die auch heute schon für die Vereinfachung der klassischen Monte Carlo-Simulationen herangezogen werden.

Ein weiteres Beispiel im Kontext von Preisgestaltung von Derivaten liefern in einem neuen Vorabdruck [37] Quantenforschungsteams von IBM und Goldman Sachs. Sie geben dort eine erste detaillierte Schätzung über die Quantum Computing-Ressourcen ab, die benötigt werden, um Quantenvorteile bei der Ermittlung der Preisgestaltung von Derivaten zu erzielen. Ein Derivatkontrakt ist ein finanzieller Vermögenswert, dessen geschätzter Wert darauf basiert, wie sich der Preis einiger Vermögenswerte – wie Futures, Optionen, Aktien, Währungen und Rohstoffe – im Laufe der Zeit ändert. Die Möglichkeit, das mit jedem dieser Verträge verbundene Risiko genauer zu bewerten oder einzuschätzen – selbst wenn der Vorteil relativ gering ist – könnte große Auswirkungen auf die Finanzdienstleistungsbranche haben.

Auch wenn sich die Forscher auf die Preisgestaltung der Derivate konzentriert haben, kann die Arbeit für andere Arten von Risikoberechnungen übertragen werden. Derivate sind ein guter Ausgangspunkt, da von ihnen jedes Jahr weltweit enorme Mengen gehandelt werden.

Wie bei der Kredit Risikoanalyse werden Derivate häufig mithilfe von Monte Carlo-Simulationen auf klassischen Computern berechnet, so dass auch hier der QAE-Algorithmus zur Berechnung auf dem Quantencomputer herangezogen wurde.

Die Forscher führen zudem eine neue Methode ein, um die Frage der zukünftigen Ressourcen von Quantencomputern besser einschätzen zu können. Der neue Ansatz – die so genannte Re-Parametrisierungsmethode – kombiniert vortrainierte Quantenalgorithmen mit Ansätzen von fehlertoleranten Quantencomputern, um den geschätzten Ressourcenbedarf auf Quantensystemen bei der Berechnung von Preisentwicklungen für Finanzderivate dramatisch zu reduzieren.

Diese Ressourcenschätzungen geben einen Schwellenwert für die Leistungsfähigkeit von zukünftigen Quantencomputer an, ab dem sie in der Lage sind, Vorteile bei der Berechnung von Derivaten-Preisen gegenüber klassischen Ansätzen zu demonstrieren (Quantum Advantage). Ein wichtiges Element in dieser Abschätzung sind wieder die T-Gates. Die untersuchten Anwendungsfälle benötigen 7500 logische Qubits und eine T-Depth von 46 Millionen Gates oder Operationen. Unter der Annahme, dass die Preisgestaltung bestimmter Arten von Derivaten innerhalb von 1 Sekunde berechnet werden soll, müssten die T-Gates mit 10Mhz oder schneller umgesetzt werden, um einen Quantenvorteil in diesem Szenario zu erreichen. Diese Ressourcenanforderungen sind für die heutigen Systeme unerreichbar.

Die Forscher von IBM und Goldman Sachs haben versucht, so viel konkretes, quantifizierbares Detail wie möglich aufzuzeigen, was notwendig ist, um einen möglichen und sinnvollen Quantenvorteil im Kontext Derivatepreisfindung zu erreichen. Damit wurde auch gezeigt, wo die Herausforderungen bei der Erreichung des Quantenvorteils noch bestehen und wo die spezifischen Engpässe noch liegen, die wir heute haben. Das macht die Fokussierung zukünftiger Forschungsarbeit einfacher.

Die transparente Darstellung dieser Schätzungen ermöglicht es, dass Forscher nun jede Unterroutine in diesem Algorithmus und in dieser Schätzung untersuchen können, um den Einfluss der jeweiligen Schritte auf die Gesamtlaufzeit zu bestimmen. Zum Beispiel können sich Algorithmus- oder Fehlerkorrektur-Forscher nun die für ihr Fachgebiet spezifische Teile herausnehmen, um diese dann insofern zu verbessern, dass sie den größten Einfluss auf den Quantenvorteil bei der Preisberechnung von Derivaten haben.

Abschließend kann man also festhalten, dass aktuelle Anwendungsfälle noch nicht in der Größenordnung von realen Business-Problemen auf Quantencomputern berechenbar sind. Die aktuellen Forschungsergebnisse in allen Bereichen der Technologie machen aber zuversichtlich, dass das Erreichen eins Quanten-Vorteils in absehbarer Zukunft möglich sein wird. IBM hat für sich in seiner Roadmap ein klares Ziel mit einer ambitionierten Zeitachse definiert, weitere Verbesserung von Algorithmen, Schaltkreisoptimierung und Fehlerkorrektur sowie neue Hardware-Architekturen zur Verfügung zu stellen.

Quellen und Refernezen:

[1] What Is Quantum Volume, Anyway?

[2] IBM’s Roadmap For Scaling Quantum Technology

[3] IBM Quantum Experience

[4] Twitter: IBM achieved a Quantum Volume of 128

[5] Rethinking quantum systems for faster, more efficient computation

[6] Qiskit – Open-Source Quantum Development

[7] Building Quantum Skills With Tools For Developers, Researchers and Educators

[8] Celebrating 2020, Qiskit’s Best Year Yet

[9] Hardware-aware approach for fault-tolerant quantum computation

[10] Open Quantum Assembly Language

[11] IBM Quantum offers advanced system access to academic researchers

[12] A New OpenQASM for a New Era of Dynamic Circuits

[13] The IBM Quantum Network: Organizations Collaborate on Quantum Goals

[14] IBM Quantum offers advanced system access to academic researchers

[15] IBM and Fraunhofer bring Quantum Computing to Germany

[16] Daniel J. Egger, Claudio Gambella, Jakub Marecek, Scott McFaddin, Martin Mevissen, Rudy Raymond, Andrea Simonetto, Stefan Woerner, Elena Yndurain, “Quantum computing for Finance: state of the art and future prospects”, arXiv:2006.14510v02 [quant-ph]

[17] Lee Braine, Daniel J. Egger, Jennifer Glick, Stefan Woerner, “Quantum Algorithms for Mixed Binary Optimization applied to Transaction Settlement“, arXiv:1910.05788 [quant-ph]

[18] Austin Gilliam, Stefan Woerner, Constantin Gonciulea, „Grover Adaptive Search for Constrained Polynomial Binary Optimization“, arXiv:1912.04088[quant-ph]

[19] Samuel Mugel, Carlos Kuchkovsky, Escolastico Sanchez, Samuel Fernandez- Lorenzo, Jorge Luis-Hita, Enrique Lizaso, Roman Orus, „Dynamic Portfolio Optimization with Real Datasets Using Quantum Processors and Quantum-Inspired Tensor Networks“, arXiv:2007.00017 [quant-ph]

[20] Charles Hadfield, Sergey Bravyi, Rudy Raymond, Antonio Mezzacapo,                    „Measurements of Quantum Hamiltonians with Locally-Biased Classical                    Shadows“, arXiv:2006.15788 [quant-ph]

[21] Kazuya Kaneko, Koichi Miyamoto, Naoyuki Takeda, Kazuyoshi Yoshino, “Quantum Pricing with a Smile: Implementation of Local Volatility Model on Quantum Computer”, arXiv:2007.01467 [quant-ph]

[22] Nikitas Stamatopoulos, Daniel J. Egger, Yue Sun, Christa Zoufal, Raban Iten, Ning Shen, Stefan Woerner, “Option Pricing using Quantum Computers”,                                  arXiv:1905.02666 [quant-ph]

[23] Panagiotis Kl. Barkoutsos, Giacomo Nannicini, Anton Robert, Ivano Tavernelli, Stefan Woerner, “Improving Variational Quantum Optimization using CVaR”, arXiv:1907.04769 [quant-ph]

[24] Daniel J. Egger, Ricardo Gacía Gutiérrez, Jordi Cahué Mestre, Stefan                      Woerner, “Credit Risk Analysis using Quantum Computers”,                                           arXiv:1907.03044 [quant-ph]

[25] Stefan Woerner, Daniel J. Egger, “Quantum Risk Analysis”, arXiv:1806.06893 [quant-ph]

[26] Paul Burchard, “Lower Bounds for Parallel Quantum Counting”,                    arXiv:1910.04555 [quant-ph]

[27] Samudra Dasgupta, Kathleen E. Hamilton, Arnab Banerjee, “Designing a                    NISQ reservoir with maximal memory capacity for volatility forecasting”,                            arXiv:2004.08240 [q-fin.RM]

[28] Michael Boratko, Xiang Lorraine Li, Rajarshi Das, Tim O’Gorman, Dan Le, Andrew McCallum, “ProtoQA: A Question Answering Dataset for                                     Prototypical Common-Sense Reasoning “, arXiv:2005.00771 [cs.CL]

[29] Yohichi Suzuki, Shumpei Uno, Rudy Raymond, Tomoki Tanaka, Tamiya Onodera, Naoki Yamamoto, “Amplitude estimation without phase estimation”, arXiv:1904.10246 [quant-ph]

[30] Tomoki Tanaka, Yohichi Suzuki, Shumpei Uno, Rudy Raymond, Tamiya                      Onodera, Naoki Yamamoto, “Amplitude estimation via maximum likelihood                      on noisy quantum computer”, arXiv:2006.16223 [quant-ph]

[31] Christa Zoufal, Aurélien Lucchi, Stefan Woerner, “Quantum Generative                      Adversarial Networks for Learning and Loading Random Distributions”,                              arXiv:1904.00043 [quant-ph]

[32] Christa Zoufal, Aurélien Lucchi, Stefan Woerner, “Variational Quantum                      Boltzmann Machines”, arXiv:2006.06004 [quant-ph]

[33] Vojtech Havlicek, Antonio D. Córcoles, Kristan Temme, Aram W. Harrow, Abhinav Kandala, Jerry M. Chow, Jay M. Gambetta, “Supervised learning with quantum enhanced feature spaces”, arXiv:1804.11326 [quant-ph]

[34] Christa Zoufal, Aurélien Lucchi, Stefan Woerner,“Variational Quantum                      Boltzmann Machine”, arXiv:2006.06004 [quant-ph]

[35] Amira Abbas, David Sutter, Christa Zoufal, Aurélien Lucchi, Alessio Figalli, Stefan Woerner, “The power of quantum neural networks”, arXiv:2011.00027[quant-ph]

[36] Yunchao Liu, Srinivasan Arunachalam, Kristan Temme, “A rigorous and robust quantum speed-up in supervised machine learning”, arXiv:2010.02174[quant-ph]

[37] Shouvanik Chakrabarti, Rajiv Krishnakumar, Guglielmo Mazzola, Nikitas Stamatopoulos, Stefan Woerner, William J. Zeng, “A Threshold for Quantum Advantage in Derivative Pricing”, arXiv:2012.03819” [quant-ph]

 

ist promovierter Physiker und arbeitet nach Forschungen am CERN und MPI für Physik/DESY nun als CTO für Hardware Sales bei IBM. Als Thought Leader ist er in innovativen Initiativen aktiv. Er ist Mitglied der IBM Academy of Technology und ein IBM Quantum Ambassador.

Um einen Kommentar zu hinterlassen müssen sie Autor sein, oder mit Ihrem LinkedIn Account eingeloggt sein.

20895

share

Artikel teilen

Top Artikel

Ähnliche Artikel