Bei Quantencomputern zählt nicht nur die Leistung, sondern vor allem die Zweckmäßigkeit

Dr. Mark Mattingley-Scott erklärt im Interview, warum die absolute Leistung allein kein aussagekräftiges Kriterium bei Quantencomputern ist, welche Vorteile synthetische Diamanten als Basis haben, wie und warum die Technologie am besten direkt „at the Edge“ eingesetzt werden sollte – und welche Rolle Nachhaltigkeit beim Einsatz von Quantenprozessoren spielt.
Interview von DIGITALE WELT – Fremd Autorschaft
3. Januar 2023
Interviewpartner
Interviewpartner

Herr Mattingley-Scott, Quantencomputing wird nach wie vor als Trend- und Wissenschaftsthema behandelt, das im Unternehmensalltag keine wirkliche Rolle zu spielen scheint. Haben Sie dafür eine Erklärung?

Wenn von Quantencomputern die Rede ist, dann meist im Zusammenhang mit Hochleistungsrechnern und Supercomputern. Und da geht es oftmals um eine immer größere Anzahl an Qubits, mit deren Rechenpower man hochkomplexe theoretische Probleme lösen kann, beispielsweise in der Mathematik, Physik, Kryptografie, bei Wechselwirkungen in Ökosystemen oder für Vorhersagen von Abläufen sowie Reaktionen in der Biochemie oder Pharmazie auf Basis von Simulationen. Das ist ohne Frage sehr beeindruckend – und gleichzeitig in erster Linie für die Wissenschaft relevant. Natürlich sind Quantencomputer genau dazu da, die großen Rätsel der Menschheit zu knacken – aber eben nicht ausschließlich. Es sollte jetzt vor allem darum gehen, Quantencomputing für Anwendungen im Unternehmensalltag zu etablieren, bei denen klassische Prozessoren an ihre Grenzen stoßen, da eine lange Rechenzeit unerwünscht ist. Hier können Quantencomputer zügig einen wirtschaftlichen Nutzen generieren. Damit das funktioniert, muss aber ein anderer Aspekt im Mittelpunkt stehen, nämlich Quantum Utility.

Und was versteht man unter „Quantum Utility“?

Der Begriff beschreibt eine sinnvolle Anwendung der Quantencomputing-Technologie in der Praxis, bei der die enorme Rechenleistung eine maximale Hebelwirkung entfalten kann. Dabei geht es darum, diese Leistung zielgerichtet zu kanalisieren und zu skalieren, um Quantentechnologie für konkrete Business Cases nutzbar zu machen. Das bedeutet aber gerade nicht, die Rechenleistung permanent durch eine Erhöhung der Anzahl an Qubits oder dem Zusammenschalten von Quantenrechnern in Quantennetzwerken „grenzenlos“ zu einem immer performanteren Supercomputer zu steigern, sondern sie durch Kombination bewusst und zielgerichtet dem tatsächlichen Bedarf einer bestimmten Anwendung anzupassen und sich die Möglichkeiten von Quantencomputern in naher Zukunft zunutze zu machen.

Wo liegt die Schwierigkeit beim Kombinieren mehrerer Quantensysteme?

In Quantennetzwerken werden Qubits miteinander zu einem System mit entsprechend höherer Performance zusammengeführt. Dabei kommt Quantentransduktion zum Einsatz, also die Umwandlung von Quantensignalen von einer Energieform in eine andere, beispielsweise von Elektronen in Photonen. Da sich die verschiedenen Teilchen in weit auseinanderliegenden Frequenzen bewegen, werden die natürlichen Interferenzen minimal gehalten. Das ist deshalb so schwierig, weil Qubits über quantenmechanische Prinzipien funktionieren und miteinander gekoppelt werden müssen, damit man ihre tatsächlichen Eigenschaften nutzen kann. Diese Kopplung – oder auch Verschränkung der Zustände – ist allerdings nur möglich, wenn sich die Qubits so nahekommen, dass quantenphysikalische Prinzipien greifen. Dabei geht es um Abstände im Nanometerbereich. Zudem sind die quantenmechanischen Zustände typischerweise nicht nur zeitlich instabil – man spricht hier von einer kurzen Kohärenzzeit –, sondern reagieren auch sehr empfindlich auf Umgebungsfaktoren wie Temperatur, Strahlung und elektrostatische Spannungen. Je größer die Anzahl an Qubits ist, desto stärker nehmen diese potenziellen Störfaktoren zu, die dann die Rechenergebnisse beeinträchtigen. Ziel ist, dieses kombinierte Quantensystem durch sogenannte Quantenfehlerkorrektur möglichst lange stabil aufrecht zu erhalten. Denn je länger die Kohärenzzeit dauert, desto mehr Zeit steht für eine Rechenoperation zwischen gekoppelten Qubits zur Verfügung.

Und was passiert, wenn die Kohärenzzeit nicht ausreicht?

Wird die Zeit überschritten, ist eine Rechenoperation nicht sinnvoll möglich. Um die Kohärenzzeit zu verlängern und so Rechenoperationen ausführen oder quantenmechanische Zustände initialisieren und auslesen zu können, lassen sich „Brücken“ bauen. Das bedeutet, Qubits werden zwischen zwei Quantenrechnern nicht auf quantenmechanische Art und Weise miteinander verbunden, sondern mithilfe von klassisch binär funktionierenden Rechensystemen. Herkömmliche Rechner spielen hierbei also eine essenzielle Rolle.

Und wie genau arbeiten Quantensysteme und klassische Computer in so einem Szenario zusammen?

In sogenannten Variations-Quantenalgorithmen wird die Stärke des Quantenbeschleunigers ausgenutzt, um Zustände in hochdimensionalen Räumen effizient darzustellen. Die Parameter dieser Quantenrechnung lassen sich durch eine Optimierung auf einem klassischen Computer so lange anpassen, bis das gesuchte Optimum gefunden ist – insbesondere interessant für quantenbasiertes Machine Learning. Diese Form von Algorithmen kann man auch auf viele parallel operierende Quantenrechner verteilen. Die Orchestrierung dieser Programme übernehmen ebenfalls klassische Rechner. Sie addieren durch die Parallelisierung die Leistung der einzelnen Quantencomputer auf. Außerdem lassen sich klassische Prozessoren für das Ansteuern und Auslesen von Quantenprozessen verwenden.

Also werden klassische Rechner im Zeitalter von Quantencomputern nicht obsolet?

Nein, denn sie werden zum einen für den Betrieb von Quantencomputern benötigt, zum anderen sind Quantenrechner zwar deutlich performanter, für viele Praxisszenarien allerdings überhaupt nicht geeignet.

Deshalb wird es in den allermeisten Fällen darum gehen, die Vorteile beider Technologien in einem hybriden System miteinander zu kombinieren. Voraussetzung dafür sind entsprechende „Design Patterns“, also Entwurfsmuster, die dazu dienen, Quantencomputer mit „normalen“ Rechnern zu „post-klassischen“ hybriden Computern zu verbinden. Auf diese Weise lässt sich die immense Leistungsfähigkeit zielgerichtet nutzen. Der Schlüssel sind iterativ trainierte Algorithmen, die sich stetig optimieren, um die Daten direkt dort, wo sie entstehen, schneller und präziser zu verarbeiten. Durch diese verdichteten Informationen muss der klassische Rechner im Anschluss nur relevante Datensätze verarbeiten. Dies ermöglicht also eine effiziente Auswertung großer Datenmengen und löst damit eine zentrale Herausforderung moderner Technologien – vom großflächigen Einsatz autonomer Fahrzeuge bis hin zum Aufbau komplexer Monitoring-Systeme, mit denen sich globale Transportwege überwachen, Produktionsprozesse drastisch optimieren, Medikamentenentwicklung beschleunigen oder Klimaforschungsmodelle verbessern lassen. Setzen sich diese hybriden Design Patterns erst einmal durch, wird das eine ähnlich revolutionäre Entwicklung auslösen wie seinerzeit die Einführung von kommerziell nutzbaren MOSFETs – Metall-Oxid-Halbleiter-Feldeffekttransistoren – als Basis integrierter Schaltkreise und leistungsstarker Mikrochips.

Es gibt verschiedene Ansätze zur Entwicklung von Quantenprozessoren. Sie setzen dafür auf synthetische Diamanten. Wie funktioniert das?

Mit sogenannten Stickstoff-Fehlstellen-Zentren, auch Nitrogen-Vacancy- beziehungsweise NV-Zentren genannt, bei denen in die stabilen Kristallgitter aus Kohlenstoffatomen gezielt „Unreinheiten“ implementiert werden. In diesen NV-Zentren nimmt ein Stickstoffatom den Platz eines Kohlenstoffatoms ein, und ein Kohlenstoffatom an einem benachbarten Gitterplatz wird entfernt, so dass eine Leerstelle entsteht. Die atomare Stabilität des – bis auf die Fehlstellen – „hochreinen“ Atomgitters des Diamanten ermöglicht dann die Kohärenz des entstandenen Quantensystems, das ein Qubit darstellen kann. So machen sich diese diamantbasierten Qubits die robuste Gitterstruktur des härtesten Materials auf der Erde zunutze.

Welche Vorteile sprechen für synthetische Diamanten?

Ein zentraler Faktor beim Einsatz von Quantencomputern ist die Kühlung. Das Herunterfahren der Umgebungstemperatur auf dreistellige Minusgrade, etwa mit Helium, minimiert molekulare Bewegungen, die die Berechnungen stören könnten. Ja, das funktioniert – es ist aber sehr energieaufwendig und leider kaum praxistauglich, denn eine solche Kühlung kann man sich natürlich nicht unter den Schreibtisch stellen oder für einen IoT-Device nutzen. In Quantenbeschleunigern auf Diamantbasis hingegen sind die Kohärenzzeiten selbst bei Raumtemperatur extrem lang, deshalb lassen sie sich auch in kleinen Formfaktoren realisieren. Unsere erste marktreife Produktgeneration hat beispielsweise die Größe eines 19-Zoll-Server-Rack-Moduls, und wir arbeiten derzeit daran, dass die Quantenbeschleuniger künftig in eine Lunchbox passen. An unseren Standorten in Deutschland forschen wir vor allem zu skalierbaren Herstellungsprozessen der NV-Zentren in Diamanten, den Ansteuerungs-, Kontroll- und Auslesetechniken der Quantenprozessoren.

Benötigen diamantbasierte Quantenbeschleuniger auch weniger Infrastruktur?

Ja, wir sprechen in diesem Zusammenhang von Zero Infrastructure Quantum Computing. Hier lässt sich ein Quantenbeschleuniger dezentral verbauen, beispielsweise direkt in einem Zug, einer Windkraftanlage oder einem Satelliten, und kann große Mengen Daten direkt vor Ort verarbeiten, statt erst via Cloud mit einem weit entfernten Supercomputer kommunizieren zu müssen.

Mit diesen kleinformatigen hybriden Designs umgeht man auch Verbindungsprobleme oder -störungen. Beispielsweise bewegen sich mit Edge Devices ausgerüstete Fahrzeuge auch immer mal wieder in Gebieten mit wenig oder gar keinem Empfang. Und speziell in industriellen Einsatzgebieten wie Fertigungshallen erschweren elektromagnetische Störungen durch andere Maschinen und Anlagen eine reibungslose Kommunikation. Dazu kommt: Viele der dort verarbeiteten Daten bilden Kernprozesse der unternehmensweiten Wertschöpfungskette ab, und insbesondere hochsensible (Geschäfts-)Daten dürfen in diesem Zusammenhang oft schon aus Compliance-Gründen nicht in die Cloud. Diese Beispiele zeigen: Damit die Vorteile der massiven Rechenleistung nicht direkt wieder verpuffen, sollte Quantentechnologie ohne allzu große „Daten-Transportwege“ und Latenzen direkt vor Ort nutzbar sein.

Aber haben solche leistungsstarken Quantencomputer nicht einen immensen Stromverbrauch?

Supercomputer und Helium-gekühlte Systeme benötigen sehr viel Strom, das ist richtig. Diamantbasierte Quantencomputer allerdings nicht. Sie lassen sich sehr effizient und nachhaltig betreiben. Quantum Utility bedeutet nämlich auch, dass die auf spezielle Einsatzszenarien zugeschnittenen hybriden Systeme energieeffizient funktionieren. Wenn ein Quantenbeschleuniger mit dreißig oder vierzig Qubits dazu führt, dass besonders aufwendige Teilalgorithmen nicht mehr über klassische Computersysteme laufen müssen, kann das beim Stromverbrauch schon einen merklichen Unterschied machen. Das ist ohnehin einer der Vorteile von Quantenprozessoren: Ob zwei oder 200 Qubits im Einsatz sind, macht im Hinblick auf den Energieverbrauch keinen allzu großen Unterschied. Erst ab einem bestimmten Punkt nimmt der „Wirkungsgrad“ eines solchen Systems beim Vergleich von Input und Output ab.

Gibt es denn schon einen Kennwert für Green Quantum Computing?

So richtig durchgesetzt hat sich da noch nichts. Tatsächlich existieren bereits einige gängige Leistungsindikatoren, beispielsweise FLOPS (Gleitkommaoperationen pro Sekunde) bei klassischen und MIPS (Millionen Instruktionen pro Sekunde) bei Hochleistungscomputern. Auch für die Effizienz gibt es seit ein paar Jahren MIPS geteilt durch Watt. Nach dem Kürzen der Sekunden erhält man dann einen Wert für die Anzahl an Instruktionen oder Operationen pro Joule. Für Quantencomputing werden ähnliche Metriken diskutiert, der aussichtsreichste Kandidat ist derzeit CLOPS (Circuit Layer Operations Per Second) geteilt durch Watt. Das ergibt die Anzahl an Circuit-Layer-Operationen pro Energieeinheit. Wir würden einen branchenweiten Standard sehr begrüßen, denn das ist für die Umsetzung von Green Quantum Computing eine absolute Notwendigkeit. Und auch in diesem Bereich zeigt sich ein Vorteil von Zero Infrastructure Quantum Computing im Vergleich zu großen Supercomputern. Denn dort fließen dann beispielsweise allein 13 Kilowatt in die Unterdrückung des Geräuschpegels, ohne dass überhaupt eine einzige Rechenoperation durchgeführt wurde. Da machen ein paar Hundert Watt, die ein diamantbasierter Quantenbeschleuniger in einem autonomen Fahrzeug verbraucht, schon einen wesentlichen Unterschied – und das sind nur die Werte von Prototypen, die noch nicht auf spezielle Szenarien zugeschnitten sind. Wenn es erst möglich ist, diese individuellen Quantensysteme industriell in großer Stückzahl zu produzieren, profitieren Unternehmen in zweifacher Hinsicht: Sie bekommen mehr Rechenleistung und haben weniger Stromkosten.

Wie lange wird es noch dauern, bis Quantencomputing tatsächlich im Unternehmensalltag ankommt?

Ich rechne mit einem größeren Durchbruch in circa fünf bis sechs Jahren, höchstwahrscheinlich zuerst im Bereich Machine Learning. Und dann wird es ziemlich schnell gehen. Unternehmen tun also gut daran, sich möglichst bald mit dem enormen Potenzial auseinanderzusetzen, das praktisch einsetzbares Quantencomputing für sie birgt, und sollten erste Business Cases und Einsatzszenarien entwickeln. Denn Quantencomputing wird sehr bald Teil des Alltags sein – und diese hochdisruptive Technologie hat das Potenzial, der Wirtschaft einen riesigen Wachstumsschub und den Anwendern klare Wettbewerbsvorteile zu verschaffen.

Interview geführt durch:

Extern geführte und eignereichte Experten-Interviews rund um unsere Themenschwerpunkte. DW prüft und untersagt werbliche Inhalte, nimmt sonst aber keine redaktionellen Korrekturen oder Eingriffe vor.

Um einen Kommentar zu hinterlassen müssen sie Autor sein, oder mit Ihrem LinkedIn Account eingeloggt sein.

33748

share

Artikel teilen

Top Artikel

Ähnliche Artikel