Revolutioniert der Quantencomputer bald schon die Lösung rechenintensiver Probleme in Wissenschaft und Industrie? Welchen praktischen Nutzen lässt die neue Technologie erwarten? Das Potenzial ist zweifellos groß, aber es gibt auch noch viele offene Fragen. Eine Bestandsaufnahme.
Vor gut einem Jahr ließ Google die Bombe platzen: Quantenüberlegenheit. Google hatte nach eigener Darstellung den Nachweis geführt, dass ein Quantencomputer eine Aufgabe lösen kann, die ein klassischer Computer nicht oder nicht in annehmbarer Zeit lösen kann. Die konkrete Aufgabe bestand, vereinfacht gesagt, aus der Erzeugung komplexer Zufallszahlen. Googles Sycamore-Prozessor brauchte dafür nur gut drei Minuten. Die besten klassischen Supercomputer bräuchten für dieselbe Berechnung geschätzt 10.000 Jahre.[1]
Die praktische Relevanz solcher und ähnlicher Erfolgsmeldungen ist schwer einzuschätzen. Gleichwohl wächst auch außerhalb der Grundlagenforschung das Interesse am Thema Quanten-Computing. Denn in einigen Branchen nehmen konkrete Anwendungsszenarien Gestalt an, zum Beispiel bei der Entwicklung neuer Medikamente und der Lösung komplexer Optimierungsprobleme in Bereichen wie Finanzdienstleistungen, Telekommunikation und Logistik/Mobilität. Insgesamt wird das Wertpotenzial der Quantentechnologie bis Mitte der 2030er-Jahre auf über 1 Billion US-Dollar geschätzt,[2] und die Investitionen in diesem Bereich wachsen stetig.[3] Aber für welche Unternehmen lohnt es sich, jetzt schon selbst zu investieren? Wer sollte warten, bis bestimmte technische Hürden überwunden sind und zuverlässige Quantencomputer tatsächlich zur Verfügung stehen? Welche Schlüsseltechnologien sollte man im Auge behalten? Zugegeben: Nicht auf alle Fragen gibt es heute schon endgültige Antworten. Umso wichtiger ist es für betroffene Entscheider deshalb, sich einen Überblick über den Stand der Entwicklung und die Quellen der Unsicherheit zu verschaffen. Diesen wollen wir geben und setzen uns daher im folgenden mit dem praktischen Potenzial der Quantentechnologie, den wichtigsten Herausforderungen, den dominanten Technologien und möglichen Brückenlösungen auf dem Weg zum perfekten Quantencomputer auseinander.
Quantencomputer werden Probleme lösen, bei denen klassische Computer versagen
Ein Quantencomputer hat einen fundamentalen Vorteil gegenüber klassischen Rechnern: er kann andere Quantensysteme (z.B. ein Stickstoffmolekül) sehr viel effizienter simulieren als jedes heute verfügbare Computersystem. Für klassische Rechner stellen selbst Moleküle mit vergleichsweise geringer Komplexität eine fast unlösbare Aufgabe dar. Auch in anderen Bereichen sind Quantencomputer klassischen Computern überlegen, zum Beispiel bei bestimmten Verfahren zur Primfaktorzerlegung, die für die sichere Verschlüsselung von Daten eine wichtige Rolle spielen. Ein mit Quantentechnologie verschlüsselter Datensatz wäre mit klassischer Computertechnik nicht zu entschlüsseln, oder zumindest nicht in für menschliche Anwender relevanten Zeiträumen. Und umgekehrt wäre es für einen Quantencomputer ein Leichtes, mit klassischer Technik verschlüsselte Daten zu knacken. Zwar gibt es zum jetzigen Zeitpunkt noch keine in der Praxis einsatzfähigen Quantencomputer, aber vielversprechende technische Plattformen wie supraleitende Schaltkreise und Ionenfallen (siehe unten) lassen erwarten, dass es innerhalb der nächsten zehn Jahre die ersten marktreifen Geräte für ausgewählte kommerzielle Anwendungen geben könnte.
Die meisten industriellen Anwendungen allerdings sind auf einen „fehlertoleranten“ Quantencomputer angewiesen, und die Fehlertoleranz eines Quantencomputers ist konstruktionsbedingt sehr viel geringer als die eines klassischen Computers. Das liegt am sogenannten „Quantenrauschen“, der zufälligen Änderung des Quantenzustands der physikalischen Qubits, aus denen ein Quantencomputer aufgebaut ist. Dieses Rauschen erzeugt auf der Ebene der physikalischen Qubits falsche Rechenergebnisse. Deshalb werden mehrere physikalische Qubits zu logischen Qubits verbunden. Für ein einziges logisches, perfektes, fehlerkorrigiertes Qubit braucht man nach dem heutigen Stand der Forschung 1.000 bis 10.000 physikalische Qubits. Bisherige Geräte kommen allerdings erst auf 50 bis 100 physikalische Qubits. Für dieses Problem gibt es trotz aller Bemühungen der besten Köpfe heute noch keine Lösung. Allerdings steht die Quantenfehlerkorrektur erst ganz am Anfang, und es besteht Aussicht auf Fortschritte bei Hardware und Software (siehe Textbox „Finde den Fehler“). Gleichwohl sind Anwendungen in Bereichen, die fehlerfreie Lösungen erfordern, nach jetzigem Wissensstand erst für die Zeit nach 2030 zu erwarten. Zudem sind viele industrielle Anwendungen auf einen Quanten-RAM (QRAM) angewiesen. Darunter versteht man die Möglichkeit, klassische Daten effizient in einen Quantencomputer zu laden. Einen solchen Quanten-Arbeitsspeicher gibt es bisher aber noch nicht.
Dennoch ist es möglich, die Vorteile von Quanten-Hardware schon jetzt zu nutzen – auch ohne verbesserte Fehlertoleranz und QRAM. Dafür braucht es zweierlei: hochoptimierte Quanten-Hardware und Hybridlösungen, also das Zusammenspiel klassischer und quantenbasierter Computer. Dabei bearbeitet ein herkömmlicher Computer den übergeordneten Algorithmus, delegiert aber bestimmte kritische Schritte, die mit einem herkömmlichen System nicht effizient durchzuführen sind, an eine Quantenmaschine. In Zusammenarbeit mit Anbietern von Quanten-Hardware nutzen Start-ups wie ProteinQure z.B. hybride Algorithmen für die Simulation der Proteinfaltung, die in der pharmazeutischen Industrie eine zentrale Rolle spielt. Andere Anbieter, z.B. Rahko, berechnen mithilfe des VQE-Algorithmus und Optimierungsansätzen für eine erweiterte Quantenberechnung angeregte Molekülzustände.
Schlüsseltechnologien auf dem Weg zum perfekten Qubit
Seit Mitte der 1990er-Jahre hat es bei der Entwicklung von Quanten-Hardware große Fortschritte gegeben. Technologieriesen wie IBM, Google und Intel arbeiten dabei eng mit Innovationsführern wie Rigetti Computing und D-Wave Systems sowie mit etablierten Start-ups wie Quantum Circuits, Silicon Quantum Computing, IonQ, Honeywell, Alpine Quantum Technologies, Xanadu und Qilimanjaro zusammen. Die wichtigsten technischen Plattformen für gatterbasierte[4] Quantenberechnung sind dabei supraleitende Schaltkreise und Ionenfallen. Aber auch in anderen Bereichen ist die Dynamik der Entwicklung hoch, z.B. bei Plattformen auf Basis von Elektronenspins in Halbleitern, Lichtwellenleitern („Photonik“) und topologischen Systemen.
Supraleitende Schaltkreise
Supraleitende Schaltkreise stehen im Zentrum der heutigen Bemühungen von Technologieriesen wie Google und etablierten Start-ups wie D-Wave und Rigetti Computing. Ein erster Nachweis erfolgreicher Quantenanwendungen mit supraleitenden Schaltkreisen gelang 1999. Seitdem wächst die Leistungsfähigkeit von Qubits, die auf Supraleitung beruhen, hinsichtlich aller wichtigen Kriterien stetig: Kontrollierbarkeit, Flexibilität, geringe Rauschanfälligkeit, Skalierbarkeit, Zuverlässigkeit der Datenübertragungsprotokolle und universelle Gatter, d.h. die Möglichkeit, jede komplexe Berechnung in Grundoperationen zu zerlegen. Derzeit erreichen Prototypen auf Basis supraleitender Schaltkreise Gattergeschwindigkeiten im GHz-Bereich, was in etwa der Geschwindigkeit herkömmlicher Computer entspricht. Die führenden Forscher gehen davon aus, dass die Anzahl physikalischer Qubits, die man für fehlerkorrigierte logische Qubits benötigt, mit Supraleitern erreichbar ist. Alle relevanten Anbieter halten die Entwicklung von Systemen mit bis zu 100.000 physikalischen Qubits für machbar. Dieser Wert liegt nochmals eine Größenordnung über der Anzahl, die nach heutigem Wissensstand für fehlerkorrigierte logische Qubits mindestens erforderlich ist. Allerdings gibt es auf dem Weg dahin noch eine Reihe teils bisher ungelöster Probleme:
- Eingeschränkte Konnektivität. Die Konnektivität ist wichtig für die Bearbeitung von Algorithmen und die Fehlerkorrektur. Supraleitende Schaltkreise lassen sich schwerer miteinander verbinden als Ionen, da die Konnektivität in der Regel über den nächsten Nachbar erfolgt. Komplexere Verbindungen erfordern zusätzliche Schaltungen.
- Kohärenz bzw. Qubit-Qualität. Damit man mit Qubits sinnvoll rechnen kann, müssen deren Überlagerungszustände eine lange Kohärenzzeit aufweisen, das heißt, von ausreichender Dauer sein. Die Kohärenzzeit von Qubits auf Basis supraleitender Schaltkreise hat sich zuletzt um zwei Größenordnungen verbessert.[5] Die systemische Unschärfe hat damit abgenommen. Dennoch bleibt das Skalieren eines solchen Systems schwierig, da es eine Reihe von Störquellen für die Informationserhaltung im Quantencomputer gibt, so dass der Größe und damit der Leistungsfähigkeit von Quantencomputer auf der Basis von supraleitender Schaltkreise Grenzen gesetzt sind.
- Schaltungs- und Kalibrierungsaufwand in Geräten mit vielen Qubits. Jedes Qubit muss über Leitungen in demselben Mischungskryostat (d.h. demselben Kühlgerät) kontrolliert werden, in dem sich auch der Chip befindet. Daraus ergeben sich beträchtliche konstruktive Herausforderungen bei der Konzeption, dem Bau und dem Betrieb von großen Quantencomputern.
- Kühlung. Ein Quanten-Chip auf Basis supraleitender Schaltkreise wie Googles Sycamore-Chip arbeitet bei einer Temperatur von 15 mK in speziellen Mischungskryostaten. Diese Kühlsysteme müssen so dimensioniert sein, dass sie auch große Geräte aufnehmen können. Draus ergeben sich enorme Anforderungen an die Kühltechnik. Führende Experten sprechen von „fußballfeldgroßen“ Kühlaggregaten.[6]
Ionenfallen
Ionenfallen sind nach den supraleitenden Schaltkreisen als Basis von Quantencomputern technisch am weitesten entwickelt. Der Microsoft-Partner Honeywell und einige Start-ups, z.B. IonQ und Alpine Quantum Technologies, setzen auf Ionenfallen. Ein Qubit ist bei dieser Technologie definiert als interner Elektronenzustand des Ions. Dabei handelt es sich meist um hyperfeine, d.h. quantenmechanische Niveaus magnetischer Effekte auf nuklearer Ebene. In sogenannten Paul- oder Penning-Fallen werden Ionen durch oszillierende elektromagnetische Felder eingefangen. Die eigentlichen Qubits, also die Zustände der Ionen, werden dann mithilfe von Lasern kontrolliert. Weil Ionen nicht künstlich erzeugt werden, sondern von der Natur vorgegeben sind, sind in einer Ionenfalle alle Qubits grundsätzlich identisch, so dass – anders als bei Quantenchips auf Basis von Supraleitern – keine Kalibrierung erforderlich ist. Ionen weisen zudem eine große Konnektivität auf. In der Regel sind in einer Ionenfalle alle Ionen mit allen anderen verbunden. Das ist ein großer Vorteil für die Bearbeitung von Algorithmen und die Fehlerkorrektur. Das erste logische Qubit auf Basis einer Ionenfalle wurde kürzlich vom Start-up IonQ vorgestellt. Ionen ermöglichen längere Kohärenzzeiten und höhere Gattergenauigkeiten als supraleitende Schaltkreise, sind aber langsamer. Die Leistung derzeitiger Geräte liegt im MHz-Bereich und damit noch unter der Taktrate herkömmlicher Computer.
Zu den wichtigsten Herausforderungen bei der Weiterentwicklung von Ionenfallen zählen folgende Faktoren:
- Langsame Gatter. Die Faktorzerlegung einer 2048 Bit großen Zahl mithilfe des Shor-Algorithmus würde mit einer Ionenfalle etwa 10 bis 100 Tage dauern, rund tausend Mal länger als mit supraleitenden Schaltkreisen. Zwar wird mit deutlich schnelleren Gatterzeiten experimentiert, doch darunter leidet die Gattergenauigkeit. Diese beträgt zurzeit nur rund 75 Prozent anstatt der bei Standardgattern üblichen 99,9 Prozent.
- Skalierbarkeit. Bei den ersten Ionenfallen waren alle Ionen auf einer Linie angeordnet. Ab 50 bis 100 Qubits ergeben sich aus einer solchen linearen Anordnung allerdings Skalierbarkeitsprobleme bei der für die Kontrolle benötigten Optik und Elektronik. Neuere Ansätze richten sich z.B. auf eine Skalierung mithilfe zweidimensionaler Arrays mit Spuren und Kreuzungen. Diese Konstruktionsweise soll es ermöglichen, die Ionen vom Speicher in die Kalkulationseinheit und zurück zu übertragen. Honeywell hat sich zum Ziel gesetzt, mit Hilfe photonischer und optischer Integration in einem Quanten-CCD (Charge-Coupled Device, ladungsgekoppeltes Bauelement) größere Ionenfallen zu konstruieren. Die wichtigsten Bausteine dafür hat Honeywell bereits der Öffentlichkeit präsentiert.
Sonstige Technologien
Supraleitende Schaltkreise und Ionenfallen sind zurzeit die dominierenden technologischen Plattformen für Quantencomputer. Wegen der genannten Herausforderung verfolgen einzelne Spieler in Wirtschaft und Wissenschaft allerdings auch andere Ansätze. Intel arbeitet z.B. mit der TU Delft an Qubits auf Basis des Elektronenspins lokalisierter Elektronen in Halbleitern wie Silizium oder Germanium. Solche Qubits funktionieren bei höheren Temperaturen (etwa 1 Kelvin) als Supraleiter und sind leichter skalierbar; ein Test-Chip mit 26 Test-Qubits wurde schon 2018 vorgestellt. Photonische Plattformen können sogar bei Raumtemperatur betrieben werden. Deshalb plant z.B. das Start-up Xanadu einen Quantencomputer auf Basis von integrierter Photonik und Qumodes (auch bekannt als kontinuierliches variables Quantencomputing). Microsoft arbeitet langfristig an topologischen Qubits auf Basis von Majorana-Fermionen.[7] Solche Qubits dürften nahezu rauschfrei sein und den Aufwand für die Fehlerkorrektur minimieren. Es gibt in diesem Bereich bisher allerdings keine Hardware, weshalb Investitionen in diese Technologie trotz des großen theoretischen Potenzials als riskant gelten. Darüber hinaus gibt es eine Reihe vielfältiger nicht fehlerkorriegierter Technologien, teils auch in Form besonderer Spielarten der bereits vorgestellten Plattformen. Eine der derzeit am meisten diskutierten dieser weiteren Technologien ist das Quanten-Annealing. So scheint die Quanten-Annealing-Technologie von D-Wave z.B. gut für Optimierungsprobleme geeignet zu sein, die Skalierung zu einem unviversalen Einsatz der Annealing Technologie ist aber noch ungewiss. Darüber hinaus arbeitet das Start-up Quantum Brilliance an einem Quantencomputer, dessen Qubits auf Basis von Diamanten konstruiert sind. Dieser, so Quantum Brilliance, soll auch ohne eine ultrakalte Umgebung voll funktionsfähig sein.
Textbox: Finde den Fehler
Herkömmliche Computer machen kaum Fehler. Dafür sorgen verschiedene weiche und harte Fehlerkorrekturen, Kodierungen, Kontrollpunkte und Redundanzen. Klassische Computer sind ohnehin generell weniger anfällig für Fehler als Quantencomputer, deren sogenanntes „Quantenrauschen“ sich aus ihrer Konstruktionsweise ergibt. Der Quantenzustand der Qubits, aus denen ein Quantencomputer besteht, ist zufälligen Änderungen („Flips“) unterworfen. Dieses Phänomen, das sogenannte „Quantenrauschen“, führt zu falschen Rechenergebnissen. Deshalb ist eine wirksame Quantenfehlerkorrektur (Quantum Error Correction, QEC) für die meisten Anwendungen unerlässlich. Zur Lösung dieses Problems setzen Forscher und Entwickler auf Redundanz. Sie verbinden mehrere physikalische Qubits (d.h. in der Hardware existierende Qubits) zu einem logischen Qubit. Ein solches logisches Qubit stellt die Fehlerkorrektureinheit eines Quantencomputers dar. Je mehr Fehler bei einer bestimmten Anwendung möglich sind, desto mehr physikalische Qubits werden für die Korrektur falscher Rechenergebnisse benötig. Die Früchte der bisherigen Bemühungen sind eher entmutigend: Für ein einziges fehlerfreies logisches Qubit benötigt man 1.000 bis 1o.000 physikalische Qubits. Aber es gibt auch Anlass zur Hoffnung. Die Quantenfehlerkorrektur schien lange Zeit gänzlich unmöglich und steht erst am Anfang ihrer Entwicklung. Wenn die Qualität physikalischer Qubits zunimmt, werden deren Fehlerraten sinken. Und dann braucht man auch immer weniger physikalische Qubits für ein fehlerfreies logisches Qubit. Die Leistungsfähigkeit supraleitender Schaltkreise zum Beispiel hat sich in weniger als 15 Jahren um zwei bis drei Größenordnungen verbessert, und neue Verfahren zur Fehlerkorrektur werden den Soft- und Hardware-Aufwand weiter verringern. |
Ein Ökosystem entsteht
Dank der enormen Fortschritte bei der Hardware investieren immer mehr etablierte Wirtschaftsunternehmen in Quantentechnologie, beispielsweise Boehringer Ingelheim , die jüngst eine Forschungspartnerschaft mit Google ankündigten[8], oder Daimler, die im Bereich Materialforschung Fortschritte verkündeten[9]. Auch die Zahl der Start-ups in diesem Bereich wächst ständig. IBM präsentierte seine Quantum Experience bereits 2016 der Öffentlichkeit. Forscher und Wissenschaftler waren fasziniert: Zum ersten Mal konnten sie Quantenalgorithmen auf einem physischen, wenn auch technologisch limitierten Quantencomputer durchführen. Inzwischen hat die Cloud sich als Zugang zu Quantencomputern und als die Grundlage der meisten Geschäftsmodelle in diesem Bereich etabliert. Zu den wichtigsten Spielern zählen Hardware-Anbieter wie Qubits, Software-Entwickler und Anbieter von Cloud-Services. Parallel dazu haben sich Start-ups wie Zapata Computing, 1Qbit oder Cambridge Quantum Computing der Serviceseite der Quantentechnologie angenommen. Sie haben z.B. konkrete Anwendungsfälle in optimierte Software für Geräte mit unvollständiger Fehlerkorrektur übertragen. Stärker spezialisierte Start-ups wie ProteinQure oder Rahko konzentrieren sich auf algorithmische Lösungen für die Pharma- und Chemieindustrie.
Alle Spieler haben sich Partner entlang der Wertschöpfungskette gesucht. Kleinere Software-Unternehmen haben sich mit Hardware-Herstellern zusammengetan. Microsoft bietet auf seiner Azure-Quantum-Plattform Partnerschaften mit den Hardware-Anbietern Honeywell, IonQ und Quantum Circuits an. Die Cloud wird voraussichtlich auch langfristig die dominante Plattform für Quantentechnologien bleiben.
Ausblick auf erste industrielle Anwendungen
Viele Pharmaunternehmen setzen schon heute auf die computergestützte Wirkstoffentdeckung, wenn auch noch mit Hilfe herkömmlicher Hochleistungsrechner.[10] Solche Unternehmen werden zu den Ersten gehören, die von den Möglichkeiten der neuen Quantencomputer profitieren. Eine bereits etablierte Anwendung von Quantencomputern ist die Simulation effizienterer Katalysatoren für die Ammoniaksynthese im Haber-Bosch-Verfahren, die heute ca. 1 bis 2 Prozent des weltweiten Energieverbrauchs ausmacht. Bessere Katalysatoren könnten den Energieverbrauch senken und damit auch zur Verlangsamung der globalen Erwärmung beitragen. Selbst Quantencomputer ohne vollständige Fehlerkorrektur könnten für diese Anwendung schon jetzt besser geeignet sein als Simulationen auf klassischen Computern.[11] Auch in der Finanzdienstleistungsbranche könnten Quantencomputer schon bald eine Rolle spielen. Besonders Akteure, die auf Portfoliooptimierung und Arbitrage spezialisiert sind, könnten davon profitieren. In allen Bereichen wird es zudem Unternehmen geben, die Nischenanwendungen auf Basis von Quantentechnologie entwickeln. Dies könnten zum Beispiel Fintechs sein, die sich auf dynamisches Pricing, Produktempfehlungen oder gezielte Kundenansprache spezialisieren. Auch Anwendungen im Logistikbereich sind vorstellbar, zum Beispiel bei der Optimierung von Lieferketten.
Bis Quanten-Computer die Wirtschaftswelt wesentlich verändern, werden aller Voraussicht nach noch 10 bis 15 Jahre vergehen. Die ersten praktischen Anwendungen sind jedoch schon heute absehbar. Entscheidungsträger in Unternehmen, für die rechenintensive Anwendungen eine große Rolle spielen, sollten die technische Entwicklung deshalb genau verfolgen und frühzeitig eine geeignete Strategie entwickeln, nicht zuletzt mit Blick auf den bereits heute heiß umkämpften Arbeitsmarkt. Denn schon jetzt übersteigt die Nachfrage nach Quantenspezialisten das Angebot, und vielen Vorhersagen zufolge dürfte diese Lücke sich in den nächsten Jahren noch vergrößern.[12]
Quellen und Referenzen:
[1] https://www.nature.com/articles/s41586-019-1666-5
[2] https://www.mckinsey.com/business-functions/mckinsey-digital/our-insights/a-game-plan-for-quantum-computing
[3] www.mckinsey.de/news/presse/quantum-computing-monitor-marktanalyse-investitionen
[4] Gatterbasiert bedeutet, dass der Quantencomputer universell einsetzbar ist und jeden komplexen Quantenalgorithmus ausführen kann, indem er ihn in Einzelschritte zerlegt. Quantenalgorithmen sind Anweisungen für den Quantencomputer, etwa die Primfaktorzerlegung nach Shor oder diskrete Logarithmen, wie sie der RSA/ECC-Verschlüsselung oder dem HHL-Algorithmus für die Matrixinversion zu Grunde liegen. In beiden Fällen wird der Rechenprozess exponentiell beschleunigt.
[5] Entscheidend waren dafür sogenannten Transmon-Qubits; siehe https://onlinelibrary.wiley.com/doi/full/10.1002/piuz.202001587
[6] https://www.uni-muenchen.de/forschung/news/2020/weinfurter.html
[7] Das Majorana-Fermion ist im Unterschied zum Dirac-Fermion sein eigenes Antiteilchen. Siehe Majorana, Ettore; Maiani, Luciano (2006). „A symmetric theory of electrons and positrons“. In Bassani, Giuseppe Franco (ed.). Ettore Majorana Scientific Papers. pp. 201–33. doi:10.1007/978-3-540-48095-2_10..
[8] https://www.boehringer-ingelheim.com/press-release/partnering-google-quantum-computing
[9] https://www.zdnet.de/88391387/ibm-und-daimler-erzielen-durchbruch-mit-quantumcomputern/
[10] Siehe „Pharma‘s drug discovery digital Rx: Quantum computing in drug development“ (Ivan Ostojic, Anna Heid, https://www.mckinsey.com/industries/pharmaceuticals-and-medical-products/our-insights/recalculating-the-future-of-drug-development-with-quantum-computing)
[11] Siehe „The next big thing? Quantum computing’s potential impact on chemicals” (Florian Budde, Daniel Volz, https://www.mckinsey.com/industries/chemicals/our-insights/the-next-big-thing-quantum-computings-potential-impact-on-chemicals)
[12] https://news.mit.edu/2019/mit-william-oliver-qanda-talent-shortage-quantum-computing-0123
Um einen Kommentar zu hinterlassen müssen sie Autor sein, oder mit Ihrem LinkedIn Account eingeloggt sein.