Von HPC zu QC: mehr Performance und neue Herausforderungen

High Performance Computing (HPC) ist das Maß der Dinge, wenn es um rechenintensive Anwendungen, Modelle oder Simulationen geht. Doch Kosten und Energiebedarf setzen Grenzen. Quantencomputer können bestimmte Aufgabenstellungen exponentiell schneller berechnen und benötigen dafür weniger Ressourcen. Obwohl sie noch in den Kinderschuhen steckt, sehen HPC-Experten in der Quantentechnologie schon mittelfristig eine sinnvolle Ergänzung.

Von

17. Oktober 2022

Die Quantentechnologie ist definitiv ein Thema, in dem die Betreiber und die Verantwortlichen von HPC-Rechenzentren schon heute großes Potenzial sehen. Laut einer Umfrage, die die Analysten von IDC in Zusammenarbeit mit dem Quantencomputer-Hersteller IQM und Atos, einem der führenden europäischen HPC-Technologie-Anbieter, in 110 HPC-Zentren durchgeführt hat, arbeiten bereits 27 Prozent der Befragten an konkreten Quantencomputing-Projekten. Weitere 49 Prozent planen, sich innerhalb der nächsten zwei Jahre intensiv mit dem Thema zu beschäftigen und noch einmal 20 Prozent setzen hier einen Zeithorizont von etwa fünf Jahren an.

Das bedeutet, Quantencomputing ist auf der Tagesordnung, obwohl nach Meinung vieler Experten noch Jahre vergehen dürften, bis die Technologie wirklich marktreif ist. Was also versprechen sich die Verantwortlichen der HPC-Zentren bereits jetzt davon? Und warum ist genau jetzt der richtige Zeitpunkt, sich mit Quantencomputing zu beschäftigen?

High Performance Computing – Parallelisierung und ihre Grenzen

Forschungszentren, Regierungsbehörden und Industrieunternehmen mit rechenintensiven Anwendungen betreiben entweder selbst ein HPC-Rechenzentrum oder beziehen Rechenressourcen aus der Cloud eines IT-Dienstleisters. Um Rechenleistungen von mehreren TeraFlops (entspricht 10 hoch 12 Gleitkommaoperationen pro Sekunde, engl.: Floating Point Operation per Second) oder sogar PetaFlops (entspricht 10 hoch 15 Flops) zu erreichen, werden die IT-Kapazitäten parallelisiert und so die Rechenleistung mehrerer Systeme aggregiert.

Rechenmodelle mit vielen Variablen, aufwändige Simulationen, Machine-Learning-Algorithmen, zeitgemäße Kryptographie und Echtzeitberechnungen: Weil die Technik zur Verfügung steht, wird sie auch genutzt. Längst gehen die Einsatzszenarien über die bekannten rechenintensiven Anwendungen wie Wettervorhersage oder Verkehrsoptimierung hinaus. So kommt HPC beispielsweise in der chemischen und der pharmazeutischen Industrie zum Einsatz, etwa bei der Berechnung von molekularen Zusammensetzungen von Stoffen und der Erforschung von Auswirkungen bestimmter Stoffe auf die Systeme, in denen sie eingesetzt werden. Immer komplexere Abhängigkeiten können berechnet und dargestellt werden – der Beginn des Exascale-Zeitalters. Denn Supercomputer sind nun in der Lage, eine Trillion Gleitkommaberechnungen pro Sekunde (ein ExaFlop) durchzuführen und markieren damit einen neuen Meilenstein hinsichtlich der Rechen-Performance.

Zugleich stößt klassisches HPC an seine Grenzen. Auch wenn sich theoretisch jedes Performance- oder Kapazitäten-Problem durch das Hinzuschalten neuer, paralleler Ressourcen lösen lässt – praktisch ist das nur bedingt realisierbar. Denn HPC-Server sind nicht ganz günstig, verbrauchen Energie sowie Platz und insbesondere die Parallelverarbeitung muss per Software gesteuert werden. Je mehr Recheneinheiten es werden, umso komplizierter wird es. Um diese Grenzen zu überwinden und Aufgaben in Größenordnungen zu lösen, die heute die vorhandenen Rechenkapazitäten übersteigen, rückt Quantencomputing in den Fokus.

Große Versprechen – was Quantencomputing leisten kann

Ein Quantencomputer funktioniert anders als ein traditioneller Computer. Vereinfacht lässt sich das Prinzip eines Quantencomputers so erklären: Während ein Bit nur einen von zwei Zuständen annehmen kann – entweder 0 oder 1 – kann ein Qubit jeden beliebigen Zustand zwischen 0 und 1 annehmen. Zugleich können mehrere Qubits miteinander verschränkt (korreliert) werden. Das macht Quantencomputer bei bestimmten Aufgabenstellungen exponentiell schneller, nämlich dann, wenn es einen entsprechend passenden Quantenalgorithmus gibt. Das bedeutet, dass Berechnungen, die heute in Hardware-intensiven Rechenzentren stattfinden müssen, künftig in kürzerer Zeit durchgeführt werden könnten, wenn die entsprechende Infrastruktur vorhanden ist. Manch komplexes Problem, wie etwa die Analyse der Wechselwirkungen in ganzen Ökosystemen, könnte dank diesem sogenannten Quantenvorteil nun angegangen werden.

Die Anwendungsmöglichkeiten liegen dabei keineswegs nur in abstrakten Forschungsszenarien. Im Gegenteil: Quantencomputing könnte einen wesentlichen Beitrag zur Optimierung im Geschäftsalltag leisten. Wenn es beispielsweise möglich ist, in vielschichtigen Produktionssystemen mit vielen Abhängigkeiten auf Veränderungen in Echtzeit zu reagieren, würde dies enorme Ressourcen sparen. Anders gesagt: Quantencomputing schickt sich an, sowohl bei der Lösung großer gesellschaftlicher Probleme als auch bei wirtschaftlich getriebenen Herausforderungen wertvolle Unterstützung zu leisten. Möglicherweise ist es die einzige Variante – mit Blick auf die Kosten und den Energiebedarf – mit der komplexe Aufgaben von Klimaforschung über Materialforschung und Medikamentenentwicklung bis hin zur Produktionsoptimierung, die in Echtzeit künftig angegangen und gelöst werden können. Die Versprechen und die Erwartungen sind entsprechend groß.

Noch gibt der Stand der Technologie dies allerdings nicht her. Die Qubits erweisen sich als höchst instabil und ihre Interaktionen miteinander sowie mit der Außenwelt erzeugen erhebliches Rauschen. Je mehr Qubits zusammenarbeiten sollen, umso größer wird die Störung. Das geht soweit, dass der Quantenvorteil bald ganz ins Negative verkehrt wird. Dies verhindert bisher die Nutzung des Quantenvorteils in der Praxis. Quantenalgorithmen haben ein ganz anderes Laufzeitverhalten als klassische Algorithmen, was sich folglich auf die Programmierung auswirken muss. Kurz gesagt: Quantencomputing ist keineswegs einfach schnelleres Hochleistungsrechnen – vielmehr muss nun die Art, wie komplexe Aufgaben berechnet werden, neu gedacht werden.

Die Zukunft der HPC-Rechenzentren – Quantencomputing als Ergänzung

Wenn aber doch die Marktreife der Technologie noch gar nicht erreicht ist, warum sollten sich vor allem die Verantwortlichen der HPC-Rechenzentren mit Quantencomputing beschäftigen? Weil jetzt genau der richtige Zeitpunkt ist. Die bereits erwähnte Umfrage von IDC im Auftrag von IQM und Atos lässt den Schluss zu, dass Quantencomputing eine der Technologien sein wird, die HPC-Zentren den nächsten wichtigen Schritt voranbringt. So sehen die Autoren der Studie die HPC-Zentren in einem Innovationsdilemma. Weil die Nachfrage nach Rechenkapazitäten zwar wächst, aber zugleich Energiebedarf und Kosten steigen, erhöht sich der Druck, die Infrastruktur grundlegend zu erneuern. Quantencomputing könnte genau dieser strategische Schritt sein, der HPC mittelfristig ergänzt und leistungsfähiger macht.

48 Prozent der Befragten aus 110 HPC-Zentren gaben an, sich deshalb mit Quantencomputing zu beschäftigen, um sich langfristig einen Wettbewerbsvorteil zu sichern. 41 Prozent reagieren mit ihrem Quantenengagement auf Anfragen ihrer Kunden und jeweils 39 Prozent gaben an, nach den Vorgaben der Investoren zu handeln oder ihr technologisches Wissen erweitern zu wollen. Interessante Ergebnisse und ein Indiz für die langfristig strategischen Bemühungen lieferte auch die Frage nach dem derzeit verwendeten und später geplanten Deployment-Modell für die eigene Quantencomputing-Initiative: Während zum Zeitpunkt der Befragung die überwiegende Mehrheit (70 Prozent) ausschließlich Cloud-based Quantencomputing-Lösungen im Einsatz hat, gaben 68 Prozent an, im Jahr 2026 eher auf On-Premise-Lösungen setzen zu wollen.

Die Studienmacher empfehlen eine dreistufige Strategie: Die Verantwortlichen in den HPC-Rechenzentren sollten in der ersten Phase analysieren, wo sie mit ihrer derzeitigen Infrastruktur bei der Bewältigung komplexer Optimierungsvorhaben oder bei der Grundlagenforschung an Grenzen stoßen und welche Herausforderungen zu groß sind. Hier empfiehlt sich bereits die Zusammenarbeit mit Anbietern und Bereitstellern von Quantencomputern. So entsteht ein erstes Bild der späteren Quantenlösung und der Ziele, die erreicht werden sollen. In der zweiten, mittelfristig angesetzten Phase geht es um das Design und die Integration der Quantenlösung. Da Quantensysteme und Quantenalgorithmen anders arbeiten als traditionelle Systeme, müssen die bisher genutzten Arbeitsansätze überdacht werden. Hier können Quantum Learning Machines (QLM) helfen, mit denen sich Quantenalgorithmen schon heute, unabhängig von der später verwendeten Hardware, entwickeln und emulieren lassen. Erst wenn die Interaktion zwischen den beiden Technologien reibungslos funktioniert, können die konkreten Use Cases implementiert werden (Phase 3).

Fazit: Heut schon Wissen aufbauen und Quantencomputing simulieren

Die Entwicklung ist in vollem Gange: Quantencomputing funktioniert, wenn auch bisher nur in begrenztem Umfang. Forschung und Industrie arbeiten bereits daran, Probleme, wie etwa die effektive Ansteuerung steigender Qubit-Zahlen, zu minimieren. Förderprojekte der Bundesregierung bringen hier zusätzlichen Schwung und machen das Forschungsfeld noch einmal attraktiver. Weil HPC-Rechenzentren vor allem wegen der hohen Kosten und des immensen Energiebedarfs nur begrenzt erweiterbar sind, verspricht Quantencomputing, eine sinnvolle Ergänzung zu werden.

Wie die erwähnten Umfrageergebnisse zeigen, beschäftigt sich die Mehrzahl der HPC-Experten bereits mit dem Thema. Interessante Testangebote unterstützen den Know-how-Aufbau. So stellt Atos beispielsweise eine Quantum Learning Maschine (QLM) als Service zur Verfügung. Die Plattform, bestehend aus Hard- und Software, simuliert eine Quantenumgebung. Nutzer können hier ihre Quantenalgorithmen entwickeln und testen, unabhängig davon, wie die Hardware später konkret aussehen wird. Stehen die Quantencomputer dann zur Verfügung, können die auf der QLM entwickelten Algorithmen portiert werden. Eine praxisnahe Möglichkeit, schon jetzt in das Rennen um die Quantentechnologie einzusteigen.

Dr. Martin Matzke verantwortet bei Atos seit November 2020 die Geschäftseinheit Big Data and Security in Central Europe. In dieser Funktion ist Herr Dr. Matzke auch Mitglied im Management Board Central Europe. Zusätzlich ist er Geschäftsführer der Bull GmbH in Köln sowie Vorstandsvorsitzender der science & computing ag in Tübingen. Zuvor leitete Herr Dr. Matzke seit 2016 die Geschäftseinheit Big Data and Security von Atos Deutschland und war seit 2011 für das Geschäft mit öffentlichen Auftraggebern und dem Gesundheitswesen von Atos Deutschland verantwortlich.

Um einen Kommentar zu hinterlassen müssen sie Autor sein, oder mit Ihrem LinkedIn Account eingeloggt sein.

31951

share

Artikel teilen

Top Artikel

Ähnliche Artikel