Wissenschaft und Wirtschaft auf dem Weg in die digitale Zukunft

ist bei BASF Vice President Knowledge Innovation & Solutions im Bereich Global Digital Services. Dort beschäftigt er sich aktuell mit Natural Language Processing, Digitalization of Knowledge und Innovationen. Er hat sich viele Jahre mit Multiscale Modeling auf High Performance Computern beschäftigt und dort auch mit dem Quantum Computing begonnen. Seine Leidenschaft ist es, Innovationen mit Hilfe neuer Techniken zu ermöglichen. Er studierte Chemie und Physik an den Universitäten Marburg und Karlsruhe und promovierte in Karlsruhe in Quantenchemie. Von dort ging er direkt als Quantenchemiker in die Polymerforschung der BASF. Er wurde 2020 in den Expertenrat zur Erstellung einer nationalen Roadmap für Quantencomputing berufen.
Interview von DIGITALE WELT Magazin
14. März 2021
Interviewpartner

Dr. Horst Weiß

ist bei BASF Vice President Knowledge Innovation & Solutions im Bereich Global Digital Services. Dort beschäftigt er sich aktuell mit Natural Language Processing, Digitalization of Knowledge und Innovationen. Er hat sich viele Jahre mit Multiscale Modeling auf High Performance Computern beschäftigt und dort auch mit dem Quantum Computing begonnen. Seine Leidenschaft ist es, Innovationen mit Hilfe neuer Techniken zu ermöglichen. Er studierte Chemie und Physik an den Universitäten Marburg und Karlsruhe und promovierte in Karlsruhe in Quantenchemie. Von dort ging er direkt als Quantenchemiker in die Polymerforschung der BASF. Er wurde 2020 in den Expertenrat zur Erstellung einer nationalen Roadmap für Quantencomputing berufen. Dieser wurde auf Beschluss von Frau Bundeskanzlerin Dr. Angela Merkel eingerichtet und von den Staatssekretären des Bundesministeriums der Finanzen, des Bundesministeriums für Bildung und Forschung sowie des Bundesministeriums für Wirtschaft und Energie unterstützt.
Interviewpartner

BASF ist, nach Umsatz gesehen, das weltweit größte Chemieunternehmen. Dr. Horst Weiß arbeitet bei BASF in der Einheit Digitalisierung von Forschung und Entwicklung (F&E) und verantwortet dort als Vice President das Thema „Knowledge Innovation and Solutions“. BASF betreibt seit 2017 einen eigenen TOP500-Supercomputer, der im Rahmen einer Mitarbeiterbefragung auf den Namen „Quriosity“ getauft wurde.

„Quriosity“ ist ein treffend gewählter Neologismus, der an das lat. Wort „Curiositas“, dt. „Neugierde“, erin- nert. Was interessiert Sie an der Welt der Quanten?

BASF sieht High Performance Computing (HPC) als ein Kernelement der Digitalisierung. Uns interessieren alle ge- genwärtigen Trends auf dem Gebiet HPC. Besonders wichtig erscheint uns beim Thema „Next Generation Computing“ mittelfristig Quantencomputing. Der Grund ist das überle- gene Skalierungsverhalten bestimmter Algorithmen, sodass sehr viel komplexere Fragestellungen beantwortet werden können, als dies mit Supercomputern möglich ist.

Was genau machen Sie mit Quantencomputern? Was für Erfahrungen haben Sie und seit wann?

Ich habe sehr lange auf dem Gebiet der wissenschaftlichen Modellierung gearbeitet und mitgeholfen, dieses in der Ma- terialforschung von BASF zu etablieren. Ein wichtiges Arbeitsgebiet dort war und ist die Quantenchemie. In dieser Tätigkeit kam ich schon 1998 mit dem Thema Quantencom- puting in Berührung. Seitdem verfolge ich dieses Thema, da spätestens 2005 klar wurde, dass sich mit Quantencomputern die Quantenchemie tatsächlich lösen lassen wird. 2005 erschien in Science ein Algorithmus zu Full CI auf Quantencomputern. Mit Full CI lässt sich die Schrödinger-Gleichung und damit das Verhalten von Molekülen quantitativ beschreiben. Das Versprechen des Quantencomputers und seiner Algorithmen ist aber die Lösung nicht mehr mit exponentiell anwachsender Rechenzeit sondern polynomial. Quantencomputer bieten also perspektivisch die Möglichkeit, die Chemie „zu rechnen“, und sind damit natürlich äußerst wichtig für chemische Forschung. Zunächst schien es uns aber noch sehr lange zu dauern, bis entsprechende Quantencomputer tatsächlich industriell verfügbar sein würden. Wie ein Paukenschlag erschienen mir dann die Arbeiten von Google und IBM vor etwa fünf Jahren, die erste echte Rechnungen auf gate-basierten Quantencomputern publizierten. Da wurde klar, dass Quantencomputing in greifbarere Nähe gerückt ist als zuvor gedacht.

Seit 2017 arbeiten wir mit Michael Marthaler und seiner Fir- ma HQS Quantum Simulations GmbH (HQS) in verschiedenen Projekten zusammen und haben erste Ergebnisse 2019 publiziert.

Sie verweisen auf die Verbindung des Quanten- computers zur Chemie. In Ihren jüngsten Publikationen sprechen Sie von „Quantum Chemistry“. Was verbirgt sich dahinter?

Quantenchemie war unsere erste Anwendung auf Quantencomputern. Uns interessierte vor allem herauszufinden, wie weit aktuelle Quantencomputer noch von industriellen Anwendungen entfernt sind. Eine Standardaufgabe von Quantenchemie in der chemischen Industrie ist die quanten- mechanische Berechnung des Energieverlaufs chemischer Reaktionen. Das erlaubt tatsächlich die Vorhersage des wahrscheinlichen Verlaufs (also wie läuft die Reaktion ab, welche Produkte, Nebenprodukte etc. entstehen, wie kann ich die Reaktion mithilfe von Katalysatoren beschleunigen etc.) von chemischen Reaktionen, aber auch die quantenmechanische Vorhersage der Kinetik, also der Geschwindigkeit einer chemischen Umsetzung. Die Anforderungen an die Genauigkeit der quantenchemischen Rechnungen sind sehr hoch. Man muss so genau wie möglich rechnen, damit die Ergebnisse quan- titativ sind und Vorhersagen möglich werden. Hier stößt die Dichtefunktionalmethode an ihre Grenzen, und zur Absicherung werden hochgenaue Methoden wie die sog. Coupled Cluster Methoden verwendet. Die skalieren aber auf konventionellen Rechnern ungünstig, sodass Rechnungen mit 20, 30 Schweratomen in der Praxis schon am Limit sind. Das oben genannte Full CI geht hier aus Rechenzeitgründen gar nicht mehr. Zusammen mit der Firma HQS haben wir un- tersucht, wie weit wir für eine einfache Modellreaktion auf gegenwärtigen Quantencomputern kommen würden. Wir haben uns dazu die Dissoziationsreaktion von Wasser angeschaut und dazu ein Quantencomputing Coupled Cluster Modell auf Quriosity implementiert und die Dissoziation dort simuliert. Verglichen haben wir die erzielte Genauigkeit mit konventionell implementierten Coupled Cluster Model- len. Dieser Vergleich erlaubte uns eine sehr genaue Analyse des Fehlerverhaltens und des Ressourcenbedarfs. Für uns war es aber wichtig zu sehen, wie weit bei den kritischen 2-gate Operationen existierende Hardware von den Anforderungen abweicht. Es waren 2019 noch mehrere Zehnerpotenzen! Unbestritten ist aber, und das ist der Grund, warum wir dabeibleiben, das bessere Skalierungsverhalten des Quantencomputers. Wenn  die Hardware es  schafft, dann können wir dort zukünftig Systeme rechnen, die auf klassischen Su- percomputern nicht zu rechnen sind. [weitere Details sind in der Arbeit zu finden: M. Kühn, S. Zanker, P. Deglmann, M. Marthaler, H. Weiß, JCTC 2019, 15, 4764.]

Was hat das viel zitierte Koffeinmolekül mit einem Quantencomputer zu tun?

Wenn die Hardware es packt, dann rechnen wir dort Systeme, die auf klassischen Supercomputern nicht zu rechnen sind. Das Koffein ist so ein mittelgroßes Molekül, des- sen Wechselwirkungen mit anderen Molekülen heikel zu beschreiben sind. Gerne wird auch auf die Fixierung von Stickstoff hingewiesen etc. Katalyse ist natürlich ein weiteres spannendes Gebiet, da die dort oft verwendeten Übergangsmetalle quantenchemisch schwierig sind. Es gibt viele Felder, die hier profitieren werden.

In diesem Zusammenhang stellt sich die Frage: In welchem Zweig wird die Weiterentwicklung des Quan- tencomputers größere Impacts zu verbuchen haben: in der Industrie oder in der Wissenschaft?

Das kann ich nun wirklich nicht sagen. Hatte der Laser größeren Impact in Wirtschaft oder Wissenschaft? Und wo verläuft hier die Grenze? Wirtschaft und Wissenschaft haben so viele Synergien. Diese wünsche ich mir gerade bei den Quantentechnologien sehr. Letztlich brauchen wir so bald wie möglich wertschaffende Anwendungen und Produkte. Ganz sicher ist der Quantencomputer kein Objekt der Grundlagenforschung, auch wenn noch sehr viel Grundlagenarbeit nötig ist. Er muss so bald wie möglich Nutzen in Anwendungen zeigen. Gleichzeitig werden wir aber im Bereich der Grund- lagenforschung zu Quantentechnologien noch unerwartete Entdeckungen machen, die ihrerseits Nutzen stiften werden und möglicherweise komplett neue und bisher nicht bedachte Anwendungen ermöglichen werden – auch hier wieder Stich- wort Laser und Protonik. Wir lernen hier gerade Nutzen zu ziehen aus verschränkten quantenmechanischen Zuständen. Wohin das noch führt in Sensorik, Metrologie, Information und Computing – ich bin gespannt!

In Voraussicht auf die Zukunft wird häufig von „In- dustrie 4.0“ gesprochen. Der Begriff geht zurück auf eine Forschungsunion der deutschen Bundesregierung und meint die umfassende Digitalisierung der industriellen Produktion. Welche Rolle dafür muss der Quantencomputer einnehmen?

Als wir 2017 den Supercomputer Quriosity in Betrieb nahmen, hatten wir zunächst naturwissenschaftliche Anwen- dungen in Modellierung und Simulation im Sinn. Die Ver- fügbarkeit von immenser Rechenpower hat aber schließlich die Konsequenz, dass man Komplexität besser beherrschen kann. Auf einmal können Sie über Nacht komplexe Risi- ko-Simulation durchführen oder Modelle rechnen, die vorher nicht machbar waren. Breites Screening wird auf einmal wirtschaftlich etc. Den Quantencomputer sehe ich hier als Coprozessor, der bestimmte Teile in der Verarbeitungskette (z.B. Klassifizierung, Optimierung, Simulation) mit überlegener Leistungsfähigkeit erledigen kann. Für das Handling von sehr großen Datenmengen sehe ich ihn nicht. Spannend wird es sein, wie das Zusammenspiel zwischen klassischen Supercomputern und Quantencomputern funktioniert. Ich sehe hier große Cloud-Instanzen, die entsprechend performant an die Daten (Rohdaten, Masterdaten etc.) aus der Produktion angebunden sein müssen. Dass einzelne Unternehmen in absehbarer Zeit Quantencomputer besitzen, glaube ich nicht.

Muss es dafür auch eine „Science 4.0“ geben – also eine analoge Vertechnisierung der Wissenschaft, die der Industrie ihre Gerätschaften zur Verfügung stellt?

Das ist in der Tat eine wichtige Frage: Wie bekommen wir möglichst schnell und nachhaltig einen deutschen Quantencomputer auf die Straße? Und wie schaffen wir es, einen Zugang zum Quantencomputer mit minimalen Hürden für gewinnbringende Anwendungen für alle zu schaffen? Dazu braucht es ein ganzheitliches Ökosystems, das geeignete Strukturen (Cluster oder Hubs für die vertikale Integration des gesamten Technologiestacks eines Quantencomputers, Kompetenznetzwerke für horizontale Integration für Software und Anwendungen, Infrastruktur und Kompetenzaufbau) zur Verfügung stellt. Der Kooperation von Industrie und Wissenschaft kommt dabei die entscheidende Rolle zu. Denn es nützt nichts, wenn der Austausch nicht reibungslos funktioniert. Die anwendende Industrie braucht neben geeigneter Hardware und Software auch kompetent ausgebildete Fachleute, und die Wissenschaft braucht den Zug aus der Industrie. Parallel dazu gibt es natürlich auch die produzierende Industrie, die sich aktiv an der Wertschöpfungskette der entstehenden Quantentechnologie-Industrie beteiligt. Hier wird die Rolle dieser Industrie, etwa Bosch bei der Quantensensorik, weit über die Abnahme von in der Wissenschaft entwickelten Technologien hinausgehen. Hier erwarte ich einen tech-push aus der sich hier entwi- ckelnden Industrie. Man kann nicht deutlich genug auf die wichtige Rolle von Start-ups hinweisen, die sich bei entspre- chender Förderung entlang der Wertschöpfungsketten entwi- ckeln werden und in der Lage sind, den Transfer von neuer Hochtechnologie aus der Forschung in die Anwendung zu schaffen!

Was denken Sie, wie sich Quantencomputing in den nächsten Jahren entwickeln wird? Wann wird er ver- mehrt einen wirtschaftlichen Nutzen geben – und für wen gibt es diesen Nutzen überhaupt?

Zurzeit sind erste Quantencomputer in der Lage, einfache Probleme zu lösen. Allerdings sind reale Probleme noch nicht lösbar, weil die Fehlerwahrscheinlichkeiten immer noch zu groß sind. Den Quantenvorteil, also die Lösung eines anwendungsrelevanten Problems mit einer Effizienz, die ein klassischer Rechner nie erreichen kann, werden wir erst erreichen können, wenn diese Fehler behoben sind. Das wird vermutlich noch einige Jahre dauern. Voll fehlerkorrigierte Quantencomputer sind ein Ziel von eher 10 bis 15 Jahren. Allerdings sind die Anstrengungen weltweit so groß, dass niemand hier Gewissheit hat. In der Zwischenzeit aber wer- den weltweit Algorithmen entwickelt und stehen teilweise auf spezieller Hardware, wie etwa bei Fujitsu, jetzt schon zur Verfügung. Es lohnt sich also durchaus jetzt schon, sich in das Thema Quantencomputing einzuarbeiten.

Anbieter von Quantencomputing-Systemen sind heute nahezu ausschließlich im nordamerikanischen Raum angesiedelt, dicht gefolgt von chinesischen staatlichen Initiativen. Weitere starke Gruppen gibt es u. a. in Japan und Australien. Daher müssen wir in Deutschland und Europa kurzfristig (in den nächsten fünf Jahren) eine geeignete Struktur aufbau- en, um ein komplettes Quantencomputer-System mit Quantenanwendungen zu entwickeln, zu bauen und zu betreiben und damit den souveränen Zugang zu dieser potenziell disruptiven Technologie sicherzustellen.

Was ist Ihre Empfehlung für die Leser*innen der DIGITALEN WELT? Wann sollte eine – sagen wir mal mittelständige – Firma in Deutschland anfangen, sich mit Quantencomputing zu beschäftigen? Und wie geht sie dieses Thema im besten Fall an?

Quantencomputing ist vollkommen anders als klassisches Supercomputing. Hardware und Software erfordern zurzeit spezielle Kompetenzen und erfordern einen langen Atem. Sich diese zu erarbeiten, könnte speziell für klei- nere und mittelständige Firmen einen zu großen Aufwand bedeuten. Aus diesem Grund ist es so wichtig, dass der Bund für Quantencomputing-Anwenderkompetenznetzwerke mit entsprechendem Cloudzugang sorgt. Diese sollen zeitnah und mit niedriger Hürde (Invest, Zeit, IP) die bereits bestehenden Möglichkeiten des Quantencomputings eruieren und diese Technologien mit hoher Geschwindigkeit für Anwendungen in der Industrie wertschöpfend nutzbar machen. Das Netzwerk sollte folgende Aufgaben wahrnehmen:

    • Identifizierung von Use-Cases der Anwenderindustrie und Abschätzung der Tragweite für die jeweilige Branche bzw. den jeweiligen Markt.
    • Bereitstellung eines einfachen, niederschwelligen Zugangs zu Quantencomputern und quantum-inspired Hardware, zunächst auf Basis existierender Quantencomputing-Systeme.
    • Auf bau einer unabhängigen Bewertungskompetenz für die Anwenderindustrie, die Fragen nach Leistungsfähigkeit, Mehrwert, Entwicklungsaufwand, Trends etc. beantwortet.
    • Bereitstellung von Methodenwissen und Erstellung von Entwicklungswerkzeugen für Quantencomputing-Anwen- dungen und Aufbau einer entsprechenden Anwenderplatt- form inklusive der Cloudumgebung für den Zugriff auf die Quantencomputer.
    • Kooperative Durchführung von praxisnahen Pilotprojekten als Basis für die Entwicklung zugehöriger Geschäftsmodelle durch Anwendungsunternehmen.

Gegenwärtig gibt es Initiativen wie PlanQK oder die Fraunhofer-IBM-Kooperation, die es auch kleineren und mittel- ständischen Unternehmen ermöglichen, über Piloten   sich am besten jetzt mit diesen Technologien vertraut zu machen. Daneben gibt es mittlerweile auch in Deutschland und Österreich einige Start-ups, die mit Firmen in Piloten arbeiten, um sie ans Quantencomputing heranzuführen. Ich sehe hier einen Bedarf und eine Aufgabe, nämlich Cloud-Infrastruktur-Dienste von PaaS bis SaaS für Quantencomputing bereitzustellen. Die Wissenschaft hinter der Technologie ist schon kompliziert genug, da sollten technische und organi- satorische Hindernisse für den Zugang so weit wie möglich aus dem Weg geräumt sein.

Befürchten Sie ein Gefälle zwischen mittelständi- schen und großen Unternehmen, weil Quantencomputing und damit verbundene Technologie zunächst für kapi- talstärkere Unternehmen leichter greifbar sein wird? Haben dann finanzstärkere Unternehmen einen Wettbewerbsvorsprung?

Ich glaube nicht, dass die Größe entscheidend ist. Einen eigenen Quantencomputer stellt sich auf absehbare Zeit wohl keine Firma hin. Es kommt vor allem auf das Knowhow an, und dazu führt der Weg wie schon gesagt zurzeit über Kooperationen und Netzwerke. Diese müssen natürlich für alle offen sein. Quantencomputing erfordert einen langen Atem und eine Unternehmenskultur, die diesen langen Atem hat und bereit ist, über Jahre diese Technologie zu lernen. Auch hier bin ich davon überzeugt, dass der Bund durch ent- sprechende Fördermaßnahmen in der Verantwortung ist, die nötigen Kompetenzen und Infrastrukturen aufzubauen. Ideal wäre der freie Zugang zu Cloud-Plattformen mit Quantencomputing-Entwicklungsumgebungen, Simulationsmöglichkeiten und Zugang zu realer Hardware. Was man aber vorher braucht, ist eine Idee, was man mit dem Quantencomputer anfangen möchte.

Wo steht Deutschland im internationalen Vergleich beim Thema Quantencomputing? Und was braucht Deutschland noch, um im Quantencomputing einen wirt- schaftlichen Mehrwert zu erzielen?

Wissenschaftlich ist Deutschland hervorragend aufgestellt, die wissenschaftlichen Kompetenzen sind   hervorragend. Was fehlt, sind Akteure wie IBM oder Google in den USA oder ein Wissenschaftsverbund, die die Entwicklung eines Quantencomputer-Systems übernehmen könnten. Verglichen mit den USA oder China liegt Deutschland hier weit zurück. Die Kompetenzen sind verteilt und es sind Lücken in der skalierbaren Hardwareentwicklung, der Systemintegration, dem Software-Stack und der IP-Generierung zu erkennen. Ganz wichtig und noch zu entwickeln sind Bildungsmaßnah- men zum Aufbau und Erhalt von Kompetenz in Wirtschaft und Wissenschaft. Ferner gibt es natürlich Defizite bei der Verfügbarkeit digitaler und technologischer Infrastruktur, Stichwort: Cloud. Dann tun wir uns schwer beim raschen Technologietransfer von der Forschung in die Industrie, hier fehlen die Instrumente und Rahmenbedingungen. Wichtig ist es, dass interessierte Firmen bei ersten Anwendungen massiv unterstützt werden.

2019 ging die Meldung um, dass BASF in das Quan- tencomputer-Startup Zapata investiert. Welchen innova- tiven Technologieansatz verfolgt Zapata?

Zapata hatte diese Lücke sehr früh erkannt. Sie boten an, Firmen „Quantum ready“ zu machen, also interessierte Firmen bei ersten Gehversuchen im Quantencomputing zu unterstützen, vom Consulting bis hin zu Tests auf Quantenhardware. Zapata versprach damals, eine universelle Entwicklungsumgebung mit leichter Portierung von code auf unterschiedliche Quantenhardware. Das entsprechende Produkt, Orquestra, ist seit einiger Zeit auf dem Markt. Zapata hat dazu eine sehr aktive und breite Forschung bei Algorithmen und ist aktiv bei der Patentierung. Zapata ist damit ziemlich erfolgreich, nicht nur auf dem amerikanischen Markt.

Ihr Ausblick: Wie steht es um die sog. „Quanten Supremacy“ oder den „Quantum Advantage“? Hinkt Europa anderen Kontinenten nach oder ist das Quantencomputing ein globales Projekt, an dem am Ende jeder profitiert?

So beeindruckend die beiden publizierten Quantum Supremacy-Beispiele technologisch auch sind: Sie haben für industrielle Anwendungen keine Bedeutung. Im Moment werden alle Systeme durch Stabilitätsprobleme und Gatterfehler limitiert, auch Connectivity stellt ein großes Problem dar. Europa und insbesondere Deutschland haben aber das Potenzial von Quantentechnologie erkannt und wollen jetzt massiv investieren. Das muss allerdings jetzt passieren, um nicht technologisch den Anschluss zu verlieren.

Interview geführt durch:

Um einen Kommentar zu hinterlassen müssen sie Autor sein, oder mit Ihrem LinkedIn Account eingeloggt sein.

20778

share

Artikel teilen

Top Artikel

Ähnliche Artikel