Wenn nicht jetzt, wann dann?

bei

 / 24. March. 2021

Prof. Dr. Frank Leymann im Gespräch


 

Prof. Dr. Frank Leymann ist ordentlicher Professor für Informatik an der Universität Stuttgart, Deutschland. Seine Forschungsinteressen umfassen Softwarearchitektur, Robustheit hochverteilter Anwendungen, Middleware, Musterspra- chen und Quantencomputing. Leymann ist Co-Autor von mehr als 500 begutachteten Arbeiten, etwa 70 Patenten und mehreren Industriestandards. Er ist gewähltes Mitglied der Akademie von Europa, Fellow des Zentrums für integrierte Quantenwissenschaft und -technologie (IQST) und Kurt Gödel Visiting Professor für Quantencomputing der TU Wien. Vor seinem Wechsel an die Universität war er ein IBM Distinguished Engineer und Mitglied eines kleinen Teams, das für die Architektur und Strategie des gesamten IBM-Middleware-Stacks verantwortlich war. Er war auch als Berater für CxOs vieler Unternehmen weltweit tätig und unterhält noch immer viele dieser Beziehungen.


 

Um die derzeit vorherrschende Diskrepanz zwischen wissenschaftlicher Forschung und Anwendungen von Quantencomputing zu tilgen, will die Bundesregierung mit breiten Unterstützungen der Wirtschaft unter die Arme greifen. Doch nun fragt es sich, wie, wo und in welchem Maß man in neue Technologien investiert, um sich im globalen Wettrüsten von Quantencomputing bestmöglich zu positionieren. Frank Leymann ist Professor und Institutsleiter am Institut für Architektur von Anwendungssystemen an der Universität Stuttgart. Durch seine langjährige praktische Erfahrung in der Wirtschaft versucht er, den Bogen zwischen Forschung und Praxis zu spannen.

 

Welche berufliche Vorgeschichte hat Sie zu Ihren heutigen Tätigkeiten geführt?

Mit großer Leidenschaft habe ich Mathematik und Physik studiert, was mir jetzt beim Quantencomputing natürlich zugutekommt. Danach habe ich bei IBM in der Anwendungsentwicklung begonnen, mich von dort auf das Gebiet Middleware begeben und in vielen Firmen benutzte Produkte wie beispielsweise MQSeries oder DB2 mitentwickelt. Ich war dann schließlich Mitglied eines kleinen weltweiten Teams, welches die Strategie und Architektur des gesamten Middleware-Portfolios der IBM verantwortete. Auch habe ich mit Firmen wie Microsoft oder SAP kooperiert, um Service-Oriented Computing zu ermöglichen.

Sie sind seit 16 Jahren an der Universität und damit in der Wissenschaft tätig. Ihr akademisches Œuvre umfasst mehr als 500 wissenschaftliche Artikel. Was verbindet Sie besonders mit dem Thema Quantencomputing? Wie sind Sie damit in Berührung gekommen?

Wie gesagt, ich bin eigentlich von Haus aus Mathematiker und Physiker. Durch meine beruflichen Tätigkeiten bei IBM bin ich dort zum Informatiker geworden. Meine berufliche Praxis wurde stets durch diverse Partnerschaften mit anderen Industriebetrieben begleitet. Vor fünf Jahren Vor fünf Jahren kam dann einer der Industriepartner zu mir und verband mich – aufgrund meiner Vorkenntnisse – mit seinen Quantencomputing-Ambitionen. Was ich am Anfang als eher utopisch und illusorisch empfand, änderte sich binnen weniger Wochen: Ich war fasziniert von Quantencomputing und den technischen Möglichkeiten. Von dem, was man schon machen kann; und von dem, was man bald können wird. Seitdem bin ich leidenschaftlich dabei und habe mein Institut auch umgekrempelt, damit zwei Drittel sich nur mehr mit Quantencomputing beschäftigen können.

Das heißt, Sie haben auf die Materie immer schon einen doppelten Blick geworfen, sprich: Sie kennen Quantencomputing aus der Wissenschaft, sind aber immer schon mit der praktischen Anwendungsseite konfrontiert worden.

Das kann man sagen. Ich war 20 Jahre lang bei IBM, war dort als ein Distinguished Engineer tätig. Neben der Aufgabe, große Produkte zu entwickeln, stand ich in Kontakt mit vielen Geschäftsführern anderer Unternehmen. Schon damals ging es immer auch um die unternehmerischen Strategien dahinter. Das habe ich in meine akademische Karriere nahtlos einfließen lassen. Quantencomputing heißt für mich primär, den anwendungsorientierten Nutzen im Blick zu haben.

Eines Ihrer Anwendungsprojekte von Quantencomputing heißt PlanQK. Was ist dieses Leuchtturmprojekt des Bundesministeriums für Wirtschaft? Was ist das Ziel dieses Projekts? Was sind die Inhalte?

Wir wollen eine Plattform für die Industrie zur Verfügung stellen, um Wissen über Quantencomputing und Anwendbarkeit von Quantencomputing der deutschen Industrie – besonders dem Mittelstand – zugänglich zu machen. Insbesondere sollen die Firmen, die bei PlanQK involviert sind, Bewertungskompetenzen bekommen. Das heißt, sie sollen verstehen, für welche Problematiken Quantencomputer heute oder in kurzer Zeit schon einsetzbar sind. Wir vergleichen dann Lösungen von anwendungsnahen Problemen, die wir auf dem Quantencomputer machen, mit klassischen, herkömmlichen Implementierungen, um festzustellen, wo die Vorteile des Quantencomputers liegen. Ist man genauer? Ist man schneller? Da Quantencomputing-Projekte anders sind als klassische Software-Projekte, definieren wir die Rollen, die Leute einnehmen, um an Quantencomputing-Projekten teilzunehmen. Wir stellen fest, welche Skill-Profile benötigt werden. Ferner wird ein Marktplatz für Quantenlösungen in PlanQK gebaut. Und – ganz wichtig – wir schaffen eine Community, die alle involvierten Unternehmen am Nutzen teilhaben lässt. Ein Leuchtturmprojekt ist es gerade deshalb, weil das Projekt tatsächlich „strahlt“ und regelmäßig neue assoziierte Partner dazustoßen.

Was sind die konkreten Inhalte von PlanQK?

PlanQK beschäftigt sich mit Quantum Machine Learning, kurz „QML“ genannt. Wir entwickeln in PlanQK, um Wissen einheitlich zu repräsentieren, eine Mustersprache. Das heißt, Softwarearchitekten bauen solche Mustersprachen, um wiederholbares Wissen in bestimmten Domänen darzustellen. Wir implementieren die verschiedenen Use-Cases der Industriepartner und passen ggf. existierende Quanten-Algorithmen an. Dazu haben wir einen Partner im Konsortium, der Quanten-Algorithmen selber baut. Ein Fokus liegt auf der Vergleichbarkeit der Lösungen mit herkömmlichen Softwareanwendungen, denn hier stellen wir fest, was heute schon eine geeignete Problemgröße ist, die mit Quantencomputern realisiert werden kann. Um die Community zu verbinden, richten wir eine internetbasierte Plattform ein, um einerseits alle Informationsartefakte in dieser Plattform abzulegen, um andererseits aber alle schon möglichen Quanten-Machine-Learning-Verfahren ausführbar zu machen auf verschiedener Quanten-Hardware.

Besteht gerade darin der breite Mehrwert der Plattform, öffentlich und für alle zugänglich zu sein?

Gewiss. Vor allem der Austausch in der Community. Wir geben regelmäßig Webinare, wo wir Kurse geben und über den aktuellen Leistungs- und Anwendungsstand von Quantencomputing informieren. Wir fangen jetzt schon damit an, eine Beratungskompetenz für alle aufzubauen. Das kommt gerade kleineren und mittelständischen Unternehmen zugute, die es sich gar nicht leisten könnten, eigenständig mit diesen neuen Technologien zu arbeiten. Einen weiteren Mehrwert sehe ich hinter der öffentlichen Zugänglichkeit von PlanQK. PlanQK liefert eine öffentliche Wissensbasis zu dieser hoch komplexen Frage nach Quantencomputing, indem wir darlegen, was technisch schon möglich ist und was noch nicht klappt. Wir geben auch Auskunft darüber, was man in den nächsten Jahren nicht machen sollte, weil es technisch nicht umsetzbar ist. Die Anwendungen, die wir bauen, laufen auf heutigen Quantencomputern. Diese sog. NISQ-Techno- logie („Noisy Intermediate-Scale Quantum“) ist nach aktuellem Stand noch fehleranfällig. Gerade hier ist die ständige technische Überprüfung und damit Weiterverbesserung wichtig. Einen weiteren praktischen Nutzen, den wir unseren Partner anbieten, sehe ich in dem einfachen Verfügbarmachen von mehreren Quantencomputern. Kein Mitglied von uns muss sich mit Einzelverträgen herumschlagen oder gar selbst Kontakt mit ausländischen Herstellern aufnehmen.

In diesem Zusammenhang stellt sich die Frage fast von selbst, wie es um den allgemeinen Status von Quantencomputing in Deutschland überhaupt bestellt ist. Wie bewerten Sie die aktuelle Lage?

Die deutsche Wissenschaft ist im generellen Bereich Quantentechnologie sehr gut aufgestellt. Auch hinsichtlich der Hardware-Forschung genießt sie einen guten Ruf. Aber einen Quantencomputer haben wir noch nicht gebaut. Quantencomputer werden in den USA und in China gebaut. Es gibt inzwischen aber erste Ansätze, auch in Deutschland, Frankreich und Österreich einen Quantencomputer zu bauen. Man kann also eine Diskrepanz zwischen Forschung und Anwendung konstatieren: In der Forschung ist Deutschland sehr gut aufgestellt, in der Anwendung nicht. Das jüngste Konjunkturpaket der Bundesregierung will hier Abhilfe schaffen. Doch wann wird Deutschland einen eigenen Quantencomputer haben? Quantencomputer werden immer eine Spezial-Hardware sein oder aus solcher bestehen. Bis es zu einem Quantum-Advantage in Deutschland kommt, das hängt stark von der Verbesserung der NISQ-Technologie ab. Man braucht „genügend viele“ Qubits – Qubits sind die physikalischen Informationseinheiten eines Quantencomputers; man braucht „hinreichend wenige“ Fehler während der Ausführung; und man braucht „gute“ Qubits, denn Qubits zerfallen während der Zeit, in der die Anwendung läuft. Die Vagheit dieser Adjektive lässt sich nur mit der Vielfalt und Komplexität der Probleme klären, mit denen wir Quantencomputer konfrontieren. Wir erfahren in PlanQK beispielsweise, dass wir kleinere Probleme auf den heutigen Quantencomputern sinnvoll lösen können. Generell erwarten wir nach Einblick in die Roadmaps führender Unternehmen, die Quantencomputer herstellen, dass aber der Quantencomputer in rund zehn Jahren eine Vielfalt an Problemen lösen kann. Mittelgroße Probleme werden etwa in drei bis fünf Jahren schon durch den Quantencomputer abgedeckt werden. Einen Hinweis, den ich in diesem Zusammenhang jetzt schon geben will: Der Skill-Aufbau, also die Aneignung der Fähigkeiten, um mit einem Quantencomputer umgehen zu können, dauert sehr lange. Ein Jahr ist lächerlich kurz; man plane mindestens zwei Jahre ein. Im Hinblick auf die Perspektive des Quantencomputings ist es also notwendig, jetzt schon anzufangen, sich mit der Technologie zu beschäftigen.

Wie erklären Sie die Schere zwischen angemessener Forschung und fehlender Anwendung? Wie will Deutschland oder sogar Europa diese Kluft möglichst zeitnah schließen?

Woran das liegt? An der deutschen Gründlichkeit. Man kennt die Problematik schon aus dem Cloud-Computing. Wir wollen zuerst verstehen, wägen ab und sind deshalb wenig experimentierfreudig auf praktischer Anwendungsebene. Deshalb haben wir heute keinen eigenen Quantencomputer. Was macht man dagegen? Ich denke, man hat die Problematik verstanden. Im jüngsten Konjunkturpaket gibt es zwei Milliarden Euro für Quantencomputing. Das Bundeskanzleramt hat einen Expertenrat einberufen, um einen Vorschlag zu machen, wie diese zwei Milliarden sinnvoll investiert werden. Meine Kollegin Claudia Linnhoff-Popien und ich waren Mitglied in einem Expertenteam, das eine Roadmap erarbeitet hat, wie wir den Aufbau von Quantencomputing und dessen Anwendungen umsetzen könnten. Es sollen u. a. mehrere Quantencomputer gebaut werden. Man möchte hierbei auch neue Ansätze von Technologien realisieren, die sehr erfolgsversprechend klingen und von anderen Industrieriesen noch nicht genutzt werden. Ein Fokus ist aber auf die Anwendungen gerichtet, denn die Hardware alleine lässt sich nur schwer vermarkten. Das wiederum soll viele, auch kleinere Firmen anreizen, sich zu spezialisieren und eigene Lösungen und Softwareprodukte anzubieten.

Warum eigene Quantencomputer bauen, wenn andere bereits existierende über Cloud-Dienste globale zugreifbar sind?

Natürlich können Sie Quantencomputer durch die Plattformen wie etwa von Amazon oder Microsoft nutzen. Aber diese Quan- tencomputer haben ein „furchtbares“ Potenzial, denn sie können zukünftig unsere etablierten Security-Mechanismen knacken. Passierte das, bricht ein großer Teil von dem, wie wir Geschäfte abwickeln, kurzerhand zusammen. Es gäbe kein Online-Shopping mehr, kein Online-Banking, Daten könnten nicht mehr zwischen Firmen ausgetauscht werden. Dem will man mit eigenen Quantencomputern entgegenwirken. Die Bundesregierung möchte Handlungsfreiheit und Souveränität gewährleisten, um nicht hilflos dazustehen, würden uns Amerikaner oder Chinesen den Zugang zu ihren Rechnern abdrehen.

Amazons Quantencomputing-Cloud-Dienst nennt sich „Braket“. Was halten Sie dann davon?

Das ist ein repräsentatives Beispiel von dem, was ich vorher bereits angedeutet habe. Solche Cloud-Dienste laufen entweder in den USA oder in China. Amazon selbst hat keinen eigenen Quantencomputer, obwohl Amazon nun angekündigt hat, selbst einen zu bauen. Dennoch greife ich nach derzeitigem Verfahren über Amazons Cloud auf Quantencomputer anderer Hersteller zu und begebe mich damit sozusagen in eine doppelte Abhängigkeit. Amazon und andere haben ihre eigenen Werkzeuge gebaut und ihre eigenen Zugänge zu Quantencomputing entwickelt. Was heißt das für unsere Daten? Wie steht es um die Security? Wie um die Portabilität der erstellten Anwendungen? Um sich genau gegen diese Abhängigkeit zu stemmen, will das Konjunkturpaket eigene Lösungen auf die Beine stellen. Konkret bereiten wir derzeit mit anderen Partnern einen Antrag für ein Quantencomputing-Anwenderkompetenzzentrum (QCAC) vor. Der Auftrag der Roadmap des Konjunkturpakets besteht u. a. darin, eine Cloud-Infrastruktur zu bauen, die es den Anwendern gestattet, auf verschiedene Hardware zuzugreifen – wie es Amazon und Microsoft beispielsweise heute machen –, aber hier soll eben der deutsche Quantencomputer, der gebaut wird, nutzbar sein. Auch sollen die Anwendungen mit Werkzeugen erstellt werden können, die nicht spezifisch für die Hersteller sind, was den Anwendern Investitionssicherheit geben soll. Und ein Software-Engineering für Quantencomputer fehlt komplett – auch bei großen Anbietern. Das QCAC will gerade hier passende Vorgehensmodelle entwickeln. Solche Werkzeuge, die ein ingenieursmäßiges Vorgehen unterstützen, können als Produkte vermarktet werden.

Einem wiederum standortspezifischen Ansatz geht das QAR-Lab der LMU-München nach. Was verbirgt sich dahinter und wie kooperieren Sie?

Das ist eine klasse Initiative der Kollegin Claudia Linnhoff- Popien. In unserer Zusammenarbeit geht es um die Synergien zwischen der LMU und meinem Institut an der Universität Stuttgart. Hinter „QAR“ verbirgt sich „Quantum Applications and Research“-Laboratory. Der Schwerpunkt richtet sich auch wieder auf Anwendungen von Quantencomputing-Technologie, zuvörderst will das QAR-Lab den großen, kleineren und mittelständischen Unternehmen helfen, sich mit dem Thema zu beschäftigen. Viele Fragen zum Quantencomputing sind heute Optimierungsfragen, was eine weitere Kompetenz des QAR-Labs darstellt. Außerdem kümmert sich das Team von Frau Linnhoff-Popien um die Organisation und den Zugang zu Quantencomputern. Wenn man das nicht via Cloud machen will, muss man mit Herstellern einzelne Verträge abschließen. Das ist kompliziert und zeitaufwendig. Wir streben eine Vereinheitlichung und damit eine Vereinfachung an.

Quantencomputing wird also ein immer wichtigeres Tool für Industrie und Wirtschaft werden. Was würden Sie Stand heute den klei- nen und mittelständischen Unternehmen raten, um den Sprung nicht zu verpassen?

Ich sehe keinen Unterschied zwischen KMU und großen DAX-Konzernen. Wir stehen alle vor demselben Problem, unabhängig der Größe des eigenen Betriebs: Wo bekomme ich meine Skills für Quantencomputing-Anwendungen her? Will man einen Quantencomputer programmieren, muss man sich mit viel linearer Algebra auseinandersetzen. Das benötigt Zeit, um diese Fähigkeiten aufzubauen. Durch die Bank durch müssen kleine und große Firmen Skills aufbauen, müssen kleine Quantenprogramme schreiben, um sich sukzessive Wissen anzueignen. Erst dann lerne ich zu verstehen, wie man Projekte im Bereich Quantencomputing organisieren kann, weil dort ganz neue Rollen auftreten und ein vollkommen anderes Vorgehen der Anwendungserstellung nötig ist, als wir es aus der klassischen Projektwelt kennen. Trotzdem möchte ich einen Appell kundtun: „Quantencomputing kommt. Bitte nicht abwarten, wie wir das etwa beim Cloud-Computing gemacht haben. Wer jetzt nicht einsteigt, verschläft den ganzen Zug. Denn in drei Jahren ist der bereits abgefahren.“


Interview geführt durch:

Hannes Mittermaier , geboren 1994 in Sterzing/Italien, seit 2013 in München lebend, schloss 2019 sein Master-Studium an der Ludwig-Maximilians-Universität in München in den Fächern Germanistik und Philosophie ab. Seit 2020 promoviert Mittermaier an der germanistischen Fakultät zu einer Arbeit, die sich mit der Rezeption der Sokrates-Figur im Zeitalter der deutschsprachigen Aufklärung beschäftigt. Damit einhergehend ist Mittermaier Lehrbeauftragter an der Ludwig-Maximilians-Universität. Aktuell hält er ein Proseminar zu Thomas Manns früher Novellistik. Unabhängig von seiner Promotion arbeitet Mittermaier seit September 2019 als Redakteur der ebenso von der Ludwig-Maximilians-Universität herausgegebenen Zeitung Digitale Welt. Darüber hinaus engagiert sich Mittermaier nebenberuflich als freier Musiker.