Künstliche Intelligenz um jeden Preis? Wie aus einer Künstlichen Intelligenz eine Safe Intelligence wird

ist geschäftsführender Leiter des Fraunhofer-Instituts für Kognitive Systeme IKS. Er promovierte im Jahr 2005 mit Auszeichnung an der TU Kaiserslautern, an der er 2016 auch habilitierte. 2005 wechselte er an das Fraunhofer IESE und war dort zunächst als Abteilungsleiter für das Themengebiet sicherheitskritische Software verantwortlich, bevor er von 2009 bis 2017 die Hauptabteilung »Embedded Systems« leitete. Zum 01.01.2018 wurde er kommissarisch als geschäftsführender Institutsleiter des Fraunhofer ESK (heute Fraunhofer IKS) in München berufen Seit vielen Jahren bringt Mario Trapp seine Expertise in der Entwicklung innovativer eingebetteter Systeme im Rahmen von erfolgreichen Partnerprojekten ein, sowohl mit international führenden Großunternehmen als auch mit kleinen und mittelständischen Firmen.
Interview von DIGITALE WELT Magazin
25. Juni 2021
Interviewpartner

Prof. Dr. Mario Trapp

ist geschäftsführender Leiter des Fraunhofer-Instituts für Kognitive Systeme IKS. Er promovierte im Jahr 2005 mit Auszeichnung an der TU Kaiserslautern, an der er 2016 auch habilitierte. 2005 wechselte er an das Fraunhofer IESE und war dort zunächst als Abteilungsleiter für das Themengebiet sicherheitskritische Software verantwortlich, bevor er von 2009 bis 2017 die Hauptabteilung »Embedded Systems« leitete. Zum 01.01.2018 wurde er kommissarisch als geschäftsführender Institutsleiter des Fraunhofer ESK (heute Fraunhofer IKS) in München berufen, seit 01.05.2019 nimmt er diese Funktion regulär wahr. Seit vielen Jahren bringt Mario Trapp seine Expertise in der Entwicklung innovativer eingebetteter Systeme im Rahmen von erfolgreichen Partnerprojekten ein, sowohl mit international führenden Großunternehmen als auch mit kleinen und mittelständischen Firmen. Sein aktueller, persönlicher Forschungsschwerpunkt liegt in der Safety-Assurance autonomer und verteilter Systeme, welche die technologische Grundlage vieler Zukunftsszenarien wie Industrie 4.0 oder das automatisierte Fahren bilden. Mario Trapp ist Autor von zahlreichen internationalen wissenschaftlichen Publikationen und lehrt als apl. Professor am Fachbereich Informatik der TU Kaiserslautern.
Interviewpartner

Techniken, die mit Künstlicher Intelligenz (KI) ausgestattet sind, prägen unseren Alltag heute schon mehr in vielen Anwendungsbereichen. Längst ist um KI ein Wettbewerb entstanden, der wirtschaftliche, industrielle, rechtliche und soziale Faktoren betrifft. Das Ringen um die beste Technik wirft zugleich viele Fragen auf. Prof. Dr. Mario Trapp ist Leiter des Fraunhofer-Instituts für Kognitive Systeme IKS und forscht an der Schnittstelle zwischen Theorie und Praxis um eine Verbesserung der KI-Technik. Das betrifft vor allem die Funktionalität und die Sicherheit.
Unser Alltag ist heute ein allerorts von der Technik geprägter. Wir ziehen unsere Smartphones aus der Hosentasche, wenn wir das nächste italienische Restaurant suchen oder wenn wir den schnellsten Weg von A nach B suchen. Wo in diesem technisierten Alltag sind bereits Prozesse am Werke, von denen wir womöglich nichts wissen, die aber bereits Künstliche Intelligenz (KI) als Technik nutzen?

Viele von uns nutzen heute schon täglich KI. Wenn wir online einkaufen, werden die Produktvorschläge von KI ermittelt, und KI hilft dabei, Betrugsfälle bei der Kreditkartennutzung zu ermitteln. Genauso kommt KI zum Einsatz, wenn wir beispielsweise Sprachassistenten wie Alexa oder Siri nach dem Wetter fragen. All das sind Anwendungen, die uns an manchen Stellen das Leben ein wenig erleichtern und über die wir uns freuen, wenn sie funktionieren. Verstehen uns Alexa oder Siri einmal nicht oder führen sie nicht die gewünschten Funktionen aus, dann ist das nervig, aber es schafft keine gefährlichen Situationen. Genau das ändert sich aber, wenn KI in Bereichen eingesetzt wird, in denen Fehlfunktionen gravierende Folgen haben. Nutzt man beispielsweise KI zur Qualitätssicherung in der Produktion, können Fehler zu enormen finanziellen Schäden führen, welche die Kostenvorteile durch den Einsatz KI schnell übersteigen. Kommt KI sogar in sicherheitskritischen Anwendungen wie beispielsweise beim automatisierten Fahren oder in der Medizin zur Erkennung von Krankheiten zum Einsatz, kann eine Fehlfunktion sogar tödliche Auswirkungen haben. Die Herausforderung besteht deshalb darin, den Einsatz von KI so sicher und zuverlässig zu machen, dass man ihr auch Menschenleben anvertrauen kann.

Wie bewerten Sie folgende Befürchtungen, die mit der Implementierung von Künstlicher Intelligenz in unseren Alltag womöglich einhergehen: KI reduziere massenhaft Jobs, weil die Arbeitskraft von heute durch den Computer von morgen ersetzt werde?

Es ist richtig: Der Einsatz von KI und die Digitalisierung insgesamt führen dazu, dass Arbeitsplätze wegfallen. Aber sie sorgen auch für die Entstehung neuer Jobs. Laut einer Studie des Weltwirtschaftsforums werden infolge des Einsatzes von KI weltweit 133 Mio. neue Arbeitsplätze entstehen und so der ebenfalls damit einhergehende Wegfall von etwa 75 Mio. Jobs mehr als kompensiert. Unter dem Strich wird es also nicht weniger Arbeit geben, sondern andere als bisher. Solche Entwicklungen im Zusammenhang mit dem technologischen Fortschritt gab es auch in der Vergangenheit immer wieder. Wichtig ist, dass wir die Aus- und Weiterbildung rechtzeitig anpassen, um die Arbeitnehmerinnen und Arbeitnehmer vorzubereiten und für kommende Aufgaben zu qualifizieren.

Bohren wir weiter nach an der Achillesverse von KI. Woran forschen und arbeiten Sie, um KI-basierte Systeme sicher und zuverlässig zu machen? Was sind die Herausforderungen und welche Faktoren limitieren uns aktuell?

Im Mittelpunkt der Forschung am Fraunhofer IKS steht Safe Intelligence, also die Frage wie sich nachweisbar sichere intelligente Systeme bauen lassen. Dabei ist es uns wichtig, das Thema holistisch zu betrachten. Das bedeutet, dass wir das gesamte System in den Blick nehmen und das Beste der Welten des Engineerings und der KI in Einklang bringen.

Das betrifft zum einen natürlich die KI selbst. Die heutige KI stellt uns vor enorme Herausforderungen, weil sie meistens gut funktioniert, aber man nur bedingt versteht, warum sie funktioniert, und für uns noch wichtiger: wann sie nicht funktioniert. Daher ist eine entscheidende Frage, wie man von der Black Box KI mehr in Richtung Grey Box kommen kann. Vor eine besondere Herausforderung stellt uns die nach wie vor mangelnde Robustheit der KI: Selbst kleinste Änderungen am Eingang – einige Pixel Unterschied bei einem Kamerabild reichen – führen zu völlig anderen Ergebnissen. Dadurch lassen sich bspw. bekannte Qualitätssicherungstechniken wie das Testen kaum anwenden. Egal, wie viele Testkilometer ein automatisiertes Fahrzeug in der echten oder simulierten Welt fährt: Unsere Welt ist unendlich, und keine Situation wird sich identisch wiederholen. Die Welt wird immer anders aussehen, und ohne robuste KI ist es schlichtweg nicht möglich vorherzusagen, wie sich die KI dann im Ernstfall verhalten wird – egal, wie viel sie getestet wurde. Daher ist die Steigerung der Robustheit eine zentrale Forschungsfragestellung. Für den Anfang hilft es aber schon, wenn man der KI das Zweifeln beibringt, dass sie eben besser versteht, was sie nicht versteht.

Und wie arbeiten Sie an einer Sicherheitsverbesserung der KI?

Da wir heute allerdings noch keine ausreichend belastbaren Konzepte zur Absicherung der KI haben, geht es in erster Linie zunächst darum, das System als Ganzes abzusichern. Denn letztlich ist Safety immer eine Eigenschaft des Gesamtsystems, sodass aktuell auch die Frage im Vordergrund steht, wie sich die Systemsicherheit gewährleisten lässt, obwohl unsichere KI zum Einsatz kommt.

Doch gerade intelligente Systeme stellen Safety vor besondere Herausforderungen: Erstens kommen neue Technologien wie das Maschinelle Lernen zum Einsatz, die inhärent schwer abzusichern sind. Zweitens werden diese Systeme in Situationen eingesetzt, in denen sich die Umgebungsbedingungen nicht mehr voraussehen lassen. Und dennoch muss die Sicherheit auch für unvorhergesehene Situationen gewährleistet sein. Ebenso wenig wissen wir, mit welchen anderen Fahrzeugen, Robotern oder Maschinen das System zusammenarbeiten wird. Hinzu kommen Software-Updates, die die Funktionen des Systems weiterentwickeln. Mit all diesen Unsicherheiten müssen wir umgehen, das heißt: Wir müssen das System in die Lage versetzen, auch insofern intelligent zu werden, dass es sich seiner Sicherheit selbst bewusstwird und sich selbst absichern kann. Und das alles im Gesamtzusammenhang mit der kompletten Systemumgebung und im Zusammenwirken mit anderen Systemen. Das ist schon eine enorme Herausforderung und macht disruptive Paradigmenwechsel in der Safety-Absicherung nötig.

Die Nachricht verbreitete sich 2017 wie ein Lauffeuer: Es soll einen neuen Matrix-Film geben. 1999 erschien der Science-Fiction der dreiteiligen Reihe. Als Übergangswerk ins neue Jahrtausend verhieß er damals nichts Gutes: Eine mit Künstlicher Intelligenz gefütterte Matrix beherrsche die Abläufe unseres Planeten. Die Dystopie ist bis heute – glücklicherweise – Dystopie geblieben. Dennoch lädt der Film zur kritischen Reflexion an: Was halten Sie von diesem Schreckensszenario Mensch vs. Maschine, in dem letztlich die Maschine Oberhand gewinnt?

Solche Fiktionen sind sicherlich ein guter Stoff für spannende Unterhaltung – aber mit der Realität haben sie nichts zu tun. Man darf nicht vergessen: Was wir als künstliche „Intelligenz“ bezeichnen, ist letztlich nur eine Technologie, die es mit Statistik und Optimierung schafft, dass ein System anhand großer Mengen an Trainingsbeispielen gewisse Verhaltensweisen imitieren kann. Solche Softwaresysteme verfügen aber nicht über eigenes Bewusstsein und können keine eigenständigen, über die ihr antrainierten Muster hinausgehenden Entscheidungen treffen oder gar bestimmte eigenständige Ziele verfolgen. Daher kann man solche Matrix-Szenarien getrost der Science Fiction zuordnen. KI stellt zwar durchaus eine Bedrohung für Menschenleben da, wie manche Unfälle selbstfahrender Autos schon vor Augen geführt haben, aber nicht, weil uns die KI angreifen möchte, sondern schlichtweg, weil sie Stand heute ein noch unzureichend beherrschtes und somit sehr fehlerbehaftetes Stück Softwaretechnologie ist, das eigentlich noch nicht reif genug ist, um Menschenleben davon abhängig zu machen.

In diesem Zusammenhang ist der Unterschied zwischen „starker“ und „schwacher“ KI relevant. Was wird damit ausgedrückt? Wird der Einsatz von starker KI ein visionärer Ansatz bleiben?

Um es ganz deutlich zu machen: Bisher ist Künstliche Intelligenz mehr künstlich als intelligent. Das gilt vor allem für Anwendungen, die der „schwachen KI“ zugeordnet werden. Darunter versteht man einfache Systeme, wie etwa die genannten Sprachassistenten, die dazu dienen, auf Basis der für eine bestimmte Anforderung entwickelten Software eine einzelne vordefinierte Aufgabe zu erfüllen, also bspw. das Licht einzuschalten.

Mit „starker KI“ bezeichnet man Systeme, die nicht nur einen Befehl ausführen, sondern in komplexen Situationen aktiv agieren können. Und das mit derselben oder sogar einer höheren Intelligenz als der Mensch. Und davon sind wir noch viele Jahre der Forschung entfernt. Insofern ist das Konzept der starken KI aus heutiger Warte betrachtet Vision.

Das Fraunhofer-Institut für Kognitive Systeme IKS forscht und entwickelt an einem der relevantesten Zukunftsthemen überhaupt: der Verlässlichkeit von Künstlicher Intelligenz. Welche Bereiche des praktischen Alltags deckt Ihre Forschung ab? Kommt KI bereits in sicherheitskritischen Anwendungen zum Einsatz?

Wir konzentrieren uns im Wesentlichen auf vier Bereiche: erstens Mobilität. Das geht deutlich über das autonome Fahren hinaus und schließt etwa Mobilitätsdienste und Flottenmanagement mit ein. Als zweiten Bereich möchte ich die Produktion nennen. Das beinhaltet sowohl smarte Fabriken als auch mobile Roboter und Produktionssteuerung aus der Cloud. Ein dritter Bereich ist die Medizintechnik. Das reicht von der medizinischen Bildgebung und Diagnostik bis zu Roboter-gestützten Operationen. Und schließlich befassen wir uns viertens mit Smart Farming. Das schließt autonome Landmaschinen ebenso mit ein wie die Nutzung von Sensoren, Satelliten und Drohnen sowie intelligentes Farmmanagement.

In vielen dieser Bereiche kommen Anwendungen auf Basis von KI bereits zum Einsatz. Ein bekanntes Beispiel sind sicherlich die aktuellen Versuche auf dem Weg zum automatisierten Fahren, wo KI vor allem die Umfeldwahrnehmung übernimmt und darauf aufbauend Fahrentscheidungen getroffen werden. Das findet derzeit aber noch hauptsächlich im Rahmen von Testfahrten statt und nur sehr eingeschränkt im alltäglichen Straßenverkehr. In Warenlagern dagegen erledigen mobile Roboter bereits heute Transportaufgaben automatisiert. Das passiert fast ausschließlich dort, wo sich Roboter und Menschen nicht in die Quere kommen können. Aber auch an der sicheren Kollaboration von mobilen Robotern und Mitarbeitenden in der Logistik wird geforscht, auch am Fraunhofer IKS.

Zwei Bereiche möchte ich gerne gesondert herausgreifen – zum einen die Medizintechnik. Apps wie ADA arbeiten heute schon an einer Diagnostik via Smartphone und KI. Unternehmen wie deepc forschen an einer Verbesserung der radiologischen Diagnostik mittels KI. Wie steht es um den gegenwärtigen Einsatz von KI in der Medizin? Wie machen Sie KI in der Medizin verlässlicher?

Für die Medizintechnik spielt die KI in der Tat eine entscheidende Rolle. Zum einen ist natürlich der Einsatz in der bildgebenden Diagnostik, zum Beispiel der Tumorerkennung, naheliegend. Die KI kommt aber bspw. auch zum Einsatz, wenn man verschiedene Vitalparameter über die Zeit beobachtet und dadurch Vorhersagen zum Krankheitsverlauf machen kann, um reagieren zu können, bevor es zu spät ist.

Unserem Leitbild der Safe Intelligence folgend geht es uns auch in dieser Anwendung um die nachweisbare Qualität der KI. Auch wenn man heute die Ergebnisse der KI noch durch Ärztinnen oder Ärzte plausibilisieren lassen kann, so wird dies aufgrund der zunehmenden Komplexität in Zukunft kaum noch möglich sein, da den menschlichen Aufpassern Informationen fehlen, sie Dinge nicht sehen können, die die KI sieht oder ihnen schlichtweg die Zeit fehlt. Hinzu kommt ein Effekt, den man im Englischen als „Automation Complacency“ bezeichnet, also das unberechtigte Vertrauen in ein System – wenn es ja es die ganze Zeit scheinbar funktioniert wird man zu nachlässig.

In Kooperation mit den LMU-Kliniken arbeiten wir beispielsweise an einer Verbesserung der KI-Qualität in der Tumor-Erkennung. Dazu kommen unter anderem Verifikationsverfahren zum Einsatz, mit deren Hilfe sich wichtige Eigenschaften wie die Robustheit der KI beweisen lassen. Aufgrund des enormen Rechenaufwands für solche Aufgaben soll die Verifikation mit speziellen Algorithmen auf dem IBM Quantenrechner der Fraunhofer-Gesellschaft durchgeführt werden. Quantenrechner bieten aber aufgrund ihrer besonderen Qualitäten noch weitere Eigenschaften, die wir zum Beispiel nutzen können, um sogenannte Bayesische Neuronale Netze verwenden zu können, die es uns ermöglichen, die Unsicherheiten zu ermitteln, mit denen ein Ergebnis der KI behaftet ist.

Zweitens begegnet uns das Thema KI immer wieder in Fragen der Mobilität. In der Regel verbinden wir autonomes Fahren mit Künstlicher Intelligenz. Gängige Modell sprechen von fünf Stufen zum autonomen Fahren. Können Sie diese kurz erläutern und konstatieren, wo wir derzeit stehen?

Rechtliche Fragen, insbesondere Haftungsfragen lasse ich jetzt einmal außen vor. Die Stufe 1 des autonomen Fahrens kann mittlerweile als Standard auf den deutschen Straßen betrachtet werden. Fahrer oder Fahrerin müssen jederzeit das Verkehrsgeschehen im Blick und ihr Fahrzeug unter Kontrolle haben. Sie werden aber durch ein oder mehrere Fahrerassistenzsysteme unterstützt, wie zum Beispiel einen Tempomaten mit Abstandsregelung. In Stufe 2 bleibt der Fahrer Herr über das Auto und muss den Verkehr aktiv beobachten. Jedoch übernehmen Assistenzsysteme zusätzliche Funktionen wie Spurhalten, Beschleunigen und Abbremsen. Man spricht hier schon vom teilautomatisierten Fahren. Stufe 3 geht einen wichtigen Schritt weiter: Die Fahrerin muss nicht ständig den Verkehr beobachten und das Fahrzeug unter Kontrolle haben. In bestimmten, vom Hersteller definierten Situationen und zeitlich begrenzt übernimmt das Auto selbst bestimmte Fahraufgaben wie Spurwechsel und Überholvorgänge. Taucht ein Problem auf, müssen Fahrerin oder Fahrer sofort das Steuer übernehmen. Das ist das bedingte automatisierte Fahren. In Stufe 4 ist das Fahrzeug überwiegend selbstständig unterwegs, man spricht dann auch vom hochautomatisierten Fahren. Der Fahrer wird zum Fahrgast – sozusagen. Allerdings kann dieses Fahren auf bestimmte Strecken, Geschwindigkeitsbereiche oder Wetterbedingungen beschränkt sein. Die 5. Stufe schließlich ist das vollautomatisierte Fahren, bei dem das Auto nach einer Zieleingabe völlig selbstständig unterwegs ist, das heißt: Alle Menschen im Auto sind Fahrgäste, auch Fahrten ohne Fahrzeuginsassen sind möglich. Aktuell befinden wir uns nach wie vor in der Herausforderung Stufe 3 auf die Straßen zu bringen. Gerade für Shuttle-Dienste und sogenannte Robo-Taxis arbeitet man gerade an Stufe 4.

Die Sicherheit von kognitiven Systemen ist der Schlüssel für autonomes Fahren. Was sind Ihre konkreten Forschungsarbeiten, welche die KI-Technik für das autonome Fahren verbessern sollen?

Lassen Sie mich zum besseren Verständnis einen Blick auf die technischen Voraussetzungen für das automatisierte Fahren ab Stufe 3 werfen: Es beginnt mit der Wahrnehmung: Kameras und Sensoren wie Radar und Lidar scannen die Umgebung in Echtzeit. Diese Informationen werden mit gespeicherten digitalen Karten und GPS-Daten abgeglichen. Hinzu kommen Daten vom Fahrverhalten anderer Fahrzeuge. Die so gesammelten Daten werden zusammengeführt und durch Künstliche Intelligenz (KI) ausgewertet. Daraus entsteht die Perzeption, also die maschinelle Wahrnehmung der Fahrzeugumgebung. Im nächsten Schritt wird auf Basis dieser Perzeption ein 3D-Modell der Umgebung erstellt. Damit errechnet das System die bevorstehende Situation und trifft Vorhersagen. Schließlich plant das automatisierte Fahrzeug die nächsten Aktionen und führt diese selbstständig aus. Schon aus dieser vereinfachten Darstellung wird ersichtlich: Eine der aktuell größten Herausforderungen für das automatisierte Fahren liegt in der KI-gestützten Perzeption: Erkennt die KI einen Menschen auf einem Zebrastreifen zuverlässig? Was passiert, wenn sie sich nicht sicher ist? Da kein Mensch die maschinelle Wahrnehmung und die daraus folgenden Entscheidungen in Echtzeit validieren kann, ist es notwendig, andere Wege zu finden, die Richtigkeit der maschinellen Perzeption zu überprüfen.  Wir forschen deshalb insbesondere an Methoden, um die Perzeption abzusichern. Dazu gehört zum einen der Umgang mit Unsicherheiten in der Erkennung, sogenannten „Uncertainties“. Dazu bringen wir der KI das Zweifeln bei. Fachlich gesehen, geht es dabei um die Weiterentwicklung typischer Verfahren wie Deep Ensembles oder Out-Of-Distribution Detection, um zwei Beispiele zu nennen. Die Perzeption gibt dann nicht mehr nur die Ausgabe wo sie bspw. glaubt eine Fußgängerin zu sehen, sondern gibt auch verlässliche Aussagen zur Unsicherheit der Ergebnisse. Dadurch entstehen unscharfe Bereiche innerhalb derer sich die Person wahrscheinlich befindet und man bekommt belastbarere Informationen, wie sicher sich die KI ist, ob es sich wirklich um eine Person oder vielleicht doch um eine Radfahrerin oder ein ganz anderes Objekt handelt.

Und wie steht es um die Sicherheitsgarantie solcher KI-Methoden?

Wie eingangs bereits erwähnt sind der Absicherung der KI selbst heute allerdings Grenzen gesetzt, die noch nicht ausreichen, um nur durch die KI alleine ein akzeptables Restrisiko erreichen zu können. Daher kommen Überwachungsarchitekturen nach wie vor eine besondere Bedeutung zu, die sicherstellen, dass das Fahrzeug auch dann kein unsicheres Verhalten aufweist, wenn die KI fehlerhaft arbeitet. Das Prinzip dahinter ist ähnlich, wie man dies von der Mathematik aus der Schule kennt. Das Ergebnis einer Differentialgleichung zu berechnen ist sehr aufwändig, das Ergebnis zu prüfen ist hingegen vergleichsweise einfach. Übertragen bedeutet dies, dass wir es nur mit KI schaffen, aus den Sensordaten die Szene zu verstehen und beispielsweise Personen zu erkennen. Die Prüfung, ob an einer gewissen Stelle tatsächlich eine Person steht, lässt sich dann allerdings mit klassischen Algorithmen durchführen, deren Sicherheit sich mit etablierten Verfahren untersuchen lässt. Häufig sind diese Überwacher allerdings zu konservativ, d.h. sie werden lieber viel häufiger eine Bremsung einleiten als einmal zu wenig. Aktuell sind die Verfahren in der Tat noch zu konservativ, sodass die Performanz der Systeme in manchen Konstellationen fast bis zur Unbrauchbarkeit reduziert werden müsste. Aus diesem Grund forschen wir hier zusätzlich am sogenannten Adaptiven Safety Management. Während der Entwicklungszeit müssen Safety-Ingenieurnnen immer vom schlimmsten denkbaren Fall ausgehen und die Überwachung daher sehr konservativ auslegen. Beim Adaptiven Safety Management wird das Auto in die Lage versetzt für die aktuelle Situation im Betrieb die relevanten Gefährdungen und das Sicherheitsrisiko zu bestimmen und ihr Sicherheitskonzept adaptiv an diese Situation anzupassen. Dadurch reagiert es bei der Autobahnfahrt auf trockener Fahrbahn im Tageslicht anders als bei einer Stadtfahrt im Regen und hohem Verkehrs- und Fußgängeraufkommen. Dadurch lässt sich die Performanz massiv steigern, ohne die Sicherheit zu gefährden.

„Industrie 4.0“ ist ein beliebtes Schlagwort, um die Bestrebungen zur mehr Digitalisierung in der industriellen Produktion zu bezeichnen. Wie steht es um die Künstliche Intelligenz in der Industrie 4.0? 

Auch die Industrie 4.0 bietet verschiedenste Möglichkeiten, um von der KI zu profitieren. So lassen sich zum einen Aufgaben unmittelbar an der Maschine durch KI verbessern, wie beispielsweise die (bildbasierte) Qualitätsprüfung von Werkstücken, oder auch das Überwachen der Anlage im Condition Monitoring – insbesondere wenn es darum geht Wartungsbedarf vorzusagen, was häufig als Predictive Maintenance bezeichnet wird. In Verbindung mit dem industriellen Internet der Dinge, werden aber auch immer mehr Daten einer Produktionsstätte oder über Standorte hinaus gesammelt, sodass die KI auch dabei hilft übergreifende Prozesse zu optimieren – von der Optimierung der Produktionslogistik bis zur produktionsschritt- und werkübergreifenden Qualitäts- und Produktivitätsoptimierung.

Neben der Qualitätsüberwachung der Produkte und der Anlage selbst, liegt ein Fokus unserer Arbeiten auch auf sogenannten fahrerlosen Transportsystemen, die in der Produktion und der Logistik zum Einsatz kommen. Um diese Fahrzeuge hoch- und vollautomatisiert fahren zu lassen, ist der Einsatz von KI unerlässlich. Besondere Bedeutung kommt dabei auch verteilten Ansätzen zu, weil es nicht darum geht ein einzelnes Transportsystem zu betrachten, sondern es geht darum, den Produktions- oder Logistikprozess als Ganzes zu optimieren. Dazu sind die Transportsysteme untereinander und mit der Infrastruktur vernetzt, um mit maximaler Performanz und trotzdem sicher agieren zu können.

Neben der Künstlichen Intelligenz ist Quantencomputing (QC) eine hoch im Kurs stehende Technik. Wie verhalten sich KI und QC zueinander? Bekannte Machine-Learning-Algorithmen eins zu eins auf Quantencomputer laufen zu lassen, funktioniert bekanntlich noch nicht. Können bestimmte Element der Künstlichen Intelligenz vom Quantencomputer dennoch profitieren? Wenn ja, wie?

Die KI kann aus verschiedenen Ansätzen heraus vom Quantencomputing profitieren. So lassen sich Verifikationsverfahren quantenalgorithmisch beschreiben, die Optimierung eines neuronalen Netzes kann durch Quantenalgorithmen unterstützt werden, spezielle Formen neuronaler Netze wie Bayesische Netze, lassen sich effizient in Quantenalgorithmen überführen, es gibt aber auch hybride Ansätze, in denen sich beispielsweise einzelne Schichten eines Convolutional Neural Networks durch Quantenalgorithmen ersetzen lassen, sodass man auch bereits heute trotz der noch vergleichsweise geringen Rechenkapazität echter Quantencomputer von der neuen Technologie profitieren kann.

Welche anderen Kooperationen sind essenziell für Ihre Forschungsarbeiten? Wie ist die Verzahnung mit der Industrie und Wirtschaft von Ihnen gehandhabt?

Unser primärer Auftrag als Fraunhofer-Institut ist der Transfer von Forschungsergebnissen in die Praxis. Gerade in der KI gibt es noch eine zu große Lücke zwischen Wissenschaft und Anwendungen. Daher arbeiten wir eng mit Industriepartnern zusammen, sodass aus wissenschaftlichen Erkenntnissen konkrete Innovationen werden können, von denen die Wirtschaft und Gesellschaft profitieren. Dazu haben wir die Strukturen, um nicht nur Studien durchzuführen, sondern auch einen unmittelbaren Beitrag in der Wertschöpfung der Industriepartner leisten zu können, sodass neueste Forschungsergebnisse ihren direkten Weg in neue Produkte und Dienstleistungen finden. Gerade kleine und mittelständische Unternehmen können es sich nicht erlauben, in der Hoffnung auf einen mittel- bis langfristigen Mehrwert mehr oder weniger altruistisch als Förderer in die Forschung zu investieren. Sondern es geht vielmehr umgekehrt darum, dass sie von Forschungspartnern wie Fraunhofer am Standort unmittelbar profitieren und einen Wettbewerbsvorteil haben. Die Arbeit mit Fraunhofer ist daher auch keine Forschungsförderung, sondern immer eine Investition in bessere, wettbewerbsfähigere Produkte, die sich kurzfristig amortisiert und völlig neue Möglichkeiten eröffnet.

Um diese Translationskraft entwickeln zu können, verstehen wir uns als Fraunhofer Institut immer als Teil eines größeren Ganzen, weshalb Vernetzung für uns von besonderer Bedeutung ist. Zum einen sind wir eines von 74 Fraunhofer Instituten. Die Vernetzung innerhalb der Fraunhofer Gesellschaft ist daher für uns von großer Bedeutung, da wir dadurch neben der Kompetenz am eigenen Institut auf die Expertise von fast 30.000 Kolleginnen und Kollegen zurückgreifen können. Gleichzeitig sind wir uns bewusst, dass viele der heutigen und somit auch unserer Forschungsthemen zu groß sind, um sie als einzelnes Institut bearbeiten zu können. Daher sind uns internationale Forschungsnetzwerke wichtig, weshalb wir beispielsweise mit der Carnegie Mellon University in den USA, Laboratoire d’analyse et d’architecture des systèmes [1] /Centre national de la recherche scientifique in Frankreich oder der Universität York in England als führende Forschungszentren zur Sicherheit von KI kooperieren, um nur einige Beispiele zu nennen. Von besonderer Bedeutung ist für uns natürlich auch die lokale Vernetzung am Forschungsstandort München, weshalb wir intensiv mit den beiden Universitäten, aber auch anderen Forschungseinrichtungen kooperieren.

Und wie sehen Sie sich damit im internationalen Vergleich aufgestellt?

Gerade im Kontext der Digitalisierung und der KI steht die deutsche Wirtschaft in einem sehr harten internationalen Wettbewerb, der vor allem durch Innovationskraft und Geschwindigkeit dominiert wird. Um unseren Standort in diesem Wettbewerb zu stärken, bedarf es Innovationsökosystemen, in denen verschiedenste Partner eng zusammenarbeiten, um dauerhaft schnellere und bessere Innovationen zu schaffen. Wir sehen es als unsere Aufgabe, unseren Beitrag als Teil dieses Ökosystems zu leisten, damit Bayern und Deutschland einer der weltweit zentralen Innovationsstandorte für Digitalisierung und KI bleibt bzw. wird.

Referenzen:

[1] https://www.laas.fr/public/fr

Interview geführt durch:

Um einen Kommentar zu hinterlassen müssen sie Autor sein, oder mit Ihrem LinkedIn Account eingeloggt sein.

20788

share

Artikel teilen

Top Artikel

Ähnliche Artikel