Erklären Sie uns doch kurz, was es mit dem AI Act der Europäischen Union auf sich hat.
Die Europäische Union arbeitet aktuell am “European Union Artificial Intelligence Act”, um die Anwendung von Künstlicher Intelligenz innerhalb der EU zu regulieren. Dazu ordnet das angestrebte Gesetz die Entwicklung und Anwendung von Künstlicher Intelligenz in Risikoklassen ein: Unannehmbares Risiko, hohes Risiko und geringes Risiko. Alle Anwendungen und Systeme, die ein unannehmbares Risiko darstellen, werden verboten, Anwendungen mit hohem Risiko unterliegen bestimmten gesetzlichen Anforderungen und alle Anwendungen, die nicht ausdrücklich verboten oder als risikoreich eingestuft werden, bleiben weitgehend unreguliert.
Wie stehen Sie als KI-Experte zu den angestrebten Regulierungen?
Eine Regulierung von Künstlicher Intelligenz innerhalb der Europäischen Union ist generell sinnvoll. Sie kann Sicherheit schaffen und mehr Vertrauen in die Technologie begünstigen – so wie es von den gesetzgebenden Instanzen beabsichtigt ist. Tatsächlich entwickelt sich Künstliche Intelligenz in einer wahnsinnig hohen Geschwindigkeit weiter und hat zuletzt mit den GPT-Technologien einen großen Sprung gemacht. Der Gedanke, bei der Weiterentwicklung etwas langsamer voranzugehen, hat also durchaus seine Berechtigung. So können wir sicherstellen, dass KI auch in Zukunft gleichzeitig wertschöpfend und sicher bleibt.
Leider hat der AI Act in der aktuellen Variante ein großes Problem und ist dadurch extrem gefährlich für die europäische Wirtschaft. Wir werden damit Europa deindustrialisieren und es wird in zehn Jahren keinen einzigen europäischen Weltmarktführer mehr geben, wenn wir den AI Act so durchsetzen, wie er aktuell geplant ist.
Das klingt ganz schön drastisch. Können Sie erklären, wie es dazu kommen soll?
Es gibt zwei grundlegende Probleme mit dem AI Act, deren Auswirkungen tatsächlich drastisch sind. Eine davon ist die Beschränkung der Regulation auf die Europäische Union: Wir regulieren Künstliche Intelligenz nämlich nur innerhalb der EU, während alle anderen Nationen von den europäischen Einschränkungen nicht betroffen sind. Wir haben den Moment, im Bereich KI weltweit führend zu sein, ohnehin schon verpasst. Die USA sowie China sind in der KI-Entwicklung bereits jetzt sehr viel weiter als wir in Deutschland oder Europa. Stellen Sie sich nun vor, dass wir Entwicklung und Einsatz von Künstlicher Intelligenz in der EU – und nur in der EU – noch weiter einschränken und durch Regularien erschweren. Die bereits jetzt führenden Nationen werden ihre Führung noch weiter ausbauen können. Aus den USA werden zwar schon Stimmen nach Regulierung oder einem Entwicklungsstopp für intelligente KI laut – aber Nationen wie China werden sich sicherlich kaum in einem vergleichbaren Ausmaß einschränken. Gleichzeitig wird Künstliche Intelligenz in den kommenden Jahren alle Branchen, Sparten, Industrien und den Alltag komplett durchdringen. Diese Entwicklung wird noch bedeutsamer sein als die Industrielle Revolution, alle Menschen werden davon im täglichen Leben betroffen sein. Das reicht vom Einsatz in Wirtschaft, z.B. in der Produktion und dem Marketing über Veränderungen im Berufsleben bis hin zu neuen Potenzialen in Umweltfragen oder der Medizin.
Damit geht auch direkt das nächste zentrale Problem einher: Der AI Act reguliert nicht nur die Entwicklung, sondern vor allem auch den Einsatz bestimmter KI-Systeme. Es geht also nicht nur darum, KI direkt in Produkte einzubauen oder reine KI-Lösungen zu entwickeln und zu verwenden und betrifft daher nicht nur IT-Abteilungen oder spezifische IT-Unternehmen.
Jedes in Europa tätige Unternehmen – egal ob Konzern, Mittelstand oder Startup – das KI in irgendeinem Punkt der Wertschöpfungskette einsetzt, muss den AI Act beachten. Schon heute wird KI in Design- oder Produktionsprozessen zur Optimierung eingesetzt und in Zukunft wird sich dieser Trend noch weiter verstärken. Das geht von der Automobilindustrie über die Herstellung von Alltagsprodukten wie Kaffeetassen bis hin zum Einsatz im E-Commerce. Ausländische Wettbewerber werden Künstliche Intelligenz nach Inkrafttreten des AI Acts also wesentlich einfacher und vollumfänglicher einsetzen können, als Unternehmen, die in Europa tätig sind. Durch den Einsatz von KI irgendwo innerhalb des Produktionsprozesses – sei es bei der Produktionsplanung oder im Produktdesign an sich – können außereuropäische Unternehmen ihre KI-Lösungen nutzen, um günstigere Produkte in besserer Qualität herzustellen. Damit sind unsere europäischen Produkte nicht mehr wettbewerbsfähig. Innerhalb der nächsten Jahre werden wir dann nicht nur keinen einzigen europäischen Weltmarktführer mehr haben, sondern auch abhängig von Produkten aus dem Ausland sein, während unsere eigenen Industrien chancenlos dastehen.
Sie sprechen hier vom Einsatz aller KI, die in die Kategorie “hohes Risiko” fällt – für alle anderen Anwendungen sollten die Regulierungen ja geringer ausfallen?
Ja, wir sprechen hier über die KI-Anwendungen, die als Hochrisikoanwendung eingestuft sind. Um diese Anwendungen weiter einsetzen zu dürfen, müssen Unternehmen strenge Auflagen erfüllen und sehen sich bei Nichteinhaltung mit hohen Strafen konfrontiert. Ähnlich wie bei der DSGVO wird alleine die Angst, etwas falsch zu machen und entsprechende Strafen auferlegt zu bekommen, viele Unternehmen massiv abschrecken. Das Verständnis für Künstliche Intelligenz als Technologie schärft sich gerade erst und viele Unternehmen werden aus reiner Angst auf den Einsatz von höher regulierter KI verzichten.
Zusätzlich verschärft sich die Problematik durch Artikel 4 des AI Act. Im Mai 2022 hat die französische Ratspräsidentschaft mit dem Artikel 4 eine Ergänzung zum Act hinzugefügt, die den Umgang mit sogenannten “General Purpose AI-Systems” regelt. Nach Definition des Acts sind das alle KI-Systeme, die in der Lage sind, eine breite Palette an Aufgaben zu übernehmen – auch über die Anwendungsgebiete hinaus, für die sie programmiert wurden. Zu diesen Systemen zählt auch die neue Generation an GPTs, wie ChatGPT oder Google´s Bard. Sie zählen nach der aktuell geplanten Regelung des Art. 4 unabhängig von ihrem Einsatzgebiet pauschal in die Kategorie “Hohes Risiko” – inklusive aller damit einhergehenden Anforderungen und den horrenden Strafen, die Unternehmen bei Nichteinhaltung drohen.
Schwierig ist das, weil genau diese “General Purpose AI-Systems” für die Zukunft großes Potenzial haben. Bislang werden sie vor allem in Werbung und Marketing eingesetzt, künftig werden sie jedoch auch in Design oder Produktionssteuerung für beinahe alle Produkte verwendet – also beispielsweise auch bei der Produktion von Kaffeetassen im Beispiel von eben.
Was müsste sich am AI Act ändern, damit Europa nicht in diese Situation gerät?
Um die Wettbewerbsfähigkeit europäischer Unternehmen aller Branchen auch nach Inkrafttreten des AI Acts sicherzustellen, muss Artikel 4 zwingend umgestaltet werden. Speziell dürfen “General Purpose AI-Systems” nicht generell in die Kategorie “Hohes Risiko” fallen, sondern müssen individuell – also je nach Einsatz – beurteilt werden. Außerdem wäre es wünschenswert, für die weitere Entwicklung und alle Diskussionen und Anpassungen am AI Act mehr KI-Anwender und Experten zu Rate zu ziehen. Nur so können wir mit der Regulierung auch wirklich das richtige Ziel erreichen können: Mehr Sicherheit und eine wettbewerbsfähige Zukunft innerhalb Europas.
Um einen Kommentar zu hinterlassen müssen sie Autor sein, oder mit Ihrem LinkedIn Account eingeloggt sein.