KI-Regulierung: So können Unternehmen KI verantwortungsvoll nutzen

Die zunehmende Verbreitung künstlicher Intelligenz birgt neue Risiken für unsere Gesellschaft. Dazu gehören beispielsweise gezielte Desinformationskampagnen mit KI-generierten Inhalten. Vor diesem Hintergrund hat die Europäische Union nun die Eckpunkte des AI Acts beschlossen. Warum es sich für Unternehmen lohnt, schon vor der endgültigen Verabschiedung aktiv zu werden, beleuchtet dieser Beitrag.
Von   Erik Doernenburg   |  Head of Technology   |  Thoughtworks
21. Februar 2024

Mit KI – insbesondere der Generativen KI (GenAI) – kommen völlig neue Risiken auf unsere Gesellschaft zu, so etwa unbeabsichtigte Voreingenommenheit durch unausgewogene Trainingsdaten oder gezielte Desinformationskampagnen mit KI-generierten Inhalten. Angesichts dieser und weiterer Risiken hat die Europäische Union nach langen Verhandlungen nun die wichtigsten Inhalte des AI-Acts beschlossen. Mit dem weltweit ersten Gesetz zur Regulierung von Künstlicher Intelligenz nimmt die EU eine Vorreiterrolle ein.

Technolog:innen müssen Vertrauen wiederherstellen

Das ist auch nötig, befinden die in Deutschland Befragten einer repräsentative Umfrage im Auftrag der Technologieberatung Thoughtworks. 84 Prozent halten hier eine Regulierung von KI für sinnvoll. Ihre Bedenken reichen von unzureichenden Sicherheitsvorkehrungen (60 Prozent) über die Weitergabe ihrer Daten an Dritte (58 Prozent) bis hin zum unberechtigten Zugriff auf persönliche Informationen (57 Prozent). Eine effektive Regulierung sollte daher vor allem Standards setzen und deren Durchsetzung gewährleisten, um einen verantwortungsvollen Umgang mit KI zu stärken.

Weshalb fordern Verbraucher jedoch so einhellig und nachdrücklich eine Regulierung für Unternehmen? Weil ihr Vertrauen in Unternehmen und der Glaube, dass diese sich effektiv selbst regulieren können, in den vergangenen Jahren gelitten haben. Unternehmen haben Technologie gezielt zum Nachteil der Verbraucher verwendet. So hat beispielsweise Cambridge Analytica in den US-Wahlkampf eingegriffen, indem es hochdetaillierte Persönlichkeitsprofile von Facebook-User:innen erstellte und sie auf dieser Basis manipulierte. Der „Dieselskandal“ deckte auf, dass VW und andere Autohersteller systematische Verbrauchertäuschung begangen haben. Durch eine illegale Abschalteinrichtung zeigten die Fahrzeuge auf dem Prüfstand deutlich niedrigere Abgaswerte als im Fahrbetrieb. Angesichts dieser Entwicklungen stellt sich die Frage: Kann eine gesetzliche Regulierung von KI dazu beitragen, das Vertrauen in Technologieunternehmen wiederherzustellen?

Die Gesetzgebung hinkt der Technologie hinterher

Für eine sichere Nutzung und einen verantwortungsvollen Umgang mit KI müsste eine Regulierung einheitliche Standards setzen. Genau das sehen wir in den derzeit diskutierten und bereits verabschiedeten Gesetzen noch nicht ausreichend berücksichtigt. Die Regeln beziehen sich auf einen Stand von etwa Ende 2022, was angesichts der rapiden Entwicklungen im vergangenen Jahr eine zu große Lücke ist. Zudem fehlt bislang eine klare Definition, was unter die zu regulierende „Künstliche Intelligenz“ fällt.

Anders in der Medizintechnik: Dort gibt es eine Reihe von Normen, die festlegen, unter welchen Voraussetzungen ein technisches Gerät sich als „Medizintechnik“ qualifiziert. Eine solche Definition wäre auch für eine wirksame KI-Regulierung von entscheidender Bedeutung.

Unternehmen müssen auch selbst aktiv werden

Während also eine klare Regulierung noch aussteht, lohnt es sich für Unternehmen, aktiv Vertrauen aufzubauen. Verbraucher:innen sind sich bewusst, dass der Einsatz von KI Vorteile für sie bringen kann. In der bereits genannten Studie glauben 83 % der Befragten, dass Unternehmen durch KI innovativer werden und ihnen ein besseres Kundenerlebnis bieten können. Ein transparenter Umgang mit KI, sowohl nach außen als auch nach innen, ist daher ein wichtiges Zeichen.

Unternehmen sollten frühzeitig eine klare Kommunikation, nach außen und im Unternehmen, zum Umgang mit KI fördern. Zusätzlich müssen interne Standards definiert und auch durchgesetzt werden. Das schafft einen doppelten Vorteil: Zum einen gewinnen sie so das Vertrauen der Verbraucher:innen, zum anderen erleichtert diese Selbstregulierung den Unternehmen die Einhaltung zukünftiger Richtlinien.

Inzwischen sind positive Entwicklungen zu erkennen. So bilden sich immer mehr Initiativen, Forschungsgruppen und Gremien, die sich für eine verantwortungsvollere künstliche Intelligenz (KI) einsetzen. Ein Beispiel hierfür ist die UN, die in Zusammenarbeit mit Thoughtworks bereits einen Leitfaden für den bewussten Umgang mit der Technologie entwickelt und öffentlich zugänglich gemacht hat.

Vertrauen als zentraler Faktor für den Unternehmenserfolg

Verbraucher:innen stehen neuen Technologien wie GenAI interessiert gegenüber. Sie sehen jedoch auch einen klaren Regulierungsbedarf bei Technologien, die die Privatsphäre verletzen oder zu unfairen und undurchsichtigen Entscheidungen führen können. Der AI Act ist ein erster Schritt. Doch um wirklich effektiv zu sein, besteht noch deutlicher Verbesserungsbedarf.

Bis neue Richtlinien eingeführt werden, haben nun Unternehmen, die auf Transparenz und Selbstregulierung setzen, die Chance auf einen Wettbewerbsvorteil. Wer sich hier rechtzeitig um einen ethisch verantwortungsvollen Einsatz künstlicher Intelligenz kümmert, versetzt sich in eine vorteilhafte Position am Markt. Denn Kund:innen sind eher bereit, Daten von sich preiszugeben, wenn sie diese in vertrauenswürdigen Händen wissen.

Erik Dörnenburg ist Software Engineer und leidenschaftlicher Technologe. Als CTO Europe bei Thoughtworks hilft er Kund:innen, ihre geschäftlichen Herausforderungen mit modernen Technologien, Plattformen und Praktiken zu lösen. Auf seiner 25-jährigen Reise durch die Tech-Branche ist Erik einer Fülle neuer Technologien begegnet. Deshalb erarbeitete er mit Kolleginnen und Kollegen den Thoughtworks Technology Radar und Looking Glass Report, die sich mit ebendiesen Themen befassen. Während seiner gesamten Laufbahn war Erik ein Verfechter von agilen Werten und Open-Source-Software. Er ist regelmäßiger Redner auf internationalen Konferenzen, hat an einigen Büchern mitgewirkt und unterhält mehrere Open-Source-Projekte. Erik hat einen Abschluss in Informatik von der Universität Dortmund und hat Informatik und Linguistik am University College Dublin studiert.

Um einen Kommentar zu hinterlassen müssen sie Autor sein, oder mit Ihrem LinkedIn Account eingeloggt sein.

46481

share

Artikel teilen

Top Artikel

Ähnliche Artikel