ChatGPT & Co.: Zählen Bots zum Einschlafen virtuelle Schafe?

„Zwei Drittel erwarten, dass ChatGPT & Co. unser Leben verändern werden“, so eines der Resultate der jüngsten Bitkom-Umfrage zum Thema. Die große Frage lautet: Wie kann und soll das aussehen? Denn ChatGPT und dessen digitale Kollegen liefern schon jetzt erstaunliche Ergebnisse – fast als hätten sie bereits Herz, Mut und Verstand. Aber was bedeutet das?
Von   Dan Schiappa   |  Chief Product Officer   |  Arctic Wolf
30. Juni 2023

Viele Persönlichkeiten des öffentlichen Lebens warnen vor den Entwicklungen, die schon jetzt kaum mehr aufzuhalten sind. Sie sind lediglich zu verlangsamen, und das fordern u. a. der Autor und Historiker Yuval Noah Harari, Tech-Ikone Elon Musk und Apple-Co-Founder Steve Wozniak. Sogar aus den eigenen Reihen werden Stimmen laut, die die Evolution der künstlichen Intelligenzen unter Kontrolle bringen wollen. So sprach sich OpenAI-Chef Sam Altman vor dem US-Kongress jüngst für eine Regulierung von künstlicher Intelligenz (KI) aus.

„Grundregeln des Roboterdienstes“

Wie kann eine solche Regulierung aussehen? Und wie kann sie funktionieren, wenn davon auszugehen ist, dass sich Bedrohungsakteure, Nationalstaaten und unabhängige Instanzen nicht entsprechenden KI-Regularien beugen und die Vorteile dieser Technologien zum eigenen Vorteil nutzen werden? Die Herangehensweise an eine Regulierung von KI der Europäischen Union gipfelt aktuell in dem geplanten AI Act. Dieser soll sicherstellen, dass KI-Systeme von Menschen beaufsichtigt werden und sicher, transparent, nachvollziehbar, vorurteilsfrei und nachhaltig aufgestellt sind. Zudem gibt er eine einheitliche Definition für KI vor, die technologieneutral und zeitlos, das heißt zukunftssicher, ist. Der Act zur Kontrolle dieser innovativen Technologie wird voraussichtlich erst Mitte 2024 in Kraft treten.

Aber auch wenn der AI Act eine durchaus sinnvolle Regulierung künstlicher Intelligenzen vorsieht, gilt diese nur für die Europäische Union. Andere Staaten sind nicht an dessen Vorgaben gebunden. So hat China bereits angekündigt, eine Führungsposition im Bereich KI einnehmen zu wollen. Eine Kontrollinstanz bei der Entwicklung von KI hat aber nur dann eine positive Wirkung, wenn alle am selben Strang ziehen. Denn in einer globalisierten Welt hat nicht nur der Verursacher die Folgen seines Handelns zu tragen, sondern auch der Rest der Menschheit.

Ex Machina: Angst vor dem Unbekannten

Nicht umsonst sind die Weltliteratur und Popkultur voll mit Erzählungen von Auswirkungen der Herrschaft starker KI, die darauf aus ist, die Menschen zu versklaven oder zu vernichten: 2001: Odyssee im Weltraum, Matrix, Terminator, Die Tyrannei des Schmetterlings, Isaac Asimovs Geschichten, um nur einige zu nennen. Allerdings gibt es auch hier Gegenbeispiele, die Androiden und KI-Systeme als Sidekicks und Gefährten des Menschen zeigen: Star Wars, Star Trek: TNG & Voyager sowie Moon. Schon der verstorbene Physiker und Visionär Stephen Hawking wusste: „Eine Super-KI wäre entweder das Beste oder Schlimmste, das der Menschheit zustößt“. Die Vorstellungen davon, was KI für die Zukunft der Menschheit bedeutet, sind vielfältig.

ChatGPT und Kollegen: pro oder kontra

Eine Super-KI ist sicher in nächster Zeit nicht zu erwarten, aber auch für die nahe Zukunft werden aufgrund von ChatGPT und dessen Bot-Kollegen bereits Umwälzungen prognostiziert – so zum Beispiel auf dem Arbeitsmarkt. Das World Economic Forum (WEF) etwa untersucht in seinem aktuellen The Future of Jobs Report 2023 auch Auswirkungen von KI auf Arbeitsplätze. Laut des Berichts steht der Arbeitsmarkt in den nächsten Jahren vor großen Veränderungen. So werden künftig mehr Jobs verschwinden als neue geschaffen. Allerdings attestiert das Weltwirtschaftsforum dennoch einen eher positiven Nettoeffekt innovativer Technologien auf die Beschäftigung in den nächsten fünf Jahren.

Vergleichbar einschneidende historische Ereignisse lassen Vermutungen zu möglichen Einschnitten und Konsequenzen zu. So „vernichtete“ die industrielle Revolution Arbeitsplätze in bestimmten Bereichen. Ähnliche Phänomene konnten mit der Einführung des Internets und der Digitalisierung beobachtet werden. All diese Meilensteine der Geschichte bedeuteten zunächst eine Umstrukturierung der Lebens- und Arbeitswelt – letztlich aber auch mehr Wohlstand für einen Großteil der Bevölkerung.

Prinzipiell ist nicht genau zu bestimmen, welche Folgen das Aufkommen von KI-Technologien langfristig wirklich haben wird. Klar ist, dass der derzeitige Einsatz von KI eine Automatisierung von Prozessen ermöglicht, die beispielsweise die Fehleranfälligkeit verringert, Kosten überschaubar gestaltet und Kommunikationsprozesse optimiert. Auf der anderen Seite ist es leicht, bewusst oder unbewusst Vorurteile in KI-Algorithmen einzuprogrammieren, und die Entscheidungsprozesse von KI-Systemen sind oftmals intransparent. Unternehmen müssen also abwägen, wie weit sie sich beim Ablauf ihrer Prozesse auf KI-Technologien verlassen. Ganz ohne den Einsatz künstlicher Intelligenzen kommen die meisten Unternehmen heutzutage allerdings nicht mehr aus.

Wenn ChatGPT zum Komplizen von Cyberkriminellen wird

Das gilt auch für Cybersicherheit: Gibt es eine nützliche Technologie, so dauert es nicht lange, bis sich Kriminelle ihrer bedienen. Im Fall von ChatGPT steht Cyberkriminellen ein ideales Mittel zur Verfügung, das ihre Arbeit erleichtert. Das ZDF berichtete, dass sich der Sprachbot als Universal-Werkzeug für Bedrohungsakteure herausgestellt habe. Vor allem zur Erstellung zielgruppenspezifischer, sogar individuell abgefasster Phishing-Mails ist die KI optimal. Zudem ermöglicht sie auch technisch nicht versierten Cyberkriminellen, erfolgreiche Angriffsprogramme zu entwickeln. Automatisierte, weniger offensichtliche Hackerattacken sind die Folge. Beim ZDF heißt es dazu: „Noch vor zwei Jahren dauerte die Entwicklung einer effizienten Ransomware zur Verschlüsselung von Dateien mehreren Wochen. Es musste ein ganzes Team von Codierern und Entwicklern eingesetzt werden. Dank ChatGPT ist eine solche Aufgabe von einem normalen Kriminellen binnen Tagesfrist gut zu erledigen.“

Eine erschreckende Entwicklung – vor allem vor dem Hintergrund unserer Abhängigkeit von gut funktionierenden Systemen und Automatisierungen durch die andauernde Digitalisierung. Das heißt, dass der reibungslose Alltags- und Arbeitsablauf nur dann sichergestellt werden kann, wenn die IT-Infrastrukturen von Staat, Organisationen, Unternehmen und nicht zuletzt die Sicherheit der heimischen vernetzten Geräte umfassend geschützt sind. Um das zu gewährleisten, ist es unbedingt notwendig, ebenfalls auf die neuesten Technologien zu setzen, wenn es um Risikoeinschätzung, Schwachstellenbehebung, automatisierte Updates und System-Patches geht – um nur einige Bereiche zu nennen, in denen der Einsatz von KI-Methoden zum Cyberschutz ein Muss ist. Auch ChatGPT kann für den Cyberschutz eingesetzt werden. So dient der Chatbot als idealer KI-Assistent, der IT-Teams dabei unterstützt, Sicherheitslücken im System aufzudecken.

Doch trotz aller KI braucht es noch immer Experten, die die IT-Infrastruktur und Sicherheit der Systeme überwachen und letztendlich die Entscheidungen über Maßnahmen treffen. Eine nicht zu vernachlässigende Herausforderung vor dem Hintergrund des weiter andauernden Fachkräftemangels. Unternehmen, die nicht das erforderliche Personal, die Möglichkeit oder Ressourcen haben, ein dediziertes Security Operations Center für den Cyberschutz zu errichten, das entsprechende Technologien im Einsatz hat, können mithilfe eines Security-Partners ihr IT-Team entlasten. Denn externe Sicherheitsanbieter stellen Manpower, Know-how und Technologie bereit, inklusive innovativer Lösungen wie KI-Systeme, deren Einsatz die Sicherheit der IT-Infrastruktur maßgeblich verbessert.

Fazit: Regulierung ja, Entwicklungsstopp nein

Wenn die Auswirkungen neuer Technologien und Tools nicht absehbar sind, ist es sinnvoll, Regeln für deren Einsatz zu definieren. Beim jetzigen Stand der Durchdringung aller Arbeits- und Lebensbereiche mit KI-Technologien wie ChatGPT und Co. ist es jedoch praktisch unmöglich, bestimmte Entwicklungen zu verlangsamen, zu pausieren oder ganz zu stoppen. Vor allem in puncto Cybersicherheit ist es entscheidend, dass Nationalstaaten, Institutionen und Unternehmen mit den Innovationen der Cyberkriminellen Schritt halten. Denn diese werden nicht auf die Optimierung ihrer Tools und Attacken verzichten und fortschrittliche KI einsetzen. Um uns zu schützen, müssen auch wir daher neueste Technologien und Innovationen für die Sicherheit und Verteidigung nutzen.

Dan Schiappa ist CPO bei Arctic Wolf. In dieser Funktion ist er dafür zuständig, Innovationen in den Bereichen Produkt, Engineering und Geschäftsentwicklung voranzutreiben. Vor seiner aktuellen Tätigkeit arbeitete er in leitenden Positionen bei u.a. Sophos, Microsoft und Vingage Corporation.

Um einen Kommentar zu hinterlassen müssen sie Autor sein, oder mit Ihrem LinkedIn Account eingeloggt sein.

36992

share

Artikel teilen

Top Artikel

Ähnliche Artikel