Generative künstliche Intelligenz, also Intelligenz-Modelle, die eigenständig Inhalte erzeugen können, gibt es seit Mitte der 2010er Jahre. Und auch wenn sie sich stetig weiterentwickelt hat, erlebten sie ihren öffentlichkeitswirksamen Durchbruch erst im November 2022 mit der Veröffentlichung von ChatGPT. In dessen Fahrwasser kamen sehr schnell weitere generative KI-Tools auf den Markt. Die Nutzung von KI zur Generierung von Texten, Videos, Fotos und Code hat sich seitdem wie ein Lauffeuer verbreitet. Mit dem zunehmenden Einsatz stellt sich jedoch auch mehr und mehr die Frage nach den mit KI verbundenen Sicherheitsrisiken – zumal Cyberkriminelle längst Wege gefunden haben, Daten aus verschiedenen KI-Tools zu exfiltrieren und für ihre Zwecke zu nutzen.
Der entscheidende Schritt zur rasanten Ausbreitung bestand darin, dass ChatGPT KI kommerzialisiert und sie vielen Menschen zur Verfügung gestellt hat. Durch das suchmaschinenartige Frontend konnte KI nun von vielen Menschen genutzt werden, ohne dass diese die zugrundeliegende Technologie verstehen mussten. Der Hype um ChatGPT war zugleich der Startschuss für viele weitere KI-Initiativen: Viele Softwareunternehmen entwickeln gerade ihre eigenen KI-Programme, die von den unterschiedlichsten Unternehmen in den unterschiedlichsten Bereichen eingesetzt werden. Die Sicherheitsteams müssen entsprechend von jetzt auf gleich die hiermit verbundenen Risiken identifizieren und reduzieren.
KI-Tool bieten nicht nur den Anwendern zahlreiche Produktivitätsvorteile. Auch Sicherheitsverantwortliche können von ihnen profitieren und sie dazu nutzen, indem KI die Sicherheitsabläufe verbessert, Bedrohungen erkennt und Abwehrmechanismen entwickelt:
- Unterstützung von Blue Teams: So wie Cyberkriminelle KI-Tools für Angriffe nutzen, können Unternehmen sie auch zur Abwehr einsetzen. So kann ChatGPT die Überprüfung von bösartigem Code, die Erkennung spezifischer Schwachstellen und die Zusammenfassung der Ergebnisse vereinfachen.
- Malware-Analyse: Generative KI kann bei der Generierung von Varianten bekannter Malware-Muster helfen und so Cybersecurity-Experten bei der Entwicklung umfassenderer Malware-Erkennungs- und Analysesysteme unterstützen.
- Verschleierung und Honeypots: Mit generativer KI lassen sich realistische Täuschungssysteme oder Honeypots erstellen, die für Angreifer verlockend wirken. Auf diese Weise können Sicherheitsteams Angriffstechniken überwachen und analysieren, Bedrohungsdaten sammeln und Angreifer von realen Zielen ablenken.
- Automatische Generierung von AbwehrmaßnahmenA: Wenn ein Angriff erkannt wird, kann generative KI bei der Entwicklung automatischer Reaktionen helfen, um die Bedrohung zu entschärfen. Dies kann die Erstellung von Firewall-Regeln, den Einsatz von Gegenmaßnahmen und die Isolierung angegriffener Systeme umfassen. Die Sicherheitsverantwortlichen können so wertvolle Zeit sparen.
- Adaptive Sicherheitsmaßnahmen: Security-Teams können sich von generativer KI bei der Entwicklung von Sicherheitsmechanismen unterstützen lassen, die sich an neuartige Bedrohungen anpassen. Durch kontinuierliches Lernen aus neuen Angriffstechniken können diese Systeme sich weiterentwickeln und ihre Verteidigungsstrategien mit der Zeit verbessern.
- Visualisierung von Angriffen: Generative KI kann bei der Visualisierung komplexer Angriffsmuster und Verhaltensweisen helfen, so dass Sicherheitsanalysten leichter verstehen können, wie Angriffe ausgeführt werden, und Muster entdecken, die möglicherweise nicht sofort erkennbar sind.
KI erzeugt (neue) Cyber-Risiken
Bei der Implementierung und Nutzung generativer KI gibt es mehrere Sicherheitsrisiken, die berücksichtigt werden müssen. So ist laut einer von Forrester durchgeführten Studie die Sicherheit eine der größten Hürden für Unternehmen, die KI einsetzen. 64 Prozent der Befragten gaben dabei an, dass sie nicht wissen, wie sie die Sicherheit von generativen KI-Tools bewerten sollen.
So stellen beispielsweise bei der Nutzung von Tools wie Microsoft Copilot Berechtigungen eine große Herausforderung dar: Auf welche Daten können die Anwendungen zugreifen und wie wird eine sichere Verwendung gewährleistet? Neben diesen „internen“ Sicherheitsbedenken nutzen Cyberkriminelle zunehmend KI um bösartigen Code zu schreiben, Schwachstellen zu finden und groß angelegte Kampagnen zu starten. Statt auf Programmier- bzw. Powerhell- und Python-Kenntnisse kommt es zukünftig mehr darauf an, die richtigen Anfragen zu stellen. Entsprechend werden sie ihr „Prompt-Engineering“ stets verbessern. Weitere Möglichkeiten, wie KI von Cyberkriminellen genutzt wird, sind:
- Cyberangriffskampagnen on demand: Angreifer können generative KI nutzen, um die Erstellung von Malware, Phishing-Kampagnen oder anderen Cyberbedrohungen zu automatisieren. Dies ermöglicht eine Skalierung und erleichtert die Durchführung von Angriffen enorm. Beispielsweise können mithilfe von ChatGPT gezielte Spam-Nachrichten erstellt werden, die Informationen über das Opfer in die Formulierung einbeziehen. Dadurch erhöht sich die Wahrscheinlichkeit, dass auf die Mail reagiert wird.
- Ungeprüfte Ergebnisse: KI-Tools bergen das Risiko, dass sie so manipuliert werden, dass sie falsche oder bösartige Ergebnisse liefern. Einige KI-Tools verfügen zwar über ethische Standards, um eine missbräuchliche Nutzung des Produkts zu verhindern, doch Angreifer haben längst Wege gefunden, diese zu umgehen.
- Weitergabe vertraulicher Informationen: Generative KI-Modelle lernen oft aus großen Datensätzen, die je nach den freigegebenen Informationen auch sensitive Daten enthalten können. Bei unsachgemäßer Handhabung besteht die Gefahr, dass vertrauliche Informationen durch die generierten Ergebnisse versehentlich preisgegeben werden.
- Diebstahl von geistigem Eigentum: Generative Modelle ziehen oft eine große Menge an öffentlich zugänglichen Informationen heran, darunter auch geschützte Daten. Es besteht ein reales Risiko, dass generative KI die Rechte am geistigen Eigentum anderer verletzen und Gegenstand von Gerichtsverfahren werden könnte. So haben beispielsweise bildbasierte KI-Tools das Wasserzeichen von Getty in Bilder implementiert, weil die von der KI generierten Fotos auf der Grundlage der zahlreichen öffentlichen Daten von Getty erstellt werden.
- Identitätsrisiken und Deepfakes: KI-Ergebnissen werden immer besser. Mittlerweile lassen sich (mit etwas Aufwand) überzeugende gefälschte Bilder, Videos oder Audioclips erstellen. Diese können für Identitätsdiebstahl und der Erstellung von gefälschten Inhalten genutzt werden. Spätestens seit der Veröffentlichung des Papst-Bildes, das ihn scheinbar in einer Balenciaga-Jacke zeigt, sollten alle gewarnt sein.
KI – aber sicher!
Man darf nicht mit der Implementierung von Sicherheitsmaßnahmen im Zusammenhang mit KI warten, bis es zu einer Datenschutzverletzung kommt. Die ersten Schritte müssen schon jetzt eingeleitet werden. Mitarbeitende müssen jetzt geschult werden, was sie weitergeben dürfen und was nicht. Für einige mag es harmlos erscheinen, Kundendaten in ChatGPT-Eingabeaufforderungen einzutragen. Allerdings genügt ein einziger Mitarbeitender, der auf eine gefälschte ChatGPT-Seite zugreift und sensible Informationen eingibt, um ein ganzes Unternehmen zu gefährden.
Zweifellos hat die KI die Welt im Sturm erobert und die Technologie wird sich in den kommenden Jahren weiterentwickeln. Der Grundstein dafür ist das Verständnis der Vorteile und Risiken von KI, die Schulung der Mitarbeiter im richtigen Umgang mit verschiedenen KI-Tools und die Festlegung von Parametern für die Freigabe von Daten, die verwendet oder eben nicht verwendet werden dürfen. Hinzu kommen die Auswirkungen von KI auf den Datenschutz und die Compliance, die immer häufiger eine Rolle spielen werden. Es geht also darum, sicherzustellen, Richtlinien und Verfahren für die Nutzung von KI zu erarbeiten und diese auch durchzusetzen. Nur wenn die Sicherheit und Vertraulichkeit sensitiver Daten gewährleistet ist, kann sich KI zu einer effektiven und wirkungsvollen Technologie entwickeln.
Um einen Kommentar zu hinterlassen müssen sie Autor sein, oder mit Ihrem LinkedIn Account eingeloggt sein.