Demokratisierung des Codens als Sicherheitsrisiko
Der KI-Trend und die damit verbundenen KI-Werkzeuge ermöglichen eine breitere Zugänglichkeit zur Code-Generierung. Dies eröffnet nie dagewesene Möglichkeiten für Innovationen, birgt aber auch unzählige Risiken. Immer mehr Einzelpersonen werden zu Citizen Developern, die durch generativen Code aus Quellen wie ChatGPT und Google Bard programmieren können. Sie werden zu einem integralen Bestandteil von Unternehmen und dadurch birgt die Demokratisierung des Programmierens sowohl Chancen als auch Komplexitäten.
Auf der einen Seite ermöglicht die Demokratisierung des Codes nun jedem, nicht nur traditionellen Entwicklern, die Macht zur Codeherstellung. Von Finanzexperten über Fabrikarbeiter bis hin zu Remote-Mitarbeitern bieten fortschrittliche Systeme die Möglichkeit, dass Einzelpersonen schnell und einfach Skripte erstellen können.
Eine weitere Entwicklung bringt eine neue Ebene der Komplexität mit sich: das Potenzial der generativen KI, sich nicht nur selbst zu replizieren, sondern auch zahlreiche Instanzen zu erzeugen. Ob spontan oder durch böswillige Aktivitäten, dieser Ausbruch aus den bisherigen Begrenzungen vervielfacht die Risiken für Unternehmen. Das komplexe Geflecht miteinander verbundener Bedrohungen wird immer größer, da Maschinen miteinander kommunizieren, Infrastrukturentscheidungen treffen, Code erstellen und Inhalte generieren. Diese Faktoren bergen völlig neue Probleme. Um ihre digitale Zukunft zu sichern, müssen sich Unternehmen mit diesen Nuancen auseinandersetzen und betonen, wie wichtig die Authentifizierung des gesamten Codes ist.
Die Verantwortung für Secure Code liegt beim CISO und CIO
In dieser neuen Welt der Software-Orchestrierung liegt die Verantwortung ganz klar bei den CISOs und CIOs. Sie geht über die herkömmliche Softwareverwaltung hinaus und umfasst das gesamte Spektrum von der konventionellen Programmierung bis hin zu modernsten generativen KI-Technologien, die im Geschäftsbetrieb eingesetzt werden. Um diese Herausforderungen gerecht zu werden, müssen Unternehmen eine umfassende Verteidigungsstrategie entwickeln. Jedes Teil des Coding-Puzzles muss nun über eine klare Workload-Identität zur Authentifizierung und Rechenschaftslegung verfügen, insbesondere in einer Welt, in der Entwickler und KI-Systeme nahtlos interagieren.
Modelle sollten klar zugewiesen und Maschinenidentitäten entsprechend genehmigt werden, um eine Überwachung oder Kontrolle zu ermöglichen. Nach der Entwicklung eines KI-Modells sollte dieses einer gründlichen Überprüfung unterzogen werden, um sicherzustellen, dass es relevanten KI-Vorschriften entspricht, zertifiziert ist und registriert werden kann. Anschließend sollte eine Art „Konformitätserklärung“ unterzeichnet werden, bevor das KI-Modell mit einer Kennzeichnung ähnlich „CE“ versehen und verwendet werden kann.
Diese Behandlungsform von KI-Modellen oder -Produkten impliziert, dass jedes von ihnen eine einzigartige individuelle Identität besitzt. Dies könnte in einem System formalisiert werden, das nicht nur das Modell selbst, sondern auch seine Kommunikation mit anderen Assets und die von ihm erzeugten Ergebnisse authentifiziert.
Unternehmen müssen der Authentifizierung, Autorisierung und Regulierung des Verhaltens von KI- und maschinellen Lernmodellen Priorität einräumen. Das bedeutet, dass die Verantwortlichen zunächst verstehen müssen, was sie verwenden und worauf zugegriffen wird. Sie müssen herausfinden, ob das Modell zertifiziert, ob es gut oder schlecht ist und ob es geändert wurde. Ebenso könnten sie autorisieren und authentifizieren, mit welchen anderen Systemen sich die KI verbinden und kommunizieren kann, auf welche anderen Systeme sie zurückgreift, und die Vertrauenskette, die zu einer bestimmten Entscheidung oder Ausgabe führt. Letzteres wird besonders wichtig sein, wenn es um Abhilfe und Rückverfolgbarkeit geht. CISOs müssen ihre Security-Teams in die Lage versetzen, alle Aktionen zurückzuverfolgen, die ein KI-Modell im Laufe der Zeit durchgeführt hat, um zu erklären, wie es zu einem bestimmten Ergebnis gekommen ist. Im Falle eines Sicherheitsvorfall von außen, müssen sie nachweisen können, wer die KI infiltriert hat und zurückverfolgen können, was dieser Akteur getan hat, während die KI kompromittiert war. Aus all diesen Gründen ist die Identität entscheidend.
Zusätzlich ist ein Kill Switch unverzichtbar, um schnell und effektiv auf unvorhergesehene Probleme zu reagieren und einen umfassenden Ansatz zur Absicherung der sich ständig weiterentwickelnden Voraussetzungen des Codens zu gewährleisten.
Ein KI-Kill-Switch für Maschinenidentitäten
Das Konzept eines Kill Switches kombiniert Code-Signaturen mit Maschinenidentitäten, um Ergebnisse zu verifizieren, sowie TLS- und SPIFFE-Maschinenidentitäten, um die Kommunikation mit anderen Maschinen und Cloud-nativen Diensten sowie KI-Eingaben zu schützen. Während jedes Prozesses benötigt jede Maschine eine Identität, um autorisierten Zugriff und Manipulation zu verhindern. Sollten die KI-Systeme außer Kontrolle geraten und eine ernsthafte Bedrohung darstellen, könnten ihre Identitäten als De-facto-Kill-Switch verwendet werden. Der Mechanismus könnte die KI daran hindern, mit einem bestimmten Dienst zu kommunizieren, ihn zu schützen und abschalten, wenn eine Kompromottierung vorliegt. Zudem müsste er auch alles andere ausschalten, was in der von dem KI-Modell erzeugten Abhängigkeitskette als gefährlich erachtet wird. An dieser Stelle kommt die identitätsbasierte Prüfbarkeit und Rückverfolgbarkeit ins Spiel.
Fazit
Sobald jede KI eine eigene Identität hat, wird die Verantwortlichkeit auch von Citizen Developern gestärkt und ein größeres Verantwortungsbewusstsein gefördert, um Missbrauch oder Nachlässigkeit zu verhindern. Maschinenidentitäten dienen nicht nur dem Schutz von Unternehmen, sondern sind ein messbarer Erfolg. Darüber hinaus würde die Entwicklung dazu beitragen, die Sicherheit und das Vertrauen in eine Technologie zu erhöhen, der es bisher an beidem mangelte. Robuste Abwehrmechanismen, Maschinenidentitäten und die Integration eines Kill Switches ermöglichen Unternehmen die Nutzung der transformativen Kraft der KI zu nutzen und sie gleichzeitig abzusichern.
Um einen Kommentar zu hinterlassen müssen sie Autor sein, oder mit Ihrem LinkedIn Account eingeloggt sein.