KI-Assistenten: Neue Herausforderung für die Cybersicherheit

Die zunehmende Integration von KI am Arbeitsplatz spaltet derzeit die Beschäftigten in Deutschland. Laut einer aktuellen BitKom-Studie wünscht sich die Hälfte von ihnen (51 %) die Übernahme von repetitiven Aufgaben durch KI. Einen persönlichen KI-Assistenten bei der Arbeit hätten 45 % gerne. Demnach sehen die Hälfte der Beschäftigten die Implementierung von KI als Vorteil hinsichtlich der Zukunftsfähigkeit des Unternehmens. Sie ermöglicht datengestützte Entscheidungen, die Prozesse effizienter machen, die Produktion steigern und Kosten senken.
Von   Neil Thacker   |  Chief Information Security Officer EMEA   |  Netskope
26. Juni 2024

KI am Arbeitsplatz boomt

 

Im vergangenen Jahr haben sich Innovationen im Bereich KI am Arbeitsplatz ausgebreitet. In allen Branchen und Teamrollen nutzen Mitarbeiter:innen bereits KI-Assistenten, um verschiedene Aufgaben zu vereinfachen und effizienter zu machen, z. B. Protokolle zu erstellen, E-Mails zu schreiben, Codes oder Marketingstrategien zu entwickeln und sogar bei der Verwaltung der Unternehmensfinanzen zu helfen. Ein KI-Assistent könnte auch bei der Compliance-Strategie helfen, indem er regulatorische Änderungen aktiv überwacht und Verbesserungsmöglichkeiten identifiziert.

 

Safety first

 

Laut Statista werden für dieses Jahr über sechs Milliarden US-Dollar und für das Jahr 2025 knapp acht Milliarden US-Dollar Umsatz für Unternehmensanwendungen im Bereich KI in Europa prognostiziert. Bei allem Potenzial von KI gibt es jedoch auch große Herausforderungen.

Die Vorteile der KI lassen sich leider auch für Angriffe und Betrügereien missbrauchen. Besonders beim Phishing und Social Engineering können Kriminelle mittels KI-Tools binnen kürzester Zeit glaubwürdige Anschreiben in unterschiedlichen Sprachen verfassen. Genauso lassen sich auch massenhaft individualisierte Profile für gezieltes Spear-Phishing erstellen. Cyberkriminelle haben sich längst die neue Technologie zunutze gemacht und adaptieren generative KI in ihrer Angriffskette. Dabei wird die Vorgehensweise immer komplexer und raffinierter.

Und die folgende zentrale Frage stellen sich die IT-Verantwortlichen weltweit: Wie können Unternehmensdaten und geistiges Eigentum vor Leaks über diese generativen KI-Plattformen und Drittanbieter geschützt werden? Um diesem Risiko zu entgehen, erwägen viele Unternehmen sogar, KI-Tools in ihren Systemen vollständig zu blockieren. Dies könnte allerdings Innovationen einschränken, eine Kultur des Misstrauens gegenüber Mitarbeiter:innen schaffen oder sogar zu „Schatten-KI“ führen – der nicht genehmigten Nutzung von KI-Anwendungen Dritter außerhalb des Unternehmensnetzwerks.

 

CISOs gefragt!

 

Anstatt Tools vollständig zu sperren, können CISOs (Chief Security Officers) mithilfe intelligenter Data Loss Prevention (DLP)-Tools Schutzrichtlinien implementieren, damit die Beschäftigten KI-Anwendungen bedenkenlos nutzen können. DLP-Tools stellen sicher, dass bei eingehenden Abfragen für KI-Anwendungen keine vertraulichen Informationen verwendet werden, wodurch kritische Daten geschützt und unbefugter Zugriff, Leaks oder Missbrauch verhindert werden.

CISOs sollten zudem eine aktive Rolle bei der Bewertung der von Mitarbeiter:innen verwendeten Anwendungen übernehmen und den Zugriff auf diejenigen beschränken, die nicht den Anforderungen des Unternehmens entsprechen oder ein übermäßiges Risiko darstellen. Auch kontinuierliche Schulungen für alle im Unternehmen tätigen Mitarbeiter:innen – vom Werkstudenten bis zur Geschäftsführung – spielen eine zentrale Rolle. Die Sensibilisierung für Datensicherheit, das Erkennen möglicher Cyberangriffe und das entsprechende Verhalten im Fall der Fälle sind unerlässlich.

Wenn die Einführung eines KI-Assistenten für ein Unternehmen in Betracht gezogen wird, sollten CISOs den Anbieter überprüfen und seine Datenrichtlinien bewerten. Während dieses Prozesses müssen sie die folgenden Fragen beantworten:

 

1. Was passiert mit den von Mitarbeiter:innen eingegebenen Daten?

 

Um intern den Datenschutz und die Sicherheit der Daten zu gewährleisten, sollten CISOs genau verstehen, wie der entsprechende Anbieter Daten verwaltet und schützt. Eine Studie des Weltwirtschaftsforums ergab, dass 95 % der Cyber Sicherheitsvorfälle auf menschliches Versagen zurückzuführen sind – und wenn sensible Daten einem KI-Assistenten eines Drittanbieters anvertraut werden, kann dieses Risiko noch erhöht werden.

Es gibt noch einen weiteren kritischen Punkt: Indem Unternehmen die KI-Tools mit Daten speisen, tragen sie möglicherweise unbeabsichtigt zum Training potenziell wettbewerbsfähiger KI-Modelle bei. Dies kann zu einem Szenario führen, in dem proprietäre Informationen oder Einblicke in die Abläufe des Unternehmens von Wettbewerbern ausgenutzt werden können, was erhebliche Risiken für den Wettbewerbsvorteil und die Marktposition des Unternehmens mit sich bringt.

 

2. Wird der KI-Assistent privat oder öffentlich genutzt?

 

Wurde er vom Unternehmen selbst entwickelt oder basiert er auf einer Drittanbieter-Lösung?
Viele von Mitarbeiter:innen genutzte Anwendungen sind oft auf Dienste von Drittanbietern angewiesen. Es kommt häufig vor, dass Teams vermeintlich kostenlose Anwendungen nutzen, ohne zu wissen, dass die Back-End-Infrastruktur auf einer öffentlich zugänglichen Plattform läuft. KI-Technologie ist teilweise mit erheblichen Kosten verbunden. Deshalb sollten Beschäftigte sich bewusst machen, dass entsprechende kostenlose oder günstige Optionen auf andere Weise Geld verdienen – nämlich durch den Verkauf von Daten oder der KI-Intelligenz, zu der die Nutzer:innen beitragen. In solchen Fällen ist eine gründliche Prüfung des Kleingedruckten unerlässlich, um den Schutz und die Vertraulichkeit sensibler Daten zu gewährleisten.

 

3.  Was passiert mit den Ergebnissen? Werden sie eingesetzt, um nachfolgende Modelle zu trainieren?

 

Viele KI-Anbieter nutzen nicht nur die Dateneingabe, um ihre Modelle zu trainieren, sondern auch die Datenausgabe. Dies kann dazu führen, dass bestimmte Anwendungen unbeabsichtigt vertrauliche Unternehmensinformationen preisgeben und damit Urheberrechte verletzt werden. Die Herausforderung besteht darin, dass sie bei der Planung des Datenschutzes nur schwer zu erkennen sind.

KI kann manipuliert werden, beispielsweise wenn die Trainingsdaten gezielt verändert werden, um die KI „umzuerziehen“ oder bewusst falsch anzulernen.

 

Fazit

 

Da Unternehmen auf strengere gesetzliche Leitlinien zur KI warten, ist es wichtig, dass Führungskräfte, die für Sicherheit und Compliance verantwortlich sind, Selbstregulierung und ethische KI-Praktiken in ihren Organisationen fördern. Angesichts der zunehmenden Verbreitung von KI-Assistenten ist es von entscheidender Bedeutung, dass sie jetzt handeln, um die Auswirkungen dieser Tools am Arbeitsplatz zu bewerten.

Bald werden alle Mitarbeiter:innen viele tägliche Aufgaben gemeinsam mit ihren KI-Assistenten erledigen, und dies sollte Unternehmen dazu motivieren, interne Governance-Ausschüsse zu bilden, um nicht nur Tools und ihre Anwendungen zu bewerten, sondern auch die Ethik der KI-Analyseprozesse, die Implementierung und Regulierung sowie die Strategie zu diskutieren.

Neil Thacker verfügt über 20 Jahre Erfahrung in der Cybersicherheits- und Technologiebranche. Als CISO EMEA bei Netskope arbeitet er mit den Produkt- und Entwicklungsteams zusammen, um die sichere Bereitstellung der Netskope-Technologie und -Dienste zu gewährleisten.

Um einen Kommentar zu hinterlassen müssen sie Autor sein, oder mit Ihrem LinkedIn Account eingeloggt sein.

47372

share

Artikel teilen

Top Artikel

Ähnliche Artikel