Vertrauen in Digitales wird die 20-Billionen-Dollar-Chance definieren
KI verändert die Art und Weise, wie Industrien arbeiten, konkurrieren und Werte schaffen, in einem noch nie dagewesenen Tempo. Prognosen der Marktanalysten von IDC zufolge wird sie bis 2030 fast 20 Billionen US-Dollar zum globalen BIP beitragen und damit ihren Platz als eine der stärksten wirtschaftlichen Kräfte unseres Jahrhunderts festigen. Mit der zunehmenden Integration von KI in die Geschäftsabläufe entsteht jedoch rasch eine neue Angriffsfläche, die im mangelhaften Verständnis von Maschinen für die Bedeutung und den Kontext der menschlichen Sprache begründet liegt.
Gen AI und große Sprachmodelle (LLM) rücken derweil in den Mittelpunkt wichtiger Arbeitsabläufe in allen Branchen. Finanzinstitute setzen sie ein, um Märkte zu analysieren und Volatilität zu antizipieren. Hersteller integrieren sie, um komplexe Lieferketten zu orchestrieren. Unternehmen des Gesundheitswesens setzen sie ein, um Informationen zu sichten und die Forschung zu beschleunigen.
Doch mit dem zunehmenden Einsatz von GenAI-Systemen wächst auch eine neue Klasse von Bedrohungen heran, die nicht den Code, sondern die Kommunikation ausnutzen. Sie zielen eher darauf ab, was KI versteht, als darauf, wie sie ausgeführt wird – und sie entstehen schneller, als die meisten Unternehmen sich darauf vorbereiten können, um sie zu erkennen und abzuwehren.
LLMs und die entstehende Bedrohungslandschaft
Die Cybersicherheit hat sich traditionell auf die Absicherung der Infrastruktur konzentriert: Sperren von Netzwerken, Schließen von Schwachstellen und Durchsetzung von Identitätskontrollen. Die heutige Bedrohungslandschaft verlagert sich jedoch auf subtilere und noch schwieriger zu entdeckende Weise. Cyber-Kriminelle müssen nicht mehr Software-Fehler ausnutzen oder in ein Netzwerk eindringen, um Schaden anzurichten. Sie können manipulieren, wie KI-Systeme die menschliche Sprache interpretieren, und so die Semantik selbst in eine Angriffsfläche verwandeln.
Versteckte bösartige Anweisungen können sich in öffentlichen Daten, Schulungsmaterial, Kunden-Inputs oder Open-Source-Dokumentation verstecken. Diese Manipulationen können die Argumentation eines Modells umlenken, seine Ergebnisse verzerren oder die Erkenntnisse, die es den Entscheidungsträgern liefert, beeinträchtigen. Da diese Angriffe in natürlicher Sprache erfolgen, werden sie von herkömmlichen Sicherheitslösungen nur selten erkannt. Das Modell wird also an der Quelle vergiftet, lange bevor jemand merkt, dass etwas nicht stimmt. Für Unternehmen, die nicht angemessen vorbereitet und geschützt sind, stellt dies ein ernsthaftes und oft unbemerktes Risiko dar.
Dies ist außerdem keine hypothetische Bedrohung, denn je mehr Unternehmen autonome und halbautonome KI-Systeme einsetzen, desto größer ist der Anreiz für Angreifer, die Sprachebene ins Visier zu nehmen. Die Einstiegskosten für Angreifer sind nämlich gering (man denke an die Zunahme von Mietmodellen nach dem Prinzip as-a-Service) und der potenzielle Schaden ist enorm.
Die stille Insider-Bedrohung
Wenn ein KI-Modell kompromittiert wird, verhält es sich wie eine Insider-Bedrohung. Es kann unbemerkt geistiges Eigentum preisgeben, strategische Empfehlungen ändern oder Ergebnisse erzeugen, die einem Dritten zugutekommen. Die Herausforderung liegt hier in der Unsichtbarkeit des Schadens: Das KI-Modell handelt, ohne aufzufallen. Das System beantwortet nach wie vor Fragen, fasst Dokumente zusammen, verarbeitet Daten und unterstützt die Mitarbeiter. Es tut all diese Dinge jedoch in einer subtilen, falsch ausgerichteten Weise.
Was wir jetzt beobachten, ist eine Verlagerung des Unternehmensrisikos vom Schutz der Daten weg, hin zum Schutz des Wissens. Die Kernfrage für Sicherheitsverantwortliche lautet daher nicht mehr, wie sie die Zugriffsrechte verwalten sollten, sondern, was ihre KI-Modelle aufgenommen haben – und woher.
Die Governance-Lücke
Trotz des Ausmaßes der Bedrohung konzentrieren sich viele Unternehmen nach wie vor darauf, wer KI nutzt, und nicht darauf, was ihre KI-Systeme aufnehmen. Diese Lücke wird mit der zunehmenden Verbreitung von KI und der wachsenden Autonomie immer größer. Der Aufbau vertrauenswürdiger und stabiler KI-Ökosysteme erfordert daher, dass Unternehmen die Integrität und Authentizität jedes Datensatzes, jeder Anweisung und jeder Inhaltsquelle, die ihre Modelle speisen, überprüfen.
Dies steht in engem Zusammenhang mit einem zentralen Thema, das sich für das Weltwirtschaftsforum (WEF) in Davos 2026 abgezeichnet hat: Die Realisierung des enormen wirtschaftlichen Potenzials der KI hängt von einem verantwortungsvollen Einsatz und überprüfbarem Vertrauen ab. KI soll weder eine Blackbox bleiben, noch darf sie weiterhin passiv einfach unkontrollierte Daten konsumieren. Die Systeme, die den größten wirtschaftlichen und gesellschaftlichen Nutzen bringen, werden daher so konzipiert sein, dass Rückverfolgbarkeit, Transparenz und Verantwortlichkeit im Mittelpunkt stehen.
Vertrauen in den Kern der KI schaffen
Die Bewältigung dieser neuen Bedrohungslage beginnt mit einem einfachen, aber grundlegenden Prinzip: Null Vertrauen, also Zero Trust. Vertraue nichts, sondern überprüfe alles – kontinuierlich.
Zero Trust ist zwar kein neues Sicherheitskonzept, aber sein Anwendungsbereich muss über Zugangskontrollen hinausgehen und die Daten samt Anweisungen einschließen, die KI-Systeme trainieren und steuern. Dies erfordert eine ständige Überwachung der Entwicklung von Modellen, die Rückverfolgung des Ursprungs ihres Wissens und die Verankerung von Verantwortlichkeit im gesamten KI-Lebenszyklus. KI-Kenntnisse, Datenprovenienz und digitales Vertrauen müssen nun neben ESG und Cyber-Sicherheit zu den Prioritäten auf Vorstandsebene gehören, da die Integrität der Unternehmensintelligenz zunehmend von ihnen abhängt.
Das Bewusstsein für diese Risiken wächst weltweit. Das 2025 veröffentlichte OECD AI Risk and Safety Framework sowie ähnliche internationale Initiativen erkennen Datenmanipulation und KI-Missbrauch bereits als kritische Bereiche an, die gemeinsame Standards und Aufsicht erfordern. Für Unternehmen stärkt die Anpassung der Governance an diese Rahmenwerke daher auf grundlegend die betriebliche Widerstandsfähigkeit und stärkt das öffentliche Vertrauen in die Sicherheit und damit Zuverlässigkeit der Firma.
Sicherung von KI durch Absicherung der natürlichen Sprache
Um das volle Potenzial von Künstlicher Intelligenz ausschöpfen zu können, müssen sich Cyber-Verantwortliche die Idee zu eigen machen, dass sichere Intelligenz nachhaltige Intelligenz ist. Die nächste Ära der Cyber-Sicherheit wird nicht durch die Verteidigung von Systemen definiert, sondern durch die Verteidigung der Semantik, die der Sprache zugrunde liegt, welche das jeweilige KI-Modell versteht. Die Integrität der Art und Weise, wie Maschinen denken, interpretieren und kommunizieren, wird zu einem strategischen Vorteil.
KI abzusichern, heißt die Sprache zu schützen, auf die sie sich stützt. Vertrauen wird deshalb die nächste Grenze der Innovation definieren. Unternehmen und Staaten, die in diesem Bereich führend sind, werden Vertrauen sowohl als Wettbewerbsvorteil als auch als gemeinsame globale Verantwortung betrachten, wenn sie eine Grundlage schaffen wollen.



Um einen Kommentar zu hinterlassen müssen sie Autor sein, oder mit Ihrem LinkedIn Account eingeloggt sein.