(Quelle: Neo4j/Freepik))

Das Kontext-Problem von KI: Eine Frage der Architektur

Künstliche Intelligenz (KI) ist in den Unternehmen angekommen. Kaum eine Technologie wurde in so kurzer Zeit in solchem Umfang erprobt, pilotiert und kommuniziert. Die Investitionen steigen stetig. Doch im Enterprise-Umfeld zeigt sich auch Ernüchterung: Der erhoffte Produktivitäts- und Wertschöpfungseffekt lässt auf sich warten.
Von   Michael Hunger   |  Head of Product Innovation & Developer Product Strategy   |  Neo4j
15. April 2026

 

Das Kontext-Problem von KI:

Eine Frage der Architektur

 

 

Künstliche Intelligenz (KI) ist in den Unternehmen angekommen. Kaum eine Technologie wurde in so kurzer Zeit in solchem Umfang erprobt, pilotiert und kommuniziert. Die Investitionen steigen stetig. Doch im Enterprise-Umfeld zeigt sich auch Ernüchterung: Der erhoffte Produktivitäts- und Wertschöpfungseffekt lässt auf sich warten.

 

(Quelle: Neo4j/Freepik)

 

Laut einer MIT-Studie liefern 95 % der Pilotprojekte keine messbaren Ergebnisse. Gartner rechnet damit, dass 40 % der Agentic-AI-Projekte bis 2027 scheitern – gebremst durch Kosten, unklaren ROI und ungeklärte Risiken.

Ein genauer Blick auf KI-Projekte in Unternehmen zeigt ein wiederkehrendes Muster: Allgemeine KI-Tools und -Assistenten lassen sich schnell ausrollen und sorgen für die Anwender im Büroalltag oft für einen Aha-Effekt. Größere KI-Systeme – die nicht nur Einzelaufgaben lösen, sondern unternehmensweiten Wandel und messbaren ROI bringen sollen – verschlingen hingegen viel Zeit, Geld und Ressourcen.

Die Gründe dafür sind vielfältig. KI-Systeme müssen mit heterogenen Datenquellen umgehen sowie Sicherheits- und Compliance-Vorgaben erfüllen. Erschwerend kommt hinzu, dass viele Unternehmensprozesse historisch gewachsen sind und KI tief in bestehende Prozess-, Daten- und Governance-Strukturen eingebettet werden muss. Der Engpass liegt daher weniger in der Modellleistung als in der Skalierbarkeit dieser Einbettung.

 

Agentic AI: Agenten im Hintergrund

Besonders deutlich wird diese Verschiebung beim Thema Agentic AI. Gemeint sind KI-Systeme, die Aufgaben selbstständig in einzelne Schritte zerlegen, diese iterativ ausführen und dabei Entscheidungen über Werkzeuge, Datenquellen oder nächste Aktionen treffen. Die KI-Agenten agieren nicht nur reaktiv auf Eingaben, sondern verfolgen ein Ziel über mehrere Schritte hinweg und passen ihr Vorgehen dynamisch an den jeweiligen Kontext an.

In der Realität sind solche Szenarien bislang die Ausnahme. Zwar experimentiert laut McKinsey die Mehrheit der Unternehmen mit KI-Agenten, doch nur 23 % nutzen sie in einem produktiven Bereich. In der Regel arbeiten sie im Hintergrund, recherchieren Informationen, strukturieren Daten oder bereiten Entscheidungen vor – häufig in stark eingegrenzten Domänen wie Recht, Compliance oder Medizin.

Ein zentraler Grund dafür ist die inhärente Unzuverlässigkeit dieser probabilistischer Systeme. KI-Agenten liefern auch bei identischen Eingaben nicht zwangsläufig identische Ergebnisse. Sie benötigen Anleitung, Feedback und Kontrolle durch den Menschen. Ohne ein strukturiertes „Onboarding“, klare Zieldefinitionen und kontinuierliche Validierung bleibt ihr Einsatzgebiet zwangsläufig begrenzt.

 

Kontext ist nicht gleich Kontext

Egal ob GenAI oder Agentic AI – KI schafft keinen Mehrwert ohne Kontext. Die Qualität der Ergebnisse hängt direkt davon ab, welche Informationen dem Modell zur Verfügung stehen und wie diese strukturiert sind. Im Enterprise-Umfeld hat sich daher die Kopplung von Sprachmodellen mit unternehmensspezifischen Wissensquellen etabliert.

Erschwerend kommt hinzu, dass in Enterprise-Systemen meist zwar das „was“ und „wie“ von Entscheidungen dokumentiert wird, jedoch häufig nicht das zugrunde liegende „warum“. Dieses implizite Wissen – das oft nur in den Köpfen der Mitarbeitenden vorhanden ist – ist jedoch entscheidend, um auch künftig konsistente Entscheidungen treffen zu können (Stichwort Kontext-Graph).

Bei Retrieval-Augmented-Generation-Ansätzen (RAG) werden Sprachmodelle dafür gezielt mit externem Wissen verknüpft, etwa über Knowledge Graphen (GraphRAG).

Im Laufe der Zeit hat sich jedoch gezeigt, dass Kontext selbst zum Problem werden kann. So verschlechtert zu viel oder schlecht kuratierter Input die Ergebnisqualität. Typische Effekte sind:

 

  • Context Rot beschreibt den schleichenden Qualitätsverlust von KI-Ergebnissen in langen oder anwachsenden Kontexten. Mit jeder zusätzlichen Information nimmt das Verhältnis von relevantem Inhalt zu Rauschen ab. Zentrale Begriffe, Ziele oder Annahmen verlieren an Gewicht, kleine Ungenauigkeiten bleiben unbemerkt und summieren sich. Das Modell arbeitet weiterhin korrekt, verfehlt jedoch zunehmend den ursprünglichen Fokus.

 

  • Context Confusion entsteht, wenn der Kontext gleichzeitig mehrere ähnliche, konkurrierende oder nur schwer unterscheidbare Informationen enthält. Das Modell kann diese nicht mehr klar trennen oder priorisieren und trifft dadurch inkonsistente Entscheidungen. Anders als bei Context Rot geht es nicht um zeitliche Verwässerung, sondern um Gleichzeitigkeit: zu viele vergleichbare Regeln, Begriffe, Optionen oder Handlungsmöglichkeiten führen dazu, dass die KI zwischen ihnen schwankt oder sie unsauber kombiniert.

 

  • Context Poisoning beschreibt die Situation, in der fehlerhafte, erfundene oder unvalidierte Informationen in den Kontext gelangen und dort wie verlässliche Fakten behandelt werden. Das Modell übernimmt diese Inhalte nicht als Annahmen, sondern als Teil seiner Arbeitsgrundlage. Ein einmal eingebetteter Fehler bleibt wirksam, beeinflusst nachfolgende Schritte und prägt weitere Entscheidungen.

 

  • Context Clash tritt auf, wenn widersprüchliche Anweisungen, Regeln oder Ergebnisse gleichzeitig im Kontext präsent sind. Das Modell versucht, diese Gegensätze parallel zu berücksichtigen, ohne sie auflösen oder priorisieren zu können. Dadurch entstehen instabile oder inkonsistente Entscheidungen, die zwischen verschiedenen Logiken schwanken oder sich gegenseitig neutralisieren.

 

  • Context Distraction beschreibt eine Form der Aufmerksamkeitsverschiebung, bei der frühere Schritte oder bekannte Handlungsmuster im Kontext dominieren. Neue Informationen oder geänderte Anforderungen werden zwar aufgenommen, beeinflussen die weitere Bearbeitung jedoch kaum.

 

Context Engineering: Datenselektion statt Datenflut

Statt also möglichst viel, unspezifischen Kontext bereitzustellen, rückt vielmehr die gezielte Auswahl in den Vordergrund. Context Engineering bezeichnet die bewusste Gestaltung von Kontext über den gesamten Ablauf einer KI-Anwendung hinweg: Welche Information wird in welchem Schritt benötigt – und welche nicht?

Zentrales Leitprinzip kann dabei mit Minimum Viable Context (MVC) zusammengefasst werden. Gemeint ist genau die Menge an Informationen, die für den nächsten Entscheidungsschritt erforderlich ist, ohne das Modell mit unnötigen Details zu überladen. Kontext wird damit nicht akkumuliert, sondern situativ bereitgestellt.

Eine weitere Änderung spiegelt sich im Übergang vom Push- zum Pull-Prinzip wider. Statt Informationen zur Beantwortung der Anfrage im Vorfeld zu sammeln und dem Modell zu übergeben (RAG), entscheiden agentische KI-Systeme selbst, welche Informationen ihnen fehlen, und rufen diese gezielt ab. Kontext wird nicht mehr „auf Vorrat“ geliefert, sondern bedarfsorientiert erzeugt. KI übernimmt damit eine aktive, orchestrierende Rolle bei der eigenen Informationsbeschaffung und Ausführung von Aktionen.

 

Graphen als Navigationssystem

Genau bei dieser Art von Context Engineering stoßen klassische Datenmodelle an ihre Grenzen. Tabellen, Dokumente oder Vektorindexe sind darauf ausgelegt, isolierte Informationen abzulegen und direkt wiederzufinden. Sie beschreiben Inhalte – nicht deren Bedeutung, Abhängigkeiten oder Rolle im jeweiligen Zusammenhang. Für KI-Systeme, die Kontext gezielt auswählen, priorisieren und kombinieren sollen, reicht das nicht aus.

Graphdatenbanken verfolgen einen anderen Ansatz. Sie stellen Wissen explizit als Netzwerk aus Entitäten und Beziehungen dar. Informationen stehen nicht isoliert nebeneinander, sondern sind miteinander verknüpft: Wer ist wofür zuständig, welche Regel gilt in welchem Fall, welche Entscheidung baut auf welcher Annahme auf. Für KI entsteht damit ein strukturierter Kontext, der nicht nur abrufbar, sondern navigierbar ist.

Gerade im Zusammenspiel mit KI-Agenten sind Graphen von Bedeutung. Agenten müssen wissen, wo sie sich im Prozess befinden, welche Informationen relevant sind und welche nächsten Schritte sinnvoll sind. Graphen liefern dafür eine semantische Orientierungsschicht, die Kontext nicht pauschal bereitstellt, sondern gezielt zugänglich macht. Entscheidungen lassen sich dadurch besser nachvollziehen, prüfen und steuern.

Des Weiteren ist die Flexibilität von Graphen vorteilhaft für die langfristige Speicherung, Analyse, Extraktion und Bereitstellung semantischer, prozessbezogener und entscheidungskritischer Informationen aus der Interaktion von Agenten (Agent Memory). So lässt sich neben explizitem Wissen auch prozedurales Handlungs- und Prozesswissen systematisch erfassen und für konsistente Entscheidungen nutzen.

In diesem Sinne entwickeln sich Graphen vom Spezialwerkzeug zur tragenden Infrastruktur. Sie bilden die Grundlage für Knowledge Layer, in denen Daten, Regeln, Zustände und Beziehungen zusammengeführt werden. Erst durch diese explizite Struktur wird Context Engineering im großen Maßstab praktikabel.

 

Fazit

Unternehmen scheitern mit KI nicht, weil die Technologie unreif ist, sondern weil sie versuchen, Komplexität zu automatisieren, bevor sie sie strukturiert haben. Solange Kontext, Verantwortlichkeiten und Entscheidungslogiken implizit bleiben, verstärkt KI bestehende Unschärfen statt Produktivität zu erzeugen. Nachhaltiger ROI entsteht erst, wenn Unternehmen lernen, Kontext bewusst zu begrenzen, zu steuern und technisch zu verankern – etwa in Form eines Kontext Graphen. Dieser lässt sich als explizite Wissensschicht nutzen, um das Spannungsfeld von probabilistisch vs. deterministisch aufzulösen und eine intelligente Plattform für skalierbare Systeme aufzubauen.

 

Bildmaterial:

  • Headerbild (Quelle: Neo4j/Freepik))

 

 

Michael Hunger beschäftigt sich seit mehr als 35 Jahren mit Softwareentwicklung. In den letzten hat er an der Graphdatenbank Neo4j in verschiedenen Funktionen gearbeitet, zuletzt als Leiter der Produktinnovation und Entwicklerstrategie. Sein Fokus liegt auf GenAI, Cloud und Developer Experience.

Um einen Kommentar zu hinterlassen müssen sie Autor sein, oder mit Ihrem LinkedIn Account eingeloggt sein.

54501

share

Artikel teilen

Top Artikel

Ähnliche Artikel