Software für Enterprise Search setzt schon seit langem auf Künstliche Intelligenz. Seit Jahren beherrscht sie Methoden wie Machine Learning und Deep Learning, um die Themen von Inhalten zu verstehen und sie miteinander zu vernetzen. Durch den Einsatz dieser Technologien wurde aus der ursprünglich reinen Volltextsuche eine intelligente Suche, die es Nutzern ermöglicht, trotz ständig wachsender Datenberge schnell an alle Informationen zu gelangen, die sie für ihre tägliche Arbeit brauchen.
Jetzt schicken sich die großen KI-Sprachmodelle (Large Language Models, LLMs) an, eine neue Generation der intelligenten Unternehmenssuche hervorzubringen. Diese Modelle, die vor allem durch den Hype um ChatGPT populär wurden, aber schon seit 2018 unter dem Stichwort „Transformer“ in Fachkreisen diskutiert und bewertet werden, basieren auf neuronalen Netzen und werden mit riesigen Datenmengen trainiert. Sie sind in der Lage, menschliche Sprache besser zu verstehen und zu verarbeiten als jemals zuvor und sogar komplette Texte selbstständig zu generieren. Diese Fähigkeiten eröffnen auch der Unternehmenssuche immense Möglichkeiten.
LLMs neigen zu Halluzinationen
Um diese Möglichkeiten auszuloten, ist es wichtig, sich zunächst die Grenzen der Großen Sprachmodelle vor Augen zu führen. Eines der größten Probleme von LLMs sind ihre Neigung zu Halluzinationen. Immer wieder werden Fälle bekannt, in denen sie vermeintliche Fakten oder Quellenangaben einfach kurzerhand erfinden.
Der Grund für solche Halluzinationen ist, dass die Großen Sprachmodelle mit Wahrscheinlichkeiten arbeiten. Wenn sie einen Text generieren, tun sie das Wort für Wort und fügen dabei als nächstes immer das am wahrscheinlichsten sinnvolle Wort hinzu. Ob die Wörter der Wahrheit entsprechen, ist nicht sicher, sondern nur mehr oder weniger wahrscheinlich. So kommt es zu Texten, die zwar in Form und Tonalität überzeugend sind, aber falsche Informationen enthalten. Große Sprachmodelle eignen sich deshalb nicht dafür, um auf beliebige Fragen faktisch richtige Antworten zu erhalten. Das Risiko, Falschinformationen aufzusitzen, ist dafür viel zu groß – zumal sie durch die formale Perfektion der Antworten nicht erkennbar sind.
Dennoch bestehen große Chancen für die Unternehmenssuche
Dennoch bieten Large Language Models im Kontext von Enterprise Search große Chancen – und zwar an drei Stellen: bei der Zusammenfassung von Suchresultaten und Generierung von Antworten, bei der Anreicherung von Dokumenten und bei der semantischen Suche.
- Zusammenfassung von Suchresultaten und Generierung von Antworten: Mit einem integrierten LLM kann eine Software für unternehmensweite Suche parallel zur klassischen Trefferliste eine Zusammenfassung der Ergebnisse generieren – etwa aus umfangreichen Berichten, Präsentationen oder elektronischen Akten inklusive der kompletten Quellenangaben. Zudem kann sie es Nutzern ermöglichen in einen Dialog mit den Ergebnissen zu treten, indem sie Fragen dazu stellen und darauf Antworten erhalten. Gefundene Texte und Informationen lassen sich dadurch wesentlich schneller rezipieren und die User Experience der Software verbessert sich drastisch. Das Risiko von Falschinformationen ist dabei äußerst gering, denn die Zusammenfassungen und Antworten basieren auf den Fakten aus den Trefferlisten, die auf herkömmliche Weise ermittelt und nicht vom Sprachmodell erzeugt werden. Die Trefferlisten sind zudem rechtegeprüft, wodurch die Zusammenfassungen und Antworten nur Informationen enthalten, für die der jeweilige Nutzer auch berechtigt ist. Somit ist auch Datenschutzverstößen vorgebeugt.
- Anreicherung von Dokumenten: Um Inhalte durchsuchbar und auffindbar zu machen, kann Enterprise Search die Dokumente bei der Indizierung mit Metadaten anreichern (so genanntes Tagging). Dabei kommen bislang Algorithmen zum Einsatz, die rein auf textlicher Ebene agieren. Sie haben zu nicht-linearen Dokumenten, die nicht von links oben nach rechts unten gelesen werden, sondern viele losgelöste Inhalts-Inseln aufweisen, nur einen eingeschränkten Zugang. Bei Lieferscheinen, Rechnungen oder Formularen beispielsweise können sie oft nicht alle nötigen Informationen extrahieren. Multimodale LLMs, die neben Text auch Bildinformationen verarbeiten, bieten die Möglichkeit, Abhilfe zu schaffen. Erste Pilotversuche haben gezeigt, dass sie in der Lage sind, auch aus nicht-linearen Inhalten alle relevanten Datenpunkte automatisch auszulesen und damit das Tagging von Dokumenten auf ein neues Qualitätslevel zu heben.
- Semantische Suche: Spezielle Sprachmodelle können Repräsentationen berechnen. Damit stellen sie ein wirksames Werkzeug gegen das so genannte „Vocabulary Mismatch“-Problem dar: Häufig suchen Nutzer einer Enterprise Search mit anderen Wörtern als denen, die in den gesuchten Dokumenten stehen und können sie deshalb nicht finden. Diese sogenannten Representation-Learning-Modelle sind in der Lage, beim Indizieren von Dokumenten Ähnlichkeiten von Begriffen zu ermitteln und diese Beziehungen in Form von Wortvektoren abzubilden. Bei der Suche kann die Enterprise Search dann semantisch korrelierende Inhalte abgleichen, anstatt nach identischen Wörtern zu suchen. Anders ausgedrückt: Sie kann das finden, was der Nutzer meint, und nicht nur das, was er in das Suchfeld eintippt. Sucht er beispielsweise nach „Notebook für Werkstudentin bestellen“ findet die Enterprise Search auch Informationen zu „Hardwarebeschaffung für Praktikanten und externe Mitarbeiter“. Damit steigern diese Modelle die Relevanz von Suchergebnissen erheblich.
Anbieter statten ihre Software bereits mit Sprachmodellen aus
Mit Enterprise Search, die KI-Sprachmodelle nutzt, können Organisationen das Potenzial ihrer Daten voll ausschöpfen, die effektive Wissenssuche erleichtern und die Produktivität im gesamten Unternehmen steigern. Führende Anbieter von Enterprise Search, statten ihre Software bereits mit solchen Modellen aus. Sie können von Unternehmen und Organisationen On-Premises betrieben werden, wodurch sie die volle Kontrolle über ihre Daten behalten. Die Modelle sind vortrainiert und funktionieren in diesem Zustand bereits sehr gut. Unternehmen können sie aber mit ihren eigenen Daten weitertrainieren und feinjustieren. Durch die Anpassung an die speziellen Daten, den spezifischen Sprachgebrauch und die individuellen Kontexte von Unternehmen lässt sich ihre Qualität noch weiter verbessern. Als Alternative ermöglichen es die Anbieter aber auch, eigene Modelle oder SaaS-Modelle zu integrieren.
Große Sprachmodelle basieren auf neuronalen Netzen und werden mit riesigen Datenmengen trainiert. (Quelle: Gerd Altmann – Pixabay).
Um einen Kommentar zu hinterlassen müssen sie Autor sein, oder mit Ihrem LinkedIn Account eingeloggt sein.