Wahr oder falsch – lohnen sich LLMs noch?

Große Sprachmodelle (Large Language Models, LLMs) und andere Formen der generativen KI können bei vielen text- und bildbasierten Aufgaben ein erstaunliches Maß an menschenähnlicher Leistung erzielen. LLMs schneiden besonders gut beim „Turing-Test“ ab, bei dem eine Text-Chat-Konversation als Grundlage dafür dient, zu beurteilen, ob die andere Partei intelligent ist. Selbst an einem “schlechten Tag” kann ein LLM eine verblüffende Ähnlichkeit mit einem Menschen erreichen. Viele Menschen in unterschiedlichsten Unternehmen sind damit beschäftigt, herauszufinden, welche Aufgaben sich am besten für generative KI eignen und wie man generative KI in die entsprechenden Arbeitsabläufe einbauen kann.
Von   Mark Day   |  Chief Scientist   |  Netskope
11. April 2025

Wahr oder falsch – lohnen sich LLMs noch?

 

Die Ergebnisse von LLM wurden bereits mit “Bullshit” (BS) verglichen. Um diesen Vergleich zu verstehen, müssen wir uns BS nicht im allgemeinen und groben Sinne vorstellen, sondern im Sinne des Moralphilosophen Harry Frankfurt, der ein ganzes Buch zum Thema BS geschrieben hat. Laut Definition der Philosophen besteht BS aus Aussagen, die überzeugen sollen, ohne den Fokus auf den Wahrheitsgehalt zu legen. Ein “BS-Artist” sagt das, was er glaubt, um seinen Auftrag zu erfüllen, ohne sich darum zu kümmern, ob das, was er sagt, wahr ist oder nicht. Wahrscheinlich ist es ihnen sogar egal, ob das, was sie sagen, in sich stimmig ist.

 

LLMs basieren auf Statistiken

Forscher haben erkannt, dass LLMs genau die gleichen Eigenschaften aufweisen, wie ein “BS-Artist”. LLMs haben manchmal sogenannte „Halluzinationen“, bei denen das LLM Behauptungen aufstellt, die einfach nicht wahr sind. Einige KI-Fans behaupten, dass künftige Verbesserungen dieses Problem verringern oder beseitigen werden. Diese Annahme führt jedoch zu Missverständnissen darüber, was das LLMs tut. In Folge dessen werden Menschen möglicherweise in die Irre geführt, wenn es ungeeignete Anwendungen für LLMs geht. Ungeachtet der überraschenden Erfolge von LLMs ist es entscheidend zu verstehen, dass LLMs auf der Grundlage von Statistiken arbeiten, nicht auf der Grundlage von Wahrheit oder Genauigkeit.

Es ist wichtig zu wissen, dass LLMs immer etwas erfinden. Das ist buchstäblich das, worum wir sie bitten. Oftmals erscheinen uns die „statistischen Fiktionen“ der LLMs richtig (oder als Fakten), einfach weil sie mit der Realität, wie wir sie verstehen, übereinstimmen.  Jedoch dürfen wir nicht vergessen, dass menschliche Nutzer in der Lage sind, einen Test durchzuführen („ist das richtig?“), den das LLM selbst nicht durchführen kann. Wir sind in der Lage, die Ergebnisse des LLMs mit der Wahrheit oder der Realität zu vergleichen. Sollten die Aussagen des LLMs mit der Wahrheit oder der Realität übereinstimmen, denken wir, dass alles korrekt ist. Ist dies nicht der Fall, sind wir gegebenenfalls verwirrt und nennen es eine Halluzination. Aber aus der Perspektive des LLMs ist das beides dasselbe. In Bezug auf den zugrundeliegenden Prozess der Erzeugung gibt es keinen Unterschied zwischen dem, was in einer Halluzination geschieht und dem, was in einer Nicht-Halluzination geschieht. Das ist einer der Gründe, warum es schwierig ist, Halluzinationen zu eliminieren, und warum es Grund zur Annahme gibt, dass Halluzinationen nicht eliminiert werden können.

 

LLMs – eine Frage der Aufgabe

Es ist klar, dass LLMs kein Allheilmittel sind, aber sie sind auch nicht nutzlos. Stattdessen sind sie auf ungewohnte Art nützlich. Mit einer solchen Perspektive wird ein angemessenes Prinzip bei der Gestaltung von Prozessen, Aufgaben und Fragestellungen für ein LLM deutlich: Welche Aufgaben würden Sie mit gutem Gewissen an einen hervorragenden “BS-Artist” delegieren? Im Prinzip klingt das ganz einfach. In der Praxis ist es eine größere Herausforderung. Obwohl es Berufe gibt, in denen ein gewisses Maß an BS erforderlich ist (beispielsweise diverse Verkaufsjobs), ist dies wahrscheinlich das erste Mal, dass sich Menschen ernsthaft mit der Entwicklung von Aufgaben befassen, bei denen BS eine akzeptable Eigenschaft ist – sogar eine potenziell nützliche Fähigkeit. Es scheint völlig neu zu sein, ein künstliches Wesen zu nutzen, das zu einem unbekannten Bruchteil der Zeit einfach Dinge erfindet. Die Implikationen dieser Sichtweise sind einfach zu formulieren: Es ist keine gute Idee, ein LLM in einem kritischen Bereich einzusetzen, in dem Fehler oder Missverständnisse ernsthafte Konsequenzen haben könnten.

 

LLMs in Cybersicherheit

Es wird viel über den Nutzen von LLMs im Bereich der Cybersicherheit diskutiert. Auch werden die dringenden Herausforderungen, die hier zu lösen sind, von der breiten Öffentlichkeit anerkannt. Außenstehenden gefällt im Allgemeinen die Vorstellung, dass neue „KI-Tools“ ihre beste Arbeit hinter den Kulissen, in nicht-menschlichen Interaktionsrollen, leisten. Aber kann ein BS-er eine nützliche Ergänzung für das Team sein? Dies ist der Fall, wenn der Einsatz von LLMs auf Situationen beschränkt wird, in denen der generierte Text tatsächlich nur eine Präsentation von Informationen ist, die bereits auf hohe Zuverlässigkeit geprüft wurden. Verglichen mit den Fähigkeiten, die LLMs bereits unter Beweis gestellt haben, kann dieser Ansatz wenig überzeugend erscheinen. Ein konservativer Ansatz hat jedoch den wesentlichen Vorteil, dass sich niemand Sorgen darüber machen muss, welche Art von BS ein LLM hervorbringen könnte. Dabei darf nicht vergessen werden, dass LLMs und KI nicht gleichbedeutend sind – es gibt auch viel Raum für KI ohne LLM. Eine Folgefrage ist die Frage nach den Sicherheitsauswirkungen dieser “BS-Artist” im Unternehmen. Schaffen LLMs als BS-er neue Sicherheitsprobleme oder bieten sie neue Möglichkeiten zur Abwehr von Bedrohungen?

 

LLMs als Angriffs-Tools

Die erste Frage, die man sich bei diesem Szenario stellen muss, ist, ob es neue Bedenken gibt, die sich aus der Möglichkeit ergeben, dass groß angelegte, hochgradig fähige “BS-Artist” Unternehmen angreifen? Dieses Risiko scheint erheblich zu sein. Wir können Social Engineering sofort als einen Bereich identifizieren, in dem etwas, das plausibel, aber gefälscht ist, effektiv für einen Angriff genutzt werden könnte. Ebenso könnten LLMs sehr effektiv bei der Verfälschung von Daten und der Einführung von Unsicherheit und Rauschen in Geschäftsprozesse sein. LLM-generierte Daten könnten so plausibel sein, dass sie durch einfache Überprüfungen nicht unbedingt erkannt werden, ohne dass sie unbedingt sinnvoll oder konsistent sind.

 

LLMs als Verteidigungs-Tools

Als nächstes sollten wir uns fragen: Gibt es neue Verteidigungsmöglichkeiten mit einem eifrigen BS-er im Team? Werden LLMs im Verteidigungsteam dazu beitragen, den von Angreifern eingesetzten LLM-Nutzen auszugleichen? Leider glaube ich nicht daran. Allgemein gesprochen sind LLMs gut darin, BS zu erzeugen, aber nicht gut darin, BS zu erkennen – andernfalls könnten wir das Problem mit gepaarten LLMs angehen, von denen ein Teil Kandidatenausgaben erzeugt und der zweite diese Ausgaben auf BS überprüft. Das Beste, was wir uns von der Verwendung von BSing-LLMs zur Verteidigung erhoffen können, scheint eine Variante von Honeypots oder Täuschung zu sein: Wir könnten in der Lage sein, dynamisch plausibel erscheinende Versionen von Daten oder Prozessen zu konstruieren, die in Wirklichkeit auf unterschiedliche Weise fatal fehlerhaft sind und eine Art Wasserzeichen darstellen. Es besteht jedoch die Gefahr, dass alles, was gut genug ist, um einen Angreifer zu täuschen, auch zu unbeabsichtigter Verwirrung innerhalb der Organisation führt.

 

LLMs als Zielscheibe

Schließlich kommen wir zu der Frage, ob ein LLM eine neue Sicherheitslücke darstellt. Dies ist der einzige Bereich, in dem es eine gute Nachricht zu geben scheint. Wenn wir die Verwendung des LLM in einem Geschäftsprozess mit der Möglichkeit von BS im Hinterkopf entwerfen, ist es nicht offensichtlich, dass ein Angreifer durch eine weitere Beschädigung des LLMs große Auswirkungen haben wird. Wenn wir unsere Systeme und Prozesse so gestaltet haben, dass sie erfolgreich BS-er aufnehmen können, haben wir sie wahrscheinlich auch robust gegen die Arten von Angriffen gemacht, die Angreifer gegen das LLM selbst starten könnten.

 

In der neuen Welt der LLMs stellt sich nicht nur die Frage, wie diese Fähigkeit am besten genutzt werden kann, sondern es müssen auch die neuen Sicherheitsaspekte berücksichtigt werden. In der Vergangenheit mussten sich Manager in der Regel nicht mit der Frage auseinandersetzen: „Habe ich Aufgaben, die sich für die Übertragung an einen exzellenten BS-er eignen würden?“ Aber diese oder eine ähnliche Frage scheint im Mittelpunkt des Verständnisses zu stehen, wie man LLMs am besten einsetzt.

Bei Netskope kombiniert Mark Day seine weitreichenden Erfahrungen und Interessen an Wettbewerbsanalyse und Technologiestrategie. Er ist Autor des Buches Bits to Bitcoin: How Our Digital Stuff Works. Herr Day verfügt über mehr als dreißig patentierte Erfindungen und hat am MIT und in Harvard gelehrt.

Um einen Kommentar zu hinterlassen müssen sie Autor sein, oder mit Ihrem LinkedIn Account eingeloggt sein.

51811

share

Artikel teilen

Top Artikel

Ähnliche Artikel