Fake-KI: Nicht jeder Algorithmus ist intelligent

bei

Sorry, this entry is only available in German. For the sake of viewer convenience, the content is shown below in the alternative language. You may click the link to switch the active language.

Abstract:

Künstliche Intelligenz scheint fast alles zu können. Die Hoffnungen, die Unternehmen in die Technologie setzen, sind groß. Doch nicht überall, wo KI draufsteht, ist auch KI drin. Was echte von einer vorgeblichen KI unterscheidet. Wann es sich lohnt, sie mit regelbasierten Systemen zu verbinden. Und wie Unternehmen Software erkennen, die lediglich vorgibt, intelligent zu sein.

 

Sie steckt in autonom fahrenden Autos, erkennt Tumore, liefert Sprachübersetzungen und verhindert den Ausfall von Maschinen: Künstliche Intelligenz scheint fast alles zu können. Die Hoffnungen, die Unternehmen in die Technologie setzen, sind riesengroß. Genauso wie die Gefahr, künftig häufiger auf Fake-KI hereinzufallen.

Kürzlich stellte der US-Bundesstaat Utah eine von ihm beschaffte Software für Predictive Policing des selbsternannten KI-Startups Banjo auf den Prüfstand [1]: Verwaltung und Politik wollten überprüfen lassen, ob das Unternehmen seine Algorithmen mit belasteten Trainingsdaten gefüttert hatte. Eine unabhängige Stelle checkte die KI-Software auf mögliche Voreingenommenheit und Datenschutzverstöße. Ergebnis: Die Kontrolleure konnten keine Vorurteile im KI-System entdecken. Kein Wunder, denn sie fanden auch keinerlei Spuren Künstlicher Intelligenz bei der KI-Überwachungsfirma. Der staatliche Prüfbericht kam zu dem eindeutigen Ergebnis, dass das Unternehmen keine Techniken verwendet, „die der Branchendefinition von Künstlicher Intelligenz entsprechen.” Sämtliche Denkvorgänge stammen komplett analog von Menschen.

Kein neues Phänomen: Vor wenigen Jahren hatte eine angebliche Artificial Intelligence (AI) namens Zach [2] die Öffentlichkeit in Neuseeland genarrt. Der Medizin-Bot beeindruckte vor allem die Ärzteschaft: Zach korrespondierte mit Medizinern, konnte deren Patientenakten pflegen und Diagnosen stellen. Genauere Angaben zu ihrer Wunder-KI verweigerten die Unternehmensgründer Albi und David Whales. Sie verschanzten sich hinter einem Zitat des britischen Science-Fiction-Schriftstellers Arthur C. Clarke, demgemäß jede ausreichend fortgeschrittene Technologie nicht von Magie zu unterscheiden sei. Dass die Zauberkräfte Zachs doch eher begrenzt waren, brachte erst eine Untersuchung des neuseeländischen Innenministeriums zutage. Resultat: Auch hinter Zach steckt bloß menschliche Intelligenz. Dabei war der Betrug recht offensichtlich: Die Maschine kommunizierte mit den Medizinern per E-Mail statt über eine Schnittstelle und sie brauchte gut 20 Minuten für jede Antwort. In Ordnung für einen Menschen, aber deutlich zu lange für eine KI. Vor allem aber hätte die Geheimniskrämerei des Unternehmens stutzig machen müssen. Wer eine echte KI anbietet, der kann sehr plausibel erklären, warum er sie einsetzt, wie die Algorithmen arbeiten oder ob er Künstliche Intelligenz mit regelbasierter Software kombiniert. Vor allem aber: Ernsthafte KI-Entwickler sprechen nicht von Wunder – sondern von Mathematik, Statistik und Stochastik.

Fake-KI: ein neues Problem

Zugegeben: Beim ersten Lesen mögen solche Beispiele noch amüsieren. Aber Fake-KIs sind ein teurer Spaß: Sie kosten Unternehmen Zeit und Geld und bringen eine Technologie in Misskredit, auf die immer mehr Unternehmen große ökonomische Hoffnungen setzen: Die Deutsche Telekom etwa hat mit ihrem Digitalisierungsindex Mittelstand 2020/21 [3] herausgefunden, dass 31 Prozent der befragten Unternehmen von KI disruptive Veränderungen in ihrer Branche erwarten. 77 Prozent möchten mit dem Algorithmen-Einsatz ihre Service- und Produktqualität verbessern. 2019 gaben deutsche Unternehmen nach Angaben des Bundesministeriums für Wirtschaft und Energie rund 4,8 Milliarden Euro aus, um KI-Verfahren zu entwickeln [4], einzuführen und zu pflegen. Tendenz steigend und das ist gut so: Experten von McKinsey prognostizieren der EU eine wachsende Wirtschaftsleistung um 19 Prozentpunkte bis 2030[5], wenn sie sich auf das Thema KI fokussiert.

Nicht überall steckt KI drin

Schattenseite des sich anbahnenden KI-Booms: Im Gegensatz zu den Early Adoptern, die in der Regel ein hohes Maß an KI-Fachwissen besitzen, werden in den kommenden Monaten und Jahren immer mehr Unternehmen zu KI-Anwendern, die keine Data-Analysten oder KI-Experten beschäftigen. Sie möchten die Vorteile von KI möglichst einfach nutzen, setzen auf KI-as-a-Service und laufen dabei Gefahr, Betrügern aufzusitzen. Deren Kalkül: Auf der KI-Welle werden immer mehr Unternehmen mitsurfen wollen, ohne die Technik wirklich zu beherrschen. Das KI-Versprechen funktioniert wie ein Marketingtrick. Denn trotz vieler Vorbehalte gegenüber der Technologie ist KI eben auch das: ein verlockendes Verkaufsargument für digitale Lösungen jeglicher Art. Ein scheinbar untrügliches Versprechen auf Turboerfolge für jede Stufe der digitalen Transformation.

Vermutlich wird den Unternehmen unter dem KI-Label künftig häufig regelbasierte Software angedient. Nur in Ausnahmefällen dürfte hinter der Fake-KI ein Mensch stecken wie in den eingangs erwähnten Beispielen.

Sind Algorithmen nicht alle gleich?

Was aber ist das überhaupt – eine falsche KI? Und ist es für Unternehmen wirklich so entscheidend zu wissen, ob die Algorithmen einer Software regelbasiert arbeiten oder zu Machine Learning fähig sind? Klar ist: Wir haben es hier mit weit mehr als nur einem semantischen Problem zu tun. Die Unterschiede in der Wirkungsweise werden schnell klar: Basiert etwa eine IT-Sicherheitslösung auf regelbasierten Systemen, funktioniert sie nach „Wenn-dann“-Regeln. Dazu haben sich ihre Entwickler die Hackerangriffe der Vergangenheit genau angeschaut. Die Software identifiziert bekannte Malware-Typen, wenn sie bestimmte Regeln erfüllen. Auf neue Angriffstypen reagiert sie eher hilflos. Schließlich kann kein Entwickler ahnen, welche Finten den Hackern der Zukunft noch einfallen mögen. Sprich: Für unbekannte Malware kann der Mensch keine Regeln schreiben, die die Maschine anschließend beherzigen muss. Um auf dem aktuellen Stand zu bleiben, braucht regelbasierte Software immer wieder neue Regeln. Sonst wird sie immer schlechter. Anders die Künstliche Intelligenz: Sie erkennt Anomalien auch dann, wenn sie neu auftreten. Setzen Unternehmen bei ihrer Machine-Learning-Lösung beispielsweise auf die Methode des bestärkenden Lernens, auch Reinforcement Learning genannt, dann generiert die KI ihre Lösungen und Strategien auf der Basis von „Belohnungen“ im Trial-and-Error-Verfahren. Damit lässt sich das Ziel einer sich selbst verbessernden KI erreichen, die mit den Hackern Schritt hält. Je mehr die KI erledigt – und damit trainiert – umso besser wird sie. Die Auswertung von Massendaten und die vielfache Anwendung machen Künstliche Intelligenz immer smarter.

Regelbasiert reicht oft – aber nicht immer

Das gilt auch für Chatbots. Ein regelbasierter Chatbot erkennt die Absicht des Nutzers auf der Basis bestimmter Erkennungsregeln: Er klopft den Anfragetext eines Nutzers nach Schlüsselwörtern, so genannten Entitätswerten, ab und gibt im Anschluss die hinterlegte Antwort. Auch die regelbasierte Variante agiert durchaus schlau: Ist die Absicht des Nutzers nicht sofort erkennbar, ermittelt der Chatbot mit einigen Rückfragen die fehlenden Schlüsselwörter. Wenn der Chatbot nur für einen klar eingegrenzten Aufgabenbereich benötigt wird, dann reicht die regelbasierte Erkennung aus. Zumal sie auch einige Vorteile hat: Solche Bots sind schnell einsetzbar und müssen nicht angelernt werden. Statt den Bot mit einer Vielzahl an Datensätzen zu trainieren, reicht in diesen Fällen ein hinterlegter FAQ-Katalog, um den Bot zu bauen.

Dagegen kann ein KI-Bot erst nach entsprechendem Training an den Start gehen: In der Regel wenden diese Bots Machine-Learning-Modelle an, um intelligent zu werden. Das bedeutet, dass Entwickler unzählige Beispiele und damit Daten sammeln und klassifizieren müssen, mit denen die Maschine lernen kann. Auf der Basis des Gelernten kann sie anschließend verallgemeinern. Sie erkennt in den Nutzereingaben Muster und kann antworten, ohne auf vorformulierte Sätze zurückgreifen zu müssen. Der KI-Chatbot versteht Anfragen selbst dann, wenn bestimmte Schlüsselwörter nicht auftauchen, ist also weniger starr im Umgang mit dem Nutzer. Der Nachteil: Aufgrund des Trainings dauert es deutlich länger, bis solche Chatbots einsatzfähig sind. Doch mit der Zeit werden sie immer besser, weil sie nicht für jedes Nutzeranliegen erst eine neue Erkennungsregel brauchen. Ihre Lernfähigkeit macht das Wesen und den besonderen Charme von KI aus: Anders als regelbasierte Software ist KI in der Lage, eigenständig neue Probleme zu lösen. Heißt: ihre Ergebnisse sind nicht statisch, sondern verbessern sich laufend.

KI als Kombi-Modell

Für viele Anwendungsfälle ist regelbasierte Software dennoch eine gute Wahl. So arbeiten selbst zukunftweisende Anwendungen wie Predictive Maintenance häufig regelbasiert. Ihre Algorithmen schlagen Alarm, wenn Produktionsmaschinen oder Anlagen bestimmte, vom Menschen definierte Messwerte überschreiten. Künstliche Intelligenz ist erst vonnöten, wenn die Software durch eigenes Lernen erkennen soll, welche Parameter sich wie verändern müssen, damit ein Ausfall wahrscheinlich wird.

Oft ist es ratsam, beides miteinander zu kombinieren – wie etwa bei der Verarbeitung von Massendokumenten. So setzen mittlere und große Unternehmen seit längerer Zeit regelbasierte Algorithmen ein, um die tägliche Post zu sortieren: Auf der Basis von Bild und Schrift erkennt die Maschine, ob es sich um eine Rechnung handelt und schickt sie dann zur entsprechenden Abteilung. Sobald sich Aufbau und Struktur von Rechnungen zwischenzeitlich ändern, kommt die regelbasierte Software allerdings an ihre Grenzen. Beispielsweise, wenn sie erkennen soll, ob die Rechnung auch mit neuem Erscheinungsbild noch steuerrechtlich konform ist. Der Entwickler müsste sie erst wieder mit neuen Regeln füttern, damit sie ihre ursprüngliche Qualität erneut erreicht. Machine Learning dagegen erkennt den Inhalt des Dokuments, auch wenn sich die Struktur verändert hat. Denn sie lernt dazu. Deshalb setzen viele Unternehmen auf eine Kombination der Technologien: Sie verwenden regelbasierte Software, wenn die Maschine entscheiden soll, in welche Abteilung sie das Dokument weiterleiten soll. Das kostet weniger Rechenzeit und ist in der Regel günstiger als der Einsatz von KI. Machine-Learning-Lösungen setzt dann erst die Fachabteilung ein, weil es ihr um die genauere Analyse geht.

Noch gibt es keinen Turing-Test für Fake-KI

Der britische Wissenschaftler Alan Turing hat 1950 den Turing-Test entwickelt, mit dem sich ermitteln lässt, ob die Intelligenz eines Softwaresystems der eines Menschen entspricht. Sobald die Versuchspersonen nicht eindeutig erkennen können, ob ein bestimmtes Ergebnis von einem Menschen oder einer Maschine stammt, gilt letztere als intelligent.

Bislang fehlt ein solcher Turing-Test, der eine Fake-KI rasch von einer echten KI unterscheiden könnte. Wenn sich Unternehmen für den Einsatz künstlicher Intelligenz interessieren[6], müssen sie sich auf ihren gesunden Menschenverstand verlassen – und auf die Erfahrung ihrer KI-Experten und Daten-Spezialisten.

So erkennen Sie Fake-KI

Es gibt einige Indizien, die den Unternehmen helfen, echte KI von Software zu unterscheiden, die lediglich vorgibt, intelligent zu sein[7].

1.KI setzt Training voraus

Eine selbstlernende Künstliche Intelligenz lernt aus Erfahrung und verbessert ihre Entscheidungsregeln fortwährend. Sie braucht dazu jede Menge Trainingsdaten und Zeit, ehe sie einen Vorteil verschafft. Selbst eine KI-as-a-Service ist ohne eine kurze Lehrzeit nicht denkbar. Hinzu kommt: Anders als bei einer regelbasierten Software lassen sich auch die Resultate ihrer Rechenvorgänge nicht exakt voraussagen.

Fake Alarm: Wenn Ihnen eine Software angeboten wird, die trotz komplexer Aufgabenstellung angeblich keine oder kaum Trainingszeiten benötigt und problemlos auch bei anderen Anwendungsfällen einsetzbar sei, sollte Sie das stutzig machen. Dahinter steckt vermutlich mehr Marketing als KI.

2. KI ist nicht zu hundert Prozent erklärbar

Ist Künstliche Intelligenz im Einsatz, können Unternehmen in der Regel nicht mehr vollständig zurückverfolgen, auf welcher Basis und aufgrund welcher erkannten Muster die Software entscheidet. Weil das in regulierten Branchen wie dem Finanzwesen und in allen Fragen, die die Compliance des Unternehmens betreffen, ein Nachteil ist, kann man den inzwischen vielerorts mit „Explainable AI“ (XAI) ausgleichen. Sie liefert das „Warum“ und macht KI nachvollziehbar und interpretierbar. Mit der Normungsroadmap Künstliche Intelligenz[8] gibt es zum Beispiel in Deutschland eine umfassende Analyse des Bestands und des Bedarfs an internationalen Normen und Standards für diese Schlüsseltechnologie. Technische Standards sorgen nicht nur für Transparenz, sondern sollen zudem das ethische Verhalten von Maschinen[9], die von einer KI gesteuert werden, sicherstellen. Handelt es sich jedoch um Aufgabenstellungen, die außerhalb von regulierten Märkten liegen, sollte man abwägen, ob man die KI wirklich limitieren sollte: Denn die Pflicht zur Erklärbarkeit grenzt die Lösungswege der Algorithmen ein.

Fake Alarm: Verspricht Ihnen ein Software-Anbieter, dass seine KI-Lösung transparent und vollständig nachvollziehbar arbeitet, sollte dies Ihr Misstrauen wecken.

3. KI profitiert von der Cloud

Die Cloud ist keine notwendige Voraussetzung für Künstliche Intelligenz. Auf dem iPhone beispielsweise funktioniert die Bilderkennung direkt auf dem Gerät und nimmt keinen Umweg über die Cloud. Normalerweise allerdings verfügen die wenigsten Unternehmen über so hoch performante Kapazitäten, um KI zu entwickeln, umzusetzen und zu betreiben. Daher bieten sich bedarfsgerechte Ressourcen aus der Public Cloud an.

Dennoch ist die Cloud mit ihrer Skalierbarkeit für alle AI-Anwendungen ausgesprochen interessant. Mehr noch: Der Einsatz von KI ist vermutlich das beste Argument für die Cloudnutzung überhaupt. Die Cloud punktet hier in besonderem Maße mit ihrer Geschwindigkeit, ihrem Preis und der Innovationsfrequenz. Die Trainingszeit der KI-Modelle beansprucht sehr viel Rechenzeit. Um Zeit und Kosten zu sparen, sollten Unternehmen hier unbedingt auf die Cloud setzen. In der Cloud haben sie überdies die Gewissheit, dass ihnen jederzeit die richtigen Techniken, virtuellen Maschinen und Prozessoren für den Use Case AI zur Verfügung stehen. Die Fertigungsindustrie nutzt inzwischen auch hybride Lösungen und kombiniert Edge- und Cloud-Computing, um die Daten ganzer Anlagen und Industrieprozesse zu erfassen, zu verarbeiten und zu visualisieren. Damit profitieren Unternehmen von den Kostenvorteilen und der Geschwindigkeit und sind selbst bei Netzausfällen auf der sicheren Seite.

Fake Alarm: Wenn es bei einem KI-System keinen offensichtlichen Grund gibt, der gegen die Cloudnutzung spricht, und der Anbieter dennoch keine Cloudoption anbietet, sollte das potenzielle Kunden argwöhnisch machen. Denn das KI-Training schluckt viel Performance und könnte die Prozesse der übrigen Unternehmensbereiche verlangsamen, wenn die Lernphase über die eigenen Server abläuft.

Ein seriöser Anbieter von echter KI wird Ihnen immer erklären können und wollen, wie die Modelle, die hinter seiner Anwendung stehen, funktionieren. Warum er Künstliche Intelligenz verwendet, wieso KI für Ihren Anwendungsfall die richtige Technologie ist und an welchen Stellen er sie mit regelbasierter Software kombiniert. Haben Sie keine Daten- oder KI-Spezialisten in den eigenen Reihen, sollten Sie den Fähigkeiten eines Beratungsunternehmens vertrauen. Nur so können Sie sicher sein, dass Sie KI bekommen, wenn Sie für KI zahlen.

Verwechslungsgefahr: Fake-KI und Deepfakes

Weitaus bekannter als Fake-KI sind die so genannten Deepfakes. Dabei handelt es sich um mit Künstlicher Intelligenz erstellte Fake-Bilder oder -Videos, die zunehmend das Internet fluten. Der Begriff ist ein Kofferwort und setzt sich aus den Wörtern „Deep Learning“ und „Fake“ zusammen – also einer Methode des maschinellen Lernens und Fälschung. Deepfakes wirken täuschend echt: Sie vertauschen Gesichter, lassen Menschen Dinge sagen oder tun, die sie weder geäußert noch getan haben. Sie erschüttern unsere Gewissheit über die Realität: Denn jedes Video, jede Tonaufnahme kann eine Lüge sein. Selbst Laien können Deepfakes inzwischen mit kostenlosen Apps herstellen. Das bereitet der Bundesregierung zunehmend Sorge: „Es kann nicht ausgeschlossen werden, dass aufgrund der schnellen technologischen Fortschritte künftig auch eine Bedrohung demokratischer Prozesse durch Deep Fakes [10] erfolgen kann“, antwortet sie auf eine Anfrage der FDP. Auch die sozialen Medien gehen inzwischen gegen Deepfakes vor.

 

 

Quellen und Referenzen:

[1]https://www.heise.de/news/Utah-Pruefer-finden-keine-KI-bei-KI-Ueberwachungsfirma-Banjo-6009371.html

[2]https://thespinoff.co.nz/society/13-01-2020/rip-zach-probe-finds-serious-wrongdoing-over-miracle-medical-ai/

[3]https://www.digitalisierungsindex.de/wp-content/uploads/2020/12/Telekom_Digitalisierungsindex_2020_GESAMTBERICHT.pdf

[4]https://www.de.digital/DIGITAL/Navigation/DE/Lagebild/Kuenstliche-Intelligenz/kuenstliche-intelligenz.html#:~:text=Mit%20Weltmarktneuheiten%20im%20Bereich%20der,von%207%2C6%20Milliarden%20Euro

[5]https://www.mckinsey.de/news/presse/2019-02-11-ai-in-europe-l-mgi

[6]https://www.t-systems.com/de/de/whitepaper-download/ki-im-unternehmen-verstehen-133726

[7]https://www.youtube.com/watch?v=cvqCyGcdZcY

[8]https://www.din.de/resource/blob/772438/6b5ac6680543eff9fe372603514be3e6/normungsroadmap-ki-data.pdf

[9]https://www.din.de/resource/blob/754724/00dcbccc21399e13872b2b6120369e74/whitepaper-ki-ethikaspekte-data.pdf

[10]http://dip21.bundestag.de/dip21/btd/19/156/1915657.pdf

 

Über den Autor / die Autorin:


Torsten Deutsch ist seit 2018 als Product Manager im Bereich Open Telekom Cloud bei T-Systems beschäftigt. Dort verantwortet er seit 2020 als Product Owner das Thema Big Data & KI. Er ist unter anderem für den KI-Entwicklungsservice ModelArts und die dafür notwendige Infrastruktur zuständig.

Ralf Hülsmann ist ausgewiesener IT- und KI-Experte. Im Strategy & CTO-Office im Bereich Public Cloud Managed Services von T-Systems liegt sein Fokus auf dem Einsatz von KI in der Cloud. Seit 2010 befasst er sich als Enterprise Architect zudem mit den Themen Cloudportfolio, Partnering und Strategy.