Begriffe wie Machine Learning, Deep Learning und Neuronale Netze fallen oft, wenn es um künstliche Intelligenz geht. Und nicht selten wird die Technologie mit Dystopien in Verbindung gesetzt. Doch wie realistisch ist das Bild übermenschlicher Maschinen wirklich? Was ist der Status Quo? Und wie sehen Herangehensweisen, Herausforderungen sowie Lösungsansätze im Entwicklungsprozess aus?
Ob physisch überlegene und hochintelligente Replikanten, die sich im Laufe der Zeit gegen
Menschen wenden, wie in Blade Runner, ein Supercomputer, der Roboter gegen Menschen
vorrücken lässt wie bei I am Robot oder ein alles entscheidender Kampf gegen künstliche
Maschinen wie bei Terminator – düstere Szenarien von den Menschen überlegenen
Robotern gibt es zuhauf. Und auch abseits der Kinolandschaft beschäftigen sich namhafte
Unternehmer und Vordenker seit längerem mit künstlicher Intelligenz (KI) und damit
verbunden Zukunftsfragen. Tesla-Chef Elon Musk warnte bereits in mehreren Tweets vor KI, Wirtschaftsphilosoph Anders Indset plädiert für ein neues Wirtschaftssystem, um im
Wettstreit um die Vorherrschaft der Welt gegenüber den Robotern die Oberhand zu behaltenund Raymond Kurzweil geht davon aus, dass 2045 die technologische Singularität – also der Zeitpunkt, ab dem wir Menschen die Entwicklung von Technologie nicht mehr
nachvollziehen können – eintreten wird. Doch inwieweit ist das Bild eines technischen,
intelligenten Wesens, das uns ebenbürtig, ja sogar überlegen ist, berechtigt? Und: Was
bedeutet in dem Zusammenhang überhaupt Intelligenz?
Status Quo & Potenzial
Als Gründungsvater von KI zählt John McCarthy, der 1956 an der Dartmouth-Konferenz den
Begriff ins Spiel brachte. Bereits sechs Jahre früher stellte jedoch schon Alan Turing mit
„Können Maschinen denken“ die entscheidende Frage, die den Bereich bis heute prägen.
Überhaupt hat sich seit der Konferenz einiges im Bereich der künstlichen Intelligenz getan – von Eliza, dem ersten vom MIT entwickelten Chatbot der Welt, über die schachspielende KI Deep Blue, die 1997 den amtierenden Weltmeister Garri Kasparov besiegte, bis hin zu den ersten selbstfahrenden Taxis von Waymo. Und das war erst der Anfang. Künstliche
Intelligenz entwickelt sich exponentiell – oder wie es der kanadische Premierminister Justin
Trudeau bezüglich des technologischen Wandels bereits 2018 treffend formulierte: „Das
Tempo des Wandels war noch nie so schnell, und dennoch wird es nie mehr so langsam
sein.“ Jedoch: Alle bis dato vorhandenen KI-Lösungen sind „schwach“ – sie sind nicht in der
Lage, sich wie der menschliche Verstand schnell und flexibel an neue Gegebenheiten
anzupassen. Die Intelligenz, wie sie in vielen Hollywoodstreifen dargestellt wird, ist
schlichtweg nicht vorhanden – oder drastischer formuliert: Künstliche Intelligenz besitzt
keine Intelligenz.
Das bedeutet jedoch keinesfalls, dass die vergangenen Jahrzehnte an Forschung umsonst waren – ganz im Gegenteil: Die Anwendungsfelder von KI sind äußerst vielfältig und verfügen über ein enormes Potenzial. So wird der Markt für KI-Anwendungen weltweit bis 2027 laut Fortune Business Insights 267 Mrd. US-Dollar betragen – zum Vergleich: 2019 waren es gerade einmal 27,23 Mrd. US-Dollar. Besonders die Bereiche Logistik, Healthcare, Cybersecurity, Forschung & Entwicklung, Finance, Werbung, Informationssicherheit, E-Commerce, Manufacturing, das Öffentliche Verkehrswesen, Cloud Computing und die Entertainmentindustrie werden besonders davon profitieren – überhaupt hat jede Branche ihren Nutzen von KI, es gibt keine, die aus der Technologie nicht ihre Vorteile ziehen kann – und die Anwendungsmöglichkeiten der Technologie werden immer vielfältiger.
Vom theoretischen Potenzial zur praktischen Umsetzung:
Entwicklungsprozess und Anwendbarkeit
Chatbots im Kundenservice, Bild- und Gesichtserkennung, Umsatzprognosen, Erkennung von Kundenpräferenzen und betrügerischen Finanztransaktionen, autonomes Fahren oder Handlungsempfehlungen für Patiententherapien – all das wäre ohne KI, besser gesagt ohne Machine oder Deep Learning und dessen neuronalen Netze nicht umsetzbar. Während es bei Machine Learning (ML) darum geht, wie künstliche Systeme selbstständig Wissen generieren und über Algorithmen Vorhersagen treffen können, ist Deep Learning ein Bereich von ML, bei dem zur Analyse großer Datensätze neuronale Netze zum Einsatz kommen. Letztere bestehen aus vielen miteinander verbundenen Knotenpunkten, die miteinander interagieren und beim Lernen neue Verbindungen herstellen können. Unstrukturierte und große Datensätze sind ohne Deep Learning kaum sinnvoll zu nutzen. Dabei gibt es einige Netzwerkmodelle – beispielsweise Feed Forward und rekurrente Netze. Erstere zeichnen sich dadurch aus, dass alle Knotenpunkte verbunden sind und die Aktivierung in eine Richtung von der Eingangs- bis zur Ausgangsschicht über mindestens eine weitere Schicht dazwischen verläuft. Anders beim rekurrenten Netz: Die Richtung der Aktivierung variiert: sie geht in diverse Richtungen und kann somit auch Aktivierungsschleifen innerhalb des Netzwerks bilden. Besonders unter Einbeziehung von Kontexten ist diese Art von Netzwerk wichtig, etwa bei der Text- oder Bildverarbeitung.
Grundsätzlich empfiehlt es sich in der Praxis, das einfachste mögliche Modell zu nehmen, um die Komplexität niedrig zu halten, aber auch die Serverkapazität der Echtzeitbearbeitung nicht zu überlasten und nicht zu viel Energie zu verwenden. Zu Beginn eines Projektes lohnt es sich, sich einer Fragestellung über einfache statistische Heuristiken beziehungsweise Algorithmen zu nähern und auf Grundlage derer zu entscheiden, ob es sinnvoll ist, an der Lösung weiterzuarbeiten.
Wenn neuronale Netze für die praktische Anwendung entwickelt werden, muss im Zentrum der Kunde oder der Anwender stehen. Werden also intern erste Ideen und Ansätze gesammelt, ist die zentrale Frage: Wie groß ist die Anzahl der Kunden, denen das Endprodukt der Idee signifikant nutzen könnte? Was sind die Kundenbedürfnisse – heute wie morgen -, die gedeckt werden sollen? Erst nach diesem “Ideation Process” und der letztlichen Entscheidung kommen Daten ins Spiel, um ein Minimum Viable Product zu entwickeln, mit dem die erste Version der Anwendung getestet werden kann.
Aktuell ist das Forschungsfeld der KI soweit gereift, dass das Aufstellen von Algorithmen, um eine Problemstellung zu lösen, – der Proof of Concept – gut möglich ist. Die große Herausforderung liegt darin, diese Lösung industrietauglich zu machen und sie skalieren zu können. Vielen Entwicklern ist bewusst, dass der Aufwand zur Erstellung des ML-Codes im Vergleich zum gesamten Projekt relativ gering ist. Die eigentliche Mammutaufgabe besteht darin, ihn so einzubetten, dass die Anwendung nicht nur für einen Nutzer, sondern gleichzeitig für tausende von Nutzern funktioniert. Und ist diese Herausforderung erst einmal überwunden, ist der Erfolg einer Anwendung nicht automatisch gegeben – denn: Nimmt der Nutzer sie nicht an, findet sie auch nicht den Weg in die Gesellschaft, und dann ist auch die beste Technologie nichts wert. Es ist daher von vornherein wichtig, die User Experience (UX) mitzudenken. Nur eine nutzerfreundliche, also einfache, intuitiv bedienbare und ansprechende Anwendung ist in der breiten Masse erfolgreich.
Herausforderungen & Lösungsansätze
Immer wieder ist im Zusammenhang mit KI-Anwendungen von Kontrollverlust oder Black Box die Rede – also den Horrorszenarien der Science Fiction Literatur. Für KI-basierte Lösungen im Arbeitsumfeld kann das hinderlich sein. Generell können Vorbehalte von Kunden gegenüber neuen Anwendungen jedoch Schritt für Schritt abgebaut werden; das kann durchaus ein Prozess über mehrere Monate sein. Der Anspruch ist, Prozesse zu automatisieren, damit sie den Nutzern ihre Arbeit oder ihr Leben erleichtern – idealerweise kann der Grad der Automatisierung je nach Ausmaß des Vertrauens in die Technologie selbst gewählt werden. Eine Interaktion soll dabei immer möglich sein.
Besonders interessant werden Schlussfolgerungen der Technologie, wenn sie zunächst kontraintuitiv scheinen. Der Begriff “Explainable AI” hat sich hierfür etabliert. Wie kann nachvollzogen werden, wie eine Maschine entscheidet? Wie können wir Anwendungen zum Nutzer bringen und wie müssen diese gestaltet sein, ohne dass die Gesellschaft Angst davor hat, diese auch zu benutzen? Oder in der Wirtschaft: Wie kommt eine KI zu ihrer Preisempfehlung? Und warum ist die Retourenwahrscheinlichkeit für einen Kunden bei Paket 1 höher als bei Paket 2?
Geht es um das Thema Nachvollziehbarkeit, lohnt sich ein genauerer Blick auf den Aufbau der Anwendung – es gibt unterschiedliche neuronale Netze, die verwendet werden können. Im Prinzip kann, zum Beispiel bei Feed Forward oder rekurrenten Modellen, zu jedem Zeitpunkt nachvollzogen werden, welche Einheit beziehungsweise welcher Knotenpunkt aktiviert wurde. Das beantwortet jedoch nicht automatisch die Frage, auf welcher Grundlage der Algorithmus entschieden hat. Je nach Komplexität des Algorithmus ist eine Erklärung einfacher oder schwerer möglich – kommen neuronale Netzwerke ins Spiel, wird die Nachvollziehbarkeit deutlich erschwert. Eine Annäherung an die Problematik bietet folgende Vorgehensweise: Trifft ein Algorithmus beispielsweise auf Grundlage von sechs Datenpunkten eine Entscheidung, kann einer dieser Punkte herausgenommen und anschließend untersucht werden, wie der Algorithmus neu entscheidet. Je komplexer das Modell, desto schwieriger.
Allgemein liegt eine weitere große Herausforderung darin, dass Daten, die eine KI nutzt, um damit zu trainieren, bereits verzerrt sind, weil sie von Menschen beeinflusst sind. Ein Beispiel: Seifenspender, die nicht auf dunkle Haut reagieren, weil sie darauf nicht geschult wurden. Oder die automatisierte Vorselektion von Lebensläufen im Bewerbungsprozess die Frauen ausschloss. Warum? Weil die Technologie mit Daten des zuvor menschlichen Recruiting-Prozesses trainierte – und einige der Recruiter Lebensläufe von Frauen generell abgelehnt hatten. Solche Beispiele gibt es viele. Möglichst diverse Entwicklungsteams aufzustellen ist ein Teil der Lösung – genauso wie eine stetige Überprüfung der Ergebnisse und Anpassungen der Technologie. Gesellschaftlich bedarf es jedoch noch einiger Debatten und Lösungsvorschläge, um in diesem Bereich deutliche Fortschritte erzielen zu können, denn Vorurteile sind nur ein Aspekt – Fragen nach Transparenz, Akzeptanz, Recht der KI sind weitere.
Ausblick
Im Bereich der künstlichen Intelligenz gibt es einige vielversprechende Ansätze und Potenziale – und die Entwicklungen in den nächsten Jahren werden deutlich schneller sein als in den letzten Jahrzehnten. Dennoch sind wir von der Dystopie übermenschlich intelligenter Maschinen nicht nur weit entfernt, auch ist das Bild überzogen. Maschinen bedienen sich der mathematischen Welt – und unterliegen den Codes der Entwickler. Nichtsdestotrotz ist das Potenzial der Technologie riesig – über sämtliche Branchen hinweg. Hier werden wir in der Zukunft vor allem in den Bereichen Logistik, Healthcare, Cybersecurity, Finance, Werbung, Informationssicherheit, ECommerce, Manufacturing, Verkehrswesen, Cloud Computing und die Entertainmentindustrie große Entwicklungen sehen. Wichtig ist dabei, nicht nur technisch damit umzugehen, sondern auch stets den Kunden im Blick zu halten. Inwiefern kann eine neue, fremdartige Anwendung in dem Markt eingeführt werden und das Vertrauen der Nutzer gewinnen? Wie gut ist die Anwendbarkeit des Produkts? Und wie sehr nützt es den Kunden und befriedigt deren Bedürfnisse? Wichtig dabei: Ethische Fragen und Herausforderungen müssen zu jeder Zeit ernst genommen und bestmöglich in die Entwicklung miteinbezogen werden. Nur so kann am Ende ein Produkt entstehen, das seinen Weg zum Nutzen – und nicht zum Schrecken – aller in Wirtschaft und Gesellschaft findet. Technik sollte unser Leben vereinfachen. Für nervenaufreibende Unterhaltung gibt es schließlich Hollywood.
Um einen Kommentar zu hinterlassen müssen sie Autor sein, oder mit Ihrem LinkedIn Account eingeloggt sein.