Was heute besser als mit Katzenbildern geht

Von   Dr. Wolfgang Thronicke   |  Principal Consultant/Mitglied der Scientific Community   |  Atos
27. November 2018

In allen Branchen wird es nur mit künstlicher Intelligenz (KI) gelingen, die anfallenden Datenmengen automatisiert zu verarbeiten. In der Regel läuft es auf maschinelles Lernen (ML) hinaus, das mehr kann, als Katzen auf Bildern zu identifizieren. Die ML-Verfahren richtig einzusetzen, verlangt Wissen und Erfahrung sowie ein klares Automatisierungsziel. Wollen Unternehmen langfristig wettbewerbsfähig sein, bleibt auch das bewährte Proof-of-Concept relevant.
Mit dem präzisen Erkennen von Katzenbildern aus einer Millionen Einträge umfassenden Datenbank verbindet sich der Durchbruch in der jüngeren Geschichte der künstlichen Intelligenz (KI) vor dem Hintergrund verfügbarer Rechenleistung und nutzbarer Trainingsdaten. Genau diese Fähigkeit demonstrierte ein neuronales Netzwerk von Studenten, das beim Wettbewerb, der ILSVRC (ImageNet Large Scale Visual Recognition Competition), 2012 für Aufsehen sorgte. Darüber hat sich bestimmt auch der bekannte KI-Forscher Geoffrey Hinton gefreut, der die angehenden KI-Spezialisten betreute.

Allgemein ahmt ein neuronales Netz die Nervenzellenvernetzung im Gehirn nach. Es besteht aus Datenknoten, die sich auf Eingabe-, Zwischen- und Ausgabeschicht verteilen und zwischen denen gewichtete Verbindungen existieren. Im Lernprozess werden diese Gewichte so eingestellt, dass das Netz die Muster möglichst sicher erkennt, also das Lernziel erreicht. Ein neuronales Netz fällt unter das weite Feld KI, des maschinellen Lernens (Machine Learning, ML), das technologisch betrachtet ein Teilgebiet der KI bildet. Schlussfolgern (Reasoning), Spracherkennung und
-verarbeitung (Natural Language Processing, NLP) und automatisiertes Planen (Planning) komplettieren die Hauptdisziplinen, auf die alle zutrifft, dass ihre Systeme eigenständig Probleme erfassen und lösen.

Aus Erfahrung lernt die Maschine

Stark vereinfacht sind ML Algorithmen Optimierungsalgorithmen, die einen Erkennungsfehler minimieren. Im Allgemeinen hängt es von der Aufgabe ab, welche Algorithmen für ein ML Problem eingesetzt werden. Bei einem typischen „überwachten“ Lernalgorithmus existiert für einen Teil der Daten bereits die Information „Katze auf dem Bild“. Mit diesem Wissen kann jeweils eine schrittweise Iteration zur Verbesserung durchgeführt werden. Eine gutes Lernergebnis ist hier auch nur mit einem hinreichend großen und variablen Datensatz zu erreichen. Dennoch versteht der Algorithmus nicht, was eine Katze ist, sondern gibt zu einem neuen Bild aus, ob es ähnlich zu den gelernten Katzenbildern ist oder nicht. Beim sogenannten Deep Learning werden spezialisierte neuronale Netze „gestapelt“ und übernehmen Teilaufgaben. Zum Beispiel kann hier ein Netz die Umrisse in Bildern bestimmen, und ein anderes die Umrisselemente prüfen und Teilelemente erkennen, wie beispielsweise Fell, oder Ohren etc, die dann von weiteren Schichten kombiniert und ausgewertet werden. Diese Verfahren sind robuster, benötigen aber einen hohen Rechenaufwand, deshalb sind sie auch erst mit der Verfügbarkeit entsprechender Hochleistungssysteme realisiert worden (Berechnung mit Grafik-Prozessoren oder speziellen Tensor-Cores etc).

Ein wichtiger Aspekt im maschinellen Lernen ist das „Dazulernen“. Dabei werden aktuelle Datensätze ebenfalls für das Training hinzugezogen.

Nicht aufbereiteten Daten widmet sich der Algorithmus im unüberwachten Lernverfahren. Der Algorithmus durchleuchtet die Daten nach Mustern, nach denen er die Daten klassifizieren und sinnvolle Informationen abbilden soll. Verhaltensmodelle lieferten die Vorlage für das bestärkende maschinelle Lernen, bei dem ebenfalls keine klassifizierten Trainingsdaten vorhanden sind und das Ergebnis offen ist. Das Verfahren eignet sich, wenn sich ein Trend – entweder in die richtige oder falsche Richtung – abzeichnet. Der Algorithmus erhält Feedback, wie jedes Ergebnis zu bewerten ist. Das System geht danach im Trial- and-Error-Verfahren vor. Erfolgreiche Entscheidungen verstärken sich zu einem Prozess, der das Ausgangsproblem hinreichend gut lösen kann. Aber auch hier ist ebenfalls eine kritische Kontrolle gefragt, denn bei unüberwachtem Lernen kann ein unpassendes Lernziel erreicht werden, das nicht die eigentlichen Abhängigkeiten erfasst, die das Problem enthält.

Die durch maschinelles Lernen erfassbaren Probleme gehören in den Bereich der „schwachen“ KI. Das System ist nach der Lernphase in der Lage eine bestimmte, eng begrenzte Tätigkeit zu übernehmen, die ansonsten einem Menschen zugeschrieben wird. Ein Verständnis über die Tätigkeit liegt dabei nicht vor.

Ist Deutschland im Bilde?

Im Einsatz von KI-Verfahren belegt Deutschland nur einen Platz im Mittelfeld. Weltweit führen die USA und China. In den deutschen Unternehmensalltag blickt die IDC-Studie „Künstliche Intelligenz in Deutschland 2018“. Dort stechen zwei Zahlen heraus: Rund ein Viertel der Unternehmen hat bereits KI-Projekte realisiert, 69 Prozent der befragten 350 Firmen und Organisationen planen eine Umsetzung. Branchenübergreifend kristallisieren sich laut IDC fünf bevorzugte Anwendungsszenarien heraus. Unternehmen nutzen KI am häufigsten für die Extraktion von Wissen aus Daten (37 Prozent), zur Spracherkennung (32 Prozent), zum überwachten maschinellen Lernen (25 Prozent), für die Bilderkennung/-klassifikation (23 Prozent) sowie zur automatischen Content-Aggregation (23 Prozent). Die Technologien liefern die Basis, die jeweils knapp 20 Prozent intelligente Assistenten zum Support von internen und externen Kundenanfragen und Chatbots für die Interaktion mit Kunden einsetzen.

Deutsche Unternehmen setzen also auf Automatisierung, die bei einem virtuellen Assistenten im Kundencenter auf zwei Ebenen stattfindet. Das betrifft zunächst den virtuellen Assistenten selbst, der die Mensch-Maschine-Schnittstelle für die Spracherkennung und -bearbeitung bildet. Hinzu kommt die roboterhaft-gesteuerte Prozessautomatisierung (RPA). So stößt nach der Eingabe ein digitaler Assistent einen Prozess oder mehrere Vorgänge an, die im Hintergrund ablaufen, um eine bestimmte Aufgabe des Nutzers zu lösen. Ein Softwareroboter (also eine Software) ahmt in dem Fall die menschlichen Eingaben und Reaktionen an einer Benutzeroberfläche nach, indem er beispielsweise Daten ins ERP-System eingibt, auf Rückmeldung des Systems reagiert und so die Ausführung eines gesamten Geschäftsprozesses unterstützt. Auf diese Weise bleibt das System sowohl von einem Menschen wie auch von „der Maschine“ bedienbar. Mit entsprechenden Automatisierungsschnittstellen in den nächsten Generationen solcher Software wird auch eine tiefe Integration möglich werden.

Initial den Automatisierungszweck definieren

Priorität in der konkreten Umsetzung hat für die Analysten von IDC, dass Unternehmen zuerst den Anwendungsfall für ihr Geschäft definieren. Der klar aus der Geschäftsperspektive formulierte Automatisierungszweck führt dann zwangsläufig zur passenden Technologie. Der Neueinstieg mit einem einfachen und zunächst unkritischen Anwendungsszenario erleichtert, erste Erfahrungen zu sammeln. Der Automatisierungserfolg hängt schließlich von der Datenqualität und -relevanz ab. IDC rät Unternehmen, sich die Frage zu stellen, ob sie die richtigen Daten nutzen. Gerade bei offenen und flexiblen Ökosystemen zeigen sich Unterschiede in der Datenqualität, die einzelne Datenquellen liefern. Das Wissen und die Erfahrung der Mitarbeiter sollten zudem in die KI-Lösung und deren Training einfließen. Daneben muss eine Firma KI-Know-how aufbauen. Auch hier ist je nach eingesetzter Technologie ein passendes Kompetenzspektrum zu entwickeln.

An die interne IT richtet sich die Forderung, den KI-Service hochverfügbar zu betreiben. Die Cloud drängt sich hierbei als Bereitstellungsvariante besonders auf, da sie die flexibelste, skalierbarste Lösung für KI-Anwendungen ist. Zumal Provider heute den Zugriff auf Grafikprozessoren von virtuellen Maschinen anbieten, um effektiv Spezialalgorithmen für Deep Learning in der Cloud virtualisiert auszurollen.

Testphase senkt Gefahr des Scheiterns

Unternehmen sollten sich nicht von den übersteigerten Erwartungen anstecken lassen, die bisweilen Presse und Marketing schüren. Ansonsten steigt die Gefahr des Scheiterns. Diese sinkt, je präziser ein Ziel, also der zu automatisierende Prozess, definiert ist. Auf diese Weise fällt es umso leichter, den Fortschritt in einem KI-Projekt zu messen. Allerdings gilt es, die Zeit und den Aufwand einzukalkulieren, den das Training eines KI-Systems erfordert. Auch im Live-Betrieb bleibt es notwendig, das System zu überwachen. Ein Proof of Concept (PoC) hat etwaige Fragen zu klären und letztendlich den Leistungsnachweis zu erbringen, bevor ein Pilotprojekt startet. Ein PoC mindert außerdem die Gefahr, zu unterschätzen, wie komplex sich die Wissensintegration gestaltet. Automatische Datenakquisition für Big Data ist damit nicht gegeben. Selbst ML-Verfahren sind keine Selbstläufer. Sie ordnen Daten zwar sehr gut Mustern zu und lernen kontinuierlich dazu. Aber ein Verständnis der Domäne bringt auch ein ML-Algorithmus erst einmal nicht mit. Sein Betrieb verlangt eine ständige Pflege und Anpassung, gerade vor dem Hintergrund, dass sich das Wissen und der Kontext ständig ändern und weiterentwickeln. Big Data und hohe Rechenkapazitäten bieten heute beste Voraussetzung, lernintensive KI-Verfahren zu verbessern. Insbesondere für ML zeichnen sich rasante Fortschritte ab. Um diese zu veranschaulichen, greifen Experten auch heute gern noch zu dem Beispiel mit den Katzenbildern, die ein ML-System aus einem riesigen Daten-Pool identifizieren soll. Aber es geht eben sehr viel mehr.

Dr. Wolfgang Thronicke ist Principal Consultant, R&D Projekt Manager und CTO des Atos C-LAB, der Innovationsabteilung von Atos Deutschland. Als Mitglied der Atos Scientific Community untersucht er die Auswirkungen von Technologietrends auf die IT-Strategie des Unternehmens.

Um einen Kommentar zu hinterlassen müssen sie Autor sein, oder mit Ihrem LinkedIn Account eingeloggt sein.

21431

share

Artikel teilen

Top Artikel

Ähnliche Artikel