Auf dem Wege zur Demokratisierung des Maschinellen Lernens

bei

 / 23. May. 2018

Stellen Sie sich den Leadsänger einer Jazzband vor, der aus den Verkaufszahlen der letzten 12 Monate den Verkauf eines neuen Songs für die kommenden 6 Monate mit einem Regressions-Modell selbst prognostizieren will; oder die Personalleiterin eines mittelständischen Unternehmens, die mittels historischer Daten die Wahrscheinlichkeit des Verbleibs eines neu einzustellenden Mitarbeiters im Unternehmen über ein Klassifikations-Modell berechnen möchte. Hierbei haben sowohl der Leadsänger als auch die Personalleiterin ‚nur’ aus ihrer Schulzeit limitierte Vorkenntnisse in Mathematik, Statistik oder Wahrscheinlichkeitstheorie. Das zu ermöglichen verbirgt sich hinter dem Anspruch der Demokratisierung des Maschinellen Lernens. 

Einführung

Begriffe wie Künstliche Intelligenz (KI) und Machine Learning (ML), Deep Learning und neuronale Netze, oder auch Data Science und Data Mining erzeugen bei vielen Menschen – auch erfahrenen IT Experten und Anwendungsentwicklern, geschweige denn von Menschen ohne jegliche naturwissenschaftliche Ausbildung – oft ein gewisses beklemmendes Gefühl. Das liegt z.T. an der Assoziation dieser Themen mit komplexen mathematischen und statistischen Methoden. Das überlässt man dann doch lieber ausgewiesen Spezialisten und Experten.

Mit der stetig steigenden Bedeutung, mit limitiertem Wissen mittels Machine Learning aus Daten geschäftsrelevante Erkenntnisse ziehen zu wollen, ändert sich auch das Anforderungsprofil an entsprechende Werkzeuge. Die Demokratisierung von Data Science und Machine Learning adressiert genau diesen Trend: die Anwendung z.B. von Machine Learning und Deep Learning Methoden auf geschäftsrelevante Aufgabenstellungen durch jedermann. Komplexe Aufgaben, die in der Vergangenheit ausschließlich studierten Datenwissenschaftlern vorbehalten waren, werden künftig durch jedermann ausführbar sein.

Doch was heißt das konkret, und wie geht das?

Ohne den Anspruch auf Vollständigkeit zu erheben, werden im Folgenden einige entscheidende Techniken und Funktionen entsprechender IBM Produkte[1] beschrieben, die sich speziell auf die Vereinfachung, Akzelerierung und Optimierung von Machine Learning Aufgaben und des Data Scientist Arbeitsablaufs beziehen.

Visuelle Modellentwicklung

Analytische Modelle können nicht nur programmatisch über integrierte Juypter Notebooks, sondern auch über einen Visual Model Builder Interface entwickelt, trainiert, validiert, getestet und implementiert werden. Mithilfe benutzerfreundlicher Assistenten kann der Nutzer ohne Kenntnis und Anwendung entsprechender Programmiersprachen (z.B. Scala, Python, R), und entsprechender ML und Deep Learning Bibliotheken (z.B. Spark MLlib, scicit-learn, TensorFlow, Caffe, usw.) und vor allen Dingen ohne Kenntnisse hinsichtlich der Eignung und Anwendbarkeit der schier unüberschaubaren Menge an verschiedenen ML-Algorithmen auf eine Aufgabenstellung quasi wie ein Data Scientist agieren. Mit wenigen, einfachen Schritten wird dem Nutzer der Zugriff und die Aufbereitung der Daten, das Trainieren des analytischen Modells, die Bereitstellung und auch das Scoren[2] des Modells ermöglicht. Der komplexe Entwicklungsprozess eines Regressions- oder Klassifikations-Modells wird hierbei signifikant vereinfacht. Durch den Visual Model Builder wir auch die Auswahl des passenden ML-Algorithmus anhand der Aufgabenstellung und der zur Verfügung stehenden Daten mit den entsprechenden Features automatisiert, wobei die Genauigkeit und Präzision der zur Auswahl stehenden analytischen Modelle dem Nutzer leicht verständlich angezeigt wird.

Kontinuierliche Modellanpassung

Eine weitere Herausforderung nach der Bereitstellung der analytischen Modelle ist im operationalen Betrieb die kontinuierliche Überprüfung der Präzision und Relevanz des Modells im Kontext definierter Geschäftsziele. Durch eventuelle Änderungen der Einflussfaktoren und Gewichtung der selektierten Features auf ein analytisches Modell kann sich die Genauigkeit über die Zeit verschlechtern. Dies wird bei IBM Machine Learning Produkten durch eine kontinuierliche Evaluierung der Modelle adressiert, welches über ein modernes RESTful API leicht implementiert werden kann. Diese Feedback Loop kann regelmäßig erfolgen (z.B. täglich oder wöchentlich) und ermöglicht den Data Scientists und Anwendungsentwicklern eine kontinuierliche Evaluierung und Anpassung (Retraining) der analytischen Modelle im operationalen Betrieb.

Die Präzisionsmessung erfolgt automatisch ohne aktive Mitwirkung des Nutzers über definierte Methoden zur Bewertung und Optimierung von analytischen Modellen. Hierbei werden z.B. bei einem Klassifikations-Modell die Flächen unter den Receiver-Operating-Characteristic (ROC) und Precision-Recall (PR) Kurven gemessen, womit u.a. die Genauigkeit bzw. die Fehlerrate für verschiedene Parameter- und Wahrscheinlichkeitswerte eines analytischen Modells evaluiert und optimiert werden kann. Hierbei muß der Nutzer der entsprechenden Werkzeuge kein Spezialist sein, sondern kann die Ergebnisse einfach in seinen Entscheidungsprozeß berücksichtigen bzw. die Empfehlung des Tools übernehmen.

Cognitive Assistant

Um die kombinatorische Vielfältigkeit hinsichtlich der Auswahl der passenden ML-Algorithmen (z.B. Regression, Decision Trees/Forests, Naïve Bayes, k-nearest Neighbor, Clustering, usw.) und das Setzen der Hyper-Parameter (z.B. Kernel Types bei Support Vector Machines, Learning Rate, Pruning Strategie, usw.) zu optimieren, zu vereinfachen und insbesondere performant durchzuführen, hat IBM eine Reihe von innovative Methoden entwickelt, die für jedermann ohne theoretisches Hintergrundwissen nutzbar sind.

So kann z.B., die die Genauigkeit eines Learners über relativ kleine Teil-Datenmengen auf die gesamte Trainings-Datenmenge extrapoliert werden. Bei entsprechenden ML Produkten der IBM (z.B. IBM Machine Learning for z/OS, IBM Data Science Experience, IBM Watson Machine Learning) vereinfacht dies nicht nur die Entwicklung der analytischen Modelle, sondern erhöht die Performance beim Trainieren verschiedener Modelle um Faktoren. In IBM Machine Learning for z/OS sind diese Methoden im Cognitive Assistant for Data Scientists (CADS) mit Hyper Parameter Optimization (HPO) implementiert und können über den Visual Model Builder oder über ein CADS RESTful API genutzt werden.

Schlußbetrachtung

Die Demokratisierung von Machine Learning und Deep Learning simplifiziert nicht nur den Data Science Arbeitsablauf und die Kollaboration über verschiedene Rollen und Verantwortlichkeiten hinweg, sondern ermöglicht vor allen Dingen die Entwicklung von Artificial Intelligence Applikationen mit signifikant reduzierten Skill-Anforderungen.

Verweise:
[1] IBM Machine Learning for z/OS, IBM Data Science Experience Local, IBM Watson Studio und IBM Db2 Analytics Accelerator
[2] Als ‘Scoren’ bezeichnet man die Anwendung des Modells auf neue Daten.

Der Autor: Eberhard is an Executive Architect from the IBM Germany R&D Lab. He is a member of DB2 Analytics Accelerator development. After 2,5 years at the IBM Kingston Lab in New York, he worked in SW development, performance optimization, IT/solution architecture & design, Hadoop and Spark integration and MDM. He began to work with DB2 for MVS, focusing on testing and performance measurements. He has worked worldwide with IBM clients from various industries on a vast number of topics, such as DWH and BI solutions, information architectures, and industry solutions. From 2011-2014, he was at IBM Singapore, working as the Lead Big Data Architect in the Communications Sector of IBM’s Software Group. He is a member of the IBM Academy of Technology Leadership Team, and co-authored the following books:

  • Enterprise MDM, Pearson, 2008, ISBN: 0132366258
  • The Art of Enterprise Information Architecture, Pearson, 2010, ISBN: 0137035713 Beyond Big Data, Pearson, 2014, ISBN: 013350980X