KI in der Fertigungskontrolle – Herausforderungen und Strategien

Durch den Einsatz von KI Methoden werden Computersysteme in die Lage versetzt, menschliches Denkverhalten zu simulieren, um selbstständig Entscheidungen treffen zu können. In der Prozess- und Qualitätskontrolle gibt es im Industrieumfeld zahlreiche Anwendungsfälle.
Von   Michael Meinel   |  Geschäftsführer   |  convanit GmbH & Co. KG
21. März 2023

Zeitreihen-, Bild- und andere Daten, welche durch Mess- und Inspektionsverfahren erfasst werden, bilden häufig die Grundlage, auf der Abweichungen von der Norm festgestellt werden können. Dabei ist die Bewertung der Daten durch den Menschen aufgrund der großen Datenmengen aus Kostengründen oft unvollständig und hat in Bezug auf die Genauigkeit der Einschätzungen Verbesserungspotential. Gerade bei Zuordnungs- und Klassifizierungsaufgaben und der Erkennung von Mustern und Anomalien ist der Nutzen von KI Methoden daher hoch. Sie nehmen in der Fertigungskontrolle neben den bewährten analytischen ‚Werkzeugen‘ einen immer bedeutenderen Raum ein.

Die dafür notwendige Rechenleistung ist heute ‚bezahlbar‘ und erprobte Mathematik sowie mächtige Open-Source-Softwarebibliotheken stehen zur Verfügung. Häufig wird in diesem Zusammenhang über Herausforderungen wie Datenqualität, Änderungen im Mindset und Kosten disskutiert. Ich möchte hier bewußt auf darüber hinausgehende Herausforderungen bei der Einführung von KI Methoden in der Fertigungskontrolle und die daraus abzuleitenden Strategien eingehen.

Herausforderungen

Auswahl der richtigen Methoden
Für einige Anwendungen haben sich inzwischen bestimmte KI Methoden als Standards etabliert. Beispielsweise stehen für die Bildauswertung mit Convolutional Neural Networks (CNNs), Image Augmentation und Segmentation ausgereifte Werkzeuge bereit. Geht man jedoch weiter ins Detail, so sind die konkreten Anforderungen an die einzelnen Anwendungsfälle eher spezifisch und es bedarf maßgeschneiderter Lösungen und Tuning Optionen um eine optimale Performance und Genauigkeit zu erreichen. Neue Algorithmen werden publiziert und die Vorhandenen ständig weiterentwickelt. Man betritt als verantwortlicher Data Scientist somit ein weites und sehr dynamisches Feld. Um je Anwendungsfall richtig entscheiden zu können ist ein sehr umfassender Methoden-Überblick und die Fähigkeit der technischen Umsetzung für Test- und Implementierungszwecke notwendig. Das gilt auch für die Abwägung, ob nicht herkömmliche analytische Methoden schon zum gewünschten Ziel führen. Demzufolge muss sich ein moderner Data Scientist ‚handwerklich‘ und methodisch breit aufstellen. Die Komplexität der einzelnen Methoden erfordert wiederum Spezialisierung. Gerade im KMU Bereich stellt sich somit die Frage wieviel dieser Expertise im Hause notwendig ist und wieviel Unterstützung von außen sinnvoll ist, um effizient und schnell  die geeigneten KI Anwendungen einführen zu können. Entwicklungsprojekte mit Hochschulen, Joint-Ventures, die Mitarbeit in Arbeitsgruppen oder Beratung durch spezialisierte Unternehmen können hier unterstützend wirken.

Lernendes System
Die Vorhersagegenauigkeit von KI Modellen nimmt mit der Zeit ab. Im Gegensatz zu herkömmlichen analytischen Methoden können sie aber dazulernen. Entweder selbst lernend (Machine Learning Ansatz) oder durch einen steuernd eingreifenden Fachexperten können die Bewertungsgrundlagen bei Bedarf an sich ändernde Verhältnisse angepasst werden. So können zum Beispiel bisher unbekannte Artefakte in Mikroskop-Bildern oder bisher unbekannte Sensorsignale durch neuartige Abweichungen bei der Prozessierung im Nachhinein hinzugelernt werden. Neben der Auswahl, Implementierung und Bereitstellung von tauglichen und optimal parametrisierten Algorithmen durch einen Data Scientist, ist ein einfacher Zugriff auf die Modelle durch Fachexperten für Aufgaben wie Modell Training, Ergebnisvisualisierung, Modell Versionierung, Modell Freigabe und Modell Überwachung ebenso zwingend erforderlich. Bleiben aber die, in der Fertigung eingesetzten, Modelle in den Händen der Modellentwickler, ohne dass die Nutzer diese selbstständig überwachen, mit neuen Informationen ‚füttern‘, deren Ergebnisse erklären sowie auch den konkreten Einsatz flexibel bestimmen können, werden die Prädiktionsergebnisse mit der Zeit ungenau und somit auch von den Anwendern in der Produktion nicht akzeptiert werden.

Anforderungen an die IT
Um KI Methoden  im Produktionsumfeld verlässlich zu betreiben ist ein einheitlicher Workflow für alle im Unternehmen auftretenden Arten von Anwendungen von der Erstellung, Parametrisierung, Freigabe, Überwachung und Verwaltung der Modelle, der Modellversionen und deren Trainings- und Ergebnisdaten notwendig. Die Einbindung dieser Geschäftsprozesse in die IT-Landschaft von Industrieunternehmen kann aufwendig sein. Drei unterschiedliche Expertisen sind miteinander zu verbinden: die Fachexpertise für die konkreten Anwendungsfälle, die Expertise in der Auswahl und Umsetzung der richtigen KI Methoden und die Expertise für die IT-seitigen Einbindung und Workflow-Gestaltung. Die involvierten Personen haben dabei sehr unterschiedliche Skills und Arbeitsweisen. Während sich die Anwender und Ingenieure i.d.R. sehr ungern mit Programmierung oder komplexer Parametrisierung auseinandersetzen wollen, liefern Data Scientists ihre Ergebnisse in Form von (z.B. Python) Skripten ab. IT Mitarbeiter stehen dann vor der Aufgabe, die trainierten Modelle mit MLOps Methoden zu überwachen, Rollbacks auf historische Trainingszustände sowie auch Backward Kompatibilität von trainierten Modellen nach Upgrades von Systemkomponenten zu gewährleisten, die oben erwähnten Geschäftsprozesse bereitzustellen und eine Reihe weiterer Anforderungen an Datenbereitstellung, Echtzeit, Deployment, Wartung, Setup Aufwand, Rückverfolgbarkeit, Robustheit (24×7) und User Management zu berücksichtigen. Die Integrierbarkeit dieser IT Anforderungen mit einem  klaren Konzept ist aber eine Voraussetzung für jegliche Einführung konkreter Anwendungsfälle. Mit dem Einsatz von dafür speziell konzipierten kommerziellen Lösungen können gerade im KMU Bereich viele Stolpersteine umgangen und eine zeit- und kostenoptimierte Einführung von KI Methoden im Unternehmen erreicht werden.

Insellösungen
Im Industrieumfeld ist gerade in den Hightech-Branchen eine eher heterogene Anlagenlandschaft üblich. So kommen beispielsweise Inspektionsanlagen und Mikroskope nicht zwangsläufig von nur einem Hersteller (best of breed). OEMs versuchen außerdem zunehmend, KI Applikationen in ihre Anlagen zu integrieren. Das bietet den Vorteil, dass alle an den Maschinen anfallenden Daten umfänglich und ohne Schnittstellenprobleme zur Analyse bereitstehen sollten. Sind diese integrierten Systeme jedoch nicht flexibel genug auf bestehende KI und unternehmensspezifische Anforderungen (s.o.) anpassbar, ist deren Einsatz nur begrenzt möglich. Diese Gefahr besteht besonders dann, wenn die Entwicklung integrierter KI Systeme nicht im Fokus der Anlagenhersteller steht (Add-on). Ein weiterer Nachteil kann darin bestehen, dass sich Maschinen-externe Daten nicht in die Tool-internen KI Rezepturen integrieren lassen und die Analysemöglichkeiten auf die entsprechenden anlagenbezogenen Daten begrenzt sind. Hat man es mit verschiedenen OEMs zu tun, kann eine einheitliche Vorgehensweise bei der Einführung von KI Anwendungen in der Fertigung eine zusätzliche Herausforderung darstellen, b.z.w. diese unmöglich machen. Ein von Anlagenherstellern unabhängiges KI Framework, welches flexibel in die IT Landschaft eingebettet werden kann, ist daher empfehlenswert.

Strategien

Ein erster Schritt bei der Einführung von KI Methoden liegt im Erkennen, das eine grundlegende Änderung in der Denkweise notwendig ist: Weg von der Sicherheit und der Losgelöstheit traditioneller regelbasierter analytischer Methoden, hin zu einem offenen, lernenden und auf Erfahrung basierenden System.
Zentrales firmenweit einsetzbares Framework oder integrierte Systeme?

Bieten OEMs bezahlbare, ausgereifte und auf den konkreten Anwendungsfall ausreichend zugeschnittene integrierte KI Applikationen an, so kann das ein erster Schritt sein. Folgende Kriterien sollten aber nicht außer Acht lassen werden:

Wie gut lassen sich die KI Rezepturen aufsetzen, versionieren und überwachen?

Wie gut lässt sich die Vorhersagequalität auf einem ausreichenden Niveau halten und wie flexibel können Modelle nachtrainiert werden?

Wie flexibel lassen sie sich auf ähnlich gelagerte Anwendungsfälle erweitern ohne zusätzliche Kosten zu verursachen?

Wie gut sind die Ergebnisse reproduzier-/ wiederholbar und erklärbar?

Wie gut genügt das verwendete System Anforderungen an Rückverfolgbarkeit, Weiterentwicklung und Upgrade Möglichkeit?

Wie gut können bei Bedarf Daten aus anderen (anlagenexternen) Quellen in die KI Rezepturen eingebunden werden?

Über welche Schnittstellen können Ergebnisdaten anderen Systemen zur Verfügung gestellt werden?

Wie gut erfüllen die integrierten KI Applikationen Anforderungen zu firmenspezifischen Geschäftsprozessen wie z.B. Freigaberichtlinien, Datenschutz, Datensicherheit, Monitoring und User Management?

Wie heterogen ist der Anlagenpark im Unternehmen und wie viele KI Anwendungsfälle sollen perspektivisch umgesetzt werden?

Soll im Unternehmen diesen Fragen möglichst einheitlich nachgegangen werden, ist ein zentrales, standardisiertes und firmenweit für verschiedene Anwendungsfälle einsetzbares KI Framework zu empfehlen, welches unabhängig von den datenerfassenden Systemen arbeitet. Dadurch kann der Nutzer sein Expertenwissen in einer einheitlichen Vorgehensweise anwendungsfallspezifisch anstatt anlagenspezifisch anwenden.

Folgende Aspekte sollten dabei berücksichtigt werden.

Modularer Ansatz

Aus technischer Sicht sollte ein gut integrierbarer modularer Ansatz für eine schrittweise und flexible Anbindung an die bestehenden datengenerierenden Systeme verwendet werden. Dies bietet auch den Vorteil, dass eine stufenweise Implementierung möglich ist.

Einheitlicher Workflow

Aus Prozesssicht sollte für die Umsetzung der KI Anwendungen ein einheitlicher Workflow zur Verfügung stehen, der die weiter oben genannten Kriterien berücksichtigt. Eine standardisierte Schnittstelle sollte es Modellentwicklern ermöglichen, anwendungsfallspezifische Modell-Vorlagen bereitzustellen, welche dann durch Fachexperten konkret eingesetzt und verwaltet werden können. Die dafür notwendigen Prozesse sind z.B. Teaching, Parametrisierung, Verifizierung, Freigabe, Überwachung und Verwaltung der KI Rezepturen. Dabei ist es wichtig, dass all diese Aufgaben ohne KI /Data Science Background ausgeführt werden können um genügend Flexibilität in der Fertigung zu gewährleisten.

Analytic Plattform

Ein solcher Workflow kann ebenso für herkömmliche analytische Methoden verwendet werden und eine Grundlage für eine große Anzahl an verschiedenartigen über KI hinausgehenden Use Cases bilden. Der Anwender spezifiziert welche Daten wie ausgewertet werden sollen, ein Data Scientist entwickelt die Methoden und ein einheitlicher Workflow ermöglicht ein schnelles und zuverlässiges Ausrollen in die Fertigung. Somit können alle anstehenden Datenanalyseaufgaben in der Fertigungskontrolle in einem zentralen System realisiert werden.

Michael Meinel ist seit über 22 Jahren in der Chip-Fertigung auf dem Gebiet Yield Engineering und Data Analytics unterwegs. Nachdem er für Infineon und Qimonda arbeitete, ging er 2010 in die Selbstständigkeit und war seitdem in über 20 Industrieunternehmen als technischer Berater aktiv. Er ist heute Geschäftsführer von der Firma convanit, die Lösungsentwickler für KI-basierte Systeme in der Fertigungskontrolle sind.

Um einen Kommentar zu hinterlassen müssen sie Autor sein, oder mit Ihrem LinkedIn Account eingeloggt sein.

34219

share

Artikel teilen

Top Artikel

Ähnliche Artikel