Maschinelles Lernen für mehr Effizienz in der industriellen Qualitätssicherung

Entscheidungsunterstützung bei eingeschwungenen Prozessen mit wenig Fehlerrate

Im industriellen Kontext wird Maschinelles Lernen (ML) immer wichtiger – insbesondere in der Qualitätssicherung. Diese ist für Unternehmen oft mit viel Aufwand verbunden, vor allem wenn strenge Fehlertoleranzvorgaben, die im Bereich kleiner 0,1 Prozent liegen können, eingehalten werden müssen. In solchen Fällen generiert jede Falschprognose des Analysesystems hohen zeitlichen und personellen Zusatzaufwand. Passende ML-Methoden könnten diesen Aufwand signifikant reduzieren. Gerade im Industrie- und Produktionsumfeld sind aber aktuell ML-basierte Prozessoptimierungen oder Entscheidungsunterstützungen nur schwer einsetzbar, denn die meist schon gut eingelaufenen Prozesse produzieren mit ihrer bereits geringen Fehlerquote eher einseitiges Datenmaterial. Das bedeutet, dass nahezu ausschließlich Daten von qualitativ hochwertigen Produkten vorliegen, aber wenige von fehlerhaften Produkten.

ML-Verfahren benötigen aber möglichst viele und unterschiedliche Daten, um valide Vorhersagen treffen zu können. Außerdem funktioniert Maschinelles Lernen am besten, wenn alle zu findenden Klassen in etwa der gleichen Menge vorliegen. Beim Projektpartner lag nun aber wie eingangs beschrieben aufgrund der guten Produktionsqualität ein stark unausgeglichener Datensatz mit 0,1% Fehlern vor. Im Projekt soll deshalb ein  ML-Modell entwickelt werden, das trotz des unausgeglichenen Datensatzes eine möglichst hohe Genauigkeit in der Detektion der Fehler aufweist. Als besondere Herausforderung wurden durch den Industriekunden zudem die zu erreichende Genauigkeit in der Vorhersage der Fehlteile als auch in der Vermeidung von Falschprognosen und die Rechenzeit genau vorgegeben.

Mit Evaluationsstrategien qualitativ hochwertige Modelle schaffen und den Kundennutzen maximieren.

In einer Machbarkeitsstudie bei einem Industriekunden aus dem Automotive-Bereich konnten wir aufzeigen, dass ML-Methoden – insbesondere Deep Learning – für die Nutzung auf visuellen Qualitätsdaten, die normalerweise nur eine sehr geringe Quote an Produkten schlechter Qualität aufweisen, verwendet werden können. Der Fokus der Studie lag dabei auf der Qualitätssicherung von Schweißpunkten, die mit Hilfe von visuellen Verfahren nach aktuellem Stand der Technik analysiert werden. Das aktuell verwendete System des Kunden hatte hier vermehrt gute Qualität als »fehlerhaft« klassifiziert. Dies hatte zu starkem Zusatzaufwand geführt, da die als fehlerhaft definierten Produkte jeweils individuell nachgeprüft werden mussten.

Um das Problem zu lösen, wurde von den Fraunhofer-Expertinnen und -Experten ein Algorithmus entwickelt, der die Bildaufnahmen aus beim Kunden vorhandenen klassischen Röntgenprüfsystemen kombiniert. Dabei lagen die Datensätze innerhalb eines Systems als 2,5 dimensionale Daten aber auch als Bilder in Graustufen vor. Mit dieser Kombination sollte eine höhere Vorhersagegenauigkeit erzielt werden, weshalb aus den bestehenden Datensätzen ein einziger Datensatz mit 3 dimensionalen Bildern fusioniert wurde. Über klassische Computer Vision Technologien konnten aus den einzelnen Bildern jeweils 24 Qualitätsmerkmale des Produkts extrahiert werden.   

Für die Entwicklung des Klassifizierungsmodells spielt die Evaluationsstrategie eine wesentliche Rolle.

Nachdem ein Modell für einen Anwendungsfall trainiert wurde, muss dieses immer noch auf seine Qualität überprüft werden – und zwar durch Evaluation. Hierbei kommen beispielsweise Kreuzvalidierungen zum Einsatz. Dabei wird der Datensatz auf eine bestimmte Anzahl an Teildatensätzen aufgeteilt, an allen Datensätzen bis auf einen trainiert und am letzten Teildatensatz, dem Test-Datensatz, validiert. Da im vorliegenden Anwendungsfall bei insgesamt nur 0,1 Prozent an fehlerhaften Schweißpunkten  deren Erkennung  stabil funktionieren sollte, wurde für die Evaluierung eine gerichtete Kreuzvalidierung verwendet. Hierfür werden die zufällig verteilten Test-Datensätze punktuell gezielt angepasst, sodass eine sinnvolle Validierung durchgeführt werden kann, die möglichst nah an der realen Anwendungssituation liegt.

Mit KI-Lernverfahren die Prognosegenauigkeit für die Qualitätssicherung erhöhen

Auf diese Weise konnte ein Modell mit klassischen Deep Learning Methoden und der angepassten Evaluationsstrategie trainiert werden, der die Ergebnisse des Kunden hinsichtlich Vorhersagequalität erreicht.  Die Qualitätsanforderungen des Modells konnten erfüllt und die erforderliche Prozesszeit sogar unterschritten werden.

Über diese Methodik konnten wir die vom Kunden erforderlichen Leistungskennzahlen hinsichtlich der Unterscheidung der beiden Klassen erreichen. Für den Projektpartner spielte hierbei die Reduktion der Falsch-OK-Rate, das heißt die Reduktion der fälschlicherweise als fehlerhaft klassifizierten Teile, eine große Rolle, denn so konnte unnötige Nacharbeit im Unternehmen vermieden werden. Wobei die Erkennung der wirklichen Falschteile darunter aber nicht leiden sollte.

Auch die Performanz der Berechnungszeit von unter einer Sekunde für die Erkennung und Klassifikation der Qualität auf handelsüblichen Prozessoren, die vom Kunden vorgegeben wurde, konnte über die beschrieben Methodik erreicht werden.

Das entwickelte Modell wurde beim Kunden durch seine KI-Spezialisten in die bestehenden Systeme eingebunden und wird dort nun über längere Zeit erprobt. In der Gruppe Data Efficient and Automated Learning wird zudem an weiteren Herangehensweisen geforscht, wie man in Anwendungen mit stark unbalancierten Datensätzen auch auf Basis anderer Lernverfahren effiziente Modelle für eine hohe Prognosegüte trainieren kann.

Das könnte Sie auch interessieren

 

Kernkompetenz

Data Analytics Methoden

Um den Rohstoff »Daten« zu gewinnen, bieten wir als eine von drei ineinandergreifenden Kernkompetenzen an, neue Lösungen für Data Analytics und KI zu entwickeln. Lesen Sie hier mehr darüber, warum wir mit Hilfe von Analytics aus scheinbar unbeherrschbaren Datenmengen und -materialien handhabbare, qualitative Daten und Informationen generieren wollen und wie wir vorgehen.

 

ADA Lovelace Center für Analytics, Daten und Anwendungen

Neues Kompetenzzentrum für Data Analytics und KI in der Industrie

Das ADA Lovelace Center verbindet auf einzigartige Weise KI-Forschung mit KI-Anwendungen der Industrie. Hier können sich die Partner untereinander vernetzen, vom Know-how des anderen profitieren und an gemeinsamen Projekten arbeiten.

 

AutoML

Automatisiertes Maschinelles Lernen (AutoML) genießt derzeit viel Aufmerksamkeit, da es verspricht die Entwicklung und Konfiguration von KI Prozessen zu automatisieren. Gemeinsam mit unserem Kunden aus dem Bereich der industriellen Fertigung haben wir deshalb untersucht, welche spezifischen Anpassungen für den Einsatz von AutoML Systemen in der praktischen Anwendung im Unternehmen sinnvoll sind.