Sequenzbasiertes Lernen

Vom Umgang mit verrauschten Daten in multivariaten Lernverfahren bis zur mehrstufigen Zeitreihenprognose

Sequenzbasiertes Lernen
© Fraunhofer IIS

Die Forschung zur Analyse von Zeitreihen hat in den letzten Jahren an Dynamik gewonnen, da Erkenntnisse aus der Zeitreihenanalyse den Entscheidungsprozess für industrielle und wissenschaftliche Bereiche verbessern können. Zeitreihenanalyse zielt darauf ab, Muster und Entwicklungen zu beschreiben, die im Laufe der Zeit in Daten auftreten. Unter den vielen nützlichen Anwendungen von Zeitreihenanalyse sind die Klassifikation, Regression, Prognose und Anomaliedetektion von Zeitpunkten und Ereignissen in Sequenzen (Zeitreihen) besonders hervorzuheben, da sie wichtige Informationen beispielsweise zur Entscheidungsfindung von Unternehmen beitragen. In der heutigen informationsgetriebenen Welt werden an jedem Tag unzählige numerische Zeitreihen von Industrie und Forschung generiert. Für viele Anwendungen – unter anderem im Bereich Biologie, Medizin, Finanzen und Industrie – sind hochdimensionale Zeitreihen erforderlich. Der Umgang mit derart umfangreichen Datensätzen wirft verschiedene neue und interessante Herausforderungen auf.

Herausforderungen in natürlichen Prozessen

Trotz erheblicher Entwicklungen bei der multivariaten Analysemodellierung treten beim Umgang mit hochdimensionalen Daten immer noch Probleme auf, denn nicht alle Variablen haben direkten Einfluss auf die Zielvariable. So werden die Prognosen ungenau, wenn nicht verwandte Variablen berücksichtigt werden. Dies ist in praktischen Anwendungen wie der Signalverarbeitung häufig der Fall. Natürliche Prozesse, wie wir sie in den folgend genannten Applikationen finden, verarbeiten Daten, die durch einen multivariaten stochastischen Prozess beschrieben werden, um Beziehungen zu berücksichtigen, die zwischen den einzelnen Zeitreihen bestehen.

Regression: »Effiziente Suche und Repräsentation von Trackingdaten«

Datenschutz und Datenverarbeitung

Wir setzen zum Einbinden von Videos den Anbieter YouTube ein. Wie die meisten Websites verwendet YouTube Cookies, um Informationen über die Besucher ihrer Internetseite zu sammeln. Wenn Sie das Video starten, könnte dies Datenverarbeitungsvorgänge auslösen. Darauf haben wir keinen Einfluss. Weitere Informationen über Datenschutz bei YouTube finden Sie in deren Datenschutzerklärung unter: https://policies.google.com/privacy

In der Applikation »Effiziente Suche und Repräsentation von Trackingdaten« werden räumlich-zeitliche Daten wie Videotrackingdaten verarbeitet. So beschleunigt KI zum Beispiel die Suche nach Sequenzen von Koordinaten (Spielszenen), die Ball- und Spielerbahnen repräsentieren. Dazu werden unter anderem Siamesische Netze und Auto-Encoder verwendet, um distanzerhaltende Projektion in einen Embedding Raum zu erlernen und anschließend in diesem zu suchen. Sequenzbasierte KI-Methoden werden auch zur Merkmalsextraktion in räumlich-zeitlichen Verläufen zur Bewertung von Spielszenen verwendet. Darüber hinaus erfolgt die Vorhersage der Bewegungen von Verteidigern (Defensivverhalten) mit Long-Short Term Memory Zellen (LSTMs) unter Verwendung von Multi-Agenten-Imitationslernen.
Mittels Reinforcement Learning werden außerdem neue, kreative Spielabläufe aus Handlungsabläufen (Aktionen) und Trajektorien generiert.

Prognose: »Datengetriebene Lokalisierung«

Datenschutz und Datenverarbeitung

Wir setzen zum Einbinden von Videos den Anbieter YouTube ein. Wie die meisten Websites verwendet YouTube Cookies, um Informationen über die Besucher ihrer Internetseite zu sammeln. Wenn Sie das Video starten, könnte dies Datenverarbeitungsvorgänge auslösen. Darauf haben wir keinen Einfluss. Weitere Informationen über Datenschutz bei YouTube finden Sie in deren Datenschutzerklärung unter: https://policies.google.com/privacy

Bei der Applikation »Datengetriebene Lokalisierung« geht es um Zeitreihendaten, die mittels synchronisierter Antennen erhoben werden. Die Systemsynchronisation ist fehleranfällig und gesammelte Signalströme unterliegen Mehrwegeausbreitung, Fadingeffekte, Temperatur, Bewegungsdynamik im System langfristigem stochastischem Rauschen. Zeitliche Zusammenhänge in den Daten können helfen, um quasi statisches Rauschen zu entfernen (sogenanntes Denoising), um informative Merkmale frei zu legen. Ferner erhöhen datengetriebene Bewegungsmodelle, die zur Analyse von Bewegungen im Zeitverlauf genutzt werden, die Genauigkeit der Positionsvorhersage (sogenanntes Forecasting), die sonst unter der stark vereinfachten Beschreibung von herkömmlichen modellgetriebenen Filtern leidet.

Prognose: »Nachvollziehbare KI zur multimodalen Zustandserkennung«

Die Applikation »Nachvollziehbare KI zur multimodalen Zustandserkennung« verarbeitet Daten einer komplexen Signalverarbeitungskette und nutzt den zeitlichen Verlauf aus, um Zusammenhänge unterschiedlicher Informationsquellen zu identifizieren und höherwertige Aktionen, z. B. »Vier Fußgänger laufen drei Meter entfernt auf dem Gehweg und werden den Fußgängerüberweg in 57 Sekunden erreichen« vorherzusagen.

Anomaliedetektion: »Intelligente Leistungselektronik« und »KI-gestützte Zustands- und Störungsdiagnose Funksysteme«

In den Applikationen »Intelligente Leistungselektronik« und »KI-gestützte Zustands- und Störungsdiagnose Funksysteme« werden ebenfalls Zeitreihendaten unterschiedlicher Signalverarbeitungsketten verarbeitet. In beiden Fällen ist das Überwachen der Datenströme über die Zeit notwendig, um gewünschte von anomalen Veränderungen zu unterscheiden. Der zeitliche Verlauf ermöglicht es Störquellen zu identifizieren und zu lokalisieren, die sich aus der Schnappschussperspektive der Daten nicht identifizieren lassen.

Gemeinsam mit den Applikationen wurden verschiedene Forschungsschwerpunkte identifiziert

Anwendungsspezifische Modelloptimierung

Kernschwerpunkte sind die geeignete Datenerhebung (»Welche Informationen müssen gesammelt werden?«), Datenanalyse (»Welche Abstraktionsebene ist für das vorliegende Problem und Verfahren optimal?«), Datenvorverarbeitung (»Wie müssen die Daten normalisiert und standardisiert sein, um aussagekräftige Vorhersagen zu treffen?«) und das Ableiten der optimalen Merkmale und Architektur für ein abgestecktes und möglichst atomares Problem, um mit stochastischen Prozessen umzugehen. So werden in einer initialen Analysephase applikationsspezifisch optimale Klassifikations- und Regressionsverfahren für Zielkategorien und -variablen aber auch zur Identifikation, Detektion und Prognose von Anomalien abgeleitet. Dabei wird ebenfalls untersucht welche Effekte die Fusion von zeitlichen, räumlichen, spektralen und gemischten Informationsextraktoren auf die Ergebnisqualität haben. Ein weiterer anwendungsspezifischer Schwerpunkt ist die Untersuchung der Auswirkungen der zeitlichen Architektur neuronaler Netze wie Kontextvektoren in Langzeit-Kurzzeitgedächtniszelle LSTM sowie Aufmerksamkeit und Rückverfolgbarkeit von langfristigen, kurzfristigen und zukünftigen Abhängigkeiten in kontinuierlicher Information.

Unsicherheitsminimierung der Prognoseverfahren

Ein weiterer Schwerpunkt ist die Unsicherheit der Prädiktionsverfahren zu reduzieren »Wie kann mit steigender Komplexität und Dimension der Daten die Fehlervarianz und der Bias der Vorhersage reduziert werden?« Deshalb werden in der Kompetenzsäule unter anderem die Effekte von Monte Carlo Dropout Verfahren auf die Modellgenauigkeit und -unsicherheit und deren Ausbalancierung erforscht und die tiefe Kopplung zeitlicher neuronaler Netze mit Bayes'schen Methoden zur zuverlässigen Vorhersage untersucht.

Zeitreihendaten sind im Gesamtprojekt allgegenwärtig

Auch wenn die Zeitreihendaten nicht immer direkt offensichtlich sind, ist es aus Sicht der Methode, nahezu immer sinnvoll zeitliche Zusammenhänge in den zugrundeliegenden Daten und Informationen zu identifizieren. Oftmals verbergen sich zusätzliche temporale Interkorrelationen in den Daten, die zur Lösung gewinnbringend ausgebeutet werden sollten. Die Anzahl der wissenschaftlichen Beiträge der Kompetenzsäule zeigen, dass sowohl in methodischen, als auch anwendungszentrierten Forschungsgemeinden ein großes Interesse an Zeitreihenbasierten Lernverfahren besteht.

Projekt PROSPER: »Structural Framework for Time Series Forecasting with Neural Networks in PyTorch«

Die Analyse der Anwendbarkeit hat gezeigt, dass rekurrente neuronale Netze RNN (insbesondere historisch-konsistente neuronale Netze, HCNN) großes Potenzial für industrielle und makroökonomische Anwendungen auf Zeitreihendaten bieten, da sie im Vergleich zu anderen modernen Verfahren eine höhere Prognosequalität liefern. RNNs, insbesondere HCNNs, konnten in einigen Preisprognoseanwendungen (Strom-, Kupfer-, Stahlpreisprognose etc.) ihren Vorteil gegenüber »No-Risk-Szenarien«, bei denen die gleichen Ziele anhand kürzerer Zeitbereiche bearbeitet werden, ausspielen. Es wird nicht nur die Zielgröße prognostiziert, sondern auch die zukünftigen erklärenden Merkmale werden bei der Vorhersage zukünftiger Zeitschritte verwendet, was die Qualität der Vorhersage verbessert.

Da viele dieser Anwendungen jedoch im Rahmen von Industrieprojekten und nicht im Rahmen von Forschungsaktivitäten entwickelt wurden, fehlt bislang eine Auswertung mit der notwendigen wissenschaftlichen Strenge öffentlich zugänglicher Datensätze. Im wissenschaftlichen Diskurs und in einer Reihe von Tests in Praxisprojekten haben sich daher drei große Probleme herauskristallisiert, die einen breiten und erfolgreichen Einsatz von HCNNs bisher verhindert haben: die Auswahl der optimalen Architektur (z. B. a priori Merkmalsextraktion), die Verlässlichkeit der Unsicherheitsabschätzung der Modelle und der Vergleich mit prominenten Methoden des Standes der Technik und Wissenschaft. Diesen Herausforderungen nehmen sich die Forscherinnen und Forscher der Kompetenzsäule in einer campusübergreifenden Forschungskooperation an.

»ADA wills wissen« Podcast

In unserer neuen Podcast-Reihe »ADA wills wissen« befinden sich die Kompetenzsäulen-Verantwortlichen mit ADA im Gespräch und geben Einblick in ihre Forschungsschwerpunkte, Herausforderungen und Methoden. In dieser Folge hören Sie ADA mit Christopher Mutschler.

»ADA wills wissen« Podcast für Sequenzbasiertes Lernen mit Christopher Mutschler

Die KI-Kompetenzsäulen des ADA Lovelace Centers

Automatisches Lernen
© Fraunhofer IIS

Das automatische und adaptive Lernen (AutoML) beschäftigt sich mit der Automatisierung des KI Prozesses und von besonders arbeitsintensiven, manuellen Aufgaben, die im Regelfall von Experten durchgeführt werden. So wird das Maschinelle Lernen zugänglicher und effizienter. AutoML deckt einen großen Bereich ab, der bei der Automatisierung der Merkmalserkennung und -auswahl für gegebene Datensätze sowie der Modellsuche und -optimierung beginnt, über deren automatisierte Bewertung reicht und bis hin zur adaptiven Anpassung der Modelle durch Trainingsdaten und Systemfeedback geht.  

Sequenzbasiertes Lernen
© Fraunhofer IIS

Sequenzbasiertes Lernen beschäftigt sich mit zeitlichen und kausalen Zusammenhängen in Daten wie sie z. B. in der Sprachverarbeitung, Ereignisverarbeitung, Biosequenzanalyse oder auch in Multimediadaten auftreten. Dabei wird aus beobachteten Ereignissen der aktuelle Systemzustand erkannt und zukünftige Zustände vorhergesagt, was sowohl möglich ist, wenn nur die Reihenfolge ihres Auftretens bekannt ist, als auch dann, wenn sie genaue Zeitstempel tragen.

Erfahrungsbasiertes Lernen
© Fraunhofer IIS

Als erfahrungsbasiertes Lernen bezeichnet man Methoden, die es einem System erlauben, sich selbst zu optimieren, indem es mit der Umwelt interagiert und deren Feedback auswertet, oder sich an veränderliche Umweltbedingungen dynamisch anpasst. Hierzu zählen die automatisierte Erzeugung von Modellen zur Bewertung und Optimierung von Geschäftsprozessen, Transportabläufen oder auch Robotersteuerungen in der industriellen Fertigung. 

Few Labels Learning
© Fraunhofer IIS

Die bahnbrechenden Erfolge der KI bei Aufgaben wie Spracherkennung, Objekterkennung oder maschineller Übersetzung sind u.a. auf die Verfügbarkeit von enorm großen, annotierten Datensätzen zurückzuführen. Allerdings ist diese in vielen realen Szenarien, besonders im Industrieumfeld, begrenzt. Daher erforschen wir das Lernen mit wenigen annotierten Daten im Kontext von Techniken des unüberwachten, semi-überwachten- und des Transfer-Lernens.

 

Das digitale Datenvolumen (sog. »Big Data«) wächst seit einigen Jahren ungebremst. Bei der Wissensgenerierung müssen die erzielten Ergebnisse und Vorhersagen den Anwendern in geeigneter Weise plausibel und transparent gemacht werden. Dieser Aspekt wird im ADA Lovelace Center unter dem Stichwort erklärbares Lernen erforscht, und sorgt dafür, die Akzeptanz der künstlichen Intelligenz bei Anwendern in Wirtschaft, Wissenschaft und Gesellschaft zu erhöhen.

 

Prozessbewusstes Lernen stellt das Bindeglied zwischen der Modellierung und Analyse von Prozessen und dem Data Mining dar. Im Fokus steht dabei die Prozesserkennung, Konformitätsprüfung und Prozessverbesserung auf Daten in Form von Ereignisprotokollen. Sie dient dem Vergleich von Soll- und Ist-Zuständen, z.B. bei Geschäftsprozessen in Form von Workflow-Management-Systemen (WMS) oder Enterprise-Resource-Planning-Systemen (ERP).

Mathematische Optimierung Illustration
© Fraunhofer IIS

Die mathematische Optimierung ist unverzichtbarer Bestandteil der modellbasierten Entscheidungsunterstützung, indem sie Planungslösungen in so unterschiedlichen Bereichen wie der Logistik, Energiesystemen, Mobilität, im Finanzwesen und für Gebäudeinfrastrukturen liefert, um nur wenige Beispiele zu nennen. Die umfangreiche bestehende Expertise wird in mehrere aussichtsreiche Richtungen, namentlich der Echtzeitplanung und -steuerung weiterentwickelt.

Semantik
© Fraunhofer IIS

Die Aufgabe der Semantik ist es, Daten und Datenstrukturen formal definiert, standardisiert, inhaltlich widerspruchsfrei und eindeutig zu beschreiben. So müssen bei Industrie 4.0 verschiedenste Entitäten (wie Sensoren, Produkte, Maschinen oder Transportsysteme) in der Lage sein, deren Eigenschaften, Fähigkeiten oder Zustände anderer Entitäten in der Wertschöpfungskette zu interpretieren.

Few Data Learning
© Fraunhofer IIS

Few Data Learning beschäftigt sich mit der Aufbereitung und Vervollständigung von Daten sowie der Erzeugung einer ausreichenden Menge an Datensätzen, z. B. KI-Anwendungen auf Materialstammdaten in der Industrie. Das umfasst die Aufbereitung fehlerhafter Datensätze und den Einsatz von Simulationstechniken um fehlende Daten zu erzeugen.

Das könnte Sie auch interessieren

Lokalisierung und Vernetzung

Im Forschungsbereich »Lokalisierung und Vernetzung« des Fraunhofer IIS gibt es weitere Forschungen und Anwendungsbeispiele für die beschriebenen Kompetenzen und Methoden.

Weiterbildungen am ADA Lovelace Center

Das ADA Lovelace Center for Analytics, Data and Applications bietet – gemeinsam mit seinen Kooperationspartnern – Weiterbildungsprogramme rund um Konzepte, Methoden und konkrete Anwendungen im Themenbereich Data Analytics und KI.

Hierzu werden Seminare mit den folgenden Schwerpunkten angeboten:

Maschinelles Lernen

Reinforcement Learning