Absicherung autonomer Systeme – Automotive und Industrie 4.0

Maschinelles Lernen in sicherheitskritischen Systemen

Automotive
© metamorworks - stock.adobe.com

Durch die fortschreitende Automatisierung hin zu autonomen Systemen werden maschinelle Lernverfahren zur Erfassung und Verarbeitung komplexer und unbekannter Situationen unersetzbar. Für autonome Systeme ab einer hohen Automatisierungsstufe, d.h. von der Hochautomatisierung hin zum vollautonomen System, werden häufig Neuronale Netze zur Kontexterkennung eingesetzt. Hierzu scheinen die ersten Ergebnisse von Deep-Learning-Ansätzen vielversprechend. Sie ermöglichen es für autonome Fahrzeuge, Objekte zu erkennen, das Verkehrsgeschehen zu interpretieren und Fahranweisungen vorzugeben. Diese auf maschinellem Lernen basierenden Verfahren können entweder durchgängig verwendet werden, sozusagen vom Sensor bis zum Aktuator, oder jeweils nur Teilaspekte des autonomen Fahrens lösen.

Neue Methoden zur Absicherung von KI-Verfahren

Da Verfahren wie Neuronale Netze von außen jedoch nicht nachvollzogen und validiert werden können, sind sie in sicherheitskritischen Systemen wie Fahrerlosen Transportsystemen (FTS) oder autonomen Fahrzeugen nicht einsetzbar und verhindern eine erfolgreiche Einführung sicherer autonomer Systeme. Daher erforscht das ADA-Center neue Methoden, die eine ausreichende Absicherung von KI-Verfahren auf hochperformanten eingebetteten System-Plattformen erlauben. Dazu werden Überwachungsmechanismen entwickelt, die nachgewiesen alle zur Sicherheit des autonomen Systems notwendigen Eigenschaften überwachen. Hierfür wird außerdem ein flexibles Absicherungskonzept erarbeitet, das sowohl für verschiedene Lernverfahren als auch verschiedene Sensor-Ausstattungen anwendbar sein soll. Kommen zum Beispiel teilweise nachvollziehbare maschinelle Lernverfahren (wie Explainable AI) zum Einsatz, so sollen diese zusätzlich verfügbaren Informationen in die Absicherung mit einfließen. Darüber hinaus untersucht das ADA-Center geeignete KI-Methoden für die Überwachung selbst, um diese als redundante Pfade oder zum Monitoring nicht nachvollziehbarer maschineller Lernverfahren nutzen zu können.