Nachvollziehbare KI in der Medizintechnik und für Automotive-Anwendungen

Maschinelles Lernen und die Fragen nach dem »Wie« und »Warum«

Gesichtsanalyse mit SHORE: bildbasierte Detektion, Analyse und Interpretation von Gesichtern, Gesten, Bewegungen und Personen, beispielsweise zur Fahrerzustandserkennung
© Westend61 – Fotolia.com

Wenn es um das Thema Maschinelles Lernen und darüber hinaus um sogenannte Deep Neural Networks (DNNs) geht, dann gibt es meist mehr Fragen als Antworten. Denn noch birgt der Prozess der Datenanalyse ML-basierter Systeme für Entwickler wie auch Anwender gleichermaßen viele Rätsel. Doch gerade bei sicherheitsrelevanten Fragestellungen im Automotive-Bereich, wie bspw. der Fahrerzustandserkennung oder im medizinischen Kontext mit dem automatisierten Screening von Gewebeproben spielen Transparenz und Interpretierbarkeit der Systeme eine große Rolle.

Der Einsatz maschineller Verfahren bei strategischen, kritischen Entscheidungen und deren allgemeine Akzeptanz hängen entscheidend von der Nachvollziehbarkeit der Datenanalyse ab.

Wie können die Entscheidungen KI-basierter Systeme den Anwendern verständlich gemacht werden?

Ziel des Forschungsschwerpunktes »Nachvollziehbare KI für Medizin und Automotive« ist es, neuartige Methoden zum erklärbaren Maschinellen Lernen in Verbindung mit Prädiktion und Präskription (Vorhersage und Erklärung) in den genannten Anwendungsdomänen zu schaffen. Dazu gehören Verfahren, die zum einen das Training und die Arbeitsweise von DNNs transparent machen und zum anderen die inhaltliche Validierbarkeit der Prognosemodelle verbessern sollen.

»Nachvollziehbare KI« für in-the-wild Anwendungen

Ein weiterer Fokus liegt auf dem Aspekt der Generalisierbarkeit der ML-Systeme, d.h in der Entwicklung adaptiver Verfahren, die mit patientenindividuellen Schwankungen der physiologischen Parameter (bspw. beim mobilen Einsatz im Sport) und unter variierenden Bedingungen (»in-the-wild«) umgehen können.