Abteilung Analytics

Die Abteilung »Analytics« entwickelt neue Methoden und Verfahren für anwendungsnahe Data Analytics und KI, die über das derzeit Machbare hinausgehen. Ziel ist, aus scheinbar unbeherrschbaren Datenmengen und -materialien für die Unternehmen handhabbare, qualitative Daten und Informationen generieren.

Dabei umfasst Data Analytics methodisch drei Bereiche, die stufig aufeinander aufbauen: Descriptive Analytics, Predictive Analytics und Prescriptive Analytics. Im Bereich Predictive und Prescriptive Analytics verknüpft die Abteilung als eine der wenigen Einrichtungen in der mathematischen Welt Prognose- und Optimierungsmethoden miteinander. So reduziert sie die Komplexität bei der mathematischen Darstellung von industriellen Anwendungen.

Eine detaillierte Beschreibung, warum und wie wir mit Hilfe von Descriptive Analytics, Predictive Analytics und Prescriptive Analytics aus scheinbar unbeherrschbaren Datenmengen und -materialien handhabbare, qualitative Daten und Informationen in konkreten Anwendungen machen wollen, finden Sie auch hier.  

Forschungsschwerpunkte der Abteilung

  • Descriptive Analytics
    Bei Descriptive Analytics werden Vergangenheits- oder Statuswerte aufgenommen und anschließend interpretiert. Mit ihnen wirft man sozusagen den Blick zurück und stellt aus den Ergebnissen den Zusammenhang zur Gegenwart her bzw. zieht Rückschlüsse auf mögliche Ursachen der gegenwärtigen Situation. Im Unterschied zu Business-Intelligence-Methoden, die in der Regel mit vorliegenden Datensätzen arbeiten, die aus der Vergangenheit stammen, setzen moderne Descriptive Analytics Methoden auf die wachsenden Automatisierungs- und Vernetzungsmöglichkeiten, mit denen Daten möglichst in Echtzeit zur Verfügung gestellt und entsprechend analysiert werden können. Klassische Beispiele sind Korrelations- und Kausalitätsanalysen zur vergleichenden Analyse von Märkten und Unternehmensprozessen. Zur Assoziationsanalyse kommt z. B. häufig der Apriori-Algorithmus zum Einsatz.
  • Predictive Analytics
    Die mit Descriptive Analytics gesammelten und interpretierten Daten sind die Voraussetzung für die nächste Reifestufe von Data Analytics: Predictive Analytics. Mit Methoden der Predictive Analytics werden anhand unterschiedlicher Daten und Kriterien aktuelle Abläufe und Ereignisse automatisiert bewertet, um möglichst präzise Vorhersagen – also Prognosen – treffen zu können. Hier geht es darum, mit Hilfe von mathematischen Verfahren und Modellen ein wahrscheinliches Szenario aufzuzeigen. Dazu werden Daten nach Mustern durchsucht, Modelle abgeleitet und auf aktuelle Daten angewandt. Klassische Beispiele sind Zeitreihenmodelle zur Vorhersage von Bedarfen sowie die Klassifizierung von Abläufen oder zur Problemanzeige mithilfe von Entscheidungsbäumen und Ensemble-Methoden wie z. B. Random Forest.
  • Prescriptive Analytics
    Aufbauend auf den Prognosen der Predicitve Analytics können mit Hilfe von Prescriptive Analytics Vorgaben für die Planung und Steuerung von Prozessen abgeleitet werden. Dazu werden mathematische Modelle zur Bewertung zukünftiger und alternativer Szenarien benötigt, die mit aktuellen Daten bespielt werden. Das Ergebnis sind individuelle Handlungsempfehlungen, mit denen Ereignisse oder Trends aktiv beeinflusst werden können. Klassische Lösungsmethoden sind gemischt-ganzzahlige-Programmierung sowie problemspezifische Heuristiken zur Ermittlung optimaler Systemkonfigurationen.

Vier Gruppen: Die Kompetenzen der Abteilung

Die dafür erforderlichen Kompetenzen, die Methoden, Verfahren, Modelle und Werkzeuge werden in folgenden Gruppen kontinuierlich weiterentwickelt:

Data Science

Lesen Sie hier mehr über Methoden, Prozessen, Algorithmen und Systemen zur Extraktion von Erkenntnissen und Mustern aus Daten, um Informationen zu generieren und Handlungsempfehlungen abzuleiten.

Data Efficient Automated Learning

Lesen Sie hier mehr über unsere Kompetenzen für mehr Effizienz von KI innerhalb des Machine Learning Lifecycles.  

Optimization

Lesen Sie hier mehr über unsere Kompetenzen im Bereich mathematischer Optimierung und das gezielte Suchen einer optimalen Lösung für eine wohldefinierte Fragestellung.

Process Intelligence

Lesen Sie hier in Kürze mehr über unsere Kompetenzen im Bereich Data Analytics für Prozesse.

Vision und Forschungsfelder der Abteilung

Eine umfassende Beschreibung aus Visionssicht, warum wir mit Hilfe von Analytics aus scheinbar unbeherrschbaren Datenmengen und -materialien handhabbare, qualitative Daten und Informationen generieren wollen und wie wir dabei vorgehen, finden Sie in der Beschreibung der Kernkompetenz »Data Analytics Methoden«. Wollen Sie mehr über die Use Cases und Domänen erfahren, in denen wir unsere Methoden und Kompetenzen konkret anwenden, folgen sie den unten verlinkten Forschungsfeldbeschreibungen.

 

Kernkompetenz

Data Analytics Methoden

Um den Rohstoff »Daten« zu gewinnen, bieten wir als eine von drei ineinandergreifenden Kernkompetenzen an, neue Lösungen für Data Analytics und KI zu entwickeln. Lesen Sie hier mehr darüber, warum wir mit Hilfe von Analytics aus scheinbar unbeherrschbaren Datenmengen und -materialien handhabbare, qualitative Daten und Informationen generieren wollen und wie wir vorgehen.

 

Forschungsfeld

KI-basierte Bedarfsprognosen für Logistik, Handel und Verkehr

Wir bringen KI-basierte Bedarfsprognosen in der Logistik, dem Handel und der Produktion in die Anwendung, um Vorhersagen zu verbessern und Prognose-Unsicherheiten zu quantifizieren.

 

Forschungsfeld

Nachhaltigkeit in der digitalisierten Supply Chain

Mit Daten können Prozesse, Organisationen und Systeme so effizient, ressourcenschonend und sozial gestaltet und gesteuert werden, dass sich viele der aktuellen Herausforderungen im Sinne des gewandelten Nachhaltigkeitsansatzes lösen lassen.

 

Forschungsfeld

Quantencomputing in der Supply Chain

Der Einsatz von Quantencomputing als Technologie für unterschiedlichste Anwendungen in der Supply Chain ist ein wichtiges Forschungsfeld der Zukunft, denn theoretisch können Quantenalgorithmen bei diesen besonders komplexen Problemen schneller bessere Lösungen generieren.

 

Process Analytics für Produktion und Logistik

Neue Zusammenhänge von Ursache und Wirkung aufdecken und damit auch in Zukunft in Produktions- und Logistikprozessen schnell die richtigen Entscheidungen treffen.

 

Digitalisierung in Transportlogistik und Kombinierter Verkehr

Wachsende Verkehrsaufkommen und Ressourcenmangel erfordern vollständig vernetzte Transportlösungen mit einer intelligenten Verknüpfung intern wie extern vorliegende Daten.

 

Supply Chain Analytics

Mathematik kann die Supply Chain revolutionieren – mit Modellen und Algorithmen, die die Komplexität reduzieren und miteinander verknüpften Prognose- und Optimierungsmethoden.

Das könnte Sie noch interessieren

 

Fokusprojekt

ADA Lovelace Center for Analytics, Data and Applications

Das ADA Lovelace Center verbindet auf einzigartige Weise KI-Forschung mit KI-Anwendungen der Industrie. Hier können sich die Partner untereinander vernetzen, vom Know-how des anderen profitieren und an gemeinsamen Projekten arbeiten.

Forschung im universitären Kontext

Als Mitarbeiter von Fraunhofer und gleichzeitiger Inhaber des Lehrstuhls für Wirtschaftsmathematik an der Friedrich-Alexander-Universität Erlangen-Nürnberg besteht über Prof. Dr. Alexander Martin eine enge wissenschaftliche Kooperation in seinen Forschungsschwerpunkten zwischen den beiden Einrichtungen.

 

White Paper

Data Analytics für die Supply Chain

Erhalten Sie hier eine Übersicht über gängige Analytics-Methoden und ihre Anwendungsfälle im Supply Chain Management.