Navigationsweiche Anfang

Navigationsweiche Ende

Sprache wählen

Lehrstuhl für Technologien und Management der Digitalen Transformation


Herr Univ.-Prof. Dr.-Ing. Tobias Meisen

Interpretable Learning Models

Beschreibung

Unsere Forschungsgruppe Interpretierbare Lernmodelle (ILM) forscht an datengetriebenen Ansätzen und Methoden für die Analyse von Sensorzeitreihen- und Bilddaten aus der Fertigung und Produktion im industriellen Umfeld. Unser Ziel ist es, die Anwendung von State-of-the-Art-Lernmodellen in komplexen und anspruchsvollen Szenarien wie Condition Monitoring, Predictive Quality oder Predictive Maintenance zu erleichtern. Unsere Forschungsschwerpunkte auf der Transparenz und Interpretierbarkeit von trainierten Lernmodellen, mit einem starken Fokus auf künstliche neuronale Netze und Deep-Learning-Modelle, um deren inhärenten Black-Box-Charakter aufzuweichen und deren robuste und zuverlässige Anwendung im industriellen Umfeld zu ermöglichen. Zu diesem Zweck greifen wir auf ein breites Spektrum klassischer Analysemethoden aus dem Bereich der Signalverarbeitung sowie auf moderne Lernmechanismen aus dem aktuellen Stand der Deep-Learning-Forschung zurück. Wir sind inspiriert vom Forschungsfeld der Neurowissenschaften, und schaffen eine neue Perspektive auf künstliche Lernmodelle als Untersuchungsgegenstände empirischer Studien. Wir sind der festen Überzeugung, dass die interaktive und visuelle Exploration von Lernmodellen und den dazugehörigen Daten der Schlüssel zur besseren Transparenz und Interpretierbarkeit ist. Unsere Vision ist, den abstrakten Zugang zu künstlichen Lernmodellen zu vereinfachen und diese genauso greifbar und leicht untersuchbar zu machen, wie gewöhnliche Alltagsgegenstände.

Schwerpunkte

  • Analyse von Sensorzeitreihen
  • Labeling von Sensorsignalen
  • Klassifizierung von Sensorsignalen
  • Anomalie-Erkennung in Sensorsignalen
  • Prognose des Zeitverlaufs von Sensorsignalen
  • Rekonstruktion von Sensorsignalen
  • Ähnlichkeitsbestimmung von Sensorsignalen
  • Sensitivitätsanalyse von Sensorsignalen
  • Segmentierung von Sensorsignalen
  • Zeitmotif-Extraktion von Sensorsignalen

Anwendungsfelder

  • Fertigungs- und Produktionsszenarien
  • Condition monitoring
  • Predictive quality
  • Predictive maintenance
  • Virtuelle Sensoren

Ansprechpartner

Richard Meyes, M.Sc.

Ausgewählte relevante Publikationen

Referenzen
Tristan Langer; Tobias Meisen
System Design to Utilize Domain Expertise for Visual Exploratory Data Analysis
Information, 12(4):140
2021

Schlüsselwörter: research-interpretable-learning

Tristan Langer; Tobias Meisen
Visual Analytics for Industrial Sensor Data Analysis
Proceedings of the 23rd International Conference on Enterprise Information Systems , Seite 584--593.
Herausgeber: SCITEPRESS - Science and Technology Publications,
2021
ISBN: 978-989-758-509-8

Schlüsselwörter: research-interpretable-learning

Richard Meyes; Constantin Waubert de Puiseau; Andres Posada-Moreno; Tobias Meisen
Under the Hood of Neural Networks: Characterizing Learned Representations by Functional Neuron Populations and Network Ablations
2020

Schlüsselwörter: research-interpretable-learning

Richard Meyes; Moritz Schneider; Tobias Meisen
How Do You Act? An Empirical Study to Understand Behavior of Deep Reinforcement Learning Agents
2020

Schlüsselwörter: research-interpretable-learning

Richard Meyes; Johanna Donauer; Andre Schmeing; Tobias Meisen
A Recurrent Neural Network Architecture for Failure Prediction in Deep Drawing Sensory Time Series Data
Procedia Manufacturing, 34:789--797
2019
ISSN: 2351-9789

Schlüsselwörter: research-interpretable-learning

Seite:  
Zurück | 1, 2, 3, 4 | Weiter
Total:
18
Export als:
BibTeX, XML