Lehrstuhl für Technologien und Management der Digitalen Transformation
Herr Univ.-Prof. Dr.-Ing. Tobias Meisen
Transparent and Interpretable AI

Ein Forschungsschwerpunkt des Lehrstuhls TMDT liegt im Bereich der Interpretierbarkeit von künstlicher Intelligenz (Interpretable AI). Dabei liegt der treibende Faktor für unsere Forschung insbesondere im Bedarf an absoluter Transparenz und Nachvollziehbarkeit der Entscheidungsfindungsprozesse einer KI vor dem Hintergrund ihrer Nutzung für Anwendungsfelder im Bereich der industriellen Fertigung.
Unsere Forschung verwendet Methoden aus dem Bereich der Neurowissenschaften zur Untersuchung von Prozessen im Gehirn und zielt auf die Adaption und den Transfer dieser Methoden für die Untersuchung von künstlichen neuronalen Netzen (KNN) ab. Im Fokus steht die Untersuchung der erlernten Repräsentationen innerhalb der KNNs auf ihre Organisation und Struktur. Mithilfe von Ablationsstudien, einem aus dem Bereich der Neurowissenschaften inspirierten Verfahren zur kontrollierten Schädigung von Hirnstrukturen, und dem Transfer des Verfahrens auf KNNs lassen sich sowohl enge Parallelen als auch deutliche Unterschiede in der Organisation der untersuchten KNNs zu bekannten Strukturen im Gehirn aufdecken. Das Verständnis für die Organisation von erlernten Repräsentationen in KNNs und der damit einhergehende gesteigerte Grad an Transparenz für ihre Entscheidungsfindungsprozesse schafft Vertrauen für die Technologie und macht KI für den Menschen interpretierbar. Insbesondere in Anwendungsbereichen wie Fertigungs- oder Montageszenarien aus dem Bereich Produktionstechnik ermöglicht die Nachvollziehbarkeit die Verwendung der KI als Assistenzsysteme für den menschlichen Domänenexperten.
Ansprechpartner
Interesse an dieser Forschung?
Möchten Sie eine Abschlussarbeit in diesem Forschungsschwerpunkt schreiben? Dann schauen Sie hier nach offenen Themen oder melden Sie sich initiativ bei meyes{at}uni-wuppertal.de
Möchten Sie gerne tiefer in dieses Feld eintauchen? Dann treten Sie unserem Team als wissenschaftlicher Mitarbeiter(in) bei! Weitere Infos hier.
Ausgewählte relevante Publikationen
• |
Under the Hood of Neural Networks: Characterizing Learned Representations by Functional Neuron Populations and Network Ablations
2020
Schlüsselwörter: transparency |
• |
How Do You Act? An Empirical Study to Understand Behavior of Deep Reinforcement Learning Agents
2020
Schlüsselwörter: transparency |
• |
Ablation Studies in Artificial Neural Networks
arXiv arXiv:1901.08644,
2019
Schlüsselwörter: transparency |
• |
Ablation Studies to Uncover Structure of Learned Representations in Artificial Neural Networks
Proceedings of the 2019 International Conference on Artificial Intelligence (ICAI),
2019
Schlüsselwörter: transparency |
• |
Ablation of a Robot's Brain: Neural Networks Under a Knife
arXiv arXiv:1812.05687,
2018
Schlüsselwörter: transparency |