14. November 2022
Das Berlin Institute for the Foundations of Learning and Data (BIFOLD) steht für Exzellenz in der Forschung zu Künstlicher Intelligenz (KI). Drei BIFOLD-Wissenschaftler - Prof. Wojciech Samek, Prof. Klaus-Robert Müller und Prof. Grégoire Montavon – wurden jetzt von der Fachzeitschrift Digital Signal Processing (DSP) mit dem Best Paper Prize 2022 ausgezeichnet. Diese DSP-Auszeichnung würdigt vor allem Forschungsergebnisse, die innerhalb der letzten fünf Jahre veröffentlicht wurden. Mit der Auszeichnung des Artikels "Methods for interpreting and understanding deep neural networks" (2018) hebt die DSP die herausragende Arbeit der drei Wissenschaftler*innen zur Interpretierbarkeit von KI-Modellen hervor.
DSP ist eine fest etablierte wissenschaftliche Publikation auf dem Gebiet der Signalverarbeitung. Das Magazin kuratiert multidisziplinäre Forschungserkenntnisse und bietet eine Plattform für die Veröffentlichung von Forschungsergebnissen mit akademischer und industrieller Relevanz. Die Auszeichnung des Artikels der BIFOLD-Forscher*innen Prof. Wojciech Samek, Prof. Klaus-Robert Müller und Prof. Grégoire Montavon zeigt, dass wissenschaftliche Arbeiten über neue Anwendungen der Signalverarbeitung und des Maschinellen Lernens (ML) einen wichtigen Teil des DSP-Archivs darstellen. Darüber hinaus unterstreicht der Best Paper Prize die produktive und institutionsübergreifende Zusammenarbeit zwischen dem Fraunhofer Heinrich-Hertz-Institut und der Technischen Universität Berlin unter dem Dach von BIFOLD.
Tiefe neuronale Netze (Deep Neural Networks, DNN) haben in jüngster Zeit eine Vielzahl von Anwendungen wie Bildklassifikation, Spracherkennung oder die Verarbeitung natürlicher Sprache ermöglicht. In der Praxis zeigt sich ihr Vorteil in einer extrem hohen Vorhersagegenauigkeit, die oftmals mit menschlichen Kapazitäten vergleichbar ist. Umso entscheidender ist ein robustes Validierungsverfahren, um diese erwünschten aber auch umstrittenen Technologien (z. B. selbstfahrende Autos) zu implementieren. Methoden zur Interpretation der Erkenntnisse des Modells sind daher von hoher gesellschaftlicher Relevanz, um nachhaltige und sichere Anwendungsfälle zu gewährleisten.
Prof. Wojciech Samek, Prof. Klaus-Robert Müller und Prof. Grégoire Montavon konzentrieren sich dabei auf Post-hoc-Interpretierbarkeit. Ihr Konzept schließt an ein trainiertes Modell an, um die Repräsentation des Modells sowie die inhärenten Entscheidungsstrategien zu verstehen. Mit der preisgekrönten Arbeit ermöglichen die Wissenschaftler*innen einen Einstieg in die Interpretierbarkeit eines DNN-Modells und der Erklärung seiner Vorhersagen. Darüber hinaus geben sie theoretische Einblicke, Empfehlungen und Hinweise. Außerdem werden eine Reihe von technischen Herausforderungen sowie mögliche Anwendungen diskutiert.
Insgesamt haben die KI-Expert*innen eine äußerst klare Darstellung der Einbettung von ML in reale Entscheidungsprozesse verfasst und damit die Notwendigkeit von transparenten DNNs aufgezeigt. In ihrem Tutorial-Artikel werden zwei Ansätze zur Verbesserung von ML-Transparenz vorgestellt: (1) die Interpretation der von einem Modell gelernten Konzepte durch den Aufbau von Prototypen und (2) die Erläuterung der Modellentscheidungen durch die Identifizierung der relevanten Eingabevariablen. Im Rahmen des strengen Auswahlverfahrens von DSP beweist BIFOLD mit seiner Expertise im Bereich der Interpretierbarkeit von KI-Modellen seine herausragende Stellung in der Forschungsgemeinschaft.
Das prämierte Forschungspapier ist hier kostenlos abrufbar (nur auf Englisch verfügbar).