16. Dezember 2019
Mehrere Arbeiten der Fraunhofer HHI-Forschungsgruppe Maschinelles Lernen wurden vom Medienkonzern Thomson Reuters ausgezeichnet. Schwerpunktthemen der Publikationen sind die Interpretierbarkeit von neuronalen Netzen bzw. die Erklärbarkeit von Künstlicher Intelligenz (KI) und die neuronale netzbasierte Qualitätsschätzung in Bildern.
Thomson Reuters, hervorgegangen aus der Nachrichtenagentur Reuters und dem Medienunternehmen The Thomson Corporation, hat die aktuelle „Essential Science Indicators' (ESI) Highly Cited Papers“ Liste der am häufigsten zitierten Arbeiten veröffentlicht. Mit der Auszeichnung „highly cited“ werden Arbeiten aus verschiedenen Themenbereichen prämiert, die unter den besten ein Prozent der am häufigsten zitierten wissenschaftlichen Publikationen liegen. Im Forschungsgebiet „Engineering“ erhielten vier Paper von Fraunhofer HHI-Forschenden diese Auszeichnung.
Sebastian Bach, Alexander Binder, Grégoire Montavon, Frederick Klauschen, Klaus-Robert Müller und Wojciech Samek: On Pixel-wise Explanations for Non-Linear Classifier Decisions by Layer-wise Relevance Propagation
Maschinelle Lernmethoden lösen eine Vielzahl von Aufgaben sehr erfolgreich. Dennoch haben sie in den meisten Fällen den Nachteil, dass sie keine Informationen darüber liefern, was sie zu einer bestimmten Entscheidung geführt hat. Diese Arbeit schlägt eine allgemeine Lösung für das Problem des Verständnisses von Klassifikationsentscheidungen durch pixelweise Zerlegung nichtlinearer Klassifikationen vor und evaluiert das Verfahren in verschiedenen Szenarien.
Grégoire Montavon, Sebastian Lapuschkin, Alexander Binder, Wojciech Samek und Klaus-Robert Müller: Explaining Nonlinear Classification Decisions with Deep Taylor Decomposition
Nichtlineare Methoden wie Deep Neural Networks (DNNs) sind das Nonplusultra für verschiedene anspruchsvolle Maschinelle Lernprobleme wie die Bilderkennung. Obwohl diese Methoden beeindruckend gut funktionieren, haben sie erhebliche Nachteile: Die mangelnde Transparenz, die Einschränkung der Interpretierbarkeit der Lösung und damit den Anwendungsbereich in der Praxis. Das Paper stellt eine neue Methode für die Interpretation von generischen, mehrschichtigen neuronalen Netzwerken vor, indem die Entscheidung über die Klassifizierung von Netzwerken in Beiträge ihrer Eingabeelemente zerlegen wird.
Sebastian Bosse, Dominique Maniry, Klaus-Robert Müller, Thomas Wiegand und Wojciech Samek: Deep Neural Networks for No-Reference and Full-Reference Image Quality Assessment
Die Arbeit stellt einen tiefen neuronalen netzwerkbasierten Ansatz zur Beurteilung der Bildqualität (image quality assessment, IQA) vor. Das Netzwerk besteht aus zehn Faltungsschichten und fünf Pooling-Schichten zur Merkmalsextraktion sowie zwei vollständig verbundenen Schichten zur Regression.
Grégoire Montavon, Wojciech Samek und Klaus-Robert Müller: Methods for Interpreting and Understanding Deep Neural Networks
Das Paper thematisiert das Problem der Interpretation eines Modells eines tiefen neuronalen Netzwerks und der Erklärung seiner Vorhersagen. Es basiert auf einem Tutorial, das auf der ICASSP 2017 gehalten wurde. Die Arbeit diskutiert die Interpretierbarkeit, die technischen Herausforderungen und Anwendungsmöglichkeiten. Zudem ist die „layer-wise relevance propagation (LRP) technique“ Gegenstand der Arbeit.
Zusätzlich zu „high cited“ erhielt diese Arbeit die „hot paper”-Auszeichnung. Diese Prämierung erhalten Paper, die in den vergangenen zwei Jahren veröffentlicht wurden und anschließend schnell zitiert werden. Das Paper der Fraunhofer HHI-Forschenden wurde in einem zweimonatigen Zeitraum so oft zitiert, dass sie im Vergleich zu anderen Arbeiten im gleichen Forschungsgebiet unter den ersten 0,1 Prozent liegt.
Die Auszeichnungen „highly cited“ und „hot paper“ gelten als Indikatoren für wissenschaftlich herausragende Paper.