7. April 2021
Die am Fraunhofer Heinrich-Hertz-Institut (HHI) tätigen Forscher Dr. Wojciech Samek und Luis Oala sind gemeinsam mit Jan Macdonald und Maximilian März von der TU Berlin auf der diesjährigen Konferenz „Bildverarbeitung für die Medizin“ (BVM) für die „beste wissenschaftliche Arbeit“ ausgezeichnet worden. Die Wissenschaftler erhielten die Auszeichnung für ihre Arbeit „Interval Neural Networks as Instability Detectors for Image Reconstructions.“ In ihrem Paper zeigen die Autoren, wie Unsicherheitsquantifizierung verwendet werden kann, um Fehler in Deep-Learning-Modellen zu erkennen.
Die Auszeichnung wurde am 9. März 2021 während der virtuellen BVM-Konferenz verliehen. Der Preis für die „beste wissenschaftliche Arbeit“ wird jedes Jahr vom BVM-Preiskomitee vergeben. Mit diesem Preis wird innovative Forschung hervorgehoben, die einen methodischen Schwerpunkt auf Bildverarbeitung in einem medizinisch relevanten Anwendungskontext legt. Ziel der BVM-Konferenz ist die Darstellung aktueller Forschungsergebnisse und die Vertiefung der Gespräche zwischen medizinischen sowie technischen Wissenschaftlerinnen und Wissenschaftlern, der Industrie und klinischen Anwenderinnen und Anwendern. Die Konferenz wird jährlich von Regensburg Medical Image Computing (ReMIC) und der Ostbayerischen Technischen Hochschule (OTH Regensburg) organisiert.
Moderne KI-Systeme auf Basis von Deep Learning sind eine flexible, komplexe und oft intransparente Technologie. Grenzen im Verständnis des Verhaltens eines KI-Systems bergen allerdings Risiken für einen Systemausfall. Daher ist die Identifikation von Fehlermodi in KI-Systemen eine wichtige Voraussetzung für deren zuverlässigen Einsatz in der realen Welt.
Das prämierte Paper befasst sich mit Methoden zur Identifizierung dieser Fehlermodi. Es nutzt dafür die Unsicherheitsquantifizierung, ein interdisziplinäres Forschungsgebiet zur Quantifizierung, Charakterisierung, Verfolgung und Verwaltung von Unsicherheit in rechnerischen und realen Systemen. Die Forscher setzen erfolgreich sogenannte Interval Neural Networks ein, eine von ihnen neu entwickelte Methode, mit der Unsicherheiten quantifiziert werden können. Sie haben dargelegt, dass mit dieser Methode verschiedene Fehlertypen in tiefen Bildrekonstruktionsmodellen erkannt werden können. Die Ergebnisse des Papers machen das Potenzial der Unsicherheitsquantifizierung als feinkörniges Alarmsystem zur Überwachung von eingesetzten Deep-Learning-Modellen deutlich. Damit wird ein wichtiger Beitrag geleistet, um den Einsatz von KI-Systemen sicherer und zuverlässiger zu machen.