4. November 2019
Die rasante Entwicklung von Künstlicher Intelligenz (KI) eröffnet neue Zukunftsmöglichkeiten in vielen Bereichen. Um diese KI-Technologien in verschiedenen Arbeitsbereichen besser anwendbar zu machen, müssen allerdings neue Wege eingeführt werden, die die Übereinstimmung von KI-Entscheidungsstrukturen und menschlichem Wissen überprüfen. Forschende des Fraunhofer HHI, der Technischen Universität Berlin (TU Berlin), der Universität Oxford und der Technischen Universität Dänemarks (DTU) geben in ihrem Buch „Explainable AI: Interpreting, Explaining and Visualizing Deep Learning“ (Erklärbare KI: Interpretation, Erklärung und Visualisierung von Deep Learning) einen umfassenden Überblick über die wichtigsten Themen und Denkansätze in diesem Bereich.
Von der Entwicklung von „intelligenten“ Systemen, die Entscheidungen treffen und autonom agieren können, erhofft sich die Wissenschaft schnellere und konsistentere Entscheidungsprozesse. Ein Hindernis für eine breitere Anwendung von KI-Technologien ist jedoch das Risiko, das mit der Übertragung menschlicher Kontrolle und Beaufsichtigung an „intelligente“ Maschinen einhergeht. Insbesondere, wenn KI-Technologien sensible Aufgaben übernehmen sollen, an denen kritische Infrastrukturen beteiligt sind oder die sich auf das Wohl und die Gesundheit des Menschen auswirken können. Aus diesem Grund ist es essentiell, die Möglichkeiten für unangemessene, nicht tragfähige und bedenkliche Entscheidungen und Handlungen zu begrenzen. Um dies zu erreichen, ist die Einführung eines zusätzlichen Schrittes nötig: Vor der Bereitstellung eines KI-Systems muss dessen Verhalten verifiziert werden. So soll garantiert werden, dass das System auch beim Einsatz in einer realen Umgebung wie erwartet arbeitet. Zu diesem Zweck entstand die Erklärbare Künstliche Intelligenz (Explainable AI, XAI) als Teilgebiet der KI. In der XAI werden dem Menschen komplexe KI-Modelle auf systematische und interpretierbare Weise dargelegt.
Wojciech Samek, Gruppenleiter Maschinelles Lernen in der Abteilung Videokodierung und Maschinelles Lernen am Fraunhofer HHI, Grégoire Montavon, wissenschaftlicher Mitarbeiter an der TU Berlin, Andrea Vedaldi, außerordentlicher Professor an der Universität Oxford, Lars Kai Hansen, Professor an der Technischen Universität Dänemarks und Klaus-Robert Müller, Professor für Maschinelles Lernen an der TU Berlin, haben jetzt den ersten Sammelband zum Thema XAI veröffentlicht. „Explainable AI: Interpreting, Explaining and Visualizing Deep Learning“ wurde 2019 von Springer International Publishing herausgegeben. Das Buch enthält aktuelle Momentaufnahmen von Algorithmen, Theorien und Anwendungen interpretierbarer XAI- und KI-Techniken. Die Autoren befassen sich mit dem aktuellen Diskurs auf diesem Gebiet und liefern Anleitungen für zukünftige Entwicklungen.
Weitere Informationen zum Buch mit dem DOI: 10.1007/978-3-030-28954-6 finden Sie hier .