Artificial Intelligence, Trustworthiness and Explainability - AITE

Für das neue Forschungsprogramm der Baden-Württemberg Stiftung „Verantwortliche Künstliche Intelligenz (KI)“ hat ein Gutachtergremium im Februar 2020 zehn Projekte aus Freiburg, Heidelberg, Mannheim, Stuttgart und Tübingen ausgewählt. Darunter auch unser Projekt „Artificial Intelligence, Trustworthiness and Explainability (AITE)“. AITE ist ein Gemeinschaftsprojekt unseres "Ethics and Philosophy Labs" und dem "Internationalen Zentrum für Ethik in den Wissenschaften" (IZEW) der Universität Tübingen. Das Projekt startet im Herbst 2020 und hat eine Laufzeit von 3 Jahren. Projektkoordinatoren sind Dr. Eric Raidl und Dr. Thomas Grote.

Worum geht es in dem Projekt?

Gegenwärtig bleiben die Antworten oder Entscheidungen von maschinellen Lernsystemen (ML) für uns relativ undurchsichtig, warum entscheiden sie so, wie sie es tun. Wenn ein Bildklassifikator sagt: "Das ist ein Zug", erkennt es dann den Zug oder nur die Schienen oder etwas ganz anderes? Wie können wir sicher sein, dass es seine Entscheidungen aus den richtigen Gründen trifft? Dieses Problem steht im Mittelpunkt mehrerer Debatten: Können wir künstlich intelligenten Systemen (KI) vertrauen? Und wenn ja, auf welcher Grundlage? Würde eine Erklärung der Entscheidung unserem Verständnis helfen und letztlich das Vertrauen fördern? Und wenn ja, welche Art von Erklärung?

Das AITE-Projekt gliedert sich in drei zusammenhängende Teilprojekte. Im Teilprojekt 1 formulieren wir erkenntnis- und wissenschaftstheoretische Erklärungsnormen, um epistemische Standards für erklärbare KI (XAI) zu etablieren. In Teilprojekt 2 untersuchen wir moralische Normen der XAI auf der Grundlage einer Kasuistik von moralisch relevanten Fällen algorithmischer Entscheidungsfindung. In Teilprojekt 3 analysieren wir den Begriff des "Vertrauens" in KI-Systeme und seine Beziehung zur Erklärbarkeit.

Programm der Baden-Württemberg Stiftung

Im neuen Forschungsprogramm der Baden-Württemberg Stiftung „Verantwortliche Künstliche Intelligenz“ soll die Frage angegangen werden, wie eine verantwortungsvolle und gemeinwohlorientierte Nutzung von KI gestaltet werden muss. Die BW-Stiftung legt den Fokus dabei auf geistes- und sozialwissenschaftliche Forschungsansätze. Sie will mit diesem Forschungsprogramm auch eine breite gesellschaftliche Debatte über eine verantwortungsvolle Nutzung von KI und einen damit verbundenen Aushandlungsprozess anstoßen.