Internationales Zentrum für Ethik in den Wissenschaften (IZEW)

Artificial Intelligence, Trustworthiness and Explainability (AITE)

Das Projekt AITE untersucht, welche erkenntnis- und wissenschaftstheoretischen Standards Künstliche Intelligenz einhalten muss, um als erklärbar und welche ethischen Normen sie erfüllen sollte, um als vertrauenswürdig zu gelten.

Das am IZEW angesiedelte Teilvorhaben untersucht dabei insbesondere den Vertrauensbegriff mit Hinblick auf Künstliche Intelligenz und seine Beziehung zur Erklärbarkeit.

Gefördert von der

Laufzeit

November 2020 – Oktober 2023
  

Projektbeschreibung

Gegenwärtig bleiben die Antworten oder Entscheidungen von maschinellen Lernsystemen (ML) für uns relativ undurchsichtig. Wie können wir sicher sein, dass diese Systeme aus den richtigen Gründen zu ihren Ergebnissen kommen? Dieses Problem steht im Mittelpunkt mehrerer Debatten: Können wir KI-Systemen vertrauen? Und wenn ja, auf welcher Grundlage? Würde eine Erklärung der Entscheidung unserem Verständnis helfen und letztlich das Vertrauen fördern? Und wenn ja, welche Art von Erklärung?

Das AITE-Projekt gliedert sich in drei zusammenhängende Teilprojekte. Im Teilprojekt 1 formulieren wir erkenntnis- und wissenschaftstheoretische Erklärungsnormen, um epistemische Standards für erklärbare KI (XAI) zu etablieren. In Teilprojekt 2 untersuchen wir moralische Normen der XAI auf der Grundlage einer Kasuistik von moralisch relevanten Fällen algorithmischer Entscheidungsfindung. In Teilprojekt 3 analysieren wir den Begriff des "Vertrauens" in KI-Systeme und seine Beziehung zur Erklärbarkeit.

Das Projekt ist ein Gemeinschaftsprojekt des "Ethics and Philosophy Lab" (EPL) des DFG Exzellenzclusters "Maschinelles Lernen: Neue Perspektiven für die Wissenschaft" (ML-Cluster) und dem "Internationalen Zentrum für Ethik in den Wissenschaften" (IZEW) an der Universität Tübingen.