Erklärbares Maschinelles Lernen


Prof. Dr. Zeynep Akata wurde zum Wintersemester 2019/2020 auf die W3-Professur "Erklärbares Maschinelles Lernen" an der Mathematisch-Naturwissenschaftlichen Fakultät berufen, die im Rahmen unseres Exzellenzclusters „Maschinelles Lernen: Neue Perspektiven für die Wissenschaften“ eingerichtet wurde.


Forschungsschwerpunkte

Eine lernende Maschine, der ein Benutzer vertrauen kann und die leicht zu bedienen ist, muss mit der Fähigkeit zur Erklärung ausgestattet sein.
Während tiefe neuronale Netze zu beeindruckenden Erfolgen geführt haben -  so können sie heute beispielsweise 1000 Objektklassen zuverlässig identifizieren, über ihre Interaktionen durch natürliche Sprache argumentieren, Fragen zu ihren Eigenschaften durch interaktive Dialoge beantworten - steht die integrierte Interpretierbarkeit noch am Anfang. Mit anderen Worten, wir wissen nicht, warum diese tief lernbasierten visuellen Klassifikationssysteme funktionieren, wenn sie genau sind, und warum sie nicht funktionieren, wenn sie Fehler machen. Um eine solche Transparenz zu ermöglichen, bedarf es des Zusammenspiels verschiedener Modalitäten wie Bild und Text, während die derzeitigen tiefen Netzwerke als eine Kombination verschiedener Werkzeuge konzipiert sind, die jeweils ein anderes Lernziel mit extrem schwachen und uninterpretierbaren Kommunikationskanälen optimieren. Tiefe neuronale Netze beziehen ihre Leistung jedoch aus ihrer Fähigkeit, große Datenmengen über eine Rückkopplungsschleife mit Vorwärts- und Rückwärtsverarbeitung durchgehend zu verarbeiten. Obwohl Eingriffe in die Rückkopplungsschleife durch die Entfernung von Neuronen und Backpropagation implementiert wurden, ist eine verallgemeinerbare Multi-purpose Interpretierbarkeit noch lange nicht erreicht.

Tiefe neuronale Netzwerke erfordern eine große Menge vorklassifizierter Trainingsdaten, um zuverlässige Schlussfolgerungen zu ziehen. Beispielsweise muss das System das Verhalten des Fahrers an der roten Ampel beobachten, um lernen zu können, an der roten Ampel sowohl bei sonnigem als auch bei regnerischem Wetter, sowohl bei Tageslicht als auch bei Nacht, bei Nebel und Schnee usw. anzuhalten. Dies verursacht einen erheblichen Aufwand bei der Kennzeichnung jeder möglichen Situation. Daher ist es unser Ziel, ein erklärbares maschinelles Lernsystem aufzubauen, das die Bedeutung von "Rotes Licht" lernen und dieses Wissen nutzen kann, um viele andere verwandte Situationen zu erkennen. Beispielsweise kan rotes Lichtt bei Dunkelheit anders aussehen kann als am Tag, der wichtigste Aspekt in einer solchen Situation ist jedoch das erkennen, dass das Fahrzeug anhalten muss. Mit anderen Worten, wir möchten das erklärbare Verhalten eines Entscheidungsträgers auf neuartige Situationen übertragen.
Zusammenfassend möchten wir einen durchgängig trainierbaren Entscheider entwickeln, der in einem Regime mit spärlichen Daten arbeitet und über ein integriertes Interpretationsmodul verfügt. Unsere Hauptforschungsrichtung zum Aufbau eines solchen Systems besteht aus zwei Teilen: Dem Lernen von Repräsentationen unter geringer Kontrolle und der Entwicklung multimodaler Erklärungen von Klassifikationsentscheidungen.


Weitere Informationen

Weitere Informationen gibt es auf Zeynep Akata's Webseite.


Über Zeynep Akata

Zeynep Akata studierte Informatik an der Trakya Universität in der Türkei, Medieninformatik an der RWTH Aachen (MSc, 2010) und an der Universität Grenoble (PhD, 2014). Nach ihrer Promotion am Forschungsinstitut Inria Rhone Alpes in Grenoble, forschte sie von 2014 bis 2017 als Postdoktorandin am Max-Planck-Institut für Informatik in Saarbrücken zu Maschinellem Sehen und Maschinellem Lernen. Zudem war sie in dieser Zeit  als Gastwissenschaftlerin an der University of California in Berkeley tätig.

Von 2017 bis 2019 arbeitete Zeynep Akata als Juniorprofessorin sowie als wissenschaftliche Leiterin des Delta Lab an der Universität Amsterdam, dort beschäftigte sie sich mit den Grundlagen des „Deep Learning“. Das ist ein Teilbereich des Maschinellen Lernens. „Deep Learning“ nutzt neuronale Netze sowie große Datenmengen, damit Maschinen lernen, eigene Entscheidungen zu treffen. Zeynep Akata war zudem Forschungsleiterin am Max-Planck-Institut für Informatik in Saarbrücken.


Kontakt

Prof. Dr. Zeynep Akata
Erklärbares Maschinelles Lernen

Universität Tübingen
Exzellenzcluster "Maschinelles Lernen"
Maria-von-Linden-Str. 6, 4. OG
Raumnr. 40-30/A24
72076 Tübingen

+49 7071 2970890
zeynep.akataspam prevention@uni-tuebingen.de