Fachbereich Informatik

Sicheres Deep Learning

Parallel zur raschen Entwicklung und Bereitstellung von Deep-Learning (DL)-Modellen nehmen auch die Bedenken hinsichtlich der Systemsicherheit zu, da es oft keine Garantie dafür gibt, dass sich DL-Modelle, die anhand einer begrenzten Anzahl von Stichproben trainiert wurden, immer wie erwartet verhalten. Im Bosch IoC-Labor befassen wir uns mit sicherheitsrelevanten Problemen, die sich aus der veränderten Datenverteilung ergeben. Beim Übergang von einer geschlossenen Trainingsumgebung im Labor zu einer offenen Betriebsumgebung in der realen Welt ist die Datenverteilung häufig anders als zur Trainingszeit. Die Unkenntnis potenzieller Verschiebungen in der Datenverteilung und unsichere Modellvorhersagen bei neuartigen Szenarien können bei sicherheitskritischen Anwendungen zu potenziell katastrophalen Folgen führen. Unser Ziel ist es, ein theoretisches Verständnis der Fehlermodi von Modellen des maschinellen Lernens zu erlangen, ihre Robustheit gegenüber Verschiebungen in der Datenverteilung zu verbessern und neue Konzepte zur Steigerung der kognitiven Fähigkeiten zu finden.


TEAM

Dr. Dan Zhang

Senior Expertin
Bosch Center for Artificial Intelligence

Forschungsschwerpunkte:
sicheres Deep Learning mit besonderem Fokus auf generative Modelle, Bayes'sche Methoden, selbst- und nicht überwachtes Lernen

dan.zhang2@de.bosch.com

Haiwen Huang

PhD Student

Forschungsschwerpunkte:
Uncertainty estimation, Out-of-distribution detection and generalization

Co-betreut mit Prof. Andreas Geiger

haiwen.huangspam prevention@uni-tuebingen.de

Haiwen Huang


PROJEKTE

Open-set Recognition in Complex Scenes / Haiwen Huang

Bildverarbeitungsaufgaben wie die Objekterkennung und die semantische Segmentierung haben im letzten Jahrzehnt große Fortschritte gemacht. In der realen Welt stoßen wir jedoch immer wieder auf das Problem neuer Umgebungen, neuer Objekte und allgemein neuer Datenverteilungen. Daher ist es von großer Bedeutung, Modelle für maschinelles Lernen zu entwickeln, die mit diesen Out-of-Distribution (OOD) Szenarien umgehen können.

Als erster Schritt wird ein allgemeiner Sinn für Objektivität zu erlernt, so dass das Modell die Existenz neuer bewegter Objekte erkennen kann (z. B. Wildtiere, die die Straße überqueren). Die Trainingsdaten enthalten jedoch oft nur eine begrenzte Anzahl von Objektkategorien oder haben viele unbekannte Objekte im Hintergrund. Daher klassifiziert das Modell neue Objekte oft falsch oder übersieht sie sogar. Wir untersuchen Trainingsmethoden, die die Unterdrückung von unbekannten Objekten im Hintergrund verhindern sollen und die zusätzliche, leicht verfügbare Wissensquellen nutzen.