Exzellenzstrategie

Robert Bosch GmbH

Die Robert Bosch GmbH hat zwei hervorragende, international renommierte Wissenschaftlerinnen an die Universität Tübingen entsandt, die sich im Rahmen ihrer Industry-on-Campus Projekte mit den folgenden Themen beschäftigen:

Dateneffizientes Deep Learning

Dr. Anna Khoreva

Daten sind für eine gute Leistung von Deep-Learning (DL)-Modellen unerlässlich. Allerdings führen viele Einschränkungen bei ihrer Erfassung (z.B. hohe Kosten, fehlende Ressourcen, Datenschutz) dazu, dass nicht ausreichend Trainingsdaten vorhanden sind, um zufriedenstellende Leistungen für die Produktion zu ermöglichen. Im Bosch IoC Lab erforschen wir nicht- und halbüberwachte Methoden zur Extraktion von Mustern aus verfügbaren Daten, mit denen Datenpunkte synthetisiert werden könnenen, die von realen Daten fast nicht zu unterscheiden sind. Dies kann dazu beitragen, die Notwendigkeit der Erfassung großer Datenmengen erheblich zu reduzieren und DL-Modelle zu verbessern, die sowohl mit realen als auch synthetischen Daten trainiert wurden. Dateneffiziente Methoden haben ein enormes Kosteneinsparungspotenzial und können dazu beitragen, Algorithmen sicherer und robuster zu machen, um sicherheitskritische Situationen zu bewältigen, z.B. durch die Synthese seltener oder gefährlicher Situationen, für die kaum reale Daten verfügbar sind.

Kontakt

Dr. Anna Khoreva

Forschungsgruppen-Leiterin beim Bosch Center for Artificial Intelligence (BCAI)

anna.khorevaspam prevention@de.bosch.com

Forschungsschwerpunkte: Dateneffizientes Deep Learning mit besonderem Fokus auf generative Modelle, Bild- und Videosynthese, few-shot learning, nicht und wenig überwachtes Lernen

Sicheres Deep Learning

Dr. Dan Zhang

Parallel zur raschen Entwicklung und Bereitstellung von Deep-Learning (DL)-Modellen nehmen auch die Bedenken hinsichtlich der Systemsicherheit zu, da es oft keine Garantie dafür gibt, dass sich DL-Modelle, die anhand einer begrenzten Anzahl von Stichproben trainiert wurden, immer wie erwartet verhalten. Im Bosch IoC-Labor befassen wir uns mit sicherheitsrelevanten Problemen, die sich aus der veränderten Datenverteilung ergeben. Beim Übergang von einer geschlossenen Trainingsumgebung im Labor zu einer offenen Betriebsumgebung in der realen Welt ist die Datenverteilung häufig anders als zur Trainingszeit. Die Unkenntnis potenzieller Verschiebungen in der Datenverteilung und unsichere Modellvorhersagen bei neuartigen Szenarien können bei sicherheitskritischen Anwendungen zu potenziell katastrophalen Folgen führen. Unser Ziel ist es, ein theoretisches Verständnis der Fehlermodi von Modellen des maschinellen Lernens zu erlangen, ihre Robustheit gegenüber Verschiebungen in der Datenverteilung zu verbessern und neue Konzepte zur Steigerung der kognitiven Fähigkeiten zu finden.

Kontakt

Dr. Dan Zhang

Wissenschaftlerin beim Bosch Center for Artificial Intelligence (BCAI)

dan.zhang2@de.bosch.com

Forschungsschwerpunkte: sicheres Deep Learning mit besonderem Fokus auf generative Modelle, Bayes'sche Methoden, selbst- und nicht überwachtes Lernen