Exzellenzstrategie

Robert Bosch GmbH

Die Robert Bosch GmbH hat zwei hervorragende, international renommierte Wissenschaftlerinnen an die Universität Tübingen entsandt, die sich im Rahmen ihrer Industry-on-Campus Projekte mit den folgenden Themen beschäftigen:

Dateneffizientes Deep Learning

In den letzten Jahren haben sich tiefe neuronale Netze zur führenden Technik für maschinelles Lernen und Computer-Vision-Aufgaben entwickelt. In vielen Fällen erreichen sie durch die Nutzung großer Mengen an Trainingsdaten eine Leistung auf menschlichem oder übermenschlichem Niveau. Dieser Erfolg hat jedoch seinen Preis: Die Erstellung dieser großen Datensätze erfordert in der Regel einen hohen zeitlichen Aufwand (Sammeln und manuelle Beschriftung von Datenproben), Risiken (z. B. bei medizinischen Datensätzen mit invasiven Tests) und finanzielle Kosten (Aufbau von Infrastruktur und Einstellung von Hilfspersonal). Für viele reale Anwendungen wird der Mangel an Trainingsdaten oft zu einem einschränkenden Faktor, der den Einsatz von Deep-Learning-Techniken in der Praxis begrenzt. In unserer Forschung konzentrieren wir uns darauf, diese Einschränkung zu verringern und Lösungen für dateneffizientes Deep Learning zu finden.

Eine der vielversprechenden Möglichkeiten ist die Verwendung synthetischer Daten. Die Generierung synthetischer Daten mit generativen Modellen [z.B. Generative Adversarial Networks (GANs) oder Variational Autoencoders (VAEs)] ist eine relativ neue Entwicklung mit großem Potenzial für dateneffizientes Deep Learning. Im Bosch IoC Lab erforschen wir Methoden (nicht überwacht und semi-überwacht) zur Extraktion von Mustern aus verfügbaren Daten, die es ermöglichen, Datenpunkte zu synthetisieren, die von realen Daten kaum zu unterscheiden sind. Dies kann dazu beitragen, die Notwendigkeit, neue Daten zu sammeln, erheblich zu reduzieren und die Leistung von Deep-Learning-Methoden zu verbessern, die sowohl mittels realer als auch mittels synthetischer Daten trainiert wurden. Darüber hinaus wollen wir Domain-Transfer-Methoden erforschen, die reale Daten in eine neue Umgebung transformieren, z. B. Bilder zwischen verschiedenen Kamerasensor-Modellen übersetzen, Licht- und Wetterbedingungen gesammelter Bilder und Videos ändern oder Bild- und Videodaten an neue Standorte anpassen. Dateneffiziente Methoden für Deep Learning haben ein enormes Kosteneinsparungspotenzial und können auch dazu beitragen, Algorithmen sicherer und robuster für den Umgang mit sicherheitskritischen Situationen zu machen, z. B. durch die Synthese seltener Datenpunkte oder gefährlicher Situationen, für die fast keine Daten aus der realen Welt verfügbar sind.

Kontakt:

Dr. Anna Khoreva

Forschungsgruppen-Leiterin beim Bosch Center for Artificial Intelligence (BCAI)

anna.khorevaspam prevention@de.bosch.com

Forschungsschwerpunkte: Dateneffizientes Deep Learning mit besonderem Fokus auf generative Modelle, Bild- und Videosynthese, few-shot learning, nicht und wenig überwachtes Lernen

Sicheres Deep Learning

Tiefe neuronale Netze (Deep Neural Networks, DNNs) haben ein breites Anwendungsspektrum, wie z. B. autonomes Fahren, automatisierte Fertigung und medizinische Diagnose. In vielen Aufgaben haben sie den Menschen übertroffen, was auf große Mengen an markierten Trainingsdaten, große Netzwerkmodelle und leistungsstarke Rechner zurückzuführen ist. Parallel zur rasanten Entwicklung DNN-basierter Systeme wächst auch die Sorge um die Systemsicherheit, da es oft keine Garantie dafür gibt, dass sich DNNs, die mit einer begrenzten Anzahl von Stichproben trainiert wurden, immer wie erwartet verhalten, insbesondere in unbekannten Situationen. Fehlerhafte Ausgabewerte können in sicherheitskritischen Anwendungen zu potenziell katastrophalen Folgen führen. Im Sinne der Sicherheit ist es daher entscheidend, die Bedingungen zu kennen, unter denen ein DNN-basiertes System genau ist. Unter einer solchen bereichsübergreifenden Sicherheitsdefinition werden in diesem Bosch-IoC-Projekt mehrere Forschungsthemen untersucht, z.B:

  • Anomalie-Erkennung, um Eingaben zu erkennen und zu verwerfen, die nicht der gleichen Verteilung wie die Trainingsmuster folgen, und so das potenzielle Risiko von Fehlern in nicht erkannten Situationen zu reduzieren;
  • Rauschunterdrückung, um beschädigte Eingaben wiederherzustellen, wodurch die Robustheit des Systems gegenüber unvermeidlichen Störungen in der Praxis verbessert und die Datenunsicherheit reduziert wird;
  • Unsicherheitsabschätzung und Kalibrierung, um das Vertrauen in die vom System gemachten Vorhersagen zu quantifizieren.

Kenntnisse über Verteilung und die Unterscheidungsmerkmale hinter den Trainingsproben ist der Kern der Anomalieerkennung und der Rauschunterdrückung. In diesem Bosch-IoC-Projekt werden wir generative Modelle, Algorithmen für das Repräsentationslernen und skalierbare statistische Inferenztechniken für die Anomalieerkennung, die Rauschunterdrückung, die Unsicherheitsabschätzung und die Kalibrierung nutzen und entwickeln, mit dem Ziel, die Sicherheit in DNN-basierten Systemen zu ermöglichen.

Kontakt:

Dr. Dan Zhang

Wissenschaftlerin beim Bosch Center for Artificial Intelligence (BCAI)

dan.zhang2spam prevention@bosch.com

Forschungsschwerpunkte: sicheres Deep Learning mit besonderem Fokus auf generative Modelle, Bayes'sche Methoden, selbst- und nicht überwachtes Lernen