Bildverarbeitungsaufgaben wie die Objekterkennung und die semantische Segmentierung haben im letzten Jahrzehnt große Fortschritte gemacht. In der realen Welt stoßen wir jedoch immer wieder auf das Problem neuer Umgebungen, neuer Objekte und allgemein neuer Datenverteilungen. Daher ist es von großer Bedeutung, Modelle für maschinelles Lernen zu entwickeln, die mit diesen Out-of-Distribution (OOD) Szenarien umgehen können.
Als erster Schritt wird ein allgemeiner Sinn für Objektivität zu erlernt, so dass das Modell die Existenz neuer bewegter Objekte erkennen kann (z. B. Wildtiere, die die Straße überqueren). Die Trainingsdaten enthalten jedoch oft nur eine begrenzte Anzahl von Objektkategorien oder haben viele unbekannte Objekte im Hintergrund. Daher klassifiziert das Modell neue Objekte oft falsch oder übersieht sie sogar. Wir untersuchen Trainingsmethoden, die die Unterdrückung von unbekannten Objekten im Hintergrund verhindern sollen und die zusätzliche, leicht verfügbare Wissensquellen nutzen.