Uni-Tübingen

attempto online

16.09.2019

Drei Starting Grants für Universität Tübingen

Europäischer Forschungsrat fördert Projekte aus der Augenheilkunde und zum Maschinellen Lernen

Christina Schwarz
Christina Schwarz

Die Universität Tübingen erhält drei Starting Grants des Europäischen Forschungsrats. Dr. Christina Schwarz vom Forschungsinstitut für Augenheilkunde konnte für ihr Projekt „TrackCycle.2P“ zur Erforschung der Sehprozesse am menschlichen Auge mit der Zwei-Photonen-Ophthalmoskopie eine Förderung von rund 1,85 Millionen Euro einwerben. Professor Andreas Geiger aus dem Fachbereich Informatik wird vom ERC mit rund 1,47 Millionen Euro für sein Projekt „LEGO-3D“ gefördert, mit dem er die Möglichkeiten des maschinellen Sehens entscheidend weiterentwickeln will.  Einen weiteren Grant hat die Informatikerin Zeynep Akata eingeworben, die am 1. Oktober eine Professur für Maschinelles Lernen an der Universität Tübingen antritt. Mit einer Förderung von voraussichtlich rund 1,5 Millionen Euro erforscht sie im Projekt „DEXIM“, wie die Entscheidungen künstlicher Intelligenz transparenter und besser nachvollziehbar gemacht werden können.

Die Projektförderung des ERC ist bei den Starting Grants jeweils auf einen Zeitraum von fünf Jahren angelegt. Sie soll jungen Wissenschaftlerinnen und Wissenschaftlern zu größerer Eigenständigkeit in ihrer Forschungskarriere verhelfen.

Wie das Auge Licht wahrnimmt – Netzhauterkrankungen frühzeitig erkennen

„TrackCycle.2P – Exploring Visual Processes with Two-Photon Ophthalmoscopy“: Die Physikerin Christina Schwarz will eine Methode zur Untersuchung der ersten Schritte einer Lichtwahrnehmung in der Netzhaut für den Einsatz beim Menschen weiterentwickeln. Als langfristiges Ziel soll die Methode zur frühzeitigen Diagnose von Netzhauterkrankungen dienen.

Viele Erkrankungen der Netzhaut, die zur Erblindung führen, wie zum Beispiel die altersbedingte Makuladegeneration oder die genetische Erkrankung Retinitis pigmentosa, lassen sich in der Medizin erst spät an veränderten Zellen der Netzhaut erkennen. Bisher gibt es kaum Möglichkeiten, mit bildgebenden Verfahren eine frühe objektive Diagnose zu stellen. Krankhafte Veränderungen der Netzhaut wirken sich als erstes auf den Sehzyklus aus. Der Sehzyklus läuft am Sehpigment in den Fotorezeptoren der Netzhaut ab: Das Sehpigment fängt Photonen der Lichtstrahlen ein und geht dadurch in einen angeregten Zustand über. Dies setzt die Umwandlung der Lichtenergie in einen elektrischen Impuls in Gang, der über den Sehnerv ins Gehirn geleitet wird und den eigentlichen Seheindruck hervorruft. Danach regeneriert sich das Sehpigment und kann erneut Photonen aufnehmen.

An diesem Sehprozess will Schwarz mit der Zwei-Photonen-Ophthalmoskopie ansetzen, einem hochgenauen nicht-invasiven Verfahren zur Untersuchung des Augenhintergrunds. Sie wird das Messverfahren, das bereits an Tieren erprobt wurde, am Menschen weiterentwickeln. Mit ultrakur-zen Laserpulsen wird Licht auf das Auge geworfen und der Sehzyklus mit dem speziellen Ophthal-moskop gemessen. Dabei macht man sich zunutze, dass im Laufe des Sehzyklus auf natürliche Weise ein Molekül entsteht, das im angeregten Zustand Fluoreszenzlicht erzeugt, dessen Stärke gemessen werden kann.

Schwarz will zunächst an Probanden mit gesunden Augen die Stärke des Fluoreszenzlichts in beiden Typen von Fotorezeptoren in der Netzhaut messen, den Stäbchen und Zapfen, um mehr über die Werte der Sehzyklen im Normbereich zu erfahren. Dies soll einen besseren Einblick in die ersten Schritte eines Sehvorgangs erlauben. Außerdem sollen die Messungen Vergleiche ermöglichen, um in der Weiterentwicklung des Verfahrens bei einer krankhaften Veränderung der Netzhaut Ab-schwächungen oder Verlangsamungen des Sehzyklus feststellen zu können. 

Christina Schwarz studierte Physik und Medizinische Physik an der Universität Heidelberg. Nach ihrer Promotion an der Universität Murcia in Spanien ging sie für einige Jahre als Postdoktorandin an die University of Rochester in New York, USA. Seit Februar 2018 ist Schwarz Nachwuchsgrup-penleiterin am Forschungsinstitut für Augenheilkunde der Universität Tübingen.

Kontakt:

Dr. Christina Schwarz
Universität Tübingen 
Medizinische Fakultät
Forschungsinstitut für Augenheilkunde
+49 7071 29-84727
c.schwarzspam prevention@uni-tuebingen.de 

Maschinen lernen, 3D-Umgebungen zu erfassen

„LEGO-3D - Learning Generative 3D Scene Models for Training and Validating Intelligent Systems“: Der Informatiker Andreas Geiger will Modelle entwickeln, mit denen sich die Wahrneh-mung autonomer Fahrzeuge und anderer künstlicher intelligenter (KI) Systeme verbessern und de-ren Verhalten und Funktion leichter überprüfen lässt.

KI-Systeme basieren auf maschinellem Lernen. Damit beispielsweise ein autonomes Fahrzeug Ob-jekte in seiner Umgebung erkennen kann, wird der zuständige Algorithmus in der Trainingsphase anhand vieler Beispielbilder trainiert, um später im Einsatz zuverlässig arbeiten zu können. Die Po-sition der Objekte im Bild muss hierzu bislang aufwändig und von Hand bestimmt werden. Eine wei-tere Schwierigkeit ist die Einschätzung des Verhaltens solcher autonomer Systeme: Ein statischer Datensatz reicht oft nicht aus, weil die Handlungen eines Systems wiederum seine Umgebung be-einflussen und in unvorhersehbarer Weise verändern können.

Um diese Hürden zu überwinden und maschinelles Sehen besser und zuverlässiger zu gestalten, will Geiger Modelle entwickeln, die Bilddaten automatisch und in Echtzeit erzeugen können. Dafür will der Informatiker zunächst mit Algorithmen die dreidimensionale Umwelt erfassen und in ihre elementaren Bestandteile (Objekte) zerlegen. Basierend auf dieser Zerlegung sollen anschließend probabilistische generative Modelle trainiert werden, die in der Lage sind, neue Szenen in realisti-scher Weise wieder zusammenzusetzen. Die Modelle könnten zur Erzeugung von Trainingsdaten oder zur Überprüfung der Funktion autonomer Systeme eingesetzt werden. Die Ergebnisse des Forschungsprojektes sind nicht nur für das hochautomatisierte Fahren wichtig, sondern könnten auch Anwendung in persönlichen Assistenzsystemen, in Produktionsprozessen, sowie im Unterhal-tungs- und Bildungsbereich finden. 

Andreas Geiger studierte am Karlsruher Institut für Technologie (KIT) Informatik und Mathematik, mit Forschungssemestern an der Ecole Polytechnique Fédérale in Lausanne (Schweiz) und am Massachusetts Institute of Technology (USA). Nach seiner Promotion am KIT forschte er am Max Planck Institut für Intelligente Systeme in der Abteilung „Perzeptive Systeme“ und wurde 2016 so-wohl zum Max-Planck Gruppenleiter als auch zum Gastprofessor an die ETH Zürich berufen. Seit März 2018 ist er Professor für „Lernbasierte Computer Vision“ an der Universität Tübingen.

Kontakt:

Prof. Dr. Andreas Geiger
Universität Tübingen
Fachbereich Informatik
+49 7071 601 1830
a.geigerspam prevention@uni-tuebingen.de 

Maschinelle Entscheidungen nachvollziehbar machen

Deeply Explainable Intelligent Machines (DEXIM): Zeynep Akata wird in ihrem Projekt Compu-tersysteme entwickeln, die sich trainieren lassen, um dann die Entscheidungen eines visionsbasier-ten maschinellen Lernsystems nachvollziehbar und transparent zu machen. Dafür nutzt sie die Wechselwirkungen zwischen unterschiedlichen Arten von Daten, berücksichtigt Unsicherheits- und Zeitfaktoren und bezieht Speichermechanismen ein.

Erklärungen bieten generell den Rahmen für das Lernen und Anpassen an neue Situationen. Der Mensch kann Entscheidungen begründen und auf die Faktoren in der visuellen Welt verweisen, die dazu geführt haben. Weil Systeme der künstlichen Intelligenz (KI) dies nicht vermögen, gelten sie häufig als undurchsichtig und für die Nutzer wenig vertrauenserweckend. Dabei können KI-Systeme helfen, eine Situation zu kontrollieren: Beispielsweise, wenn im Gesundheitswesen automatisierte Meldungen Patienten dabei unterstützen, ihren Gesundheitszustand zu überwachen, oder wenn selbstfahrende Fahrzeuge in kritischen Situationen warnen und so falsche Entscheidungen verhin-dern. In der Satellitenbildgestaltung kann ein sich selbst erklärendes Überwachungssystem Daten zu einem nahenden Hurrikan interpretieren und so vielleicht Leben retten. 

Ein lernendes System, dem Nutzer vertrauen und das leicht zu handhaben ist, sollte auch in der Lage sein, seine Schlussfolgerungen nachvollziehbar zu machen, sagt Akata. Zudem verpflichte die europäische Allgemeine Datenschutzverordnung (GDPR) automatische Entscheidungsträger, die EU-Transparenzstandards einzuhalten. Mit ihrem Team wird sie deshalb an einem Deep-Learning-Ansatz für die Interpretation visueller Szenen arbeiten, der sich trainieren lässt und Entscheidungen transparent macht. Dieser könnte unter anderem in der mobilen Robotik und bei intelligenten Fahr-zeugen eingesetzt werden. 

Zeynep Akata hat technische Informatik an der Trakya Universität in der Türkei, Medieninformatik an der RWTH Aachen und Informatik an der Universität Grenoble studiert. Nach ihrer Promotion am Forschungsinstitut Inria Rhone Alpes in Grenoble forschte sie als Postdoktorandin und Forschungs-gruppenleiterin am Max-Planck-Institut für Informatik in Saarbrücken zu Maschinellem Sehen und Maschinellem Lernen. Seit 2017 arbeitete Akata als Juniorprofessorin sowie als wissenschaftliche Leiterin des Delta Lab an der Universität Amsterdam. Zum Oktober 2019 wurde sie auf die Professur „Maschinelles Lernen“ an der Universität Tübingen berufen. 

Kontakt:

Prof. Dr. Zeynep Akata
zeynepakataspam prevention@gmail.com 

Zurück