attempto online
14.10.2019
Tübinger Forscher an Synergy Grant beteiligt
Europäischer Forschungsrat bewilligt Projekt zur Verarbeitung von Körpersprache im Gehirn
Der Tübinger Neurowissenschaftler Professor Martin Giese erhält einen „Synergy Grant“ des Europäischen Forschungsrats. Gemeinsam mit Professor Rufin Vogels (KU Leuven) und Professorin Beatrice de Gelder (Universität Maastricht) wird er im Projekt „How body relevance drives brain organization“ (RELEVANCE) erforschen, wie unser Gehirn Körpersprache für die nichtverbale Kommunikation analysiert. Der Forschungsrat fördert das Projekt für eine Laufzeit von fünf Jahren mit insgesamt acht Millionen Euro, davon sind rund 2,7 Millionen Euro für die Forschungsarbeit des Tübinger Teams vorgesehen.
Die „Synergy Grants“ gelten als die umfangreichsten und kompetitivsten Anträge im prestigereichen Förderprogramm des European Research Council (ERC). Die dort geförderten Projekte überschreiten die traditionellen Grenzen der Disziplinen: Unterstützt werden Teams aus zwei bis vier exzellenten Wissenschaftlerinnen und Wissenschaftlern, die ihr Projekt nur in dieser Zusammensetzung zum Erfolg führen können. Dies ist bereits der zweite "Synergie Grant", den Tübinger Neurowissenschaftler des Hertie-Instituts für klinische Hirnforschung im vergangenen Jahr einwerben konnten.
Professor Martin Giese leitet am Werner Reichardt Centrum für Integrative Neurowissenschaften der Universität Tübingen (CIN) und am Hertie-Institut für klinische Hirnforschung (HIH) die Sektion für Theoretische Sensomotorik, die theoretische Neurowissenschaften mit Anwendungen in der biomedizinischen Technik verbindet.
Im folgenden Kurzinterview erklärt er, welche Ziele sich das Projekt „Relevance“ gesetzt hat.
Herzlichen Glückwunsch zu Ihrem ERC-Synergy-Antrag! Sie erhalten mit Ihren Kollegen mehr als acht Millionen Euro. Worum geht es in dem Projekt?
Martin Giese: Wir wollen erforschen, wie das Gehirn unsere Körpersprache für die nichtverbale Kommunikation analysiert, zum Beispiel beim Ausdruck von Emotionen. Solche Kommunikation wurde viel im Zusammenhang mit Gesichtsausdrücken untersucht, aber wir wollen uns auf Körperhaltungen und -Bewegungen konzentrieren. Mögen Sie jemanden, oder sind Sie eher reserviert? Begrüßen Sie jemanden mit einem Handschlag? Das sind alles Möglichkeiten, mit unserem Köper soziale Signale zu senden. Wir wollen besser verstehen, wie unser Gehirn solche Signale analysiert und die zugrundeliegenden Berechnungsprozesse herausfinden.
Wir werden unter anderem virtuelle Realität (VR) und Computeranimation einsetzen, um die neuronale Verarbeitung solcher Stimuli zu untersuchen. Welche Hirnregionen sind involviert, welche Berechnungen führen sie aus, und wie wechselwirken sie? Wir werden auch neue Analysemethoden und Modelle entwickeln. Das Projekt beruht wesentlich auf einer engen Wechselbeziehung von Experimenten und Modellierung.
Woran werden Sie und Ihr Team in Tübingen arbeiten?
Martin Giese: Wir werden unter Anwendung von Lernmethoden Stimuli für Experimente in virtueller Realität entwickeln, die erlauben, einzelne Merkmale exakt zu kontrollieren. Auf der Basis gewonnener Daten werden wir neuronale Modelle entwickeln: Mit diesen testen wir Hypothesen, welche exakten Rechenoperationen der Wahrnehmung von Körperhaltungen und Körperbewegungen zugrunde liegen und wie sie durch Interaktionsaufgaben beeinflusst werden.
Ihr Projekt liegt im Bereich der Grundlagenforschung. Was für Anwendungen sehen Sie langfristig?
Martin Giese: Wir hoffen, dass ein genaueres Verständnis der Hirnprozesse zu verbesserten Systemen für die Simulation und Analyse von Körpersignalen im Bereich der Künstlichen Intelligenz und der Virtual Reality beiträgt. Das ist zum Beispiel für intelligente Überwachungskameras und Schnittstellen zwischen Menschen und Computern wichtig, die Körpersprache des Menschen verstehen. Andere Anwendungen sind Avatare, die wie Menschen kommunizieren, oder Roboter, die menschliche Körperbewegungen verstehen. Außerdem denken wir in der medizinischen Fakultät immer an klinische Anwendungen. Virtuelle Realität kann genutzt werden, um Personen mit emotionalen Kommunikationsstörungen zu trainieren. Menschen mit Autismus haben zum Beispiel häufig Probleme, die Körpersprache anderer richtig zu interpretieren oder sie selber korrekt einzusetzen.
Antje Karbe
Prof. Dr. Martin Giese
Abteilung für Kognitive Neurologie
CIN / HIH
Universitätsklinik Tübingen
+49 7071 29-89124
martin.giesespam prevention@uni-tuebingen.de