Uni-Tübingen

Christian Stegemann-Philipps

Verfahren eröffnet: 09. September 2020
Promotionskolloquium: 18. Februar 2021

Biographie

  • seit Juli 2017: Wissenschaftlicher Angestellter und Doktorand am Graduiertenkolleg 1808: Ambiguität – Produktion und Rezeption der Eberhard Karls Universität Tübingen
  • 2015 - 2017: Praktikant und Werkstudent bei Horváth & Partners (Aufgabenbereich Computerlinguistik)
  • 2012 - 2017: Studium der Philosophie, Computerlinguistik und Mathematik mit Schwerpunkt Philosophie des Geistes an der Eberhard Karls Universität Tübingen, Paris I – Panthéon Sorbonne, Universität Kyōto und Fernuniversität Hagen
  • Abschluss M.A. Philosophie
  • 2009 - 2012: Studium der Mathematik und Philosophie mit Schwerpunkt Kombinatorische Optimierung an der Rheinischen Friedrich-Wilhelms-Universität Bonn, Abschluss B.Sc. Mathematik
  • 2009: Abitur am Gymnasium Andreanum Hildesheim

 

Forschungsschwerpunkte

  • Ambiguität in virtuellen Umgebungen
  • Prädiktive kognitive Modelle
  • Sprachverarbeitung simulierter Agenten
  • Künstliche Intelligenz
  • Mentale Repräsentation

Publikationen

  • Achimova, Asya; Gregory Scontras, Christian Stegemann-Philipps, Johannes Lohmann & Martin V. Butz (2022). “Learning about others: Pragmatic social inference through ambiguity resolution.” Cognition 218.

Abstract:

"Ambiguity in a Virtual Agent" (Arbeitstitel)

Im Alltag sprachlicher Kommunikation treten häufig Sätze und Aussagen auf, die oberflächlich Ambiguität zulassen, deren Interpretation aber offensichtlich ist. Für Menschen ist in solchen Fällen intuitiv klar, was gemeint ist. Dazu werden Wissen um die Situation, die Intentionen des Sprechers oder allgemeines Weltwissen zur Auflösung benutzt. Ein Beispielsatz wäre "The city councilmen refused the demonstrators a permit because they [feared/advocated] violence."(Winograd, 1972) Je nach verwendetem Verb ändert sich die Referenz von "they". Künstliche Intelligenz (bzw. Computergestützte Methoden im Allgemeinen) kann solche Fälle von Ambiguität im Allgemeinen nicht oder nur sehr schlecht auflösen (vgl. Winograd Schema Challenge: http://www.cs.nyu.edu/faculty/davise/papers/WinogradSchemas/WS.html). Es ist schon relativ lange klar, dass künstliche Intelligenz Schwierigkeiten hat, sich der Situation, Intentionen oder Weltwissen zu bedienen (siehe z.B. Haugeland, 1979). Weltwissen und Situationseinschätzung ist aber notwendig, um insbesondere Ambiguitäten wie die obige aufzulösen.
In meinem Projekt implementiere ich einen virtuellen Agenten (ähnlich einer selbstständig handelnden Figur in einem Computerspiel), der sich Weltwissen und die Fähigkeit, Situationen einzuschätzen, selbstständig aneignet. Der Fokus liegt dabei darauf, eine plausible kognitive Architektur zu modellieren, die aktuelle Theorien wie Predictive Processing oder Embodied Cognition in Bezug auf elementare Sprachverarbeitung aufgreift und integriert. Das resultierende kognitive Modell soll dann eine differenzierte Repräsentation (im Sinne einer Kodierung) der situativen Umwelt und ihrer Objekte aufweisen. Unter Ausnutzung dieser Repräsentation soll das Modell in der Lage sein, Ambiguitäten wie die obige aufzulösen.
Primäres Ziel ist also eine Anwendung, Verbindung, Konkretisierung und Implementierung bestehender Theorien, wobei die Modellierung von kognitiven Abläufen und Repräsentationen im Vordergrund steht. Dadurch grenzt sich das Projekt von Ansätzen ab, in denen das Auflösen von Ambiguitäten aus reinem Text maschinell gelernt werden soll.