Uni-Tübingen

Leitlinien zum Umgang mit generativen KI Tools

Liebe Mitglieder und Angehörige der Universität,
“ChatGPT” und andere Tools aus dem Feld der generativen KI sind im öffentlichen Diskurs allgegenwärtig. Die Universität Tübingen nimmt sich der Verantwortung an, diese Debatten zu adressieren, mitzugestalten und Leitlinien zu entwickeln. Zu diesem Zweck hat das Rektorat die „AG Generative KI“ eingerichtet, zusammengesetzt aus Mitgliedern aller Fakultäten, der zentralen Verwaltung und relevanter Einrichtungen. Die AG ist damit beauftragt, das Rektorat zum Einsatz generativer KI an der Universität Tübingen zu beraten. Ihre Mitglieder vertreten eine kritisch-optimistische Haltung bezüglich der Möglichkeiten generativer KI. Gemeinsam haben Rektorat und AG Leitlinien diskutiert, die kontinuierlich weiterentwickelt werden. Diese zielen auf einen kritisch-reflexiven, transparenten und verantwortungsvollen Umgang mit generativer KI. Im Folgenden stellen wir Ihnen den Stand der Diskussion vor.

Die Universität als Entwicklungsraum für kritische KI-Kompetenzen

Als zukunftsorientierte und progressive Universität erkennt die Universität Tübingen das transformative Potenzial generativer KI an. Dieses Potenzial erfasst aktuell viele Bereiche der Gesellschaft und verändert sowohl die universitäre als auch die außeruniversitäre Arbeitswelt. Generative KI wird bereits mit rasanter Geschwindigkeit in unterschiedliche Berufsfelder eingebunden. Es wird keine Welt mehr ohne KI geben. Zahllose Studierende der UT werden künftig in Berufsfeldern tätig sein, in denen der Umgang mit generativer KI zu ganz alltäglichen Arbeitsprozessen gehört. Genauso wird generative KI auch den Arbeitsalltag von Forschenden unterschiedlicher Disziplinen sowie von Mitarbeitenden der Verwaltung zunehmend verändern. Darin sieht die UT eine große Herausforderung, aber auch eine substanzielle Chance. Denn die Universität kann der Ort sein, an dem kritisch-reflexive, transparente und verantwortungsvolle Umgangsweisen mit generativer KI erarbeitet, ausgehandelt und vermittelt werden.  So trägt sie dazu bei, dass der gesellschaftliche Wandel im Kontext von KI problembewusst und zugleich konstruktiv gestaltet werden kann.
 

Vielfältige Potenziale

Die Potenziale generativer KI im Bereich der Text- und Datenverarbeitung sind äußerst vielfältig. Für die Universität Tübingen erstrecken sie sich über alle relevanten Bereiche: Generative KI hat das Potenzial zu verändern, wie Studierende lernen und sich in einer von Daten gesättigten Wissenschaftswelt bewegen. Sie kann neue didaktische Ansätze in der digitalen Lehre ermöglichen, Forschenden veränderte Umgangsweisen mit Texten oder Bildern eröffnen, zur Erweiterung der Wissenschaftskommunikation beitragen und nicht zuletzt auf Ebene der Verwaltung unterstützen. Die Vielfalt der Möglichkeiten macht eine genaue Bestimmung von Potenzialen sowie die Entwicklung von Regelwerken besonders herausfordernd. Klar ist, dass generative KI für Studium, Lehre, Forschung und Wissenschaftskommunikation jeweils eigene Potenziale bietet und pauschale Einschätzungen wenig zielführend sind. Aktuell befindet sich die Universität in einer Phase der Exploration, in der Potenziale in allen genannten Feldern erkundet, getestet und kritisch diskutiert werden müssen. In Anbetracht der rasanten technischen Entwicklung und technologischer “Hypes” gilt es, die Potenziale von generativer KI realistisch einzuschätzen, um sie für eine zukunftsorientierte Universität in einem definierten Rahmen nutzbar machen zu können.

Problematische Implikationen

Generative KI hat neben vielfältigen Potenzialen auch zahlreiche problematische Implikationen. Dazu gehören die Tatsache, dass viele urheberrechtliche sowie datenschutzrechtliche Fragen ungeklärt bleiben. Generierte Texte können falsche, missverständliche, oder irreführende Ergebnisse produzieren und Quellen 'halluzinieren'. Generative KI kann den bereits in die Trainingsdaten der Systeme eingeschriebenen Bias reproduzieren. Soziale, kulturelle und wissenschaftliche Vorannahmen können sich in die Systeme und die generierten Texte einschreiben. Entwicklerinnen und Entwickler können die generierten Texte zum Teil gezielt manipulieren. Darüber hinaus hat generative KI bei massenhafter Nutzung einen substanziellen ökologischen Fußabdruck, insbesondere durch Stromverbrauch, CO2-Ausstoß, den Verschleiß von Mineralien und Wasserverbrauch. Außerdem können unterschiedliche Bezahlmodelle für stärkere und schwächere KI-Systeme ökonomische Ungleichheitsverhältnisse (bspw. zwischen Studierenden mit unterschiedlichen Einkommensverhältnissen) noch verschärfen.

Ziele und Leitlinien

Zentrales Ziel der Universität Tübingen ist deshalb, die Potenziale generativer KI zu erproben und in den verschiedenen Bereichen der Universität produktiv einzusetzen, ohne die bereits erwähnten problematischen Implikationen aus dem Blick zu verlieren. Dafür müssen sowohl grundlegende als auch fachspezifische Lehrangebote erarbeitet und rechtliche Rahmenbedingungen z.B. für den Einsatz in Prüfungen geschaffen werden. Auch auf Ebene der Forschung, Wissenschaftskommunikation und Verwaltung braucht die Universität einen kritischen Diskurs zu den Potenzialen und Grenzen generativer KI. Das Erreichen dieser Ziele wird viel Arbeit und Aufmerksamkeit fordern. Allerdings zeigt sich bereits jetzt, dass zentrale Leitlinien unverzichtbar sind.

Erstens sind die Mitglieder der Universität zu einem kritisch-reflexiven Umgang mit generativer KI aufgefordert. Viele der Probleme mit generativer KI entstehen (auch auf gesellschaftlicher Ebene) aufgrund einer unbedarften Haltung. Zur kritisch-reflexiven Haltung gehört sowohl die Entwicklung eines differenzierten Problembewusstseins als auch die Fähigkeit, die Potenziale und Limitationen generativer KI realistisch einschätzen zu können. 

Zweitens soll der Umgang mit generativer KI grundlegend transparent gestaltet werden. Wird generative KI eingesetzt (sei es in Forschung, Studium, Verwaltung oder Wissenschaftskommunikation), ist das Vorgehen zu dokumentieren und im jeweiligen Format transparent sichtbar zu machen. 
Drittens sind alle Mitglieder der Universität zu einer verantwortungsvollen Nutzung generativer KI im Sinne der Regeln guter wissenschaftlicher Praxis angehalten. Das heißt unter anderem, dass es auch bei der Arbeit mit generativer KI in der Eigenverantwortung der Verfasserinnen und Verfasser liegt, dass ihre Texte keine Plagiate enthalten und alle Quellen kritisch geprüft wurden. Es heißt auch, dass die jeweiligen Nutzerinnen und Nutzer Verantwortung dafür übernehmen müssen, wie und zu welchem Zweck die zur Verfügung gestellten Daten durch KI-Systeme weiterverarbeitet werden.

In welcher Form diese Leitlinien umgesetzt werden, ist notwendigerweise in unterschiedlichen Arbeitsfeldern und Fachkulturen individuell zu handhaben. Die Fächer und Institutionen sind aufgefordert, eigene Richtlinien zu formulieren und zur Verfügung zu stellen. Zur Bearbeitung besonders dringlicher prüfungsrechtlicher Fragen entwickeln die AG Generative KI und das Rektorat aktuell grundlegende Lösungsansätze. Diese sollen als Basis für eine Weiterentwicklung in den Fakultäten und Einrichtungen dienen.

Sind die grundlegenden Bedingungen eines kritisch-reflexiven, transparenten und verantwortungsvollen Umgangs erfüllt, kann generative KI Potenziale bieten, um Arbeitsprozesse an und jenseits der Universität zu bereichern. Worin diese Bereicherungen im Einzelnen bestehen und wie sie in einem kritischen Abwägungsprozess mit den problematischen Implikationen zu bewerten sind, wird in den kommenden Jahren Gegenstand kontinuierlicher Diskussionen an der Universität Tübingen sein.


Der Umgang mit generativer KI soll grundlegend transparent gestaltet werden. Wird generative KI eingesetzt (sei es in Forschung, Studium, Verwaltung oder Wissenschaftskommunikation), ist das Vorgehen zu dokumentieren und im jeweiligen Format transparent sichtbar zu machen.


Den gesamten Fließtext können Sie auch hier als PDF herunterladen

Mitglieder der "AG Generative KI in Lehre und Forschung"

Stand: 25.10.2023

Adelberger, Anne Katrin Dezernat III - Studium und Lehre
Ahlert, Jannis StuRa
2 weitere VertreterInnen StuRa
Prof. Dr. Bareither, Christoph WiSo Fakultät
Dr. Bross (Gast), Martina Graduiertenakademie
Budde, Tanja Dezernat III - Studium und Lehre
Prof. Dr. Droege, Michael Juristische Fakultät
Dr. El Maghraoui Zentrum für Islamische Theologie
Epple, Daniel Stabstelle Controlling
Dr. Fausel, Andrea  Dezernat III - Studium und Lehre
Dr. Gottschling (Gast), Markus RHET AI Center
Hermannsdörfer, Nicole Dezernat III - Studium und Lehre
Hoksch, Dennis Dezernat III - Studium und Lehre
Hünger, Nancy Dezernat III - Studium und Lehre
Prof. Dr. Lachner (Gast), Andreas Center for Digital Education
Prof Dr. Meurers, Detmar Philosophische Fakultät
Dr. Rieß, Tanja Miriam Medizinische Fakultät
Dr. Rubas, Christine International Office
Schlenker, Christian Evangelisch-Theologische Fakultät
Sonnenschein, Christoph Dezernat V - International Office
Stengele, Tina Dezernat III -  Studium und Lehre
Vennarini, Lucia Dezernat III -  Studium und Lehre
Wellegehausen, Marie Dezernat III -  Studium und Lehre
Wust, Markus Universitätsbibliothek + Eberle Zentrum
Prof. Dr. Zirker, Angelika Philosophische Fakultät
VertreterIn Dezernat II - Forschung
VertreterIn Katholisch-Theologische Fakultät
VertreterIn Mathematisch-Naturwissenschaftliche Fakultät

Die Deutsche Forschungsgemeinschaft (DFG) hat erste Leitlinien für den Umgang mit generativen Modellen für die Text- und Bilderstellung formuliert. Eine im September 2023 veröffentlichte Stellungnahme des Präsidiums der größten Forschungsförderorganisation und zentralen Selbstverwaltungseinrichtung für die Wissenschaft in Deutschland beleuchtet den Einfluss von ChatGPT und anderen generativen KI-Modellen auf die Wissenschaften und das Förderhandeln der DFG.

zu den Leitlinien der DFG

 

Am 17. Januar 2024 hat die Ständige Wissenschaftliche Kommission der Kultusministerkonferenz (SWK) ein Impulspapier zu „Large Language Models und ihre Potenziale im Bildungssystem“ vorgelegt. Darin gibt sie Anregungen für den Einsatz im Unterricht, Forschungs- und Entwicklungsaufgaben sowie bildungspolitische Diskussionen: Wie können große Sprachmodelle lernförderlich eingesetzt werden? Welche Kompetenzen sind seitens der Schüler:innen und Lehrer:innen nötig? Wie verändern sich Prüfungsformate durch Chat GPT und Co.? Welche Herausforderungen sind mit dem Einsatz verbunden?

zum Impulspapier der SWK