Uni-Tübingen

Newsletter Uni Tübingen aktuell Nr. 1/2023: Forschung

ChatGPT: Schreiben künftig Maschinen Texte anstelle von Menschen?

Über Chancen und Risiken KI-basierter Sprachmodelle

KI-basierte Sprachmodelle wie ChatGPT sind in der Lage, erstaunlich gute Texte zu nahezu allen Themen automatisiert zu produzieren. Welche Auswirkungen hat das auf die Wissenschaft oder auch den Journalismus? Können wir überhaupt noch erkennen, welche Texte von Menschen und welche von Maschinen stammen? Maximilian von Platen hat mit der Medienethikerin PD Dr. Jessica Heesen über Chancen, Grenzen und Gefahren von ChatGPT gepsrochen. Heesen ist Leiterin des Forschungsschwerpunkts Medienethik und Informationstechnik am Internationalen Zentrum für Ethik in den Wissenschaften (IZEW) der Universität Tübingen. Sie ist unter anderem Mitglied der Plattform Lernende Systeme, eines vom Bundeforschungsministerium geförderten ExpertInnen-Netzwerks zum Thema Künstliche Intelligenz (KI). Hier fungiert sie als Co-Leiterin der AG „IT-Sicherheit, Privacy, Recht und Ethik“. Darüber hinaus leitet sie ein Projekt zur Verbesserung der KI-Trainingsdatenqualität im Rahmen der Denkfabrik des Bundesarbeitsministeriums.

Wie hätte ChatGPT auf unsere Interviewfragen geantwortet? 

Wir haben ChatGPT dieselben Fragen gestellt wie Jessica Heesen. Die  Antworten von ChatGPT finden sich jeweils zum Ausklappen direkt unter den Antworten von Jessica Heesen.

Welche Möglichkeiten bietet ChatGPT?

Jessica Heesen: ChatGPT (Generative Pre-trained Transformer) ermöglicht eine fast menschenähnliche Konversation auf schriftlicher Basis. Das Tool ist in der Lage, sich den ganzen Verlauf einer Konversation zu merken und sehr gute Antworten auf Fragen aus unterschiedlichsten Wissensgebieten zu geben. ChatGPT kann darüber hinaus in ganz verschiedenen Bereichen eingesetzt werden – nicht nur in der wissenschaftlichen Kommunikation, sondern beispielsweise auch, um Lieder zu komponieren, Gedichte zu schreiben oder um selber Software zu schreiben – also quasi um „für sich selbst“ zu sorgen.

...und das hat ChatGPT auf diese Frage geantwortet

Welche Möglichkeiten bietet ChatGPT?

Als großer Sprachmodell bietet ChatGPT eine Vielzahl von Möglichkeiten, darunter:

  1. Beantwortung von Fragen: ChatGPT kann eine breite Palette von Fragen zu verschiedenen Themen beantworten, darunter Wissenschaft, Technologie, Geschichte, Kultur, Politik, Unterhaltung und vieles mehr.
  2. Übersetzung: ChatGPT kann Texte und Gespräche in verschiedene Sprachen übersetzen, um die Kommunikation zwischen Menschen zu erleichtern.
  3. Generierung von Texten: ChatGPT kann Texte in verschiedenen Stilen und Formaten generieren, einschließlich Artikel, Essays, Gedichte, Kurzgeschichten und mehr.
  4. Zusammenfassung von Texten: ChatGPT kann lange Texte in kurze und prägnante Zusammenfassungen umwandeln.
  5. Automatisierte Kundenbetreuung: ChatGPT kann als Kundensupport-Chatbot eingesetzt werden, um Kundenanfragen schnell und effektiv zu beantworten.
  6. Virtueller Assistent: ChatGPT kann als virtueller Assistent dienen, um Benutzern bei verschiedenen Aufgaben zu helfen, z.B. Terminvereinbarungen, Erinnerungen, Wettervorhersagen, Recherche von Informationen und vieles mehr.
  7. Unterhaltung: ChatGPT kann auch als Unterhaltungsplattform dienen, indem es Benutzern Witze erzählt, Spiele spielt oder einfach nur eine unterhaltsame Konversation führt.

Diese sind nur einige der Möglichkeiten, die ChatGPT bietet. Mit seiner Fähigkeit, natürliche Sprache zu verstehen und zu generieren, kann ChatGPT in vielen verschiedenen Anwendungen eingesetzt werden, um Benutzern auf vielfältige Weise zu helfen.


ChatGPT ist für alle zugänglich. Welche Motive haben die beteiligten Technologiekonzerne, dieses Tool kostenlos zur Verfügung zu stellen?

Jessica Heesen: ChatGPT ist ein KI-Sprachmodell des Unternehmens Open AI, das 2015 als nicht-kommerzielles Forschungslabor gegründet wurde. Dahinter stehen große einflussreiche Firmen und Unternehmer, die über sehr viel Kapital verfügen. Dazu gehören Elon Musk, die Firmen Microsoft, Paypal und LinkedIn, aber auch das Gründungszentrum Y Combinator, dessen ehemaliger Geschäftsführer Sam Altman nun Vorstand von Open AI ist. Diese Unternehmen sind in der Lage, den sehr großen Energieverbrauch von KI-Modellen wie ChatGPT zu finanzieren und zugleich die benötigte riesige Menge an Trainingsdaten zu liefern.

Die Intention ist sicherlich, einen Markt für entsprechende Sprachmodelle insgesamt zu eröffnen, denn die Nutzung digitaler Techniken über Sprachsteuerung ist DER große Zukunftsmarkt.

Digitale Techniken sollen künftig intuitiv genutzt werden können: die User müssen nicht mehr irgendwas anklicken, sondern alles ist über menschliche Kommunikation steuerbar. Wir kennen Sprachsteuerung bereits durch „Alexa“ und „Siri“, aber die jetzigen Modelle wie ChatGPT sind bereits sehr viel weiter entwickelt. Diese Anwendungen stehen zwar momentan, zumindest teilweise, umsonst zur Verfügung, aber um sie kommerziell nutzen zu können, benötigt man sehr große Ressourcen in Form von Rechnerleistung oder Energie.

Das Unternehmen Microsoft hat sich Patente auf die von ihm selbst geförderte Entwicklung von ChatGPT und GPT-3 gesichert.  Und nicht alle Teile dieser Modelle können frei genutzt werden, die Firmen halten schon jetzt die Hand darauf.

Momentan ist ChatGPT zwar eine ganz breit angelegte Anwendung, aber es gibt eine Reihe von Ausdifferenzierungsmöglichkeiten für ganz unterschiedliche Anwendungsfelder wie beispielsweise die Medizin. In einem solchen Bereich mit sehr sensiblen Daten, müsste ChatGPT für einen Einsatz bestimmte Standards erfüllen, die mit der nicht-kommerziellen Anwendung nicht erreicht werden können. Und wenn man künftig ein richtig gut funktionierendes Sprachmodell haben will, bei dem die Antworten mit großer Sicherheit wahr sind, so wird das auch mit Kosten verbunden sein.

Klar ist auch: wenn wir ChatGPT benutzen, füttern wir das Sprachmodell mit unseren Daten und helfen so, das Modell weiter zu verbessern. Das heißt, die Betreiberfirmen profitieren auch davon, dass ChatGPT kostenlos ist.

...und das hat ChatGPT auf diese Frage geantwortet

ChatGPT ist für alle zugänglich. Welche Motive haben die beteiligten Technologiekonzerne, dieses Tool kostenlos zur Verfügung zu stellen?

ChatGPT wurde von OpenAI entwickelt, einem gemeinnützigen Forschungsunternehmen, das sich zum Ziel gesetzt hat, die künstliche Intelligenz (KI) in einer sicheren und verantwortungsvollen Weise zu entwickeln und für alle zugänglich zu machen. OpenAI glaubt, dass KI ein mächtiges Werkzeug sein kann, um viele der Herausforderungen zu lösen, mit denen die Menschheit konfrontiert ist, und dass es wichtig ist, dass alle Menschen gleichermaßen von den Vorteilen der KI profitieren können.

Indem OpenAI ChatGPT kostenlos zur Verfügung stellt, ermöglicht es Menschen auf der ganzen Welt, von den Fortschritten in der KI-Forschung zu profitieren, unabhängig von ihrem Hintergrund oder ihrer finanziellen Situation. OpenAI möchte auch eine offene und transparente Diskussion über die Zukunft der KI fördern, und ChatGPT dient als Plattform, um diese Diskussionen zu ermöglichen.

Es gibt auch kommerzielle Unternehmen, die auf der Grundlage von ChatGPT und anderen KI-Modellen Dienstleistungen und Produkte anbieten, um Einnahmen zu erzielen. Diese Unternehmen nutzen die von OpenAI entwickelten Modelle als Grundlage für ihre eigenen Anwendungen und ergänzen sie um eigene Technologien und Dienstleistungen.

Insgesamt können sowohl gemeinnützige Organisationen als auch kommerzielle Unternehmen von der Verfügbarkeit von ChatGPT und anderen KI-Modellen profitieren, um innovative Produkte und Dienstleistungen zu entwickeln, die das Leben der Menschen verbessern können.

Wie verändert ChatGPT die Wissenschaft oder auch Berufsfelder wie den Journalismus?

Jessica Heesen: Für den Journalismus gibt es generell ein riesiges Angebotsspektrum im Bereich Künstliche Intelligenz und speziell auch für ChatGPT oder GPT-3. Alle diese Tools gehören zur sogenannten generativen KI, die eigenständig Texte oder Bilder erstellen kann oder sogar in Verbindung mit Bild- und Videodaten Avatare erschaffen kann, mit denen wir kommunizieren und auf diese Weise journalistische Inhalte übermittelt bekommen.

Beim Einsatz von ChatGPT in der Wissenschaft ist problematisch, dass die Software beim Erstellen von Texten keine Quellen angibt.

Sehr gut geeignet ist ChatGPT dagegen für viele Vorstufen des wissenschaftlichen Arbeitens:

  • Die Software kann Hausarbeiten oder Aufsätze vorstrukturieren;
  • sie kann sagen, was für ein bestimmtes Anwendungsgebiet oder für einen wissenschaftlichen Aufsatz relevant wäre;

...und das hat ChatGPT auf diese Frage geantwortet

Wie verändert ChatGPT die Wissenschaft oder auch Berufsfelder wie den Journalismus?

ChatGPT und andere große Sprachmodelle haben das Potenzial, die Wissenschaft und verschiedene Berufsfelder auf unterschiedliche Weise zu verändern. Hier sind einige Beispiele:

  1. Wissenschaftliche Forschung: ChatGPT kann in der wissenschaftlichen Forschung eingesetzt werden, um komplexe Daten und wissenschaftliche Literatur zu analysieren und zu synthetisieren. Es kann auch verwendet werden, um Hypothesen zu generieren und neue Erkenntnisse zu gewinnen.
  2. Journalismus: ChatGPT kann im Journalismus eingesetzt werden, um Artikel und Nachrichtenberichte zu generieren oder zu unterstützen. Es kann auch verwendet werden, um Faktenchecks durchzuführen oder automatisch Zusammenfassungen von Artikeln und Berichten zu erstellen.
  3. Kundenservice und Support: ChatGPT kann im Kundenservice und Support eingesetzt werden, um Kundenanfragen zu beantworten und Probleme zu lösen. Es kann auch verwendet werden, um automatische Antworten auf häufig gestellte Fragen zu generieren oder Anfragen an den richtigen Kundendienstmitarbeiter weiterzuleiten.
  4. Bildung: ChatGPT kann im Bereich der Bildung eingesetzt werden, um Lehr- und Lernmaterialien zu generieren und zu unterstützen. Es kann auch verwendet werden, um automatische Bewertungen von Schülern und Schülerinnen durchzuführen oder personalisierte Lernempfehlungen zu geben.
  5. Marktforschung: ChatGPT kann in der Marktforschung eingesetzt werden, um Umfragen durchzuführen, Kundenfeedback zu analysieren und Trends zu erkennen. Es kann auch verwendet werden, um automatische Berichte über Marktforschungsergebnisse zu generieren.

Diese Beispiele zeigen, wie ChatGPT und andere große Sprachmodelle in verschiedenen Branchen und Anwendungsbereichen eingesetzt werden können, um Prozesse zu automatisieren, Erkenntnisse zu gewinnen und neue Möglichkeiten zu erschließen. Es ist jedoch wichtig zu beachten, dass der Einsatz von ChatGPT auch einige Herausforderungen mit sich bringen kann, wie z.B. die Verbreitung von Fehlinformationen oder Verzerrungen, die durch die begrenzte Perspektive von ChatGPT verursacht werden können. Deshalb ist es wichtig, den Einsatz von ChatGPT verantwortungsvoll und kritisch zu betrachten und die möglichen Auswirkungen auf die Gesellschaft zu berücksichtigen.


Das Rektorat hat Anfang Februar eine Rundmail zum Umgang mit ChatGPT verschickt: Studierende der Universität Tübingen dürfen – nach jetzigem Stand – von ChatGPT erstellte Texte nicht für ihre schriftlichen Studien- und Prüfungsleistungen verwenden, Forschende nicht für ihre wissenschaftlichen Publikationen.

Jessica Heesen: ChatGPT gibt nicht einzelne Textblöcke oder Wortfolgen vollständig weiter und die Ergebnisse des Sprachmodells können in diesem Sinne auch nicht als Plagiat bezeichnet werden. Stattdessen geht es bei ChatGPT immer um die Wahrscheinlichkeit, dass ein Wort oder teilweise sogar eine Silbe auf die nächste folgt. ChatGPT bedient sich aus einem immensen Datensatz, der immer wieder neu zusammengewürfelt wird. Wenn es doch eine starke Nähe zu identifizierbaren Ideen oder Formulierungen gibt, ist das den maschinellen Lernprozessen geschuldet, die eine inhaltliche Nähe zur Argumentation oder zu bestimmten Gedanken einzelner Wissenschaftlerinnen und Wissenschaftler aufbauen.

Ganz eindeutig ist aber: es dürfen keine von ChatGPT erstellten vollständigen Textblöcke in wissenschaftliche Arbeiten einfließen – das ist eine Frage des wissenschaftlichen Ethos und würde auch der Eigenständigkeitserklärung für studentische Arbeiten widersprechen.

Aber wie es das Rektorat in seiner Rundmail formuliert hat: man muss die Entwicklung von ChatGPT und ähnlichen Tools sehr genau beobachten und nach meiner Auffassung, mit der kritischen Reflexion auch gerade die genannten nützlichen Seiten generativer KI für die Wissenschaft zugänglich machen.

...und das hat ChatGPT auf diese Frage geantwortet

Kann man mit Chat GPT Plagiate erstellen?*

*Frage modifiziert

Chat GPT und andere große Sprachmodelle haben das Potenzial, Texte automatisch zu generieren, die menschlichen Schreibweisen ähneln. Das bedeutet, dass theoretisch auch Plagiate mithilfe von Chat GPT erstellt werden können.

Es ist wichtig zu beachten, dass Plagiate ethisch und oft auch rechtlich unzulässig sind. Das Verfassen von Texten, die Ideen und Formulierungen von anderen Autoren oder Autorinnen übernehmen, ohne dies deutlich zu kennzeichnen, kann zu schwerwiegenden Konsequenzen führen, einschließlich der Aberkennung von akademischen Leistungen oder der Anklage wegen Urheberrechtsverletzung.

Obwohl Chat GPT und andere Sprachmodelle potenziell zur Erstellung von Plagiaten verwendet werden können, ist es wichtig zu betonen, dass diese Tools nicht für unethische oder illegale Zwecke verwendet werden sollten. Die meisten akademischen Institutionen, Unternehmen und Organisationen haben strenge Regeln und Vorschriften gegen Plagiate, und es ist wichtig, diese Regeln zu respektieren, um die Integrität der akademischen oder beruflichen Arbeit zu wahren.

Originalfrage: Das Rektorat hat Anfang Februar eine Rundmail zum Umgang mit ChatGPT verschickt: Studierende der Universität Tübingen dürfen – nach jetzigem Stand – von ChatGPT erstellte Texte nicht für ihre schriftlichen Studien- und Prüfungsleistungen verwenden, Forschende nicht für ihre wissenschaftlichen Publikationen.


Ähnlich wie bei Plagiaten gibt es bereits Software wie GPT Zero, die von KI geschriebene Texte erkennen soll…

Jessica Heesen: Natürlich ist es grundsätzlich sinnvoll, dass es solche Tools gibt, aber sie befinden sich in der Entwicklung und funktionieren noch nicht sehr zuverlässig. Sie können selber auch nicht belegen, wie sie arbeiten, weil sie – genau wie ChatGPT – auf teils schwer nachvollziehbaren Verfahren des maschinellen Lernens beruhen.

Solange diese Programme aber nicht zuverlässig funktionieren, besteht die Gefahr, dass es zu vielen falsch positiven Meldungen kommt.

...und das hat ChatGPT auf diese Frage geantwortet

Ähnlich wie bei Plagiaten gibt es bereits Software wie GPT Zero, die von KI geschriebene Texte erkennen soll. Wie gut funktionieren diese?*

*Frage leicht modifiziert

Ja, es gibt Software wie GPT-3, die darauf ausgelegt sind, von KI generierte Texte zu erkennen. Diese Software werden als Texterkennungs- oder Plagiatsüberprüfungs-Tools bezeichnet.

Die Leistungsfähigkeit dieser Tools hängt jedoch von verschiedenen Faktoren ab, wie z.B. der Qualität des Algorithmus, der Art des zu erkennenden Textes und der Komplexität der verwendeten KI-Modelle. Einige dieser Tools können sehr gut funktionieren und in der Lage sein, automatisch generierte Texte mit hoher Genauigkeit zu erkennen. Andere können jedoch weniger genau sein oder Schwierigkeiten haben, subtilere Formen von Plagiaten oder automatisch generierten Texten zu erkennen.

Es ist auch wichtig zu beachten, dass diese Tools nicht perfekt sind und es immer noch möglich ist, Plagiate oder automatisch generierte Texte zu erstellen, die von diesen Tools nicht erkannt werden. Es ist daher ratsam, nicht nur auf solche Tools zu verlassen, sondern auch manuelle Überprüfungen und andere Methoden zur Erkennung von Plagiaten oder automatisch generierten Texten zu verwenden.

Insgesamt bieten Texterkennungs- oder Plagiatsüberprüfungs-Tools, die auf die Erkennung von KI-generierten Texten spezialisiert sind, eine wichtige Unterstützung bei der Wahrung der akademischen Integrität oder bei der Vermeidung von Fehlern in der automatisierten Textgenerierung.

*Originalfrage: Ähnlich wie bei Plagiaten gibt es bereits Software wie GPT Zero, die von KI geschriebene Texte erkennen soll...


Wo stößt eine Software wie ChatGPT an ihre Grenzen?

Jessica Heesen: Das große Thema ist der Wahrheitsgehalt, weil der nie sicher ist. ChatGPT verbreitet mit großem Selbstbewusstsein völlig falsche Informationen. Und wir neigen als Menschen dazu, diese Informationen zu glauben, weil sie sehr gut formuliert sind. Rückmeldungen aus der Informatik zeigen beispielsweise, dass ChatGPT teilweise überzeugend in der Ausführung komplizierter Formeln ist, aber teilweise auch gänzlich falsch liegt.

Die Kunst beim Einsatz von ChatGPT ist, die richtigen, eindeutigen Fragen zu stellen. Das ist eine Wissenschaft für sich – wenn man ein gutes Ergebnis haben will. Die Fragen dürfen z. B. nicht ambivalent sein, denn die Software kann nicht mit Ironie oder mehrdeutigen Begriffen umgehen.

Nicht geeignet sind KI-Sprachmodelle generell für alles, bei dem es um echte menschliche Beziehungen geht, zum Beispiel in der Telefonseelsorge.

Eine andere wichtige Frage ist: Inwiefern reproduziert KI sich selber? Wir wissen, dass ChatGPT sich aus einem riesigen Fundus von frei zugänglichen Informationen aus dem Internet bedient. Wenn diese Texte oder Informationen aber selber wieder von künstlicher Intelligenz erzeugt wurden, dann bekommen wir eine Rückkopplungsschleife, bei der von menschlicher Seite gar keine Verbesserungen mehr gemacht werden können.

...und das hat ChatGPT auf diese Frage geantwortet

Wo stößt eine Software wie ChatGPT an ihre Grenzen?

Obwohl ChatGPT ein leistungsfähiges Werkzeug zur automatisierten Textgenerierung ist, hat es einige Einschränkungen und Grenzen, die berücksichtigt werden sollten:

  1. Verständnis von Kontext und Bedeutung: ChatGPT basiert auf der Verwendung von Mustern in großen Textdatensätzen, um neue Texte zu generieren. Es kann jedoch Schwierigkeiten haben, den Kontext oder die Bedeutung eines bestimmten Textabschnitts zu verstehen, insbesondere wenn es um abstrakte Konzepte geht oder um Texte, die spezielles Wissen erfordern.
  2. Mangel an Urteilsvermögen: ChatGPT hat kein Urteilsvermögen und kann daher nicht bewerten, ob der von ihm erstellte Text ethisch oder moralisch vertretbar ist. Es kann daher zu unangemessenen oder diskriminierenden Texten kommen, wenn die Daten, auf denen es basiert, solche Vorurteile enthalten.
  3. Schwierigkeit bei der Erstellung von strukturierten Texten: ChatGPT kann zwar Texte generieren, aber es hat Schwierigkeiten, Texte mit einer klaren Struktur zu erstellen, wie z.B. wissenschaftliche Berichte oder technische Dokumente.
  4. Schwierigkeit bei der Verarbeitung von Multimodalität: ChatGPT ist in erster Linie auf die Verarbeitung von Texten spezialisiert und hat Schwierigkeiten bei der Verarbeitung von Multimodalität wie Bildern oder Videos.
  5. Begrenzte Fähigkeit zur Interaktion: ChatGPT ist ein textbasiertes Modell, das in der Regel nur auf Texteingaben reagieren kann. Es hat Schwierigkeiten, auf komplexe menschliche Emotionen oder andere subtile Merkmale zu reagieren, die in der menschlichen Interaktion wichtig sind.

Insgesamt ist es wichtig, die Einschränkungen und Grenzen von ChatGPT und ähnlichen Modellen zu verstehen, um realistische Erwartungen zu haben und angemessene Anwendungen zu entwickeln.


In den vergangenen Krisenjahren wurden verstärkt Desinformationen, Verschwörungstheorien und Fake News verbreitet. Welche Gefahren bergen KI-gestützte Tools wie ChatGPT in Bezug auf das Thema Informations- oder Wahrheitsgehalt?

Jessica Heesen: Die Gefahr ist groß, dass sich künftig noch mehr sogenannte Social Bots, also Pseudo-Personen, sich an der sozialen Kommunikation beteiligen. Sie schreiben Nachrichten, die sich an den aktuellen Kommunikationsverlauf anpassen – d.h. sie können autonom auf eine Dialogsituation reagieren. Ganz konkret gibt es bereits Stellungnahmen von renommierten Forscherinnen und Forschern, die vor der Möglichkeit warnen, dass in Sekundenschnelle Tausende von Falschinformationen angetriggert werden, die bestimmten strategischen Interessen dienen.

Es wird zukünftig immer schwieriger werden, zu erkennen, was eigentlich noch authentische menschliche Information oder Kommunikation ist – und was eben nicht.

...und das hat ChatGPT auf diese Frage geantwortet

In den vergangenen Krisenjahren wurden verstärkt Desinformationen, Verschwörungstheorien und Fake News verbreitet. Welche Gefahren bergen KI-gestützte Tools wie ChatGPT in Bezug auf das Thema Informations- oder Wahrheitsgehalt?

KI-gestützte Tools wie ChatGPT können in Bezug auf das Thema Informations- oder Wahrheitsgehalt verschiedene Gefahren bergen. Hier sind einige Beispiele:

  1. Verbreitung von Desinformationen und Fake News: ChatGPT kann dazu verwendet werden, automatisch Texte zu generieren, die falsch oder irreführend sind. Diese Texte können dann verwendet werden, um Desinformationen und Fake News zu verbreiten.
  2. Verstärkung von Vorurteilen und Diskriminierung: Wenn die von ChatGPT generierten Texte auf Daten basieren, die Vorurteile oder Diskriminierung enthalten, können die generierten Texte diese Vorurteile oder Diskriminierung verstärken. Zum Beispiel könnten automatisch generierte Texte aufgrund von vorhandenen Daten rassistische oder sexistische Stereotypen enthalten.
  3. Manipulation von Meinungen: ChatGPT kann dazu verwendet werden, Texte zu generieren, die speziell darauf abzielen, Meinungen zu manipulieren oder politische Positionen zu beeinflussen. Zum Beispiel könnten automatisch generierte Texte verwendet werden, um gezielte Desinformationskampagnen zu unterstützen.
  4. Beeinflussung von Debatten und Entscheidungen: Wenn ChatGPT verwendet wird, um Texte zu generieren, die in politischen Debatten oder Entscheidungen verwendet werden, kann es schwierig sein, die tatsächlichen Meinungen der beteiligten Parteien zu verstehen, da es schwierig ist, festzustellen, ob die Texte von Menschen oder von ChatGPT generiert wurden.

Um diese Gefahren zu minimieren, müssen Unternehmen, Regierungen und Forscher sich auf die Entwicklung von Gegenmaßnahmen konzentrieren, die die Verbreitung von Desinformationen, Vorurteilen und manipulativen Inhalten reduzieren. Das kann zum Beispiel durch eine verstärkte Sensibilisierung der Öffentlichkeit, die Nutzung von Texterkennungs- oder Plagiatsüberprüfungstools, oder durch die Schaffung von Regulierungsrahmen und ethischen Standards für KI-gestützte Tools erreicht werden.

Wo sehen Sie weitere Probleme beim Einsatz von ChatGPT oder anderer moderner KI?

Jessica Heesen: Die ganze digitale Welt hat einen gewaltigen Energiebedarf, der mit der technologischen Entwicklung weiter anwächst. Es geht nicht nur um die Herstellung von Hardware, sondern um die Speicherung und Verarbeitung von gigantischen Datenmengen in riesigen Serverfarmen. Das erfordert einen sehr hohen, immer größer werdenden Stromverbrauch.

Aus diesem Grund ist ökologische Nachhaltigkeit in der Ethik wie auch in der KI-Forschung ein wichtiges Thema. Wie kann man die Software so programmieren, dass sie weniger Daten verbraucht, mit weniger Prozessorkraft auskommt und damit auch weniger Energie verbraucht.

Bei ChatGPT geht es – wie bereits angesprochen – um Fragen der Wissenschaftsethik, aber auch Fragen einer validen öffentlichen Kommunikation als Kernbestand von Demokratie:  wir sind darauf angewiesen, dass wir als Menschen Werte und Normen miteinander aushandeln und uns auf bestimmte Handlungsziele einigen. Wenn daran künftig starke manipulative Kräfte durch KI beteiligt sind oder wir grundsätzlich das Vertrauen in die Medienkommunikation verlieren – weil wir gar nicht mehr wissen können, ob ein Mensch oder eine KI einen Text geschrieben hat – dann ist das ein gravierender Einschnitt für unsere demokratische Gesellschaft.

Letztendlich wird es eine Kennzeichnungspflicht geben müssen – für alle Texte und Medieninhalte, die nicht von Menschen verfasst wurden.

...und das hat ChatGPT auf diese Frage geantwortet

Wo sehen Sie weitere Probleme beim Einsatz von ChatGPT oder anderer moderner KI?

Es gibt verschiedene Probleme beim Einsatz von ChatGPT oder anderer moderner KI, von denen ich einige nennen kann:

  1. Datenschutz und Privatsphäre: ChatGPT benötigt große Datenmengen, um effektiv arbeiten zu können. Der Einsatz von KI-basierten Systemen kann dazu führen, dass sensible Daten gesammelt und verwendet werden, was möglicherweise die Privatsphäre der betroffenen Personen verletzt.
  2. Ethik und Bias: Es ist wichtig sicherzustellen, dass KI-Systeme ethisch einwandfrei sind und keine Diskriminierung oder Vorurteile enthalten. Dies kann schwierig sein, da KI-Systeme oft auf vorhandenen Daten trainiert werden, die möglicherweise Vorurteile enthalten, was zu unfairer Diskriminierung führen kann.
  3. Arbeitsplatzverluste: KI-basierte Systeme wie ChatGPT können in der Lage sein, Aufgaben durch Automatisierung zu erledigen, die früher von Menschen ausgeführt wurden. Dies kann zu Arbeitsplatzverlusten und einer Verschiebung der Arbeitskräfte auf dem Arbeitsmarkt führen.
  4. Sicherheitsrisiken: KI-Systeme wie ChatGPT können von Hackern und Cyberkriminellen gehackt oder manipuliert werden, um Schaden zu verursachen. Es ist wichtig, die Sicherheitsrisiken von KI-Systemen zu erkennen und entsprechende Maßnahmen zu ergreifen, um diese zu minimieren.
  5. Abhängigkeit von Technologie: Die zunehmende Abhängigkeit von KI-basierten Systemen wie ChatGPT kann zu Problemen führen, wenn diese Systeme ausfallen oder nicht verfügbar sind. Es ist wichtig, dass Unternehmen und Regierungen Alternativen und Backup-Systeme haben, um auf solche Situationen zu reagieren.

Um diese Probleme zu minimieren, ist es wichtig, dass die Entwicklung und Implementierung von KI-basierten Systemen von verantwortungsvollen, ethischen und nachhaltigen Grundsätzen geleitet wird. Es ist wichtig, dass wir sicherstellen, dass KI-basierte Systeme in einer Weise eingesetzt werden, die die Privatsphäre schützt, Diskriminierung verhindert, Arbeitsplätze bewahrt, Sicherheitsrisiken minimiert und unsere Abhängigkeit von Technologie verringert.


Sam Altmann, CEO von Open AI, hat Befürchtungen geäußert, dass KI den Untergang der Menschheit einläutet... Was können die Wissenschaft und die Politik tun, damit es einen verantwortungsvollen Umgang mit diesen Technologien gibt?

Jessica Heesen: Es geht bei KI immer um Mustererkennung und Wahrscheinlichkeitsprognosen, auch bei Sprachmodellen wie ChatGPT. Dadurch reproduzieren sie genau die ethisch unerwünschten, jetzt schon vorhandenen Diskriminierungen in der Sprache, zum Beispiel in Form von hate speech. Dem kann man nur durch eine sehr gute Qualität der Trainingsdaten für Sprachmodelle entgegenwirken. Konkret: in den genutzten Daten muss sich die Diversität der Gesellschaft widerspiegeln, und es müssen Filter für bestimmte Ausdrücke oder Fragen eingebaut werden. Bereits jetzt gibt es bestimmte Fragestellungen im Kontext von Gewaltverherrlichung oder Volksverhetzung, auf die ChatGPT nicht antwortet.

Um qualitativ hochstehende Datenressourcen für Journalismus, Mobilität, Medizin oder andere Bereiche zu erhalten, benötigen wir eine Standardisierung oder Zertifizierung. Das gewährleistet, dass in den von Sprachmodellen wie ChatGPT produzierten Texten auch gute Inhalte stehen. Und wir brauchen Transparenz und offene Daten. Es muss mehr Möglichkeiten für die Öffentlichkeit – die interessierte Öffentlichkeit, die Fachöffentlichkeit – geben, solche Datensätze zu kontrollieren. Das betrifft genauso die Algorithmen, die benutzt werden, um Daten in KI-Sprachmodellen weiter zu verarbeiten.

Hier stehen wir noch am Anfang, aber es gibt bereits Regulierungsansätze der EU: der sogenannte AI Act ( Artificial Intelligence Act) der Europäischen Kommission zur KI-Regulierung soll bereits innerhalb der nächsten zwei Jahre konkrete Vorgaben machen zur stärkeren Kontrolle der verwendeten Daten, der Algorithmen und auch der großen Player im Bereich der KI-Entwicklung, die die entsprechenden Plattformen betreiben.

...und das hat ChatGPT auf diese Frage geantwortet

Sam Altmann, CEO von Open AI, hat Befürchtungen geäußert, dass KI den Untergang der Menschheit einläutet... Was können die Wissenschaft und die Politik tun, damit es einen verantwortungsvollen Umgang mit diesen Technologien gibt?

Die Befürchtungen von Sam Altmann bezüglich der möglichen Auswirkungen von KI auf die Menschheit zeigen, wie wichtig es ist, verantwortungsvoll mit diesen Technologien umzugehen. Die Wissenschaft und die Politik spielen in diesem Zusammenhang eine wichtige Rolle, um sicherzustellen, dass die Entwicklungen von KI-basierten Systemen verantwortungsbewusst und nachhaltig vorangetrieben werden.

Einige der Schritte, die unternommen werden können, um einen verantwortungsvollen Umgang mit KI sicherzustellen, sind:

  1. Ethische Leitlinien: Die Entwicklung von ethischen Leitlinien für KI-basierte Systeme, die sicherstellen, dass sie in einer Weise eingesetzt werden, die ethisch vertretbar ist und die Privatsphäre und die Menschenrechte respektiert.
  2. Transparenz: KI-basierte Systeme sollten transparent sein, damit die Nutzer verstehen können, wie sie funktionieren, welche Daten sie verwenden und wie sie Entscheidungen treffen.
  3. Regulierung: Die Regulierung von KI-basierten Systemen, um sicherzustellen, dass sie sicher und verantwortungsvoll eingesetzt werden.
  4. Forschung: Die Unterstützung der Forschung, um die Auswirkungen von KI auf die Gesellschaft zu verstehen und geeignete Lösungen zu entwickeln.
  5. Bildung: Die Bereitstellung von Bildung und Schulung für Entwickler und Nutzer von KI-basierten Systemen, um sicherzustellen, dass sie über die potenziellen Risiken und Herausforderungen informiert sind.

Es ist wichtig, dass die Wissenschaft und die Politik zusammenarbeiten, um einen verantwortungsvollen Umgang mit KI sicherzustellen. Indem wir die Vorteile von KI nutzen und gleichzeitig sicherstellen, dass diese Technologien ethisch und verantwortungsvoll eingesetzt werden, können wir sicherstellen, dass KI unser Leben bereichert, anstatt es zu bedrohen.


Wie können Sie als Ethikerin bei der Gestaltung eines verantwortungsvollen Umgangs mit KI mitwirken?

Jessica Heesen: Es gibt verschiedene Ebenen – Deutschland, die EU oder auch weltweit. Auf allen diesen Ebenen ist der Ruf nach Ethik laut, und es gibt mittlerweile sehr viele Gremien. In Deutschland sitzen und saßen Ethikerinnen und Ethiker unter anderem in der Datenethikkommission, der KI-Enquetekommission oder der BMBF-Plattform Lernende Systeme.

Für den Bereich Künstliche Intelligenz haben wir weltweit bereits über 200 dokumentierte Ethik-Kodizes, das zeigt Wirkung in der Debatte um Regulierung. Trotzdem mangelt es generell an der Integration ethischer Kriterien in konkrete Anwendungsfelder und der KI-Entwicklungsarbeit.

Bei den KI-Regulierungsvorschlägen der EU wurde sehr weit gedacht: es sind nicht nur Aspekte aus dem Recht darin berücksichtigt, sondern ganz explizit auch aus der Ethik.

In der Ethik geht es immer um eine begründete Normenfindung, die letztendlich auch für das Recht grundlegend ist. Die Rechtsregeln, die am Ende beschlossen und verabschiedet werden, beruhen auf einem grundlegendem Werteverständnis, das in der Ethik reflektiert und teilweise auch von ihr hervorgebracht wird.

Das Interview führte Maximilian von Platen

...und das hat ChatGPT auf diese Frage geantwortet

Wie können Ethiker bei der Gestaltung eines verantwortungsvollen Umgangs mit KI mitwirken?*

*Frage leicht modifiziert

Ethiker können einen wichtigen Beitrag leisten, um einen verantwortungsvollen Umgang mit KI zu gestalten. Die Arbeit von Ethikern kann in verschiedenen Phasen der Entwicklung und Implementierung von KI-basierten Systemen relevant sein:

  1. Frühphase der KI-Entwicklung: Ethiker können bereits in der Frühphase der KI-Entwicklung eingebunden werden, um sicherzustellen, dass die Systeme von Anfang an ethisch verantwortungsvoll konzipiert und implementiert werden.
  2. Risikobewertung: Ethiker können helfen, die potenziellen Risiken und Auswirkungen von KI-basierten Systemen auf die Gesellschaft zu bewerten und dabei auch mögliche ethische Herausforderungen berücksichtigen.
  3. Erstellung ethischer Leitlinien: Ethiker können an der Erstellung ethischer Leitlinien für KI-basierte Systeme mitwirken. Diese Leitlinien sollen sicherstellen, dass die Systeme ethisch vertretbar sind und die Privatsphäre und die Menschenrechte respektieren.
  4. Überwachung und Regulierung: Ethiker können bei der Überwachung der Einhaltung ethischer Standards bei der Nutzung von KI-basierten Systemen helfen und auch bei der Entwicklung von entsprechenden Regulierungen mitwirken.
  5. Beratung: Ethiker können in Unternehmen und Organisationen beratend tätig sein, um sicherzustellen, dass die Anwendung von KI-basierten Systemen in einer ethisch verantwortungsvollen Weise erfolgt.

Zusammenfassend lässt sich sagen, dass Ethiker bei der Gestaltung eines verantwortungsvollen Umgangs mit KI eine wichtige Rolle spielen können, indem sie auf mögliche ethische Herausforderungen hinweisen und bei der Entwicklung und Umsetzung von ethischen Leitlinien und Regulierungen mitwirken.

*Originalfrage: Wie können Sie als Ethikerin bei der Gestaltung eines verantwortungsvollen Umgangs mit KI mitwirken?


Das ganze alternative Interview zum Download