Internationales Zentrum für Ethik in den Wissenschaften (IZEW)

Schaden Deepfakes (wirklich) der Demokratie?

Warum die Debatte um Deepfakes in der Politik oft zu kurz greift

von Cora Bieß und Maria Pawelec

12.11.2020 · Deepfakes sind synthetische audio-visuelle Medien (also Bilder, Videos und Audiodateien), die häufig mit Hilfe künstlicher Intelligenz (KI) erstellt werden. Mit dem Einsatz von Deepfakes sind zahlreiche Sorgen verbunden, insbesondere, dass sie als neue, gefährlichere Form von Fake News demokratische Prozesse und Institutionen untergraben könnten. Diese Sorgen sind durchaus berechtigt. Gleichzeitig vernachlässigt die Debatte erstens die große Gefahr von Deepfakes in einem ganz anderen Bereich, der Pornografie, und zweitens ihre zahlreichen legitimen und sogar demokratiefördernden Anwendungen.

Deepfakes werden von den unterschiedlichsten Akteur*innen in verschiedenen Bereichen angewendet. Ihre Auswirkungen und ethischen Implikationen sind von ihrem Anwendungskontext abhängig und entsprechend vielfältig. Häufig kreist die Debatte zu Deepfakes um ihr (oft hypothetisches) politisches Schädigungspotenzial. Dazu gehören:

  1. Deepfakes im Wahlkampf: Deepfakes könnten demokratische Wahlkämpfe bedrohen, indem sie Kandidat*innen bei Handlungen und Äußerungen zeigen, die sie nie getätigt haben. Wähler*innen werden dadurch manipuliert und die Stimmabgabe verzerrt.

  2. „Lügner*innen-Dividende“: Personen, die wegen bestimmter Äußerungen oder Handlungen in der Kritik stehen, können zunehmend einfach behaupten, belastende Dateien seien ein Deepfake (Chesney/Citron 2019). So behauptete etwa [der ehemalige] US-Präsident Trump 2017, das „Access Hollywood“-Video, in dem er mit der Belästigung von Frauen angab, sei manipuliert.

  3. Schwächung der Medien: Deepfakes stellen Journalist*innen vor neue Herausforderungen bei der Bewertung von Quellen und können so das Vertrauen in die Medien schwächen.

  4. Politische Destabilisierung: Deepfakes können gesellschaftliche Gräben vertiefen. 2018 kursierten etwa ein Deepfake-Bild und Video von Emma Gonzalez, einer Überlebenden des Amoklaufs in Parkland, Florida. Es zeigte sie beim Zerreißen der amerikanischen Verfassung statt beim Zerreißen einer Zielscheibe. Dieser Deepfake verschärfte die angespannte Debatte um das Waffenrecht in den USA weiter.
    Im schlimmsten Fall könnten Deepfakes sogar gezielt genutzt werden, um inner- oder zwischenstaatliche Konflikte zu provozieren, etwa, indem Deepfakes kursieren, in denen Politiker*innen bestimmte Gruppen oder Staaten gegen sich aufbringen. Bisher konnten wir dafür nur einen bestätigten Fall finden: 2018 kam es infolge von Vorwürfen, ein Video der Neujahrsansprache des Präsidenten von Gabun sei ein Deepfake, zu Unruhen und schließlich einem versuchten Militärputsch. Es konnten später keine Beweise für eine Manipulation des Videos gefunden werden, aber allein der Vorwurf begünstigte die politischen Unruhen.

  5. Schädigung der Außenpolitik: durch gezielte Falschinformation können diplomatische Beziehungen verletzt werden. Deepfakes werden immer häufiger für politische Propaganda eingesetzt. So meldete Facebook beispielswiese vor wenigen Wochen, dass es zwei Netzwerke von Fake-Accounts auf Facebook und Instagram gelöscht hatte. Eines davon war ein chinesisches Netzwerk, das unter anderem Deepfake-Profilfotos für die Fake-Accounts nutzte. Anders als echte Bilder können diese Bilder nicht wiedererkannt oder per Suche zurückverfolgt werden. Über solche Fake Accounts wurde dann Propaganda unter anderem zu geopolitischen Themen wie maritimer Sicherheit im südchinesischen Meer verbreitet.

  6. Schädigung der politischen Meinungsfindung: Deepfakes bedrohen letztlich grundlegende Diskurse und Prozesse in einer offenen und demokratischen Gesellschaft: Es besteht die Gefahr, dass sie eine Umgebung schaffen, in der Bürger*innen das Gefühl bekommen, überhaupt nichts mehr glauben zu können. Dies könnte zu Vertrauensverlust und Demokratieverdrossenheit führen.

  7. Pornografie/Ausbeutung der sexuellen Identität von Frauen/Gefahr für Gendergerechtigkeit: 96% aller Deepfakes sind pornografisch; fast zu 100% sind Frauen betroffen (Ajder et al. 2019). Die Deepfake-Technologie entstand sogar, indem weibliche Prominente in pornographische Videos hineinkopiert wurden. Inzwischen sind vermehrt auch Frauen betroffen, die nicht berühmt sind, da die Erstellung von Deepfakes als Dienstleistung zunehmend gekauft werden kann. Voraussetzung hierfür ist lediglich genügend Bildmaterial, das zum Teil bereits auf Social-Media-Profilen gefunden werden kann. Pornografische Deepfakes verletzen die Persönlichkeitsrechte Betroffener und können tiefgreifende persönliche Schäden verursachen. Sie können auch als Grundlage für Erpressungen, Verleumdungen oder weiteres, strafrechtlich relevantes Verhalten dienen. Somit bedrohen Deepfake-Rachepornos die personale Integrität der betroffenen Frauen und die gesellschaftliche Gleichstellung von Frauen in einer digitalen Gesellschaft.

Deepfakes bedrohen jedoch nicht nur demokratische Institutionen und Prozesse. Neben legitimen Anwendungen etwa in der Film- und Videoindustrie und der Kunst, können sie durchaus auch für demokratiefördernde Zwecke eingesetzt werden.

  1. Deepfakes zum Schutz verfolgter Gruppen: Deepfakes wurden etwa 2020 im Dokumentarfilm „Welcome to Chechnya“ genutzt. Hier berichteten LGBTQ-Aktivist*innen von ihrer Flucht vor schwulenfeindlichen Säuberungen in Tschetschenien. Ihre Identität wurde dann per Deepfakes verschleiert, um sie vor Verfolgung zu schützen, gleichzeitig aber ihre Emotionen und Ausdrucksformen zu bewahren, so dass das Publikum mit ihnen mitfühlen kann. Der Einsatz von KI ermöglichte diesem Dokumentarfilm, Erlebnisse zu erzählen, die sonst aus Schutz der Identität der Verfolgten nicht erzählt werden könnten.

  2. Deepfakes im Aktivismus und in der politischen Kunst: In autokratischen Systemen könnten Deepfakes Aktivist*innen helfen, die Meinungen der Opposition zu verbreiten, da die Technologie zur Verschleierung der eigenen Identität verwendet werden kann. Im Bereich der politischen Kunst werden Deepfakes genutzt, um Aufmerksamkeit für gesellschaftliche und politische Missstände zu erzeugen und politisches Handeln anzuregen. So weist etwa das Kunstprojekt „Spectre“ auf den Missbrauch persönlicher Daten zur politischen Einflussnahme hin.

  3. Deepfakes im Bildungsbereich: Deepfakes könnten Geschichte im Bereich der Museumspädagogik hautnaher erfahr- und erlebbar machen. Das Dalí Museum in Florida benutzt derzeit Deepfakes, um Besucher*innen eine direkte Interaktion „mit“ dem 1989 verstorbenen Künstler Salvador Dalí zu ermöglichen.

  4. Deepfakes in der Assistenztechnologie: Deepfakes können Menschen, die aufgrund von Behinderungen oder chronischen Erkrankungen ihre Stimme verlieren, eine authentische oder sogar eine synthetische Kopie ihrer Stimme zur Kommunikation bieten (siehe z.B. Project Revoice). Das fördert die Inklusion und Partizipation von Menschen mit Behinderung.

  5. Deepfakes im Bereich Satire/Parodie: Deepfakes werden zunehmend zur politischen Kommentierung, für Satire und Ironie verwendet und tragen damit zur politischen Debatte bei. In diesem Bereich wurden sie bislang meist unkritisch als ethisch unproblematisch bewertet. Doch auch hier werden ethische Fragen aufgeworfen: Wer bestimmt, was Satire/Ironie ist? Was ist mit Personengruppen, die keine Satire verstehen, wie zum Beispiel Menschen mit geringen Sprachkenntnissen oder eingeschränkten kognitiven Fähigkeiten? Zudem kann es auch hier zu demokratiegefährdenden Täuschungen kommen, wenn eine Deepfake-Parodie aus ihrem ursprünglichen Kontext in einen anderen Kontext übertragen wird.

Wie aufgezeigt, werden Deepfakes somit für vielfältige Zwecke eingesetzt und werfen dort ganz unterschiedliche ethische und gesellschaftliche Fragen auf. Die verbreitete Befürchtung, Deepfakes könnten die Demokratie gefährden, ist dabei durchaus berechtigt. Zwar gibt es bislang nur wenige belegte Fälle, in denen Deepfakes demokratische Prozesse maßgeblich negativ beeinflussten. Die Barrieren zur Erstellung überzeugender Deepfakes in Bezug auf benötigte Rechnerkapazitäten, technisches Wissen und weitere Ressourcen, wie Trainingsdaten, sinken jedoch ständig, was eine erfolgreiche Nutzung für Desinformationskampagnen zunehmend wahrscheinlich macht. Dies könnte zu einem Vertrauensverlust in politische Prozesse und Institutionen führen und damit den gesellschaftlichen Zusammenhalt, die Partizipation und Autonomie von Wähler*innen und letztendlich die Demokratie bedrohen. Ebenfalls besorgniserregend ist die wachsende Zahl pornografischer Deepfakes, die häufig als „Waffe gegen Frauen“ eingesetzt werden. Sie verletzen massiv die Persönlichkeitsrechte und die Würde der Betroffenen, und bedrohen Inklusion, Partizipation, Privatheit und Gendergerechtigkeit. Gleichzeitig unterliegen Deepfakes als Mittel der Unterhaltung und Kommentierung der Meinungsfreiheit, und Deepfakes können neben einer Reihe wirtschaftlicher Anwendungen auch für vielfältige demokratiefördernde Zwecke eingesetzt werden. Dabei ermöglichen sie neue Formen der politischen Debatte und Mobilisierung, der Sensibilisierung für gesellschaftliche Missstände, und der Inklusion von Menschen mit körperlichen Beeinträchtigungen.

Ein generelles Verbot von Deepfakes ist daher weder umsetzbar noch wünschenswert. Es sollten jedoch alle Deepfakes in den genannten Anwendungsbereichen als solche markiert werden, um Täuschungsabsichten entgegenzuwirken und Transparenz für die Betrachtenden herzustellen. Darüber hinaus muss es für jeden Anwendungskontext spezifische Regulierungsdiskussionen geben, die eine ethische und gesellschaftliche Folgenabschätzung voraussetzen.

Kurz-Link zum Teilen: https://uni-tuebingen.de/de/199237

Literatur

Ajder, H., Patrini, G., Cavalli, F. und Cullen, L. (2019), “The State of Deepfakes. Landscape, Threats, and Impact”, Deeptrace.

Chesney, R. und Citron, D. (2019), “Deep Fakes: A Looming Challenge for Privacy, Democracy, and National Security”, California Law Review, Vol. 107, S. 1753–1819.