Internationales Zentrum für Ethik in den Wissenschaften (IZEW)

Privatheit und weitere Rechte der Bürgerinnen und Bürger schützen vor Missbrauch durch Deepfakes (DEEP-PRISMA)

DEEP‑PRISMA untersucht die wachsenden Risiken missbräuchlicher Deepfakes und rückt dabei besonders die ethischen Herausforderungen in den Mittelpunkt, die sich für die informationelle Selbstbestimmung und die Persönlichkeitsrechte von Bürgerinnen und Bürgern ergeben. Das Projekt kombinierte empirische Forschung mit rechtlicher und ethischer Reflexion, um zu analysieren, wie sexualisierende, betrügerische und diffamierende Deepfakes Betroffene beeinträchtigen, wie wirksam bestehende Schutzmechanismen sind und wo normative, rechtliche und technische Lücken bestehen. Ziel ist es, Menschen zu befähigen, ihre Rechte zu kennen und zu schützen, und zugleich ethisch und rechtlich fundierte Empfehlungen für eine verantwortungsvolle Regulierung, werteorientierte Technikgestaltung und flankierende gesellschaftliche Maßnahmen zu entwickeln, die demokratische Prinzipien und Privatsphäre in einer von KI geprägten Welt sichern.

IZEW-Team

Förderung

Februar 2026 – Januar 2029

Projektbeschreibung

Deepfakes – also täuschend echte, mit Hilfe von KI erzeugte oder manipulierte Bild‑, Audio‑ oder Videomanipulationen – verbreiten sich rasant und können für Betroffene schwerwiegende Folgen haben. DEEP‑PRISMA untersucht, wie solche Fälschungen das Leben von Bürgerinnen und Bürgern beeinflussen und wie gut bestehende Schutzmechanismen greifen. Besonders im Blick stehen sexualisierende Deepfakes, betrügerische Deepfakes sowie diffamierende Deepfakes, die den Ruf von Personen gezielt schädigen. Das Projekt möchte Menschen dabei unterstützen, ihre informationelle Selbstbestimmung zu schützen und sich gegen digitale Manipulationen zur Wehr zu setzen.

DEEP-PRISMA untersucht, inwiefern Bürger:innen in Deutschland von sexualisierenden, betrügerischen und diffamierenden Deepfakes betroffen sind, wie wirksam aktuelle Gesetze und Regelungen – etwa im Datenschutz, im Strafrecht oder in der Plattformaufsicht – Bürger:innen vor Deepfake‑Missbrauch schützen, und welche gesetzlichen, aber auch flankierenden gesellschaftlichen Maßnahmen helfen könnten, diesen Schutz zu erhöhen. Dazu werden im Projekt u.a. Betroffene von Deepfakes sowie wichtige Stakeholder (etwa Strafverfolungsbehörden, Bildungseinrichtungen oder Betroffenenberatungsstellen) befragt.

Zentrale Forschungsfragen sind:

  • Welche ethischen und demokratietheoretischen Werte werden durch sexualisierende, betrügerische und diffamierende Deepfakes bedroht?
  • Welcher Erfahrungen machen Bürger:innen mit missbräuchlichen Deepfakes?
  • Welchen Hürden begegnen sie, wenn sie ihre Rechte geltende machen wollen?
  • Wie können rechtliche und gesellschaftliche Rahmenbedingungen verbessert werden, um Bürger:innen und ihre Rechte besser zu schützen?

DEEP‑PRISMA verbindet empirische Forschung mit ethischer und rechtlicher Reflexion, um diese Herausforderungen verständlich zu machen und Wege zu einer verantwortungsvolleren Regulierung und Governance von generativer KI aufzuzeigen.