30.04.2025
Gemeinsam mit Mateusz Łabuz vom Institut für Friedensforschung und Sicherheitspolitik der Universität Hamburg hat Maria Pawelec ein Policy-Paper dringenden Thema nicht einvernehmlicher sexualisierter Deepfakes, auch bekannt als pornografische Deepfakes oder Deepnudes, veröffentlicht.
Nicht einvernehmliche sexualisierende Deepfakes nehmen zu. Die zunehmende Qualität und Zugänglichkeit der Deepfake-Technologie ermöglicht es jeder und jedem, Deepfakes von fast jeder Person zu erstellen, die Bilder online (z. B. in den sozialen Medien) oder privat mit dem Täter geteilt hat. Die Folge: Eine Flut von synthetischen, nicht einvernehmlichen intimen Bildern (NCII) mit verheerenden Folgen für die Betroffenen, insbesondere Frauen.
Politische Entscheidungsträger weltweit reagieren darauf. Eine neue EU-Richtlinie, die Richtlinie zur Bekämpfung von Gewalt gegen Frauen und häuslicher Gewalt, wird nicht einvernehmliche sexualisierende Deepfakes unter Strafe stellen, muss jedoch erst bis 2027 in nationales Recht umgesetzt werden. Das Thema ist so dringlich, dass frühere Maßnahmen erforderlich sind, und Gesetzgebungsdiskussionen sind beispielsweise in Deutschland im Gange.
Das Strategiepapier analysiert die wachsende Bedrohung durch nicht einvernehmliche sexualisierende Deepfakes, vergangene und laufende Regulierungsbemühungen in Europa, wobei der Schwerpunkt auf Fallstudien aus Deutschland und Hashtag#Polen liegt, und enthält eine Reihe wichtiger Empfehlungen an politische Entscheidungsträger und die Gesellschaft zur Bekämpfung dieser Bedrohung für die Privatsphäre von Personen Privatsphäre und Lebenschancen, aber auch für den gesellschaftlichen Zusammenhalt und die Demokratie.
Das Policy-Paper wird herausgegeben von CEE Digital Democracy Watch, einer Nichtregierungsorganisation mit Sitz in Warschau, die sich in Zeiten technologischer Innovation für die Demokratie einsetzt. Zielgruppe sind u.a. europäische und nationale Entscheidungsträger:innen.
Sie finden das Policy-Paper hier: https://ceeddw.org/wp-content/uploads/2025/04/NCII_DeepFakes_ThreatsRecommendations.pdf