157 views 8 mins 0 comments

Rachepornos: Diese Deepfake-Methoden versucht man nun per Gesetz zu verbieten

In Aktuelles
Juni 05, 2025

Berlin, 05. Juni 2025, 08:00 Uhr (CCS)

Die zunehmende Verbreitung von Deepfake-Technologie und der Missbrauch intimer Bilder im Internet haben in den vergangenen Monaten für eine Welle der Besorgnis gesorgt. Betroffene – überwiegend Frauen – sehen sich mit der Verletzung ihrer Persönlichkeitsrechte konfrontiert, während Politik und Strafverfolgung vielerorts noch hinterherhinken. Aktuelle Gesetzesinitiativen, technologische Entwicklungen und internationale Reaktionen zeigen: Der Handlungsbedarf ist hoch.

Deepfake-Technologie: Chancen und Missbrauchspotenzial

Deepfakes sind mithilfe künstlicher Intelligenz erzeugte oder manipulierte Inhalte, meist in Form von Bildern oder Videos. Sie können Menschen täuschend echt in Situationen darstellen, die nie stattgefunden haben. Ursprünglich für Unterhaltungs- oder Bildungszwecke gedacht, hat sich die Technologie rasch zu einem Werkzeug für gezielte Täuschung, politische Manipulation und insbesondere zur Produktion nicht-einvernehmlicher, sexualisierter Inhalte entwickelt.

Die Zahl der Deepfake-Vorfälle ist laut verschiedenen Analysten im ersten Quartal 2025 um knapp 20 Prozent gestiegen. Besonders alarmierend: Der Großteil dieser Inhalte stellt Frauen in expliziten Szenarien dar – oft ohne deren Wissen oder Einwilligung. Der Übergang zur digitalen Gewalt ist dabei fließend.

Begriffe im Wandel: Von „Racheporno“ zu „digitaler sexueller Gewalt“

Der Begriff „Racheporno“ greift mittlerweile zu kurz. Expertinnen und Opferberatungsstellen sprechen zunehmend von „nicht-einvernehmlicher Veröffentlichung intimer Inhalte“ oder „digitaler sexueller Gewalt“. Dies soll dem Umstand Rechnung tragen, dass es sich dabei nicht nur um Racheakte handelt, sondern auch um Machtmissbrauch, gezielte Diskriminierung und die kommerzielle Ausbeutung intimer Inhalte.

Gesetzliche Lage in Deutschland: Lücken im Schutzsystem

Zwar sind einige Tatbestände wie das Veröffentlichen intimer Aufnahmen ohne Zustimmung (§ 201a StGB) oder Beleidigung (§ 185 StGB) bereits strafbar, doch sie greifen bei neuen Formen digitaler Manipulation nur bedingt. Der im Juli 2024 vom Bundesrat eingebrachte Gesetzentwurf für einen neuen § 201b StGB sieht vor, auch Deepfakes unter Strafe zu stellen. Doch Fachleute sehen darin nur einen ersten Schritt.

Der Deutsche Juristinnenbund fordert explizit einen eigenständigen Straftatbestand für sexualisierte Deepfakes. Dieser soll nicht nur das Verbreiten, sondern auch bereits das Erstellen solcher Inhalte kriminalisieren – unabhängig davon, ob die Inhalte pornografisch im engeren Sinne sind.

„Sexualisierte Deepfakes stellen eine digitale Form der Entmenschlichung dar. Sie sind keine Fiktion, sondern Gewalt“, so eine Vertreterin des Juristinnenbundes.

Internationale Entwicklungen: Wer handelt, wer zögert?

Ein Blick ins Ausland zeigt, wie unterschiedlich Staaten auf die Deepfake-Problematik reagieren. Südkorea etwa hat im Herbst 2024 ein Gesetz verabschiedet, das auch den Besitz oder das bloße Ansehen expliziter Deepfake-Inhalte strafbar macht. Die Maximalstrafe liegt bei drei Jahren Haft oder umgerechnet rund 20.000 Euro Geldstrafe.

Die USA haben mit dem “Take It Down Act” einen bundesweiten Mechanismus geschaffen, der Plattformen verpflichtet, intime Deepfake-Inhalte innerhalb von 48 Stunden zu löschen. In Großbritannien wiederum werden im Rahmen des „Online Safety Act“ explizite Deepfakes künftig als eigenständige Straftat behandelt, mit Freiheitsstrafen von bis zu zwei Jahren.

Vergleichstabelle internationaler Maßnahmen

LandGesetzliche MaßnahmenMaximalstrafe
DeutschlandGeplante Einführung von § 201b StGBBis zu 2 Jahre
SüdkoreaStrafbarkeit von Besitz & Konsum3 Jahre Haft oder Geldstrafe
USA„Take It Down Act“ zur LöschungspflichtFederal Crime (unterschiedlich)
GroßbritannienKriminalisierung expliziter DeepfakesBis zu 2 Jahre

Missbrauch an Schulen und in sozialen Netzwerken

Besonders besorgniserregend ist die Verbreitung von Deepfake-Technologie unter Jugendlichen. In Australien wurden Fälle bekannt, bei denen Schüler KI-Systeme nutzten, um pornografische Deepfakes von Lehrerinnen und Mitschülerinnen zu erstellen. In einem besonders drastischen Fall manipulierte ein Schüler Bilder von über 50 Mädchen seiner Schule.

Auch in Europa sind solche Fälle keine Einzelfälle mehr. Online-Gruppen erstellen “Hitlisten”, auf denen weibliche Opfer gezielt gesammelt werden – mit dem Ziel, intime oder verfälschte Bilder zu verbreiten. Diese organisierte Form des digitalen Missbrauchs bewegt sich oft im Graubereich zwischen legalen Memes und kriminellem Verhalten.

Technik auf dem Vormarsch – Kontrolle in Rückstand

Die rasante Entwicklung von Deepfake-Tools macht es schwierig, mit wirksamen Regulierungen Schritt zu halten. Neue KI-Apps ermöglichen es selbst technisch unerfahrenen Nutzerinnen und Nutzern, fotorealistische Videos zu erzeugen. Ob Kuss-Simulationen, Stimmfälschung oder Körpertausch – viele Funktionen sind mit wenigen Klicks nutzbar.

Obwohl einige Plattformen technische Marker oder Wasserzeichen integrieren, reichen diese Maßnahmen nicht aus, um Missbrauch zuverlässig zu verhindern. Eine aktuelle Untersuchung zeigt, dass viele Detektionssysteme kaum in der Lage sind, manipulierte Inhalte mit hoher Genauigkeit zu identifizieren – insbesondere wenn sie auf neuen Algorithmen basieren.

Gesellschaftliche Folgen: Was Betroffene durchmachen

Für die Opfer hat der digitale Missbrauch schwerwiegende Konsequenzen. Neben der psychischen Belastung – Scham, Angst, Depressionen – drohen soziale Ausgrenzung, beruflicher Schaden und der Verlust von Beziehungen. Studien aus Australien und den USA belegen, dass derartige digitale Übergriffe vergleichbare Traumata hervorrufen wie physische sexualisierte Gewalt.

Ein weiteres Problem ist die oft schleppende Strafverfolgung. Selbst wenn Täter ermittelt werden, kommt es nur selten zu schnellen Urteilen oder wirksamen Sanktionen. Die digitale Spurenlage ist kompliziert, die internationale Rechtslage fragmentiert.

Prominente Stimmen und Initiativen

Auch prominente Persönlichkeiten fordern schärfere Maßnahmen. Die Schauspielerin Scarlett Johansson etwa wurde selbst Opfer eines Deepfakes, der sie in einem antisemitischen Kontext zeigte. In einem öffentlichen Statement forderte sie mehr Transparenz bei der Entwicklung von KI-Software und klare gesetzliche Schranken.

Influencerinnen berichten vermehrt von „Fake-Accounts“, die ihre Gesichter oder Körper manipulieren, um Follower zu generieren oder sogar Erpressung zu betreiben. Trotz zahlreicher Meldungen an Plattformen bleiben viele dieser Konten aktiv.

Fazit: Was jetzt zu tun ist

Der digitale Raum muss kein rechtsfreier Raum bleiben. Die vorhandenen Instrumente reichen jedoch nicht aus, um Deepfake-Missbrauch und die Verbreitung nicht-einvernehmlicher intimer Inhalte zu unterbinden. Nötig ist eine Kombination aus rechtlicher Präzisierung, technischer Innovation und gesellschaftlicher Sensibilisierung.

Internationale Vorbilder wie Südkorea oder Großbritannien zeigen, dass entschlossenes Handeln möglich ist – wenn der politische Wille vorhanden ist. Gleichzeitig muss der Fokus auf Prävention und Opferschutz gestärkt werden: mit Aufklärung in Schulen, technischer Hilfe für Betroffene und einem klaren Bekenntnis gegen digitale Gewalt.

Deepfakes werden nicht verschwinden – aber ihr Missbrauch muss verhindert werden. Dafür braucht es gemeinsame Verantwortung – von Gesetzgebern, Plattformen, Entwicklern und der Gesellschaft als Ganzes.

Avatar
Redaktion / Published posts: 1790

Als Autor für das Magazin "Nah am digitalen Rand" verbinde ich meine Germanistik-Expertise mit einem unstillbaren Interesse für redaktionell spannende Themen. Meine Leidenschaft gilt der Erforschung und dem Verständnis der digitalen Evolution unserer Sprache, ein Bereich, der mich stets zu tiefgründigen Analysen und Artikeln inspiriert.