Das Netz als Tatort

Luisa Mersmann Neu
Digitale Gewalt trifft vor allem Frauen – und bleibt oft folgenlos: Gleichstellungsbeauftragte Andrea Vogelsang aus Ritterhude erklärt, warum Deepfakes ein strukturelles Machtinstrument sind und das Recht hinterherhinkt.
Andrea Vogelsang ist nicht nur Gleichstellungsbeauftragte von Ritterhude, sondern engagiert sich auch ehrenamtlich.

Andrea Vogelsang ist nicht nur Gleichstellungsbeauftragte von Ritterhude, sondern engagiert sich auch ehrenamtlich.

Bild: Red

Welcher Aussage stimmen Sie zu und warum? „No all men“, „Not all men but always a man“ oder „All men“.

Am ehesten stimme ich der Aussage „Not all men, but always a man“ zu. Nicht jeder Mann ist Täter. Aber wenn wir über sexualisierte Gewalt, digitale Entwürdigung, Deepfake-Pornografie, Stalking oder identitätsbasierten Missbrauch sprechen, dann sehen wir immer wieder dasselbe Muster: Die Betroffenen sind überwiegend Frauen, und die Täter sind fast immer Männer. Das ist keine pauschale moralische Verurteilung aller Männer, sondern eine Beschreibung eines strukturellen Problems.

Genau deshalb ist der Satz politisch und gesellschaftlich treffender als „Not all men“. Denn „Not all men“ fungiert oft als reine Derailing-Taktik, um den Fokus vom Problem weg und hin zur männlichen Kränkung zu verschieben. Wer das sagt, sorgt dafür, dass wir über die Gefühle von Männern sprechen statt über die Sicherheit von Frauen.

Der Fall um Collien Fernandez und Christian Ulmen und die von ihm mutmaßlich erstellten Deepfakes werden als Beispiel für eine Form digitaler Gewalt gegen Frauen diskutiert. Fernandes spricht von „digitaler Vergewaltigung“. Inwiefern handelt es sich bei der Erstellung von Deepfakes um Gewalt und ist der Begriff „digitale Vergewaltigung“ sinnvoll oder verwischt er eher juristische Kategorien?

Deepfakes können Gewalt sein, weil sie nicht nur ein Bild manipulieren, sondern die sexuelle Selbstbestimmung, die Würde und die soziale Existenz eines Menschen angreifen. Wer einer realen Person ohne Einwilligung einen sexualisierten falschen Körper, eine intime Szene oder eine pornografische Handlung zuschreibt, macht diese Person öffentlich verfügbar, beschämbar und angreifbar. Der Schaden ist real. Auch wenn das Bild künstlich erzeugt wurde. Die psychischen Folgen und die Traumatisierung durch diesen massiven Eingriff in die sexuelle Integrität sind für das Nervensystem der Betroffenen oft identisch mit physischen Übergriffen. Gerade deshalb greift die Unterscheidung „nicht echt, also nicht so schlimm“ zu kurz.

Den Begriff „digitale Vergewaltigung“ halte ich politisch und erfahrungsbezogen für nachvollziehbar, juristisch aber für unscharf. Er macht deutlich, wie tief der Eingriff erlebt wird: als massive Verletzung der sexuellen Integrität. Für die rechtliche Einordnung braucht es trotzdem präzise Tatbestände. Ich würde deshalb sagen: Der Begriff ist als Beschreibung des empfundenen Gewaltausmaßes verständlich, ersetzt aber keine saubere strafrechtliche Kategorie.

Handelt es sich bei digitaler Gewalt um ein geschlechtsspezifisches Phänomen?

Digitale Gewalt kann grundsätzlich alle treffen. In ihrer sexualisierten, entwürdigenden und kontrollierenden Form trifft sie aber Frauen besonders häufig. Das gilt für Deepfake-Pornografie, nicht einvernehmliche Intimbildverarbeitung, digitale Nachstellungen, Fake-Profile oder sexualisierte Einschüchterung im Netz. In der aktuellen Debatte wird genau diese geschlechtsspezifische Dimension ausdrücklich benannt, auch vom Bundestag und vom Bundesjustizministerium. Dass über 90 Prozent der weltweit im Umlauf befindlichen Deepfakes pornografischer Natur sind und fast ausschließlich Frauen zeigen, lässt keinen Zweifel: Wir haben es hier mit einem gezielten Instrument der geschlechtsspezifischen Unterdrückung und Herabsetzung zu tun. Und das weltweit.

Verstärkt KI im Zusammenhang mit Social-Media-Algorithmen bestehenden Sexismus?

Ja. KI erfindet Sexismus nicht neu, aber sie skaliert ihn. KI-Modelle lernen aus Internetdaten, die bereits tief von sexistischen Vorurteilen durchzogen sind. Sie reproduzieren und optimieren damit diese Muster. Sie macht die Herstellung sexualisierter Fälschungen schneller, billiger und massenhaft verfügbar. Der Bundestagsbericht beschreibt, dass Deepfakes in Zukunft noch leichter herzustellen sein werden und dass die bestehende Kennzeichnungspflicht allein als unzureichend kritisiert wird. Gleichzeitig sorgen Plattformlogiken dafür, dass emotionalisierende, entwürdigende und sexualisierte Inhalte Reichweite bekommen, weil diese Inhalte „Engagement“ erzeugen und somit monetarisierbar sind.

Und das ist der eigentliche Punkt: Alte Misogynie trifft auf neue technische Hebel. Die Technik ist neu, das Motiv dahinter nicht: Macht, Demütigung und Kontrolle. Genau so hat es auch die aktuelle politische Debatte gerahmt.

Nach aktuellem Stand könnte ein Verhalten wie im Fall Fernandez/Ulmen in Deutschland weitgehen straflos ein. Was bedeutet das für den Schutz von Betroffenen?

Das bedeutet vor allem Rechtsunsicherheit, hohen Druck auf Betroffene und ein fatales Signal an Täter. Der aktuelle Stand in Deutschland ist nach der gegenwärtigen Debatte gerade deshalb so problematisch, weil zwar einzelne Normen greifen können, aber kein klarer, geschlossener Schutz für sexualisierte Deepfakes besteht. Der Bundestagsbericht spricht ausdrücklich von Regelungslücken.

Für Betroffene heißt das: Sie müssen oft auf vertraute zivilrechtliche, persönlichkeitsrechtliche und strafrechtliche Instrumente zurückgreifen statt auf eine eindeutige Norm. Das ist gerade in akuten Fällen unzumutbar, weil digitale Gewalt schnell, grenzüberschreitend und vervielfältigend wirkt.

Zudem scheitert die Rechtsdurchsetzung oft an kurzen Speicherfristen von IP-Adressen und mangelnder Kooperation der Plattformen. Das führt zu einer Ohnmacht der Betroffenen und einer faktischen Straffreiheit im Netz.

Halten Sie das bestehende Strafrecht für grundsätzlich ungeeignet, digitale Gewalt zu erfassen – oder geht es eher um fehlende Anpassungen?

Ich halte das Strafrecht nicht für grundsätzlich ungeeignet. Das Problem ist eher, dass es für neue digitale Tatformen nicht konsequent genug angepasst wurde. Der Bundestagsbericht beschreibt das deutsche Rechtssystem wegen seiner Technologieneutralität sogar als grundsätzlich gut gerüstet. Benennt dabei aber zugleich erhebliche Lücken bei Deepfakes und bei der Rechtsdurchsetzung.

Es geht also darum, das gesamte Strafrecht neu zu denken. Es geht darum, Schutzlücken zu schließen: klare Straftatbestände für Herstellung, Nutzung und Verbreitung sexualisierter Deepfakes, bessere Auskunfts- und Sperrmöglichkeiten gegenüber Plattformen und niedrigschwellige Durchsetzung für Betroffene. Wer Herstellungsweise mit Wirklichkeit verwechselt, verkennt das reale Leid der Opfer und lässt den Schutzraum Internet verkommen.

In Spanien könnte der Fall ander bewertet werden, etwa über den Schutz der „moralischen Integrität“. Braucht Deutschland ähnliche Tatbestände?

Deutschland braucht vor allem einen Tatbestand, der sexuelle Selbstbestimmung und Würde im digitalen Raum ausdrücklich schützt. Ob man das dogmatisch über „moralische Integrität“ löst oder über einen spezifischeren deutschen Ansatz, ist für mich zweitrangig. Entscheidend ist, dass das Recht die reale Demütigung, Entwürdigung und Zuweisung sexualisierter Bilder ohne Einwilligung klar erfasst.

Spanische juristische Einordnungen argumentieren bereits, dass die Verbreitung sexualisierter Falschbilder bei Erwachsenen als Angriff auf die moralische Integrität gewertet werden kann, weil die Bildfälschung eine schwere Erniedrigung und direkte Würdeverletzung darstellt. Unabhängig davon, dass die Szene nicht real war.

Dieser Ansatz ist wegweisend, weil er den Fokus konsequent auf die Verletzung der Würde legt, statt sich in technischen Detailfragen zu verlieren.

Viele Juristen argumentieren, dass fiktive Bilder keine „echten“ Aufnahmen seien. Greift diese Unterscheidung au Ihrer Sicht zu kurz?

Ja, eindeutig. Die Frage darf nicht nur lauten, ob ein Bild technisch „echt“ ist. Die entscheidende Frage ist: Wem wird was zugeschrieben, mit welcher Wirkung? Wenn das Gesicht, die Identität und die Wiedererkennbarkeit einer realen Person genutzt werden, entsteht ein realer Eingriff in Persönlichkeit, Ruf, Intimsphäre und Sicherheitsgefühl. Der Schaden entsteht nicht erst durch physische Aufnahme, sondern bereits durch die erzwungene sexuelle Zuschreibung.

Das Argument der „Fiktion“ ist ein juristischer Schutzwall, der an der Lebensrealität der Betroffenen vorbeigeht. Für das soziale Umfeld und die psychische Gesundheit der Frau macht es keinen Unterschied, ob ein Pixel real fotografiert oder künstlich errechnet wurde.

Was wären aus Ihrer Sicht die dringendsten Schritte, um vor digitaler Gewalt besser zu schützen – eine Klarnamenpflicht vielleicht?

Eine generelle Klarnamenpflicht halte ich nicht für die vordringlichste oder beste Lösung. Sie birgt erhebliche Risiken für Datenschutz, anonyme Beratung, politische Meinungsfreiheit und den Schutz vulnerabler Personen. Besonders kritisch: Eine Klarnamenpflicht würde Betroffene von Stalking oder häuslicher Gewalt massiv gefährden, da sie sich im digitalen Raum nicht mehr anonym schützen können. Missbrauch wird dadurch auch nicht automatisch verhindert, weil Täter auf Ausweichstrukturen, gestohlene Konten oder ausländische Plattformen ausweichen können.

Dringender sind aus meiner Sicht fünf Dinge: klare Strafbarkeit nicht einvernehmlicher sexualisierter Deepfakes, schnelle richterliche und plattformseitige Sperr- und Löschmechanismen, bessere Auskunftsansprüche zur Täteridentifikation, spezialisierte Ermittlungs- und Beratungsstrukturen und verbindliche Plattformverantwortung.

Die Transparenzpflichten des AI Act, die ab August 2026 greifen, sind ein guter Schritt, ersetzen aber keinen wirksamen Opferschutz im Einzelfall. Wir brauchen zusätzlich nationale Strafnormen und eine effektive Strafverfolgung, wenn wir digitaler sexueller Gewalt wirklich beikommen wollen.

Zusätzlich brauchen wir aber auch Prävention: Aufklärung in Schulen und Betrieben, klare Verhaltensstandards bei Plattformen und Arbeitgebern sowie eine deutliche Botschaft, dass digitale sexuelle Gewalt kein Kavaliersdelikt ist. Sondern, dass es ein Angriff auf die Würde ist und damit etwas, das von vornherein nicht toleriert wird.

Und ganz konkret: Was raten Sie Frauen, die von Deepfakes oder digitalem Identitätsmissbrauch betroffen sind?

Zuerst: Nichts davon ist harmlos, und nichts davon ist ihre Schuld. Betroffene sollten Beweise sichern (Screenshots, URLs, Profilnamen, Zeitpunkte, Plattformmeldungen), Inhalte möglichst nicht allein löschen, sondern dokumentieren, und anschließend Strafanzeige erstatten sowie anwaltliche oder spezialisierte Beratungsstellen einbeziehen. Auch zivilrechtliche Schritte, etwa Unterlassung, Löschung und Schadensersatz, können wichtig sein.

Ebenso wichtig ist praktische Selbstsicherung: Konten absichern, Passwörter ändern, Plattformen systematisch melden, vorhandene Fake-Accounts dokumentieren und, wenn nötig, psychosoziale Unterstützung nutzen. Betroffene brauchen nicht nur Paragrafen, sondern solidarische Begleitung und die Gewissheit, dass das Recht auf ihrer Seite steht. Was oft fehlt, ist schnelle, glaubwürdige Begleitung.

Wichtig ist: Ihr seid nicht allein.

Und Ihr habt das Recht, Euch zu wehren. Sichtbar, laut und ohne jede Scham.

Vielen Dank für das Gespräch.