
Realität oder Fake? Bedrohung durch Deepfakes
Deepfakes gehören mittlerweile zu unserem Alltag auf Social Media. Vermeintlich harmlose Bildmanipulationen haben sich in den letzten Jahren zur Gefahr für unsere Demokratie entwickelt. Selbst wenn die Technologie auch zur Unterhaltung gebraucht wird, können solche Fälschungen schwerwiegenden Einfluss auf politische Entwicklungen, das Vertrauen in Fakten oder das Leben von Einzelpersonen.
Was sind Deepfakes?
Deepfakes, aus dem englischen Deep Learning und Fake, sind Video- oder Audio-Dateien, die mithilfe von künstlicher Intelligenz manipuliert werden. KI-Programme oder Apps ermöglichen es, verfälschte bewegte Bilder oder Tonaufnahmen zu produzieren. Unter anderem setzen Täter*innen damit dann Gesichter auf fremde Körper oder erstellen Imitate von Stimmen und belegen sie mit neuem Text. So versetzen sie Betroffene in andere Kontexte oder legen ihnen fremde Aussagen in den Mund.
Gerade Personen, die in der Öffentlichkeit stehen, etwa Politiker*innen oder Schauspieler*innen, sind von solchen Deepfakes bedroht. Doch es kann alle treffen, denn die Programme zur Erstellung von manipulierten Videos sind mittlerweile sehr leicht zu bedienen. Laut einer Recherche des SWR trifft es immer öfter auch Privatpersonen – die Täter*innen kommen oft aus dem privaten Umfeld.
Die Verfremdung von Bildern ist kein neues Phänomen, aber erst seit ein paar Jahren ist es möglich, Videoformate in extrem hoher Qualität zu fälschen. Dies sogar ohne spezielle Kenntnisse, ganz einfach mit dem eigenen Smartphone.
Sexualisierte Deepfakes und Deepfake-Pornos
Gerade das Verfälschen von Bildmaterial in sexualisierte Szenarios ist ein wachsendes Problem. So sorgten beispielsweise 2023 sogenannte Deepnudes europaweit für Aufruhr. Damals meldeten zahlreiche Eltern in Spanien, dass von ihren Töchtern solche Deepnudes erstellt wurden. Bei dieser Sonderform von Deepfakes werden Menschen auf ihren Fotos von der Technologie „ausgezogen“. Am Foto bleibt also alles echt bis auf den Körper, der nackt oder in Unterwäsche dargestellt wird.
Noch bekannter sind allerdings Deepfake-Pornos. Davon sind besonders Frauen betroffen. Täter*innen fügen die Gesichter der Betroffenen mittels Deepfake-Apps und anderen Programmen in pornografische Darstellungen ein. Diese sehen häufig täuschend echt aus.
Sich dagegen zu wehren ist schwer. Noch schwerer ist es, in der Öffentlichkeit zu beweisen, dass es sich um einen Fake handelt. Oftmals haben Betroffene noch Jahre später damit zu kämpfen, ihren Ruf wiederherzustellen oder die Verletzung und Traumatisierung zu verarbeiten. Frauen wie Collien Ulmen-Fernandes oder Lola Weippert, von denen Deepfakes erstellt und geteilt wurden, versuchen das Problem mehr in die Öffentlichkeit zu tragen. Auch mit HateAid setzt sich Ulmen-Fernandes bereits länger für bessere politische Maßnahmen gegen Fake-Pornos ein.

Wie gefährlich sind Deepfakes?
Es gibt zahlreiche Beispiele, die zeigen, dass Deepfakes kränken, diskriminieren, verleumden, Karrieren zerstören, Leben ruinieren oder Bürger*innen aufhetzen können. Mit den Lügen im Nachhinein aufzuräumen ist oft unmöglich, denn Desinformation erreicht in vielen Fällen mehr Menschen als die Richtigstellung. Das Vertrauen in andere Menschen, in Fakten und unsere Demokratie soll so erschüttert werden.
Deepfakes gefährden damit unser gesellschaftliches Miteinander in unterschiedlicher Weise:
- Verleumdung ist eine der häufigsten Folgen von Deepfake-Attacken. Täter*innen schädigen den Ruf von Personen durch die Verbreitung gefälschter Medieninhalte und Unwahrheiten nachhaltig.
- Desinformationskampagnen und politische Propaganda erscheinen plötzlich als glaubwürdig, werden massiv verbreitet, und beeinflussen ganze Gesellschaften. Dadurch verlieren Menschen Vertrauen in Politiker*innen oder Fakten.
- Fälschungen täuschen Sprach- oder Gesichtserkennungssoftware und vereinfachen damit Straftaten wie Identitätsdiebstahl.
- Deepfake-Verfahren werden auch bei Phishing-Angriffen genutzt und Täter*innen gelangen noch leichter an sensible Daten, indem sie User*innen mit täuschend echt aussehenden Fakes austricksen.
- Unsere Meinungsvielfalt wird durch Deepfakes bedroht, da sie Personen aus dem öffentlichen Diskurs verdrängen. Gerade sexualisierte Deepfakes zielen auf die Unterdrückung von Betroffenen ab.
Doch die Meinungen zur Deepfake-Technologie spalten sich. So geben beispielsweise 60 % der Befragten einer Studie von 2024 in Deutschland an, Deepfakes als Gefahr für die Demokratie einzustufen. 55 % erkennen allerdings positive Einsatzmöglichkeiten wie Unterhaltung oder Kultur.
Sind Deepfakes strafbar?
Bislang gibt es keine konkreten Vorschriften, die neben der Verbreitung von Deepfakes auch die Erstellung als solche unter Strafe stellen. Im Koalitionsvertrag 2025 verspricht die Regierung sexualisierte Deepfakes stärker gesetzlich zu regulieren und mehr Möglichkeiten zu schaffen, mit denen sich Betroffene wehren können.
Aber auch jetzt schon können sich Verantwortliche – je nach Einzelfall – damit strafbar machen. So kann zum Beispiel ein Verstoß gegen das Recht am eigenen Bild vorliegen, wenn die abgebildete Person nicht in dessen Verbreitung eingewilligt hat.
Gerade bei herabwürdigenden Deepfakes können sich Täter*innen auch wegen einer Beleidigung, einer „Verletzung des höchstpersönlichen Lebensbereichs“ und von Persönlichkeitsrechten durch Bildaufnahmen, einer Verleumdung oder einer üblen Nachrede strafbar machen. Darüber hinaus kann die Vervielfältigung von Bild- und Videomaterial ohne die Erlaubnis des*der Urheber*s*in eine Urheberrechtsverletzung darstellen.
Wer schützt dich vor Deepfakes?
Mit der EU-Richtlinie zur Bekämpfung von Gewalt gegen Frauen und häuslicher Gewalt verpflichten sich die Mitgliedsstaaten zu mehr Schutz gegen das unbefugte Verfälschen von Bildmaterial. Nun ist es an der aktuellen Koalition diesen Schutz in nationales Recht umzusetzen. Deswegen fordern wir weiterhin einen besseren Schutz vor Bildmanipulation.
Außerdem arbeiten schon einige Unternehmen an Programmen, die Deepfakes automatisch identifizieren. Das ist wichtig, damit wir den Gefahren von Deepfakes vorbeugen können.

Fake News oder Desinformationen können überall lauern. Über Social-Media-Plattformen verbreiten sich solche Falsch- oder Fehlmeldung sehr schnell. Wir haben Tipps für dich zusammengestellt, wie du Medieninhalte prüfst.
So erkennst du Deepfakes
Obwohl die Technologien immer besser werden, können viele Deepfakes anhand bestimmter Merkmale erkannt werden:
Im Vollbildmodus können dir solche Fehler bei genauerem Hinsehen auffallen. Zudem empfehlen wir dir, auch nochmal einen Backgroundcheck des Medieninhalts zu machen:
In der digitalen Welt ist es also möglich, Aussagen oder Handlungen von Menschen komplett zu fälschen. Betroffene stehen vor einem Scherbenhaufen, sehen ihre Karriere zerstört oder werden aus Familie und Freund*innenkreis ausgegrenzt. Für uns als Gesellschaft bedeutet es, dass das Vertrauen in Politiker*innen oder in Medieninhalte verloren geht, da durch Deepfakes tiefgreifende Desinformationskampagnen gestrickt werden – und das gefährdet unser gesellschaftliches Zusammenleben und unsere Demokratie an sich!
Wenn du von Deepfakes betroffen bist oder denkst, ein gefälschtes Bild oder Video gefunden zu haben, kannst du dich immer an unsere Berater*innen wenden. Wir sind für dich da!
Titelbild: Shutterstock / Artie Medvedev