Der rasante Fortschritt von Künstlicher Intelligenz im Alltag führt weltweit zu einer massiven Zunahme von Deepfakes, die immer wieder gezielt gegen Journalist*innen eingesetzt werden. Zwischen Dezember 2023 und Dezember 2025 hat Reporter ohne Grenzen (RSF) 100 dokumentierte Fälle in 27 Ländern analysiert, in denen Medienschaffende Opfer von manipulierten Video-, Bild- oder Audioinhalten wurden. Die tatsächliche Zahl dürfte deutlich höher liegen.
Unter den betroffenen Journalisten*innen sind auch mehrere Deutsche:
- Susanne Daubner und Jens Riewa (Tagesschau): Ihre Stimmen wurden imitiert, um Videos zu erstellen, die politische Desinformation enthalten. Ihnen wurden Aussagen in den Mund gelegt wie „Wir haben euch seit mehr als drei Jahren dreist belogen“ oder eine Entschuldigung dafür, „die öffentliche Meinung zum Krieg in der Ukraine aktiv manipuliert zu haben“.
- Tina Gerhäusser (Deutsche Welle): In einem KI-generierten Video wurde sie mit Eckart von Hirschhausen gezeigt, um für ein angeblich „wundersames“ Medizinprodukt zu werben. In dem Video wird zudem das Logo der Deutschen Welle missbräuchlich genutzt.
- Sandra Maischberger (ARD): Ihr Bild und eine angebliche persönliche Empfehlung wurden in gefälschten Online-Werbeanzeigen für gefälschte Krypto-Investments und Nahrungsergänzungsmittel gegen Bluthochdruck verwendet.
RSF hat auch Beispiele aus den USA, Portugal, Südafrika oder der Slowakei dokumentiert. Das Phänomen tritt weltweit auf und die Folgen solcher Videos sind gravierend: Deepfakes werden für Betrug, Diffamierung, politische Desinformation und Einschüchterung genutzt – bis hin zu konkreten Gefährdungen der Sicherheit von Journalist*innen. Besonders alarmierend ist der geschlechtsspezifische Effekt: 74 Prozent der Betroffenen sind Frauen, ein erheblicher Teil davon ist Ziel sexualisierter oder pornografischer Deepfakes.
„Deepfakes, die Journalistinnen und Journalisten ins Visier nehmen, richten enormen Schaden an“, sagt Sören Kittel, Pressereferent für KI von Reporter ohne Grenzen. „Der derzeitige rechtliche Rahmen reicht offensichtlich nicht aus, um das Recht der Öffentlichkeit auf verlässliche Informationen zu schützen. Die Analyse zeigt, dass Deepfakes nicht nur einzelne Journalist*innen treffen, sondern gezielt darauf abzielen, das Vertrauen in Medien insgesamt zu beschädigen.“
Plattformen mit Strafverfolgung überfordert
In mehreren Fällen wurden gefälschte Inhalte so verbreitet, dass sie Journalist*innen als politische Aktivist*innen oder Kriminelle darstellten. Selbst öffentliche Gegendarstellungen der Betroffenen konnten die Wirkung oft nicht mehr vollständig eindämmen. Viele Journalist*innen berichten von psychischen Belastungen, digitaler Hetze und realen Konsequenzen im Berufsalltag. Einige berichten, dass sie ihre öffentliche Präsenz deutlich reduzierten – aus Angst vor weiteren Angriffen.
Soziale Netzwerke spielen zudem eine zentrale Rolle bei der Verbreitung von Deepfakes. Während einzelne Inhalte nach Meldungen entfernt werden, tauchen identische oder leicht veränderte Versionen häufig erneut auf derselben Plattform auf. Urheber*innen bleiben in den meisten Fällen straflos: Ermittlungen verlaufen im Sande, weil Täter kaum identifizierbar sind oder rechtliche Grundlagen fehlen.
RSF fordert klare Regeln und Verantwortung
Um Journalist*innen und die Öffentlichkeit besser zu schützen, fordert Reporter ohne Grenzen:
- verbindliche Herkunfts- und Manipulationskennzeichnung journalistischer Inhalte, um authentische Berichterstattung klar von Deepfakes unterscheiden zu können.
- eine Pflicht zur eindeutigen Kennzeichnung KI-generierter Inhalte durch Plattformen sowie transparente Authentifizierungsmechanismen.
- einen Straftatbestand für böswillige Deepfakes, die gezielt zur Täuschung, Einschüchterung oder Rufschädigung eingesetzt werden.
„Ohne klare Regeln und Verantwortung drohen Deepfakes zu einer dauerhaften Waffe gegen Pressefreiheit und demokratische Öffentlichkeit zu werden“, so Kittel weiter. „Reporter ohne Grenzen (RSF) fordert Online-Plattformen auf, ihrer Verantwortung gerecht zu werden und sämtliche KI-generierten Inhalte ausdrücklich kennzeichnen. Nur so lassen sich die durch diese Inhalte verursachten Schäden begrenzen und das Recht der Bürgerinnen und Bürger auf verlässliche Informationen schützen.“
