
Google I/O 2026 angekündigt
20/02/2026
Apple bringt KI-Musiktools auf den Markt
21/02/2026Das Vereinigte Königreich hat gerade eine harte Grenze im digitalen Sand gezogen. Social-Media-Unternehmen haben jetzt genau 48 Stunden Zeit, um nicht-einvernehmliche Deepfake-Bilder zu entfernen, sobald sie gemeldet werden. Wer diese Frist verpasst, wird mit einer Strafe belegt, die weh tut, 10% des weltweiten Umsatzes. Es ist ein mutiger Schritt, der die Verantwortung eindeutig bei den Tech-Giganten und nicht bei einzelnen Nutzern ansiedelt. Aber die Durchsetzung dieser neuen Regel wirft einige heikle Fragen darüber auf, wie Plattformen diese KI-generierten Fälschungen rechtzeitig tatsächlich erkennen werden.
Wie das britische Datengesetz die Erstellung und Verbreitung von Deepfakes kriminalisiert

Das Vereinigte Königreich hat einen entscheidenden Schritt nach vorn unternommen, um Personen vor einer wachsenden digitalen Bedrohung zu schützen. Nach Abschnitt 138 des Datennutzungs- und Zugangsgesetzes 2025 hat die Erstellung von sexuellen Deepfakes ohne Erlaubnis nun schwerwiegende rechtliche Konsequenzen. Dies behandelt kritische Deepfake-Ethik- und Zustimmungsauswirkungen, die Gesetzgeber seit Jahren beunruhigt haben.
Das Gesetz zielt auf jeden ab, der absichtlich gefälschte sexuelle Bilder von Erwachsenen ohne deren Zustimmung erstellt. Ob Sie ein völlig neues Bild erfinden oder ein vorhandenes Foto digital verändern, das Ergebnis ist dasselbe : Sie haben eine Straftat begangen. Erwischt zu werden bedeutet, unbegrenzte Geldstrafen oder mögliche Gefängniszeit zu riskieren.
Was macht diese Gesetzgebung besonders stark ? Sie kriminalisiert auch das Beauftragen einer anderen Person zur Erstellung dieser Bilder. Sie können der Verantwortung nicht entgehen, indem Sie eine andere Person beauftragen, Ihre schmutzige Arbeit zu erledigen. Technologieunternehmen müssen gemeldete Bilder nun innerhalb von 48 Stunden entfernen oder riskieren erhebliche Strafen.
Was UK-Plattformen unter den neuen Anforderungen zur Entfernung von Deepfakes tun müssen
Social-Media-Unternehmen und Online-Plattformen, die im Vereinigten Königreich tätig sind, sehen sich nun strengen Fristen gegenüber, wenn schädliche Deepfake-Inhalte auf ihren Seiten erscheinen. Zu den Plattform-Verantwortlichkeiten gehört die Entfernung nicht-einvernehmlicher intimer Bilder innerhalb von 48 Stunden nach Erhalt einer einzigen Meldung. Dies gilt unabhängig davon, ob Opfer die Seite direkt benachrichtigen oder Ofcom, die für die Durchsetzung zuständige Regulierungsbehörde, kontaktieren.
Die Pflichten zur Inhaltsmoderation gehen über einfache Entfernungen hinaus. Plattformen müssen proaktiv verhindern, dass sexuell explizite Deepfakes überhaupt erst erscheinen. Sie sind verpflichtet, gründliche Risikobewertungen durchzuführen und Sperrmaßnahmen zu implementieren, bevor schädliches Material sich verbreitet. Die rechtliche Definition umfasst entblößte Genitalien, Brüste, Gesäß oder Personen in Unterwäsche oder Bikinis.
Sobald eine Benachrichtigung erfolgt, sind schnelle Maßnahmen zwingend erforderlich. Unternehmen müssen erneute Uploads stoppen und die Entfernung über mehrere Seiten hinweg koordinieren. KI-Chatbots und Entkleidungs-Apps unterliegen denselben Verpflichtungen. Die Nichteinhaltung führt zu Geldstrafen von bis zu 10% des globalen Umsatzes, ernsthafte Konsequenzen, die darauf ausgelegt sind, individuelle Rechte und digitale Sicherheit zu schützen.
Welche britischen Plattformen drohen Geldstrafen für nicht-einvernehmliche KI-Bilder ?
Dieser Ansatz behandelt Plattformen gleich, unabhängig davon, ob sie hochgeladene Deepfakes hosten oder deren Erstellung ermöglichen. Die Botschaft ist klar : Schützen Sie die Würde der Nutzer oder sehen Sie sich erheblichen finanziellen Konsequenzen gegenüber. Plattformen, die sich nicht daran halten, könnten Bußgelder von bis zu 10% ihres globalen Umsatzes erhalten.
Wie die britischen Standards zur Deepfake-Erkennung in der Praxis funktionieren werden
Während viele Regierungen einfach schädliche Inhalte verbieten, bauen britische Regulierungsbehörden etwas Methodischeres auf : ein Testsystem, das tatsächlich misst, wie gut Erkennungstools gefälschte Videos und Bilder entdecken.
Das Framework funktioniert in zwei Stufen. Zunächst durchlaufen Deepfake-Erkennungstools Benchmark-Tests, die Genauigkeit und Geschwindigkeit messen. Zweitens begegnen sie realen Szenarien wie Betrugsversuchen und Identitätsverifikationsherausforderungen.
Diese Branchenzusammenarbeit bringt Technologieunternehmen, Regierungsspezialisten und Strafverfolgungsbehörden zusammen, über 350 Experten nahmen an den jüngsten Testveranstaltungen teil. Sie etablieren einheitliche Standards, denen jeder folgen kann.
Der Ansatz hilft der Polizei dabei, betrügerische Inhalte während Ermittlungen zu identifizieren und gibt Plattformen klare Richtlinien. Innerhalb von Monaten werden große Plattformen wahrscheinlich Daten zur Deepfake-Verbreitung verfolgen und melden müssen, wodurch vage Verpflichtungen in messbare Erwartungen umgewandelt werden, die individuelle Rechte schützen. Die Tests integrieren realistische und gegnerische Bedingungen, um sicherzustellen, dass Erkennungstools mit ausgeklügelten Manipulationsversuchen umgehen können.
Warum britische Deepfake-Gesetze auf Anbieter statt auf Endnutzer abzielen

Warum Tausende anonymer Nutzer verfolgen, wenn man das Problem an der Quelle stoppen kann ? Der britische Ansatz betont die Verantwortung der Anbieter, weil es sich als nahezu unmöglich erweist, einzelne Ersteller ausfindig zu machen. Viele operieren im Ausland oder verstecken sich hinter Anonymität. Die Umgehung durch Endnutzer macht Strafverfolgung herausfordernd und ineffektiv.
Stattdessen zielen Regulierungsbehörden auf die Plattformen und Werkzeuge ab, die Missbrauch ermöglichen. Dienste, die “Nudifizierungs”-Funktionen anbieten, sehen sich nun strafrechtlichen Sanktionen gegenüber. Diese Strategie geht die Grundursache an, anstatt Katz und Maus mit unzähligen Nutzern zu spielen. Unter dem Online Safety Act 2023 müssen Plattformen proaktiv nicht-einvernehmliche intime Bilder verhindern und entfernen oder sehen sich Durchsetzungsmaßnahmen von Ofcom gegenüber.
| Ansatz | Warum es wichtig ist |
|---|---|
| Anbieter ins Visier nehmen | Stoppt Werkzeuge vor Missbrauch |
| Erstellungsdienste verbieten | Verhindert weitreichenden Schaden |
| Plattformen haftbar machen | Erzwingt proaktive Prävention |
| Strafrechtliche Sanktionen | Schreckt Ermöglichung ab |
Dieses Rahmenwerk schützt individuelle Freiheiten, während es mächtige Technologieunternehmen für den Schaden verantwortlich macht, den ihre Dienste ermöglichen.
Quellenangabe
- https://www.olliers.com/news/new-law-criminalises-deepfake-creation/
- https://www.gov.uk/government/news/government-leads-global-fight-against-deepfake-threats
- https://iapp.org/news/a/the-ongoing-efforts-across-europe-to-combat-explicit-deepfakes-csam
- https://consoc.org.uk/how-to-solve-a-problem-like-grok/
- https://www.gov.uk/government/case-studies/science-led-collaboration-against-deepfakes
- https://therecord.media/united-kingdom-noncensual-images-fines
- https://www.spacewar.com/reports/UK_to_make_tech_firms_remove_abusive_images_within_48_hours_of_alert_999.html
- https://www.bankinfosecurity.com/uk-close-to-imposing-hash-matching-for-revenge-porn-a-30802
- https://www.dpp-law.com/blog/laws-on-ai-generated-sexual-deepfakes/
- https://insights.doughtystreet.co.uk/post/102mdvo/the-legal-response-to-ai-generated-sexual-deepfakes



