
OpenAI gibt Atlas-Browser-Prompt-Injection-Risiko zu
27/12/2025Ein bekannter Journalist hat beschlossen, es mit einigen der größten Namen der künstlichen Intelligenz aufzunehmen. John Carreyrou, der einst große Unternehmensskandale aufdeckte, steht nun neben fünf anderen Autoren in einem Bundesverfahren. Sie behaupten, diese Tech-Giganten hätten ihre E‑Books ohne Erlaubnis verwendet, um intelligente Computerprogramme zu trainieren. Die Wendung ? Ein Beklagter taucht zum allerersten Mal in dieser Art von Rechtsstreit auf, was neue Fragen darüber aufwirft, wie weit diese Unternehmen gehen werden.
John Carreyrou führt sechs Autoren in Bundesurheberrechtsklage an

Sechs bekannte Schriftsteller haben sich zusammengetan, um einige der größten Namen der künstlichen Intelligenz zu verklagen. Angeführt wird die Gruppe von John Carreyrou, dem zweifachen Pulitzer-Preisträger, der *Bad Blood* schrieb. Ihm haben sich fünf weitere Autoren angeschlossen, die sich gegen eine frühere Vergleichsvereinbarung entschieden haben. Gemeinsam reichten sie ihre Klage Ende Dezember 2024 ein und brachten sie unter Bundesgerichtsbarkeit im Northern District von Kalifornien.
Die Gruppe behauptet, diese Technologie-Giganten hätten Raubkopien ihrer Bücher verwendet, um mächtige KI-Systeme zu trainieren. Sie verfolgen die Durchsetzung des Urheberrechts nach ihren eigenen Bedingungen und weigern sich, das zu akzeptieren, was sie als unzureichende Entschädigung ansehen. Durch die Vermeidung einer Sammelklage behält jeder Schriftsteller die Kontrolle über seine individuellen Ansprüche und kann vollständigen Schadenersatz von einer Jury verlangen.
Die Klage nennt Anthropic, Google, OpenAI, Meta, xAI und Perplexity als Beklagte und richtet sich gegen die prominentesten Akteure der Branche im Bereich der generativen KI.
Xai zum ersten Mal als Beklagte in Trainingsdaten-Fall benannt
Elon Musks xAI schließt sich nun einer wachsenden Liste von Tech-Giganten an, die rechtlichen Schwierigkeiten wegen der Art und Weise gegenüberstehen, wie sie ihre KI-Systeme trainiert haben. Dies ist das erste Mal, dass das neuere Unternehmen in einen bundesweiten Urheberrechtsfall hineingezogen wurde, der sich auf Trainingsdaten konzentriert. Die Klage stellt xAI neben Branchenschwergewichte wie OpenAI, Google und Meta, die alle beschuldigt werden, raubkopierte Bücher ohne Erlaubnis verwendet zu haben. Der Fall verdeutlicht die Abhängigkeit der KI-Industrie von Modellgewichten und Trainingsdaten, die zu den wertvollsten und am strengsten gehüteten Geschäftsgeheimnissen in diesem Bereich gehören.
Musks Unternehmen sieht sich Vorwürfen gegenüber
Eine wegweisende rechtliche Herausforderung hat einen der neueren Akteure der Tech-Welt in die Schusslinie gebracht. Elon Musks xAI sieht sich nun ernsthaften Vorwürfen von Urheberrechtsverletzungen gegenüber. Kläger behaupten, das Unternehmen habe ganze Bücher kopiert, ohne zuerst die Autoren zu fragen. Sie sagen, xAI habe Materialien von Piraterie-Websites wie LibGen und Z‑Library gezogen. Dies war laut Klage kein versehentliches Durchstöbern. Stattdessen beschreiben Anwälte es als vorsätzlichen, großangelegten Diebstahl. Die Bücher trainierten KI-Systeme, die nun auf hunderte Milliarden Dollar geschätzt werden. Fragen über Musks Haftung und KI-Ethik stehen im Mittelpunkt. Als Bloomberg um eine Stellungnahme bat, antwortete xAI mit nur drei Worten : “Legacy Media Lies.” Die unverblümte Antwort deutet auf eine streitbare rechtliche Auseinandersetzung hin. Urheber wollen faire Bezahlung für ihre Beiträge zu profitabler Technologie. Die Beklagten werden wahrscheinlich Anträge auf Abweisung stellen als nächsten verfahrenstechnischen Schritt in dem Fall.
Erweiterung rechtlicher Ziele
Als die Klage am 22. Dezember 2025 eingereicht wurde, markierte sie einen Wendepunkt für Elon Musks Unternehmen. xAI sah sich zum ersten Mal als Beklagte in einem Urheberrechtsfall zu Trainingsdaten genannt.
Die Rechtsstrategie erweiterte die Urheberrechtsdurchsetzung über die üblichen Verdächtigen hinaus. Sechs Unternehmen stehen nun unter Beobachtung—Anthropic, Google, OpenAI, Meta, xAI und Perplexity AI. Jedes wird beschuldigt, raubkopierte Bücher ohne Erlaubnis verwendet zu haben.
| KI-Unternehmen | Erstmaliges Ziel ? |
|---|---|
| xAI | Ja |
| OpenAI | Nein |
| Meta | Nein |
| Google | Nein |
xAI antwortete Bloomberg mit drei Worten : „Legacy Media Lies.” Dennoch bestritten sie nie, die Bücher indexiert zu haben. Die Autoren geben nicht nach. Sie wollen Rechenschaft für das, was sie vorsätzliche Verletzung nennen. Der Fall spiegelt breitere rechtliche Risiken wider, die die KI-Entwicklung und Urheberrechtsdurchsetzung umgeben. Dieser Fall könnte die Art und Weise, wie KI-Firmen ihr Trainingsmaterial beschaffen, neu gestalten.
Vorwürfe bezüglich raubkopierter Inhalte aus Schattenbibliotheken

Laut der am Montag eingereichten Klage haben große Technologieunternehmen ihre KI-Chatbots mit Büchern aufgebaut, die aus Schattenbibliotheken gestohlen wurden. Diese Untergrund-Websites hosten Raubkopien von geschützten Werken ohne Autorenerlaubnis. Die Kontroverse um Schattenbibliotheken dreht sich darum, ob Unternehmen diese Inhalte frei nutzen können, um ihre Modelle zu trainieren.
Die Kläger behaupten, xAI, Google, OpenAI, Meta und andere hätten urheberrechtlich geschütztes Material von diesen illegalen Quellen bezogen. Sie argumentieren, dass dies einen klaren Diebstahl von geistigem Eigentum darstellt. Die Auswirkungen der Urheberrechtsverletzung könnten die Art und Weise, wie KI-Unternehmen ihre Technologie entwickeln, neu gestalten.
Anstatt Bücher ordnungsgemäß zu lizenzieren, behauptet die Klage, hätten diese Firmen eine Abkürzung gewählt. Sie hätten sich alles, was sie brauchten, von Piraten-Seiten geholt. Nun wollen Autoren faire Entschädigung für ihre gestohlenen Werke—und sie verfolgen individuelle Ansprüche, um ihre Wiedergutmachung zu maximieren. Perplexity behauptet, es indexiere keine Bücher als Reaktion auf die Vorwürfe.
Anthropics 1,5‑Milliarden-Dollar-Vergleich schafft kontroversen Präzedenzfall
Ende August 2025 stimmte Anthropic zu, mindestens 1,5 Milliarden Dollar zu zahlen, um Ansprüche beizulegen, dass es KI-Modelle mit urheberrechtlich geschützten Büchern aus Schattenbibliotheken trainiert hatte. Der historische Deal entschädigt etwa 500.000 urheberrechtlich geschützte Bücher mit jeweils etwa 3.000 Dollar, wobei ein Viertel des Fonds an die Anwälte geht. Während die Zahlung die größte Urheberrechtsvereinbarung in der US-Geschichte darstellt, argumentieren Kritiker, dass sie lediglich zu einer Geschäftsausgabe für ein Unternehmen wird, das mit 183 Milliarden Dollar bewertet wird—was wenig Anreiz bietet, die Art und Weise zu ändern, wie KI-Firmen künftig operieren. Die Vereinbarung verlangt auch von Anthropic, Kopien von Werken zu vernichten, die aus Schattenbibliotheken erhalten wurden.
Vergleichsbedingungen und ‑struktur
Die Einigung zwischen Anthropic und Buchautoren bringt einen Mindestpreis von 1,5 Milliarden Dollar mit sich und markiert eine der größten Auszahlungen in KI-Urheberrechtsstreitigkeiten bisher. Diese Einigungsanalyse zeigt eine interessante Aufschlüsselung : jedes verletzende Buch bringt eine Zahlung von 3.000 Dollar, die etwa 465.000 bis 500.000 urheberrechtlich geschützte Werke abdeckt. Das liegt weit unter der maximalen Strafe von 150.000 Dollar pro Buch nach dem Urheberrecht.
Die Auszahlungsverteilung funktioniert auf Buchbasis für berechtigte Rechteinhaber. Jedoch erhalten Autoren nicht den vollen Betrag. Anwaltsgebühren nehmen bis zu 25% ein—das sind 375 Millionen Dollar direkt vom Start weg. Verwaltungskosten und Serviceauszeichnungen reduzieren individuelle Zahlungen weiter.
Autoren müssen die Urheberrechtsregistrierung nachweisen und auf der Einigungsliste erscheinen, um ihren Anteil zu beanspruchen. Die Einigung stellt fest, dass der Kauf gebrauchter physischer Bücher für Scan-Zwecke rechtlich zulässig ist, obwohl gebrauchte Buchkäufe keine Entschädigung für ursprüngliche Autoren bieten. Endgültige Zahlungen werden nicht vor 2026 eintreffen, nach Gerichtsgenehmigung und dem vollständigen Anspruchsverfahren.
Bedenken zur Vergütung von Urhebern aufgekommen
Kritiker befürchten, dass Anthropics massive Einigung von 1,5 Milliarden Dollar große KI-Unternehmen tatsächlich zu glimpflich davonkommen lassen könnte.
Sicher, 3.000 Dollar pro Werk klingt zunächst anständig. Aber wenn man tiefer gräbt, entstehen einige beunruhigende Fragen über Urheber-Tantiemen und Transparenz fairer Vergütung.
Betrachten Sie diese besorgniserregenden Punkte :
- Die Auszahlung stellt weniger als 1% von Anthropics Bewertung von 183 Milliarden Dollar dar
- Autoren teilen sich Zahlungen mit Verlagen, was individuelle Anteile reduziert
- Die Einigung deckt nur vergangene Piraterie ab, nicht laufendes KI-Training
- Endgültige Beträge hängen davon ab, wie viele Urheber Ansprüche geltend machen
- Keine klaren Regeln verhindern zukünftige unbefugte Nutzung
Während dies als die größte Urheberrechts-Rückforderung aller Zeiten gilt, fragen sich viele, ob sie Tech-Giganten wirklich zur Verantwortung zieht. Werden Unternehmen diese Einigungen einfach als Geschäftskosten betrachten ?
Die Einigung verlangt von Anthropic, ursprüngliche Dateien zu zerstören, die aus Raubkopie-Quellen stammen, obwohl die Durchsetzung ungewiss bleibt. Die Spannung zwischen Innovation und Urheber-Rechten bleibt ungelöst.
Auswirkungen auf zukünftige Fälle
Selten hat eine einzige Einigung die rechtliche Landschaft einer ganzen Branche so umgestaltet wie Anthropics 1,5‑Milliarden-Dollar-Vereinbarung. Dieser wegweisende Deal etabliert einen starken Maßstab für die Urheberrechtsdurchsetzung in der Entwicklung künstlicher Intelligenz. Zukünftige Fälle werden diesen 3.000-Dollar-pro-Werk-Standard als Referenz verwenden, wenn Schäden durch nicht autorisierte Trainingsdaten berechnet werden. Die Einigung sendet eine klare Botschaft : Die Verwendung von raubkopierten Datenbanken hat ernste finanzielle Konsequenzen.
Die Vereinbarung lässt jedoch wichtige Fragen unbeantwortet. Sie deckt nur vergangene Downloads von bestimmten Quellen ab, nicht die breitere Frage der Legalität von KI-Training. Autoren haben bereits neue Klagen gegen sechs andere Firmen eingereicht und bezeichnen diese Einigung als unzureichend. Anthropic muss Materialien mit raubkopierten Werken vernichten innerhalb von 30 Tagen nach dem Urteil und die Einhaltung gegenüber den Anwälten der Kläger bestätigen. Der wahre Einfluss könnte darin liegen, Unternehmen zu legitimen Lizenzvereinbarungen zu drängen anstatt zu riskanten Abkürzungen. Für KI-Entwickler erfordert der Weg nach vorn zunehmend genehmigungsbasierten Zugang zu kreativem Material und verändert grundlegend, wie diese Systeme lernen.
Warum individuelle Klagen Sammelklagenstrukturen vermeiden
Wenn Anwälte beschließen, große Unternehmen zu verklagen, stehen sie vor einer großen Entscheidung. Reichen sie als Gruppe oder einzeln ein ? Mehr Anwälte wählen jetzt individuelle Klagen statt Sammelklagen. Hier ist, warum dieser Ansatz Vorteile individueller Klagen bietet und gleichzeitig die Beschränkungen von Sammelklagen vermeidet :
- Persönliche Kontrolle – Sie leiten Ihren eigenen Fall, bestimmen Ihren Zeitplan und verhandeln direkt
- Bessere Auszahlungen – Einzelfälle gewinnen oft mehr Geld pro Person als Gruppenklagen
- Schutz der Privatsphäre – Vergleiche bleiben vertraulich, anstatt öffentliche Aufzeichnungen zu werden
- Schnellere Ergebnisse – Kein Warten auf Zertifizierung oder Umgang mit 65% Genehmigungswahrscheinlichkeit
- Einfachere Argumente – Fokus auf Ihren spezifischen Schaden, nicht auf statistische Durchschnitte über Tausende
Wenn nur 8% der Klassenmitglieder typischerweise bei Vergleichen bezahlt werden, macht es praktischen Sinn, individuell vorzugehen. Sie behalten die Freiheit über Ihre Rechtsstrategie. Individuelle Vergleiche bedeuten auch, dass Klägeranwälte und Klassenvertreter typischerweise eine Entschädigung erhalten, während die Mehrheit der Verbraucher keinen finanziellen Nutzen sieht.
Fair-Use-Verteidigung unter Beobachtung bei KI-Trainingsstreitigkeiten
KI-Unternehmen stehen derzeit vor schwierigen Fragen zum fairen Gebrauch vor Gericht. Jüngste Urteile zeigen, dass Richter uneinig darüber sind, ob KI-Training gegen Urheberrechtsgesetze verstößt. Delaware wies die Verteidigung im Februar 2025 zurück und erklärte, der kommerzielle Zweck eines Unternehmens sei nicht ausreichend verändert worden. Kalifornische Gerichte entschieden nur Monate später anders und befanden, dass KI-Training unter bestimmten Umständen stark verändert sei.
Die Auswirkungen auf den fairen Gebrauch sind von enormer Bedeutung für Innovation. Gerichte prüfen, ob Unternehmen Trainingsmaterialien rechtmäßig erhalten haben und ob KI-Ausgaben ursprüngliche Inhalte ersetzen. Unternehmen, die Raubkopien verwenden, haben Schwierigkeiten, Argumente für fairen Gebrauch zu gewinnen. Diejenigen, die Materialien legal erwerben, schneiden besser ab. Richter Bibas identifizierte Marktauswirkungen als das wichtigste Element in der Analyse des fairen Gebrauchs.
Jeder Fall hängt von einzigartigen Details ab. Es existieren noch keine weitreichenden Regeln. Richter betrachten Marktschäden, Veränderungsgrad und Datenquellen individuell. Diese Ungewissheit macht KI-Training zu rechtlich riskantem Terrain.
Quellenangabe
- https://www.straitstimes.com/world/united-states/new-york-times-reporter-sues-google-xai-openai-over-chatbot-training
- https://www.engadget.com/ai/new-york-times-reporter-files-lawsuit-against-ai-companies-161624268.html
- https://grahamlovelace.substack.com/p/pulitzer-prize-winning-author-and
- https://nysba.org/copyright-and-ai-battle-for-the-future/
- https://www.gadgets360.com/ai/news/new-york-times-reporter-authors-lawsuit-google-openai-meta-anthropic-xai-perplxity-ai-training-copyright-infringement-9932894
- https://lunch.publishersmarketplace.com/2025/12/a‑new-group-of-authors-sues-six-ai-companies-for-infringement/
- https://techcrunch.com/2025/12/23/john-carreyrou-and-other-authors-bring-new-lawsuit-against-six-major-ai-companies/
- https://chatgptiseatingtheworld.com/2025/12/22/john-carreyrou-book-authors-file-copyright-v-entire-ai-industry-anthropic-google-meta-xai-of-elon-musk-and-perplexity-copyright-suits-hit-69/
- https://www.publishersweekly.com/pw/by-topic/industry-news/publisher-news/article/99347-authors-file-new-lawsuit-against-ai-companies-seeking-more-money.html
- https://moderndiplomacy.eu/2025/12/23/john-carreyrou-exposes-a-new-fraud-the-theft-behind-your-chatbot/



