Meta bringt LLMs bei, wie Menschen zu lernen
31/08/2025Alexandr Wang warnt Meta-Mitarbeiter: Bereitet euch auf Superintelligenz vor
02/09/2025Anthropic hat gerade einen Schritt unternommen, der die Nutzer ziemlich verärgert hat. Das KI-Unternehmen hat seine Regeln zur Speicherung von Chat-Aufzeichnungen geändert. Anstatt Unterhaltungen nach 30 Tagen zu löschen, bewahren sie diese nun fünf ganze Jahre lang auf. Einige markierte Chats bleiben sogar noch länger bestehen. Personen, die der Marke vertraut haben, fühlen sich durch diesen plötzlichen Wechsel betrogen. Viele suchen nun nach anderen KI-Optionen, während Geschäftskunden weiterhin besseren Datenschutz erhalten als normale Nutzer.
Von 30 Tagen zu fünf Jahren: Anthropics dramatischer Politikwechsel
Als Anthropic Änderungen daran ankündigte, wie lange das Unternehmen Nutzergespräche aufbewahrt, überraschte diese Verschiebung viele Nutzer. Das KI-Unternehmen hatte zuvor Chat-Aufzeichnungen nur 30 Tage lang aufbewahrt, bevor sie gelöscht wurden. Nun ist dieser Zeitraum auf fünf Jahre für Personen angestiegen, die sich nicht von der Datennutzung für das Training abmelden.
Das ist ein enormer Sprung von etwa einem Monat auf über 1.800 Tage. Für Gespräche, die als problematisch eingestuft werden, verlängert sich die Speicherdauer sogar noch weiter auf sieben Jahre. Dies markiert eine komplette Kehrtwende von Anthropics früherem Ansatz, Verbrauchergespräche nicht zum Trainieren ihrer Modelle zu verwenden.
Die Änderung betrifft Nutzer der Claude Free-, Pro- und Max-Dienste. Geschäfts- und Regierungskunden bleiben jedoch von dieser erweiterten Speicherrichtlinie ausgenommen. Das Unternehmen rechtfertigt die Richtlinienänderung mit der Aussage, dass die Daten dabei helfen werden, die Modellsicherheit zu verbessern und die Erkennung schädlicher Inhalte zu optimieren.
Das Vertrauen der Verbraucher schwindet, da der Datenschutz schwächer wird
Als Nutzer von Anthropics neuen Datenregeln erfuhren, fühlten sich viele betrogen. Die Marke hatte versprochen, dass ihre Chats innerhalb von 30 Tagen verschwinden würden. Nun könnten dieselben Gespräche fünf ganze Jahre bestehen bleiben.
Personen, die dem Unternehmen vertraut hatten, fühlten sich getäuscht. Soziale Medien füllten sich mit wütenden Beiträgen über gebrochene Versprechen. Datenschutzgruppen sprachen sich gegen das aus, was sie als unfaire Behandlung gewöhnlicher Nutzer ansahen.
Was die Leute noch wütender machte? Geschäftskunden behielten ihre alten Schutzmaßnahmen. Dieses zweistufige System ließ alltägliche Nutzer wie Bürger zweiter Klasse fühlen.
Der Widerstand wurde lauter, als mehr Personen realisierten, was geschah. Vertrauenswerte sanken. Viele Nutzer begannen, sich abzumelden oder nach anderen KI-Helfern zu suchen. Die Änderung folgt ähnlichen Schritten von OpenAI in der wettbewerbsintensiven KI-Landschaft. Der Schaden an Anthropics Ruf war klar und wachsend.
Rechtliche Pressuren treiben branchenweite Änderungen der Datenspeicherung voran
Hinter all den wütenden Posts und dem gebrochenen Vertrauen liegt eine größere Geschichte darüber, warum Anthropic diese unpopuläre Entscheidung getroffen hat.
Gerichte zwingen KI-Unternehmen dazu, Nutzerdaten viel länger als zuvor aufzubewahren. Große Klagen gegen Unternehmen wie OpenAI haben neue Regeln für die Speicherung von Gesprächen geschaffen. Jetzt spürt die gesamte Branche den Druck, ähnliche Wege zu gehen.
Folgendes treibt diese Veränderungen voran:
- Gerichtsbeschlüsse verlangen von Unternehmen, Nutzer-Chats für potenzielle Rechtsstreitigkeiten aufzubewahren
- Urheberrechtskämpfe machen Unternehmen vorsichtiger bei der Frage, welche Daten sie behalten und verwenden
- Neue Vorschriften fordern bessere Transparenz darüber, wie KI-Modelle trainiert werden
- Vertragsstreitigkeiten konzentrieren sich auf die Einhaltung von Website-Regeln und Datenbesitzrechten
Rechtliche Unsicherheit zwingt KI-Entwickler dazu, sicherere Praktiken anzunehmen. Sie bewegen sich wie auf dünnem Eis und versuchen, sich zu schützen, während sie gleichzeitig ihre Technologie verbessern. Dies stellt eine dramatische Veränderung gegenüber Anthropics vorheriger Aufbewahrungszeit von nur 30 Tagen dar.
Training von KI-Modellen auf Nutzergesprächen entfacht ethische Debatte
Sollten Unternehmen erlaubt sein, Ihre privaten Chats zu nutzen, um ihre KI-Systeme zu trainieren? Diese Frage steht im Mittelpunkt von Anthropics kontroversem Richtlinienwechsel. Das Unternehmen argumentiert, dass echte Gespräche dabei helfen, sicherere KI zu schaffen, die schädliche Inhalte besser erkennt und die Denkfähigkeiten verbessert.
Aber Kritiker sorgen sich darüber, private Nachrichten ohne klare Erlaubnis in Trainingsmaterial zu verwandeln. Der Opt-out-Ansatz bedeutet, dass Schweigen gleich Zustimmung ist – eine Praxis, die Datenschutzaktivisten beunruhigt. Viele Nutzer wissen möglicherweise nicht einmal, dass ihre Chats auf diese Weise verwendet werden. Nutzer haben bis zum 28. September 2025 Zeit, ihre Entscheidung bezüglich der neuen Datenaustauschbedingungen zu treffen.
Anthropic sagt, dass diese Daten dabei helfen, bessere Sicherheitsfilter zu entwickeln und Fehlalarme bei der Inhaltsüberprüfung zu reduzieren. Dennoch wirft die fünfjährige Speicherung persönlicher Gespräche unbequeme Fragen darüber auf, wem unsere digitalen Worte wirklich gehören und ob Innovation diesen Datenschutz-Kompromiss rechtfertigt.
Sicherheitsverletzungen verdeutlichen Risiken langfristiger Datenspeicherung
Wenn Unternehmen persönliche Gespräche jahrelang speichern, schaffen sie wertvolle Sammlungen, die Hacker gerne ins Visier nehmen. Diese digitalen Schatztruhen werden mit der Zeit zu größeren Risiken.
Aktuelle Daten zeigen, dass eine durchschnittliche Datenschutzverletzung Unternehmen nun 4,88 Millionen Dollar kostet. Das ist ein Anstieg von 10% gegenüber früher. Kriminelle verwenden intelligentere Werkzeuge, die von künstlicher Intelligenz angetrieben werden, um in Systeme einzubrechen. Sie werden immer besser darin, Ihre privaten Informationen zu stehlen.
Die Hauptwege, wie Angreifer an Ihre Daten gelangen, umfassen:
- Gestohlene Anmeldedaten – Sie erbeuten Ihre Passwörter und Benutzernamen
- Gefälschte E-Mails – Trickreiche Nachrichten, die Einzelpersonen dazu verleiten, auf gefährliche Links zu klicken
- Versteckte Software – Bösartige Programme, die sich in Computersysteme einschleichen
- Soziale Tricks – Mitarbeiter davon überzeugen, sensible Informationen preiszugeben
Unternehmen, die Gespräche über längere Zeiträume aufbewahren, sehen sich täglich mehr Bedrohungen gegenüber. Sicherheitsexperten berichten, dass mit dem Internet verbundene Computer nun 2.244 Angriffe täglich erleben. Ihre persönlichen Chats verdienen besseren Schutz, als zu sitzenden Enten für Cyberkriminelle zu werden.
Quellenangabe
- https://coincentral.com/anthropic-expands-chat-storage-policy-amid-ai-privacy-scrutiny/
- https://shellypalmer.com/2025/08/anthropics-privacy-pivot-users-must-opt-out-by-september-28/
- https://techcrunch.com/2025/08/28/anthropic-users-face-a-new-choice-opt-out-or-share-your-data-for-ai-training/
- https://thehackernews.com/2025/08/anthropic-disrupts-ai-powered.html
- https://www.venable.com/insights/publications/2025/07/ai-can-learn-but-not-loot-pirated-data-off
- https://dataconomy.com/2025/08/29/claude-users-must-opt-out-of-data-training-before-sept-28-deadline/
- https://www.theregister.com/2025/08/28/anthropic_five_year_data_retention/
- https://privacy.anthropic.com/en/articles/10301952-updates-to-our-privacy-policy
- https://www.anthropic.com/news/updates-to-our-consumer-terms
- https://www.anthropic.com/news/usage-policy-update