
Kritik an KI Inhalten in sozialen Medien
02/04/2026
KI Automatisierung bedroht Bürojobs weltweit
03/04/2026OpenAI hat ChatGPT um eine neue Speicherfunktion erweitert. Der künstliche Intelligenz-Assistent behält nun Ihre Vorlieben, Ihren Schreibstil und Ihre bisherigen Gespräche bei. Diese Informationen bleiben zwischen Ihren einzelnen Sitzungen gespeichert.
Jedoch entstehen aus dieser Entwicklung erhebliche Fragen. ChatGPT speichert Ihre Daten mit einer Kapazität von nur 4.500 Zeichen. Sie können Ihre gespeicherten Erinnerungen jederzeit einsehen. Sie können Ihre Erinnerungen auch jederzeit löschen.
Diese Funktionen werfen wichtige Bedenken auf. Sie sollten verstehen, wie Ihre Informationen geschützt werden. Sie benötigen Klarheit über Datenverschlüsselungsstandards. Sie müssen wissen, ob OpenAI Ihre gespeicherten Informationen zur Schulung zukünftiger KI-Systeme nutzt.
Ihre gespeicherten Daten erfordern angemessene Sicherheitsmaßnahmen. Sie haben das Recht zu verstehen, welche Schutzmaßnahmen Ihre persönlichen Informationen schützen. Sie verdienen transparente Informationen über die Datenbehandlung. Sie sollten klare Antworten über Zugriffsrechte und Datenspeicherungsrichtlinien erhalten.
Die Speicherfunktion birgt sowohl Vorteile als auch Risiken. Sie profitieren von personalisierten KI-Interaktionen, die auf Ihre individuellen Bedürfnisse zugeschnitten sind. Gleichzeitig sind Sie potenziellen Sicherheitslücken bezüglich Ihrer Privatsphäre und Datenkontrolle ausgesetzt.
OpenAI muss Ihnen eine umfassende Dokumentation zu dieser Funktion bereitstellen. Sie benötigen detaillierte Erklärungen darüber, wie Ihre Erinnerungen verschlüsselt und gespeichert werden. Sie müssen wissen, welche Parteien Zugriff auf Ihre Informationen haben. Sie sollten regelmäßige Aktualisierungen über Änderungen der Datenschutzpraktiken erhalten.
Ihre Verantwortung beinhaltet die aktive Verwaltung Ihrer gespeicherten Erinnerungen. Sie können regelmäßig überprüfen, was ChatGPT über Sie behalten hat. Sie behalten die Fähigkeit, Informationen zu löschen, die Sie nicht bewahren möchten.

OpenAI erweitert ChatGPT um Speicherfunktionen : Datenschutz- und Datenkontrollaspekte
OpenAI hat ein bedeutsames Update für ChatGPT eingeführt, das die Personalisierungsfunktionen verbessert. Das Unternehmen kündigte an, dass ChatGPT nun Ihre Vorlieben, Ihren Schreibstil und Ihre bisherigen Gespräche über mehrere Chat-Sitzungen hinweg speichern kann. ChatGPT funktioniert als KI-Assistent, der sich Details aus Ihrem Leben merkt, ohne dass Sie diese in jeder Unterhaltung wiederholen müssen. CEO Sam Altman charakterisierte diese Entwicklung als Fortschritt in Richtung KI-Systeme, die Wissen über Benutzer über deren gesamte Lebensdauer hinweg bewahren.
Die Speicherfunktion speichert persönliche Details über Ihre Freunde, Ihre Familie und Ihr bevorzugtes Antwortformat. Derzeit ermöglicht das System maximal 4.500 Zeichen für alle gespeicherten Erinnerungen zusammen. Wenn Sie neue Gespräche beginnen, greift ChatGPT auf die Informationen zu, die es über Sie gespeichert hat, um Antworten bereitzustellen, die auf Ihre spezifischen Interessen und Umstände zugeschnitten sind. Diese Funktionalität erweist sich besonders wertvoll für Schreibaufgaben, Lernaktivitäten und das Einholen von Ratschlägen, die auf Ihre individuelle Situation zugeschnitten sind.
Es gibt jedoch erhebliche Überlegungen, die Ihre Aufmerksamkeit verdienen. OpenAI stellt Ihnen Kontrollen zur Verwaltung dieser Erinnerungen zur Verfügung. Sie können einzelne Erinnerungselemente löschen, die gesamte Funktion deaktivieren oder temporäre Chats verwenden, die unmittelbar nach Ende Ihrer Sitzung verschwinden. Sie behalten auch die Möglichkeit, ChatGPT aufzufordern, alles offenzulegen, das es sich über Sie merkt. Trotz dieser Optionen bleiben erhebliche Bedenken bezüglich der Datensicherheit und Ihrer Informationskontrolle bestehen. Die Speichermechanismen bleiben unklar, wie lange und wo Ihre Erinnerungen innerhalb der OpenAI-Infrastruktur aufbewahrt werden.
Echte Risiken für Ihre Daten existieren und verdienen sorgfältige Überlegung. Ihre gespeicherten persönlichen Details sind potenziellen Bedrohungen durch unbefugten Zugriff oder Sicherheitsverletzungen ausgesetzt. Der Verschlüsselungsstatus Ihrer Informationen während der Speicherung in OpenAIs Systemen bleibt unklar. Zusätzlich besteht Unsicherheit darüber, ob Ihre gemeinsam erstellten Ideen zum Training zukünftiger KI-Modelle verwendet werden könnten. Organisationen sehen sich zusätzlichen Compliance-Verpflichtungen gegenüber, wenn sie sich durch Datenschutzbestimmungen navigieren, insbesondere da politische Entwicklungen die Technologiegesetze beeinflussen.
Ein US-amerikanischer Richter ordnete an, dass OpenAI alle ChatGPT-Output-Protokolle auf unbestimmte Zeit aufbewahrt. Diese Anordnung resultierte aus Klagen, die von Medienunternehmen eingereicht wurden und die Behauptung aufstellten, dass die Plattform deren Bezahlschranken umging. OpenAI bestritt diesen Beschluss und argumentierte, dass er seinen Datenschutzverpflichtungen bezüglich der Gesprächslöschung widerspricht. Das Unternehmen äußerte Bedenken, dass Benutzer Chats möglicherweise speziell löschen könnten, um ihren Zugriff auf geschützte Inhalte zu verbergen.
Sie stehen vor einer wichtigen Spannung zwischen konkurrierenden Interessen. Sie erhalten erhebliche Personalisierungsvorteile, müssen aber einem externen Unternehmen sensible persönliche Informationen anvertrauen. Einige Organisationen evaluieren derzeit die Entwicklung proprietärer KI-Lösungen, um vollständige Kontrolle über ihre Daten zu behalten. Ihre Entscheidung zwischen Bequemlichkeit und Datenschutzkontrolle bleibt grundsätzlich persönlich.
Speichermerkmale Sicherheitsbedenken
Persistente Speicherinjektionsangriffe ermöglichen es Angreifern, bösartige Anweisungen über längere Zeit in der ChatGPT-Speicherfunktion zu speichern. Diese gespeicherten Anweisungen können über mehrere Sitzungen hinweg zu kontinuierlichen Datenlecks führen, bis Sie sie manuell löschen. Sicherheitsforscher haben nachgewiesen, wie Angreifer die Speicherfunktion manipulieren können, um vertrauliche Informationen aus Ihren Chat-Protokollen und verknüpften Konten zu extrahieren, wodurch ernsthafte Datenschutzschwachstellen entstehen, die bestehen bleiben, bis Sie die kompromittierten Speichereinträge aktiv entfernen.
Wie können Angreifer die Speicherfunktionen von ChatGPT ohne Ihre Interaktion ausnutzen ?
Zero-Click- und One-Click-Angriffsszenarien ermöglichen unbefugten Zugriff mit minimaler Beteiligung Ihrerseits. Zero-Click-Angriffe erfordern keine Interaktion von Ihnen, während One-Click-Angriffe nur einen einzelnen Klick auf einen bösartigen Link von Ihnen benötigen. Diese Angriffsvektoren umgehen traditionelle Sicherheitsmaßnahmen, indem sie die Speicher- und Browsing-Integration von ChatGPT nutzen, wodurch Angreifer Ihre Daten durch automatisierte Ausbeutung bekannter Schwachstellen im Speichersystem gefährden können.
Was ist Cross-Context-Ausbeutung in ChatGPT ?
Cross-Context-Ausbeutung tritt auf, wenn Angreifer die Integration zwischen mehreren ChatGPT-Funktionen , einschließlich Browsing, Suche und Speicherfunktionen , nutzen, um Ihre Daten zu gefährden. Durch die Manipulation der Interaktion dieser Funktionen können Angreifer auf vertrauliche Informationen zugreifen, die Sie in verschiedenen Kontexten und Sitzungen gespeichert haben. Dieser vernetzte Exploitationspfad schafft zusammengesetzte Schwachstellen, die schwieriger zu erkennen und zu verhindern sind als isolierte Fehler.
Was hat OpenAI im Mai 2024 getan, um Schwachstellen der Speicherfunktion zu beheben ?
OpenAI offenbarte im Mai 2024 Schwachstellen und führte Abhilfemaßnahmen durch, indem das Modell daran gehindert wurde, Links zu folgen, die es selbst in seinen eigenen Antworten in Bezug auf Speicherfunktionen generiert. Darüber hinaus erhielt die ChatGPT-Anwendung für macOS ein Update auf Version 1.2024.247, das Ihre Gespräche verschlüsselte und identifizierte Sicherheitsmängel behob. Diese Patches stellten erste Abhilfemaßnahmen dar, obwohl Sicherheitsforscher bemerkten, dass einige Schwachstellen in nachfolgenden Versionen nicht behoben wurden.
Sind ChatGPT-Speicherfunktionen nach den letzten Patches vollständig sicher ?
Nein. Trotz der Abhilfemaßnahmen von OpenAI bestehen mehrere Schwachstellen in ChatGPT‑5 ab November 2025 fort. Sicherheitsforscher identifizierten sieben Fehler, die zusammen als „HackedGPT” bezeichnet werden und mehrere Wege für Datenexfiltration durch Web-Browsing und Speicherfunktionsausbeutung bieten. OpenAI hat anerkannt, dass Prompt-Injection in großen Sprachmodellen eine laufende Sicherheitsherausforderung bleibt, die ständige Aufmerksamkeit erfordert, wenn neue Exploitationstechniken auftauchen.
Wie beeinträchtigen Prompt-Injection-Techniken die Speicherfunktion von ChatGPT ?
Prompt-Injection-Techniken manipulieren die Speicherfunktionen von ChatGPT, indem nicht autorisierte Befehle in Ihre Gespräche eingefügt werden. Angreifer können speziell formulierte Prompts verwenden, um das beabsichtigte Verhalten des Modells zu überschreiben und vertrauliche Informationen aus Ihren gespeicherten Erinnerungen und verknüpften Konten zu extrahieren. Verteidigungsmaßnahmen auf Modellebene und Anwendungsebene, die Anweisungshierarchie-Modifikationen implementieren, haben teilweisen Schutz geboten, aber Angreifer entdecken weiterhin neue Injektionsmethoden, um diese Schutzmaßnahmen zu umgehen.
Was ist die Sicherheitslücke „HackedGPT”?
Tenable Research identifizierte sieben verknüpfte Schwachstellen in ChatGPT-4o und neueren Versionen, die zusammen als „HackedGPT” bezeichnet werden. Diese Fehler ermöglichen Datenexfiltration durch Web-Browsing und Speicherfunktionsausbeutung. Die Schwachstellenforschung demonstrierte mehrere Angriffspfade, die vertrauliche Informationen aus Ihren Chat-Protokollen und verknüpften Konten offenlegen könnten, was Ihren Datenschutz und Ihre Datensicherheit über längere Zeit gefährdet, bis Patches bereitgestellt und Sie Ihre Anwendungen aktualisieren.
Verschlüsselt ChatGPT die Speicherdaten im Ruhezustand ?
Der Verschlüsselungs- und Datenschutzstatus bleibt für Ihre im Ruhezustand gespeicherten Speicherdaten unklar. Während ChatGPT Transit-Schutz bietet , indem Ihre Daten während der Übertragung zwischen Ihnen und OpenAIs Servern gesichert werden , bestehen Fragen, ob Ihre Speicherdaten eine Verschlüsselung erhalten, wenn sie auf OpenAIs Servern gespeichert sind. Diese Mehrdeutigkeit bei At-Rest-Verschlüsselungspraktiken schafft potenzielle Risiken für Ihre vertraulichen Informationen, besonders angesichts der zentralisierten Speicherung Ihrer persönlichen Daten, einschließlich Ihres Alters und Ihrer Kontodaten.
Wie können nicht autorisierte Befehle in Ihre ChatGPT-Gespräche eingefügt werden ?
Das Einfügen nicht autorisierter Befehle nutzt Speicherschwachstellen aus, indem Angreifern bösartige Anweisungen in Ihre gespeicherten Erinnerungen eingebettet werden können. Diese eingebetteten Befehle können die von der KI generierten Antworten in Ihren nachfolgenden Gesprächen manipulieren, was ChatGPT dazu veranlasst, unerwartet zu reagieren oder Ihre vertraulichen Informationen zu preisgeben. Die Schwachstelle bleibt bestehen, da Angreifer Befehle einfügen können, die über mehrere Sitzungen aktiv bleiben, wodurch die Erkennung ohne sorgfältige Überwachung Ihrer Speicherinhalte und Ihrer Gesprächsmuster schwierig ist.
Welche Datenschutzrisiken schaffen die Speicherfunktionen von ChatGPT für Sie ?
Speicherfunktionen konzentrieren Ihre persönlichen Informationen , einschließlich Ihrer Gesprächsverlauf, Ihrer verknüpften Kontodaten, Ihres Alters und Ihrer Vorlieben , in zentralisierter Speicherung, die anfällig für Ausbeutung ist. Verlängerte Sicherheitslücken ermöglichen Angreifern über längere Zeit Zugriff auf Ihre vertraulichen Informationen aus Ihren Chat-Protokollen. Das Potenzial für Datendiebstahl betrifft mehrere Nutzergenerationen, und unvollständige Sicherheitspatches schaffen anhaltende Exposition für Sie. Sie sollten regelmäßig Ihre gespeicherten Erinnerungen überprüfen, vertrauliche Informationen löschen und Ihren Zugriff auf verknüpfte Konten überwachen, um die Datenschutzrisiken von potenziellen Kompromittierungen zu mindern.
Was sollten Sie tun, um Ihre Daten vor Speicherfunktionsschwachstellen zu schützen ?
Sie sollten Ihre gespeicherten Erinnerungen, die vertrauliche Informationen enthalten, regelmäßig prüfen und löschen, besonders Ihre Anmeldedaten und persönliche Details. Sie sollten Ihre ChatGPT-Anwendungen auf die neuesten Versionen aktualisieren, um Sicherheitspatches zu erhalten. Sie sollten verdächtige Links in ChatGPT-Antworten vermeiden, da diese möglicherweise Exploitationsvektoren auslösen könnten. Sie sollten Ihre verknüpften Kontointegratoren überprüfen und unnötige Verbindungen trennen. Sie sollten ungewöhnliche Gesprächsmuster oder unerwartete Speichereinträge überwachen, die auf eine Kompromittierung hindeuten könnten. Darüber hinaus sollten Sie starke Authentifizierungsmethoden für Ihr OpenAI-Konto verwenden, um unbefugten Zugriff zu verhindern.
Benutzerkontrolle bleibt von größter Bedeutung
Sie halten die wahre Macht im Speichersystem von ChatGPT. Ihre Autonomie sitzt im Herzen der Funktionsweise von Speicher. Sie entscheiden, was gespeichert wird und was privat bleibt.
Wenn Sie Erinnerungen löschen möchten, können Sie dies direkt tun. Greifen Sie auf Ihre Einstellungen zu und entfernen Sie die Erinnerungen, die Sie nicht mehr benötigen. Wenn Sie ein Gespräch ohne Speicherverfolgung führen möchten, können Sie den Temporären Chat verwenden. Im Temporären Chat wird nichts aufgezeichnet.
Ihre Informationen gehören Ihnen, nicht der Plattform. Dies ist das Prinzip der Datensouveränität. Sie können jede gespeicherte Erinnerung einsehen. Sie können Details in Ihren gespeicherten Erinnerungen aktualisieren. Sie können alle Erinnerungen auf einmal löschen, wenn Sie dies wünschen. Optionen im Einstellungsmenü bieten vollständige Deaktivierung oder Einschränkung von Speicherreferenzen basierend auf Ihren Vorlieben.
Wenn Sie ein Enterprise-Inhaber sind, kontrollieren Sie diese Funktionen für Ihr Team. Wenn Sie ein kostenloser Benutzer, Plus-Abonnent oder Pro-Mitglied sind, erhalten Sie angepasste Steuerelemente, die für Ihren Kontotyp geeignet sind. Sie sind nie an einen Ansatz gebunden. Ihre Entscheidungen bestimmen, wie Speicher für Sie funktioniert.
Quellenangabe
- https://www.nevillehobson.io/is-chatgpts-memory-a-helpful-companion-or-a-privacy-minefield/
- https://www.jpost.com/consumerism/article-857058
- https://community.openai.com/t/privacy-concerns-in-chatgpts-memory-system/982636
- https://www.malwarebytes.com/blog/news/2025/06/openai-forced-to-preserve-chatgpt-chats
- https://www.ndtv.com/feature/chatgpt-now-remembers-everything-users-have-told-it-sparking-privacy-concerns-8152543
- https://community.openai.com/t/why-i-trust-ai-memory-over-human-memory-thoughts-on-privacy-control/1312689
- https://www.foxnews.com/tech/how-researcher-hacked-chatgpts-memory-expose-major-security-flaw
- https://securitybrief.com.au/story/seven-chatgpt-flaws-expose-user-data-to-attack-tenable-warns
- https://community.openai.com/t/project-shared-memory-possible-security-concern/1063446
- https://the-decoder.com/openai-brings-longer-term-memory-feature-to-free-chatgpt-users/



