
Microsoft Recall zeigt kritische Sicherheitslücken auf
22/04/2026
Studie warnt vor KI Schwarm Manipulation online
22/04/2026Ein leistungsstarker KI namens Claude Mythos erregte kürzlich die Aufmerksamkeit der Cybersicherheitswelt , und nicht ausschließlich auf angenehme Weise. Anthropic, das Unternehmen hinter dem Modell, stellte fest, dass es gefährliche Softwarefehler schneller aufspüren konnte als jeder menschliche Experte. Das klingt beeindruckend, warf jedoch auch ernste Bedenken auf. Wer erhält Zugang zu etwas so Mächtigem ? Die Antwort ist, wie sich herausstellt, nicht die breite Öffentlichkeit , und die Gründe dafür sind es wert, verstanden zu werden.
Anthropic schränkt den Zugang zu KI-Modellen ein

Anthropic hat den öffentlichen Zugang zu Claude Mythos, seinem bisher leistungsfähigsten KI-Modell, zurückgezogen und begründet dies mit Sicherheitsrisiken, die schwerwiegend genug sind, um es aus dem allgemeinen Umlauf zu halten. Die Entscheidung folgt auf zunehmende Belege, dass das Modell Softwareschwachstellen auf einem Niveau erkennen kann, das die meisten erfahrenen menschlichen Experten übertrifft , eine Fähigkeit, die Anthropic für genuinen Gefahr hält, wenn sie uneingeschränkt bleibt. Um diese Risiken unter kontrollierten Bedingungen zu handhaben, hat Anthropic Project Glasswing ins Leben gerufen, eine sichere Testinitiative, an der wichtige Technologiepartner wie AWS, Apple, Cisco, Google, Microsoft und Nvidia beteiligt sind.
Vollständige Cybersicherheits-Risikoankündigung
Anthropic hat weitreichende Zugangsbeschränkungen für sein neuestes KI-Modell, Claude Mythos, angekündigt und begründet dies mit beispiellosen Cybersicherheitsrisiken, die interne Bewertungen offenbart haben. Diese zeigten, dass das System über eine außerordentliche Fähigkeit verfügt, Software-Schwachstellen zu identifizieren und auszunutzen.
Fähigkeiten hinter der Entscheidung
Claude Mythos identifizierte Tausende von Schwachstellen in wichtigen Betriebssystemen und Internetbrowsern, wobei über 99 % noch ungepatcht sind. Das Modell demonstrierte die Fähigkeit, Zero-Day-Schwachstellen , bisher unbekannte Sicherheitslücken , auszunutzen und führte komplexe, mehrstufige simulierte Cyberangriffe von Anfang bis Ende durch. Bei Cybersicherheits-Herausforderungen auf Expertenebene erzielte das Modell eine Erfolgsquote von 73 %, ein Richtwert, der Forscher alarmierte und sofortige Eindämmungsmaßnahmen auslöste.
Viele der entdeckten Schwachstellen waren jahrzehntelang unentdeckt geblieben und in weit verbreiteter Software eingebettet, der Millionen von Einzelpersonen und Institutionen weltweit vertrauen.
Eingeschränkte Verbreitung
Anstatt eines breiten öffentlichen Rollouts hat Anthropic den Zugang auf eine kleine Gruppe großer Technologieunternehmen beschränkt, darunter Google, Amazon, Apple und Microsoft. Eine Vorschau , als Claude Mythos Preview bezeichnet , wurde selektiv mit diesen Unternehmen unter überwachten Bedingungen geteilt. Anthropic bestätigte, dass eine Echtzeitüberwachung eingerichtet ist, mit einer Abschaltmöglichkeit, die aktiviert wird, sobald Missbrauch festgestellt wird.
Projekt Glasswing
Parallel dazu hat Anthropic das Projekt Glasswing gestartet, eine kontrollierte Einsatzinitiative, die in Zusammenarbeit mit AWS und Google entwickelt wurde. Das Projekt lenkt die Fähigkeiten des Modells ausschließlich auf defensive Cybersicherheitsanwendungen. Sicherheitsexperten führen umfangreiche Red-Teaming-Übungen durch, und Anthropic steht in laufenden Gesprächen mit US-Regierungsvertretern bezüglich einer verantwortungsvollen Implementierung.
Institutionelle Reaktion
Das britische KI-Sicherheitsinstitut bestätigte die Fähigkeiten von Claude Mythos durch kontrollierte Tests. Das Weiße Haus steht in Kontakt mit KI-Unternehmen bezüglich Strategien zur Offenlegung und Minderung von Schwachstellen. Kritiker haben jedoch Bedenken geäußert, dass eine so leistungsstarke Technologie auf eine begrenzte Gruppe privater Unternehmen konzentriert wird, und stellen die Aufsichtsverantwortung und langfristige Governance in Frage. Die Details zu Claude Mythos gelangten erstmals an die Öffentlichkeit, nachdem Anthropic versehentlich etwa 3.000 unveröffentlichte Assets durchsickern ließ, darunter Dokumente, Bilder und PDFs.
Alle bisherigen Tests wurden in isolierten Umgebungen durchgeführt, ohne bestätigte Exposition gegenüber Live-Systemen.
Quellenangabe
- https://forklog.com/en/anthropic-restricts-public-access-to-ai-model-mythos-after-laboratory-escape/
- https://www.giskard.ai/knowledge/claude-mythos-analyzing-anthropics-new-frontier-model-for-ai-security
- https://fortune.com/2026/03/27/anthropic-leaked-ai-mythos-cybersecurity-risk/
- https://www.politico.com/newsletters/digital-future-daily/2026/04/09/anthropics-ai-sparks-concerns-over-a-new-national-security-risk-00865901
- https://www.youtube.com/watch?v=4a3n2Nhz3eY
- https://fox11online.com/news/nation-world/fact-check-team-anthropics-mythos-ai-raises-cybersecurity-promise-but-poses-risk-tools-cautious-google-amazon-apple
- https://www.anthropic.com/news/disrupting-AI-espionage
- https://www.youtube.com/watch?v=xT6CMLuvGQk



