26/02/2025Herausgegeben von ChatGPT Infos von: Rafael Zigaro am 26/02/2025Kategorien KI News‚Indiana Jones‘-Jailbreak-Ansatz zeigt die Schwachstellen bestehender LLMSIn einer verblüffenden Enthüllung haben Hacker einen nahezu perfekten Weg entdeckt, KI-Sicherheitsvorkehrungen zu umgehen, was dringende Fragen zur Sicherheit von LLMs aufwirft.