mehrstufige manipulation

26/02/2025

‚Indiana Jones‘-Jailbreak-Ansatz zeigt die Schwachstellen bestehender LLMS

In einer verblüffenden Enthüllung haben Hacker einen nahezu perfekten Weg entdeckt, KI-Sicherheitsvorkehrungen zu umgehen, was dringende Fragen zur Sicherheit von LLMs aufwirft.