Neuer LLM-Jailbreak: Mit psychologischem Gaslighting gegen KI-Filter

Von "Gaslighting" spricht man, wenn jemand versucht, einen anderen Menschen gezielt zu verunsichern – das klappt auch bei LLMs.

Mär 30, 2025 - 10:39
 0
Neuer LLM-Jailbreak: Mit psychologischem Gaslighting gegen KI-Filter

Von "Gaslighting" spricht man, wenn jemand versucht, einen anderen Menschen gezielt zu verunsichern – das klappt auch bei LLMs.