Ny AI-jailbreak-teknik kringgår säkerhetsåtgärder hos stora språkmodeller
Forskare vid cybersäkerhetsföretaget HiddenLayer har upptäckt en ny universell metod för att kringgå säkerhetsåtgärder i alla stora AI-språkmodeller. Tekniken som kallas ”Policy Puppetry” fungerar på samtliga ledande AI-system inklusive OpenAI:s ChatGPT, Google Gemini, Microsoft Copilot, Anthropic Claude och många fler. Policy Puppetry-attacken Tekniken utnyttjar ett grundläggande sätt som AI-modeller tolkar instruktioner på. Genom att omformulera […] The post Ny AI-jailbreak-teknik kringgår säkerhetsåtgärder hos stora språkmodeller first appeared on AI nyheter.

Forskare vid cybersäkerhetsföretaget HiddenLayer har upptäckt en ny universell metod för att kringgå säkerhetsåtgärder i alla stora AI-språkmodeller. Tekniken som kallas ”Policy Puppetry” fungerar på samtliga ledande AI-system inklusive OpenAI:s ChatGPT, Google Gemini, Microsoft Copilot, Anthropic Claude och många fler. Policy Puppetry-attacken Tekniken utnyttjar ett grundläggande sätt som AI-modeller tolkar instruktioner på. Genom att omformulera […]
The post Ny AI-jailbreak-teknik kringgår säkerhetsåtgärder hos stora språkmodeller first appeared on AI nyheter.