Ny AI-jailbreak-teknik kringgår säkerhetsåtgärder hos stora språkmodeller

Forskare vid cybersäkerhetsföretaget HiddenLayer har upptäckt en ny universell metod för att kringgå säkerhetsåtgärder i alla stora AI-språkmodeller. Tekniken som kallas ”Policy Puppetry” fungerar på samtliga ledande AI-system inklusive OpenAI:s ChatGPT, Google Gemini, Microsoft Copilot, Anthropic Claude och många fler. Policy Puppetry-attacken Tekniken utnyttjar ett grundläggande sätt som AI-modeller tolkar instruktioner på. Genom att omformulera […] The post Ny AI-jailbreak-teknik kringgår säkerhetsåtgärder hos stora språkmodeller first appeared on AI nyheter.

May 1, 2025 - 17:03
 0
Ny AI-jailbreak-teknik kringgår säkerhetsåtgärder hos stora språkmodeller

Forskare vid cybersäkerhetsföretaget HiddenLayer har upptäckt en ny universell metod för att kringgå säkerhetsåtgärder i alla stora AI-språkmodeller. Tekniken som kallas ”Policy Puppetry” fungerar på samtliga ledande AI-system inklusive OpenAI:s ChatGPT, Google Gemini, Microsoft Copilot, Anthropic Claude och många fler. Policy Puppetry-attacken Tekniken utnyttjar ett grundläggande sätt som AI-modeller tolkar instruktioner på. Genom att omformulera […]

The post Ny AI-jailbreak-teknik kringgår säkerhetsåtgärder hos stora språkmodeller first appeared on AI nyheter.