Wie Hacker KI austricksen
Das KI-Modell DeepSeek-R1 setzt auf Chain-of-Thought (CoT) Reasoning, um Denkprozesse transparent zu machen. Doch diese Transparenz birgt Risiken: Sicherheitslücken ermöglichen Prompt-Injection-Angriffe, das Auslesen interner System-Prompts und das Offenlegen sensibler Daten wie API-Schlüssel. Trend Micro schlägt Alarm – und zeigt, warum Unternehmen beim Einsatz von generativer KI neue Sicherheitsstrategien brauchen.
:quality(80)/p7i.vogel.de/wcms/48/6f/486fe36273660b81eded55651cbc161f/0123295403v1.jpeg?#)
:quality(80)/p7i.vogel.de/wcms/48/6f/486fe36273660b81eded55651cbc161f/0123295403v1.jpeg)