Tag: Testing for Evasion Attacks
Tecniche di testing per valutare la resilienza di sistemi AI contro attacchi di evasione, in cui un avversario manipola gli input per eludere detection, classificazione o controlli di sicurezza. Include adversarial examples, perturbazioni impercettibili, prompt injection, jailbreak e altre strategie per aggirare le difese del modello senza alterarne la struttura interna.
