Tag: Tecniche Jailbreak AI
Tecniche di bypass dei controlli di sicurezza e guardrail implementati in modelli di intelligenza artificiale generativa. Include prompt injection avanzate, role-playing attacks, context manipulation, encoding evasion e strategie per aggirare content filtering, safety alignment e policy enforcement nei Large Language Model.


