Tag: Tecniche GenAI Red Teaming
Metodologie e approcci operativi per testare la sicurezza e robustezza di sistemi di intelligenza artificiale generativa. Include tecniche di prompt injection, jailbreaking, manipolazione contestuale, evasione di guardrail, estrazione di dati sensibili dal training set e attacchi adversarial specifici per LLM. Copre sia testing manuale che automatizzato per identificare vulnerabilità nei modelli generativi prima del deployment in produzione.
