Tag: Test di Sicurezza Prompt
Metodologie di testing per identificare vulnerabilità di prompt injection, prompt leaking, jailbreak e manipolazione di sistemi basati su Large Language Model. Copre tecniche di validazione input, sanitizzazione prompt, boundary testing e valutazione della robustezza dei guardrail implementati in applicazioni AI generative.


