Tag: Testing for Unsafe Outputs

Verifica della sicurezza degli output generati da sistemi AI e LLM, con focus su contenuti potenzialmente dannosi, injection attacks, generazione di codice malevolo o istruzioni pericolose. Include test per XSS, command injection, SQL injection e altre vulnerabilità derivanti da output non sanitizzati o manipolabili attraverso prompt crafting e context poisoning.