Tag: Mitigazioni LLM attacchi
Tecniche e contromisure per proteggere Large Language Model da attacchi specifici come prompt injection, data poisoning, model inversion e jailbreak. Include strategie di input validation, output filtering, rate limiting, sandboxing e monitoraggio comportamentale per sistemi LLM in produzione.




