Tag: Large Language Model Security
Sicurezza dei Large Language Model, dalle minacce specifiche ai modelli generativi alle difese implementabili. Copre prompt injection, jailbreak, data exfiltration tramite output, model poisoning, supply chain risk nei foundation model, vulnerabilità di fine-tuning, oltre a controlli di accesso, sandboxing e monitoraggio runtime per deployment sicuri di LLM.




