• Home
  • Servizi
  • Contatti
ISGroup SRL CyberSecurity

La vostra risorsa per le operazioni di ITSEC, Ethical Hacking, Penetration Testing e formazione.

  • Home
  • Servizi
  • Contatti
  • Facebook
  • Instagram
  • LinkedIn

Tag: Mitigazioni LLM attacchi

Tecniche e contromisure per proteggere Large Language Model da attacchi specifici come prompt injection, data poisoning, model inversion e jailbreak. Include strategie di input validation, output filtering, rate limiting, sandboxing e monitoraggio comportamentale per sistemi LLM in produzione.

  • AITG-INF-02: Testing for Resource Exhaustion

    AITG-INF-02: Testing for Resource Exhaustion

  • Minacce e strategie di mitigazione per Agentic AI sicura

    Minacce e strategie di mitigazione per Agentic AI sicura

  • Continuous Monitoring e Osservabilità per la Sicurezza LLM

    Continuous Monitoring e Osservabilità per la Sicurezza LLM

  • Blueprint GenAI Red Teaming: approccio strutturato in 4 fasi

    Blueprint GenAI Red Teaming: approccio strutturato in 4 fasi

  • Threat Modeling per AI e LLM: framework OWASP e mitigazioni operative

    Threat Modeling per AI e LLM: framework OWASP e mitigazioni operative

  • Test system prompt leakage vulnerabilita nei LLM

    Test system prompt leakage vulnerabilita nei LLM

  • Test vulnerabilità fughe dati sensibili nei modelli AI

    Test vulnerabilità fughe dati sensibili nei modelli AI

  • Prompt Injection Indiretto AI sicurezza e mitigazioni

    Prompt Injection Indiretto AI sicurezza e mitigazioni

  • Prompt Injection LLM Analisi Tecniche e Mitigazioni

    Prompt Injection LLM Analisi Tecniche e Mitigazioni

  • AITG-APP-08: Testing for Embedding Manipulation

    AITG-APP-08: Testing for Embedding Manipulation

1 2
Next→

© 2026

ISGroup SRL

Tutti i diritti riservati.

Azienda certificata ISO 9001 e ISO 27001.

Privacy Policy  Cookie Policy Sitemap