Tag: Testing for Prompt Injection

Prompt injection è una tecnica di attacco contro sistemi basati su Large Language Model (LLM) che consente di manipolare il comportamento del modello inserendo istruzioni malevole nel prompt utente. Il testing verifica se un’applicazione AI è vulnerabile a input crafted che sovrascrivono, bypassano o alterano le istruzioni di sistema, causando output non autorizzati, data leakage o esecuzione di azioni impreviste. Include tecniche di direct injection, indirect injection tramite contenuti esterni, e jailbreak per eludere policy di sicurezza.