Tag: Testing for Indirect Prompt Injection
Verifica della vulnerabilità a iniezioni di prompt indirette in sistemi LLM, dove input malevoli provenienti da fonti esterne (documenti, API, database) manipolano il comportamento del modello senza intervento diretto dell’utente. Include tecniche di testing per rilevare payload nascosti in contenuti recuperati dinamicamente, cross-context injection e attacchi che sfruttano la fiducia implicita del sistema verso dati non sanitizzati.
