Tag: Testing for Input Leakage
Verifica della capacità di un sistema AI di esporre involontariamente input utente o prompt di sistema attraverso output, log, cache o side-channel. Copre tecniche di testing per rilevare fughe di informazioni sensibili tramite reflection attacks, prompt echoing, context bleeding tra sessioni diverse e esposizione di istruzioni di sistema o template interni del modello.
