Tag: AI Privacy Attack Testing
Tecniche di testing per verificare la resistenza dei sistemi AI a attacchi che mirano a estrarre dati sensibili, informazioni di training o PII (Personally Identifiable Information) dai modelli. Include membership inference attack, model inversion, data extraction tramite prompt injection e analisi delle risposte per rilevare leakage di informazioni riservate o confidenziali presenti nei dataset di addestramento.





