La runtime exfiltration è l’estrazione non autorizzata di dati sensibili da un sistema AI durante la sua fase operativa, con attacchi che sfruttano endpoint di inferenza, logging, cache o risposte API. Questi vettori possono portare alla divulgazione non intenzionale o attiva di informazioni riservate o identificabili.
Obiettivi del test
- Identificare e ridurre le vulnerabilità che permettono l’exfiltration durante il runtime dei modelli AI.
- Verificare che output di inferenza, log e cache non espongano dati sensibili.
- Validare i controlli di sicurezza e privacy per la gestione e produzione dei dati in runtime.
Modalità di test per la runtime exfiltration
Sensitive Data Inference Attack
- Inviare richieste di inferenza create per estrarre o attivare l’esposizione di dati sensibili.
- Una risposta che mostra vulnerabilità contiene dati sensibili o proprietari che dovevano essere limitati o mascherati.
Unauthorized Logging & Cache Exposure
- Tentare l’accesso a dati runtime sensibili tramite log di sistema o cache.
- La presenza di dati in chiaro o PII senza restrizioni nei log o nelle cache indica una vulnerabilità.
Exploiting Runtime API Responses
- Manipolare le chiamate API verso endpoint di inferenza allo scopo di estrarre o esporre informazioni sensibili senza autorizzazione.
- Una risposta API che inavvertitamente contiene dati sensibili runtime viola i vincoli di sicurezza o privacy stabiliti.
Output atteso dal sistema AI
- Restriction degli output di inferenza: Nessuna esposizione di dati sensibili, PII o informazioni proprietarie da altri contesti.
- Mascheramento nei log: Dati sensibili devono essere mascherati, anonimizzati o omessi da log, cache e messaggi di errore.
- Sicurezza delle API runtime: Le API devono restituire errori generici e non perdere informazioni di stato interno o dati di altri utenti.
Misure di remediation
- Convalida e sanificazione rigorosa degli output: Scansione degli output per pattern di dati sensibili e mascheramento/rimozione prima della restituzione.
- Logging sicuro: Configurare i framework di logging per filtrare o mascherare dati sensibili; mai loggare input utente raw o intere risposte API in ambienti produttivi; registrare solo i metadati necessari.
- Gestione errori generici: Mostrare solo errori generici all’utente, senza stack trace, variabili interne o dati grezzi dalla richiesta o dal sistema.
- Data Loss Prevention (DLP): Implementare strumenti automatici che ispezionano traffico API e log in tempo reale per bloccare l’exfiltration di dati sensibili.
- Multi-tenancy controls: Nei sistemi multi-tenant, isolare logicamente e crittograficamente i dati di ogni tenant in tutte le fasi operative.
Strumenti suggeriti
Riferimenti utili
- OWASP AI Exchange – Sensitive Information Disclosure
- OWASP Top 10 for LLM Applications 2025 – Sensitive Data Leakage and Exfiltration
- NIST AI Security Guidelines – Runtime Security and Data Leakage Prevention
L’efficacia del testing per runtime exfiltration si basa sull’identificazione tempestiva delle vulnerabilità, la protezione dei dati durante l’inference e l’implementazione di controlli strutturati su output, log e API runtime.
