La categoria AI Model Testing riguarda le vulnerabilità e la robustezza del modello AI stesso, senza considerare il contesto di deployment. Questa categoria si concentra sulle proprietà intrinseche e sui comportamenti dei modelli, per garantire prestazioni affidabili anche in condizioni avverse, prevenire leakage di informazioni sensibili e assicurare l’allineamento con gli obiettivi previsti.
Importanza dei test sul modello AI
I test effettuati a livello di modello permettono di rilevare debolezze fondamentali, come la suscettibilità ad attacchi di evasione, data poisoning, fughe di privacy e problemi di disallineamento. Queste fragilità potrebbero influire negativamente su tutte le implementazioni del modello. Test approfonditi sono indispensabili per salvaguardare integrità, sicurezza e affidabilità di sistemi AI.
Ambito della categoria AI Model Testing
- Robustezza contro attacchi di evasione avversaria
- AITG-MOD-01: Testing for Evasion Attacks
- Protezione da model poisoning durante il runtime
- AITG-MOD-02: Testing for Runtime Model Poisoning
- Resistenza a poisoning durante il training
- AITG-MOD-03: Testing for Poisoned Training Sets
- Tutela della privacy contro attacchi di inference e inversion
- AITG-MOD-04: Testing for Membership Inference
- AITG-MOD-05: Testing for Inversion Attacks
- Robustezza di fronte a dati nuovi o avversari
- AITG-MOD-06: Testing for Robustness to New Data
- Allineamento costante con obiettivi e vincoli definiti
- AITG-MOD-07: Testing for Goal Alignment
Benefici del model testing
Ogni test contribuisce a garantire la resilienza di base, l’affidabilità e la sicurezza dei modelli AI, riducendo i rischi sistemici nelle diverse applicazioni e deployment.
Riepilogo
L’AI Model Testing è cruciale per preservare la solidità, la sicurezza e l’allineamento degli AI system, assicurando che il modello resti affidabile e sicuro in ogni sua applicazione.
