Tag: AITG-MOD-02
Controllo AITG-MOD-02 per il testing di runtime model poisoning, verificando la resilienza del modello AI contro attacchi che tentano di corrompere o manipolare il modello durante l’esecuzione, attraverso input malevoli o tecniche di adversarial machine learning.
