Tag: Testing for Runtime Model Poisoning

Valutazione della resilienza di modelli AI/ML contro attacchi di avvelenamento durante l’esecuzione, dove input malevoli o feedback manipolati alterano il comportamento del modello in produzione. Include test per backdoor injection, data poisoning incrementale, adversarial retraining e compromissione di pipeline di continuous learning in ambienti operativi.