Tag: Model Poisoning Protection
Protezione dei modelli di machine learning da attacchi di poisoning durante le fasi di training e fine-tuning. Include tecniche di data sanitization, validazione degli input di addestramento, rilevamento di backdoor, difese contro manipolazione dei dataset e strategie di hardening per prevenire compromissioni intenzionali che alterano il comportamento del modello.


