Tag: Data Poisoning
Attacchi di avvelenamento dei dati nei sistemi di machine learning: manipolazione intenzionale dei dataset di training per compromettere l’integrità, l’accuratezza o il comportamento del modello, inserimento di sample malevoli, backdoor injection, label flipping, tecniche di poisoning mirate a causare misclassificazioni, evasion o degradazione delle performance, difese basate su data sanitization, anomaly detection e robust training.
