Tag: Testing for Poisoned Training Sets

Training data poisoning è un attacco alla supply chain dei modelli AI in cui dati malevoli o manipolati vengono introdotti nel dataset di addestramento per compromettere il comportamento del modello. Il testing verifica se un sistema AI è stato addestrato su dati contaminati che causano bias intenzionali, backdoor, output manipolati su trigger specifici o degradazione delle performance su determinati input. Include analisi di data provenance, detection di pattern anomali e validazione della robustezza del modello contro dataset corrotti.