Tag: Testing for Fine-tuning Poisoning
Verifica della vulnerabilità di modelli AI a tecniche di avvelenamento durante la fase di fine-tuning. Copre scenari in cui dati malevoli o manipolati vengono introdotti nel dataset di specializzazione per alterare il comportamento del modello, inserire backdoor, degradare le performance su task specifici o introdurre bias intenzionali senza compromettere visibilmente le metriche generali.
