Tag: Testing for Model Extraction
Verifica della resistenza di un modello AI a tentativi di estrazione o clonazione tramite query strategiche. Include tecniche di testing per rilevare vulnerabilità a model stealing attacks, dove un attaccante ricostruisce parametri, architettura o comportamento del modello attraverso interrogazioni ripetute, analisi delle distribuzioni di output o sfruttamento di API prediction senza adeguate protezioni.
