Tag: Out-of-Distribution Testing

Tecniche di testing per valutare il comportamento di modelli di machine learning e sistemi AI quando ricevono input al di fuori della distribuzione dei dati di addestramento. Rileva anomalie, drift, edge case e vulnerabilità legate a dati non previsti, fondamentale per robustezza e sicurezza dei modelli in produzione.