Tag: Out-of-Distribution Testing
Tecniche di testing per valutare il comportamento di modelli di machine learning e sistemi AI quando ricevono input al di fuori della distribuzione dei dati di addestramento. Rileva anomalie, drift, edge case e vulnerabilità legate a dati non previsti, fondamentale per robustezza e sicurezza dei modelli in produzione.
