Tag: Testing for Over-Reliance on AI
Over-reliance on AI identifica scenari in cui utenti o sistemi si affidano eccessivamente alle decisioni di un modello AI senza adeguata supervisione umana o validazione, causando rischi operativi e di sicurezza. Il testing verifica se l’applicazione implementa controlli sufficienti per prevenire decisioni critiche automatizzate senza review, se comunica correttamente i limiti del modello, se gestisce hallucination e output errati, e se prevede fallback umani per operazioni ad alto impatto. Rilevante per sistemi AI in ambito medico, finanziario, legale e decision-making critico.
