Tag: AI Safety

Disciplina che studia e implementa misure per garantire che i sistemi AI operino in modo sicuro, affidabile e allineato agli obiettivi previsti. Copre alignment dei modelli, robustness contro input avversi, interpretabilità delle decisioni, gestione dell’incertezza, fail-safe mechanisms, monitoraggio comportamentale e prevenzione di output dannosi o non intenzionali in contesti critici.