L'Istituto Nazionale di Standard e Tecnologia (NIST), l'agenzia del Dipartimento del Commercio degli Stati Uniti che sviluppa e testa la tecnologia per il governo degli Stati Uniti, le aziende e il pubblico più ampio, ha ripubblicato un testbed progettato per misurare come gli attacchi maligni - in particolare gli attacchi che "avvelenano" i dati di addestramento del modello di intelligenza artificiale - potrebbero degradare le prestazioni di un sistema di intelligenza artificiale.
techcrunch.com
NIST releases a tool for testing AI model risk
Create attached notes ...
