La "Legge per l'Innovazione Sicura e Sicura per Modelli di Intelligenza Artificiale di Frontiera" (conosciuta anche come SB-1047) in California ha generato un'ondata di titoli e dibattiti riguardo alla "sicurezza" complessiva dei grandi modelli di intelligenza artificiale. Tuttavia, i critici sono preoccupati che l'enfasi eccessiva del disegno di legge sui minacciosi pericoli esistenziali rappresentati dai futuri modelli di IA potrebbe limitare gravemente la ricerca e lo sviluppo per utilizzi più prosaici e non minacciosi dell'IA oggi.
Il disegno di legge SB-1047, presentato dal senatore statale Scott Wiener, è stato approvato dal Senato della California a maggio con un voto di 32 a 1 e sembra ben posizionato per un voto finale nell'Assemblea statale ad agosto. Il testo del disegno di legge richiede alle società dietro i modelli di IA sufficientemente grandi (attualmente fissati a 100 milioni di dollari in costi di formazione e il relativo potere di calcolo implicato da quei costi oggi) di mettere in atto procedure di test e sistemi per prevenire e rispondere a "incidenti di sicurezza".
Il disegno di legge stabilisce una definizione legalistica di quegli incidenti di sicurezza che a loro volta si concentrano su una serie di "danni critici" che un sistema di IA potrebbe permettere. Ciò include danni che portano a "vittime multiple o almeno 500 milioni di dollari di danni", come "la creazione o l'utilizzo di armi chimiche, biologiche, radiologiche o nucleari" (ciao, Skynet?) o "istruzioni precise per condurre un attacco informatico... su infrastrutture critiche". Il disegno di legge fa anche riferimento ad "altri gravi danni alla sicurezza pubblica e alla sicurezza che sono di gravità comparabile" a quelli elencati esplicitamente.
arstechnica.com
From sci-fi to state law: California’s plan to prevent AI catastrophe
Create attached notes ...