La loi californienne intitulée "Safe and Secure Innovation for Frontier Artificial Intelligence Models Act" (également connue sous le nom de SB-1047) a suscité un flot d'articles et de débats concernant la sécurité générale des grands modèles d'intelligence artificielle. Cependant, les critiques s'inquiètent que l'accent excessif mis sur les menaces existentielles potentielles des futurs modèles d'IA pourrait sérieusement limiter la recherche et le développement pour des utilisations plus prosaïques et non menaçantes de l'IA aujourd'hui.
Le SB-1047, introduit par le sénateur de l'État Scott Wiener, a été adopté par le Sénat de Californie en mai avec un vote de 32 contre 1 et semble bien placé pour un vote final à l'Assemblée de l'État en août. Le texte de la loi oblige les entreprises derrière les modèles d'IA suffisamment grands (actuellement fixé à 100 millions de dollars en coûts de formation et la puissance de calcul approximative impliquée par ces coûts aujourd'hui) à mettre en place des procédures d'essai et des systèmes pour prévenir et répondre aux "incidents de sécurité".
La loi définit de manière juridique ces incidents de sécurité, ce qui se concentre à son tour sur la définition d'un ensemble de "dommages critiques" qu'un système d'IA pourrait permettre. Cela inclut des dommages menant à "des pertes en vies humaines massives ou au moins 500 millions de dollars de dégâts", tels que "la création ou l'utilisation d'une arme chimique, biologique, radiologique ou nucléaire" (bonjour, Skynet ?) ou "des instructions précises pour mener une cyberattaque... contre des infrastructures critiques". La loi fait également allusion à "d'autres graves dommages à la sécurité et à la sûreté publiques qui sont d'une gravité comparable" à ceux énumérés explicitement.
arstechnica.com
From sci-fi to state law: California’s plan to prevent AI catastrophe
Create attached notes ...