Kaliforniens "Lag om Säker och Säker Innovation för Frontlinje-AI-modeller" (även känd som SB-1047) har lett till en storm av rubriker och debatter om den övergripande "säkerheten" för stora artificiella intelligensmodeller. Men kritiker är oroliga för att lagens överdrivna fokus på existentiella hot från framtida AI-modeller kan begränsa forskning och utveckling för mer vardagliga, icke-hotande AI-användningar idag.
SB-1047, introducerad av statssenator Scott Wiener, passerade Kaliforniens senat i maj med en röstning på 32-1 och verkar vara väl positionerad för en slutlig omröstning i delstatsförsamlingen i augusti. Lagtexten kräver att företag bakom tillräckligt stora AI-modeller (för närvarande satt till 100 miljoner dollar i utbildningskostnader och den ungefärliga beräkningskraft som dessa kostnader implicerar idag) ska inrätta testprocedurer och system för att förhindra och svara på "säkerhetsincidenter".
Lagen definierar juridiskt "säkerhetsincidenter" som i sin tur fokuserar på att definiera en uppsättning "kritiska skador" som ett AI-system kan möjliggöra. Detta inkluderar skador som leder till "masskatastrofer eller åtminstone 500 miljoner dollar i skador", såsom "skapandet eller användningen av kemiska, biologiska, radiologiska eller nukleära vapen" (hej, Skynet?) eller "precisa instruktioner för att genomföra en cyberattack... mot kritisk infrastruktur". Lagen hänvisar också till "andra allvarliga skador på allmän säkerhet och säkerhet som är av jämförbar svårighetsgrad" med de som uttryckligen anges.
arstechnica.com
From sci-fi to state law: California’s plan to prevent AI catastrophe
Create attached notes ...