Californias "Sikker og Sikker Innovasjon for Frontfører Kunstig Intelligensmodeller Lov" (også kjent som SB-1047) har ført til en flodbølge av overskrifter og debatter omkring den generelle "sikkerheten" for store kunstige intelligensmodeller. Men kritikere er bekymret for at lovens overdrevne fokus på eksistensielle trusler fra fremtidige AI-modeller kan begrense forskning og utvikling for mer terrestriske, ikke-truende AI-bruk i dag.
SB-1047, introdusert av statssenator Scott Wiener, ble vedtatt i Californias senat i mai med en stemme på 32-1 og ser ut til å være godt posisjonert for en final avstemning i statsforsamlingen i august. Lovteksten krever at selskaper bak tilstrekkelig store AI-modeller (nåværende grense er satt til 100 millioner dollar i treningskostnader og den omtrentlige beregningskraften som følger av disse kostnadene i dag) skal etablere testprosedyrer og systemer for å forebygge og reagere på "sikkerhetshendelser."
Loven definerer en juridisk definisjon av disse sikkerhetshendelsene, som i sin tur fokuserer på å definere en rekke "kritiske skader" som et AI-system kan muliggjøre. Dette inkluderer skader som fører til "massedrap eller minst 500 millioner dollar i skader," som "skapelsen eller bruk av kjemiske, biologiske, radiologiske eller nukleære våpen" (hej, Skynet?) eller "presise instruksjoner for å utføre et cyberangrep... på kritisk infrastruktur." Loven henviser også til "andre alvorlige skader på offentlig sikkerhet og sikkerhet som er av sammenlignbar alvorlighet" med de som er spesifisert eksplisitt.
arstechnica.com
From sci-fi to state law: California’s plan to prevent AI catastrophe
Create attached notes ...