Californiens "Sikker og Sikker Innovation for Grænseforsknings Kunstig Intelligensmodeller Lov" (også kendt som SB-1047) har ført til en række overskrifter og debatter om den overordnede "sikkerhed" af store kunstige intelligensmodeller. Men kritikere er bekymrede for, at lovbilletens overdrevne fokus på eksistensielle trusler fra fremtidige AI-modeller kan begrænse forskning og udvikling for mere prosaiske, ikke-truende AI-anvendelser i dag.
SB-1047, introduceret af statsenator Scott Wiener, blev vedtaget i Californiens senat i maj med en stemme på 32-1 og synes at være godt positioneret for en endelig afstemning i statens forsamling i august. Lovbillet kræver, at virksomhederne bag tilstrækkeligt store AI-modeller (i øjeblikket fastsat til $100 millioner i træningsomkostninger og den omtrentlige beregningskraft, der er impliceret af disse omkostninger i dag) skal etablere testprocedurer og systemer for at forebygge og reagere på "sikkerhedsincidenter."
Lovbillet definerer en juridisk definition af disse sikkerhedsincidenter, som i sin tur fokuserer på at definere en række "kritiske skader", som et AI-system kan muliggøre. Dette omfatter skader, der kan føre til "massedrab eller mindst $500 millioner i skader", såsom "skabelsen eller brugen af kemiske, biologiske, radiologiske eller nukleare våben" (hej, Skynet?) eller "præcise instruktioner for at udføre et cyberangreb... på kritisk infrastruktur." Lovbillet henviser også til "andre alvorlige skader på offentlig sikkerhed og sikkerhed, der er af sammenlignelig alvorlighed" med dem, der er udtrykkeligt fastlagt.
arstechnica.com
From sci-fi to state law: California’s plan to prevent AI catastrophe
Create attached notes ...