Kalifornian "Turvallinen ja vakaavarainen innovaatio rajapintaisten tekoälymallien osalta" -laki (tunnetaan myös nimellä SB-1047) on herättänyt runsaasti otsikoita ja keskustelua siitä, kuinka "turvallisia" suuret tekoälymallit ovat. Kriitikot kuitenkin huolestuvat siitä, että lakiin sisältyvä liioiteltu painotus tulevaisuuden tekoälymallien eksistentialistisissa uhkissa saattaa rajata rajusti tutkimuksen ja kehityksen prosaamman, ei-uhkaavan tekoälyn käytössä tänään.
SB-1047, jonka esitteli osavaltion senaattori Scott Wiener, hyväksyttiin Kalifornian senaatissa toukokuussa 32-1-äänestyksellä ja näyttää hyvältä valmiudelta loppuäänestykseen osavaltion edustajakokouksessa elokuussa. Lain teksti vaatii suurten tekoälymallien takana olevat yritykset luomaan testausmenetelmät ja -järjestelmät "turvallisuusvaikutusten" ehkäisemiseksi ja niiden vastaamiseksi.
Laki määrittelee turvallisuusvaikutukset oikeudellisesti ja keskittyy määrittelemään "kriittiset vahingot", joita tekoälyjärjestelmä saattaisi aiheuttaa. Tämä kattaa vahingot, jotka johtavat "massiivisiin uhreihin tai vähintään 500 miljoonan dollarin vahinkoihin", kuten "kemiallisten, biologisten, radiologisten tai ydinaseiden luominen tai käyttö" (heippa, Skynet!) tai "tarkat ohjeet toteuttamiseksi kyberhyökkäyksellä... kriittisessä infrastruktuureissa". Laki myös viittaa "muiden vakaviin yleiseen turvallisuuteen ja turvallisuuteen liittyviin vahinkoihin", jotka ovat samanlaisia vakavuuden tasolla kuin erikseen mainitut.
arstechnica.com
From sci-fi to state law: California’s plan to prevent AI catastrophe
Create attached notes ...