"Gelişmiş Yapay Zeka Modelleri için Güvenli ve Emniyetli İnovasyon Yasası" (SB-1047 olarak da bilinir) adlı bir Kaliforniya yasa tasarısı, büyük ölçekli YZ modellerinin genel "güvenliği" konusunda bir manşet ve tartışma dalgası yarattı. Bununla birlikte, eleştirmenler, tasarının gelecekteki YZ modellerinin oluşturabileceği varoluşsal tehditlere aşırı vurgu yapmasının, bugün YZ'nin daha gerçekçi, güvenliği tehdit etmeyen kullanımları için araştırma ve geliştirmeyi ciddi şekilde sınırlayabileceğinden endişe duyuyorlar.
Senatör Scott Wiener tarafından sunulan SB-1047, Mayıs ayında Kaliforniya Senatosu'ndan 32 lehte ve 1 aleyhte oyla geçti ve Ağustos ayında Eyalet Meclisi'nde nihai oylama için iyi bir konumda görünüyor. Tasarı metni, yeterince büyük yapay zeka modelleri geliştiren şirketlerin (bugün 100 milyon dolarlık eğitim maliyeti ve ilgili bilgi işlem gücü olarak tanımlanıyor) "güvenlik olaylarını" önlemek ve bunlara müdahale etmek için test prosedürleri ve sistemleri uygulamalarını gerektiriyor.
Tasarı, bu güvenlik olaylarının yasal bir tanımını sunmakta ve bu da bir YZ sisteminin neden olabileceği bir dizi "kritik zararı" tanımlamaya odaklanmaktadır. Buna "kimyasal, biyolojik, radyolojik veya nükleer silahların yaratılması veya kullanılması" (merhaba Skynet?) veya "kritik altyapıya siber saldırı.... gerçekleştirmek için kesin talimatlar" gibi "kitlesel kayıplara veya en az 500 milyon dolarlık hasara" yol açan zararlar dahildir. kesin talimatlar" gibi. Tasarıda ayrıca "kamu emniyeti ve güvenliğine yönelik olarak ciddiyet bakımından karşılaştırılabilir diğer ciddi zararlar" da açıkça belirtilenlere atıfta bulunulmaktadır.
arstechnica.com
From sci-fi to state law: California’s plan to prevent AI catastrophe
Create attached notes ...