AI en ML nieuws in het Nederlands

Van sciencefiction tot staatswet: Californië's plan om AI-catastrofe te voorkomen

De "Safe and Secure Innovation for Frontier Artificial Intelligence Models Act" van Californië (ook bekend als SB-1047) heeft een golf van koppen en debatten veroorzaakt over de algehele "veiligheid" van grote kunstmatige intelligentiemodellen. Maar critici maken zich zorgen dat de overmatige focus van de wet op existentiële bedreigingen door toekomstige AI-modellen de onderzoek- en ontwikkeling van meer alledaagse, niet-bedreigende AI-toepassingen vandaag de dag ernstig kan beperken. SB-1047, ingediend door State Senator Scott Wiener, werd in mei door de Californische Senaat aangenomen met een stemverhouding van 32-1 en lijkt goed geplaatst voor een finale stemming in de State Assembly in augustus. De tekst van de wet vereist dat bedrijven achter voldoende grote AI-modellen (momenteel vastgesteld op $100 miljoen aan trainingskosten en de ruwe rekenkracht die deze kosten vandaag impliceren) testprocedures en -systemen in plaats stellen om "veiligheidsincidenten" te voorkomen en op te reageren. De wet legt een juridische definitie vast van deze veiligheidsincidenten, die op zijn beurt focust op het definiëren van een set "kritieke schaden" die een AI-systeem zou kunnen veroorzaken. Dat omvat schaden die leiden tot "massale slachtoffers of ten minste $500 miljoen schade", zoals "de creatie of het gebruik van chemische, biologische, radiologische of nucleaire wapens" (hallo, Skynet?) of "precieze instructies voor het uitvoeren van een cyberaanval... op kritieke infrastructuur". De wet verwijst ook naar "andere ernstige schaden voor de openbare veiligheid en veiligheid die van vergelijkbare ernst zijn" als die expliciet genoemd.
arstechnica.com
From sci-fi to state law: California’s plan to prevent AI catastrophe
Create attached notes ...