La "Ley de Innovación Segura y Segura para Modelos de Inteligencia Artificial de Frontera" (también conocida como SB-1047) de California ha generado un aluvión de titulares y debates sobre la "seguridad" de los grandes modelos de inteligencia artificial. Sin embargo, los críticos están preocupados de que el enfoque exagerado de la ley en las amenazas existenciales de los futuros modelos de IA pueda limitar severamente la investigación y el desarrollo para usos más prosaicos y no amenazadores de la IA hoy en día.
El SB-1047, presentado por el senador estatal Scott Wiener, pasó por el Senado de California en mayo con un voto de 32 a 1 y parece estar bien posicionado para una votación final en la Asamblea Estatal en agosto. El texto de la ley requiere que las empresas detrás de modelos de IA lo suficientemente grandes (actualmente establecidos en $100 millones en costos de capacitación y el poder de cálculo implícito en esos costos hoy en día) implementen procedimientos de prueba y sistemas para prevenir y responder a "incidentes de seguridad".
La ley establece una definición legalista de esos incidentes de seguridad que, a su vez, se centra en definir un conjunto de "daños críticos" que un sistema de IA podría habilitar. Eso incluye daños que conduzcan a "muertes masivas o al menos $500 millones de daños", como "la creación o uso de armas químicas, biológicas, radiológicas o nucleares" (¡hola, Skynet?) o "instrucciones precisas para llevar a cabo un ciberataque... en infraestructuras críticas". La ley también alude a "otros daños graves a la seguridad pública y la seguridad que son de severidad comparable" a aquellos establecidos explícitamente.
arstechnica.com
From sci-fi to state law: California’s plan to prevent AI catastrophe
Create attached notes ...