A "Lei de Inovação Segura e Segura para Modelos de Inteligência Artificial de Fronteira" (também conhecida como SB-1047) da Califórnia gerou uma onda de manchetes e debates sobre a "segurança" dos grandes modelos de inteligência artificial. No entanto, os críticos estão preocupados com o fato de que o foco excessivo da lei em ameaças existenciais de modelos de IA futuros possa limitar severamente a pesquisa e o desenvolvimento para usos mais prosaicos e não ameaçadores de IA hoje.
A SB-1047, apresentada pelo senador estadual Scott Wiener, passou pelo Senado da Califórnia em maio com um voto de 32 a 1 e parece bem posicionada para um voto final na Assembleia Estadual em agosto. O texto da lei exige que as empresas por trás de modelos de IA suficientemente grandes (atualmente estabelecidos em $100 milhões em custos de treinamento e o poder de computação implícito naqueles custos hoje) implementem procedimentos de teste e sistemas para prevenir e responder a "incidentes de segurança".
A lei define legalisticamente esses incidentes de segurança, que por sua vez se concentram em definir um conjunto de "danos críticos" que um sistema de IA pode habilitar. Isso inclui danos que levam a "vítimas em massa ou ao menos $500 milhões de danos", como "a criação ou uso de armas químicas, biológicas, radiológicas ou nucleares" (olá, Skynet?) ou "instruções precisas para conduzir um ataque cibernético... em infraestrutura crítica". A lei também alude a "outros graves danos à segurança pública e à segurança que são de severidade comparável" àquelas explicitamente mencionadas.
arstechnica.com
From sci-fi to state law: California’s plan to prevent AI catastrophe
Create attached notes ...