KI- und ML-Nachrichten auf Deutsch

Von Science-Fiction zu Landesgesetz: Kaliforniens Plan, eine KI-Katastrophe zu verhindern

Kaliforniens "Gesetz für sichere und sichere Innovation für künstliche Intelligenzmodelle der Grenze" (auch bekannt als SB-1047) hat zu einer Flut von Schlagzeilen und Debatten über die allgemeine "Sicherheit" großer künstlicher Intelligenzmodelle geführt. Kritiker befürchten jedoch, dass der übertriebene Fokus des Gesetzes auf existenzielle Bedrohungen durch zukünftige KI-Modelle die Forschung und Entwicklung für alltäglichere, nicht bedrohliche KI-Anwendungen heute stark einschränken könnte. SB-1047, von Senator Scott Wiener eingeführt, passierte im Mai den Kalifornischen Senat mit 32 zu 1 Stimmen und scheint gut positioniert für eine endgültige Abstimmung in der Staatsversammlung im August. Der Text des Gesetzes verlangt von Unternehmen, die hinter ausreichend großen KI-Modellen stehen (derzeit auf 100 Millionen Dollar an Trainingskosten und die etwaige Rechenleistung, die heute mit diesen Kosten verbunden ist), Testverfahren und -systeme zu implementieren, um "Sicherheitsvorfälle" zu verhindern und darauf zu reagieren. Das Gesetz definiert juristisch eine Reihe von "kritischen Schäden", die ein KI-System verursachen könnte. Dazu gehören Schäden, die zu "Massenopfern oder mindestens 500 Millionen Dollar Schaden" führen, wie z.B. "die Schaffung oder Verwendung chemischer, biologischer, radiologischer oder nuklearer Waffen" (Hallo, Skynet?) oder "genaue Anweisungen für die Durchführung eines Cyberangriffs... auf kritische Infrastruktur". Das Gesetz verweist auch auf "andere schwere Schäden für die öffentliche Sicherheit und Sicherheit, die mit den explizit genannten Schäden vergleichbar sind".
arstechnica.com
From sci-fi to state law: California’s plan to prevent AI catastrophe
Create attached notes ...