Die Sicherheitsteams von Google Cloud haben bei der Erforschung der Risiken, denen Organisationen durch KI ausgesetzt sind, erhebliche Fortschritte gemacht, einschließlich der Entwicklung des AI Red Team und der Veröffentlichung der Bemühungen um das Secure AI Framework (SAIF). Das Google Cloud Vulnerability Research-Team entdeckte und behebte zuvor unbekannte Sicherheitslücken in Vertex AI und erforschte ähnliche Sicherheitslücken bei einem anderen großen Cloud-Anbieter. Es ist von entscheidender Bedeutung, dass KI-Entwickler die Veröffentlichung von KI-Sicherheitsforschung normalisieren, um die Sicherheitsstandards weltweit zu verbessern. Die Branche sollte es einfacher machen, Sicherheitslücken zu finden und zu beheben, anstatt schwieriger. Die Coalition for Secure AI und das Open-Source-Secure AI Framework (SAIF) spielen wichtige Rollen bei der Sicherung der Technologie, die KI-Fortschritte unterstützt. Google Cloud setzt sich für konsistente Kontrollframeworks ein, die die Risikominderung von KI unterstützen und den Schutz über Plattformen und Tools hinweg skalieren können. Das Unternehmen unterstützt auch die Verwendung von Confidential Computing, um Kundenprobleme zu lösen, wenn es mit KI kombiniert wird. Darüber hinaus diskutieren die Podcasts von Google Cloud die Sicherung von geerbten Cloud-Projekten, die Verwendung von LLMs zur Analyse von Windows-Binärdateien und wie Bedrohungsakteure die Zwei-Faktor-Authentifizierung umgehen.
cloud.google.com
Cloud CISO Perspectives: AI vendors should share vulnerability research. Here’s why
Create attached notes ...
