Les équipes de sécurité de Google Cloud ont réalisé des progrès importants dans l'exploration des risques auxquels les organisations sont confrontées en raison de l'IA, notamment en développant l'équipe AI Red Team et en partageant les efforts du Secure AI Framework (SAIF). L'équipe de recherche sur les vulnérabilités de Google Cloud a découvert et remédié des vulnérabilités inconnues jusqu'alors dans Vertex AI, et a également recherché des vulnérabilités similaires chez un autre grand fournisseur de cloud. Il est crucial pour les développeurs d'IA de normaliser le partage de la recherche sur la sécurité de l'IA pour améliorer les normes de sécurité à l'échelle mondiale. L'industrie devrait faciliter la découverte et la correction des vulnérabilités, et non les rendre plus difficiles. La Coalition pour une IA sécurisée et le Secure AI Framework (SAIF) open-source jouent un rôle important dans la protection de la technologie qui soutient les progrès de l'IA. Google Cloud plaide en faveur de cadres de contrôle cohérents qui peuvent soutenir l'atténuation des risques liés à l'IA et élargir les protections à travers les plateformes et les outils. L'entreprise soutient également l'utilisation de l'informatique confidentielle pour résoudre les problèmes des clients lorsqu'elle est combinée avec l'IA. De plus, les podcasts de Google Cloud discutent de la sécurisation des projets cloud hérités, de l'utilisation des LLM pour analyser les binaires Windows et de la manière dont les acteurs malveillants contournent l'authentification à plusieurs facteurs.
cloud.google.com
Cloud CISO Perspectives: AI vendors should share vulnerability research. Here’s why
