Команды безопасности Google Cloud добились значительного прогресса в исследовании рисков, с которыми сталкиваются организации из-за ИИ, включая разработку команды Red Team по ИИ и обмен опытом в рамках инициативы Secure AI Framework (SAIF). Команда по исследованию уязвимостей Google Cloud обнаружила и устранила ранее неизвестные уязвимости в Vertex AI, а также провела исследование аналогичных уязвимостей у другого крупного провайдера облачных услуг. Очень важно, чтобы разработчики ИИ нормализовали обмен результатами исследований безопасности ИИ для улучшения стандартов безопасности в глобальном масштабе. Индустрия должна упрощать поиск и исправление уязвимостей, а не усложнять. Коалиция за безопасный ИИ и открытый Secure AI Framework (SAIF) играют важную роль в обеспечении безопасности технологий, поддерживающих прогресс в области ИИ. Google Cloud выступает за единые контрольные рамки, которые могут поддерживать уменьшение рисков ИИ и масштабировать защиту на различных платформах и инструментах. Компания также поддерживает использование конфиденциального вычисления для решения задач клиентов в сочетании с ИИ. Кроме того, подкасты Google Cloud обсуждают вопросы безопасности унаследованных облачных проектов, использование языковых моделей для анализа двоичных файлов Windows и методы, которые используют злоумышленники для обхода многофакторной аутентификации.
cloud.google.com
Cloud CISO Perspectives: AI vendors should share vulnerability research. Here’s why
Create attached notes ...
