Google Cloudのセキュリティチームは、AIによる組織のリスクを探索するために大きな進歩を遂げています。那には、AI Red Teamの開発やSecure AI Framework(SAIF)の取り組みを共有することが含まれます。Google Cloudの脆弱性研究チームは、Vertex AIにおける未知の脆弱性を発見し、修復しました。また、他の大きなクラウドプロバイダーにおける同様の脆弱性も研究しました。AI開発者がAIセキュリティ研究を共有することを標準化することが、グローバルなセキュリティ標準を高めるために不可欠です。業界は、脆弱性を発見し修復することをより容易にするべきであり、より困難にするべきではありません。Secure AI Framework(SAIF)やCoalition for Secure AIは、AIの進歩を支える技術を安全にするために重要な役割を果たします。Google Cloudは、プラットフォームやツール全体にわたってリスク軽減をサポートする一貫したコントロールフレームワークを提唱しています。また、Confidential ComputingをAIと組み合わせて顧客の問題を解決することもサポートしています。さらに、Google Cloudのポッドキャストでは、継承されたクラウドプロジェクトのセキュリティ、LLMsを使用したWindowsバイナリの分析、及びマルチファクターオーセンティケーションをバイパスする脅威アクターについて議論しています。
cloud.google.com
Cloud CISO Perspectives: AI vendors should share vulnerability research. Here’s why
