RSS 클라우드 블로그

클라우드 CISO 관점: AI 벤더는 취약점 연구를 공유해야 한다. 이유는 다음과 같다.

구글 클라우드의 보안 팀은 인공지능으로부터 조직이 직면하는 위험을 탐색하는 데 상당한 진전을 이루었으며, 인공지능 레드 팀(AI Red Team)을 개발하고 보안 인공지능 프레임워크(Secure AI Framework, SAIF) 노력을 공유했습니다. 구글 클라우드 취약성 연구 팀은 이전에 알려지지 않은 버텍스 AI의 취약성을 발견하고 수정했으며, 다른 대형 클라우드 제공업체의 유사한 취약성을 연구했습니다. 인공지능 개발자가 보안 표준을 향상시키기 위해 인공지능 보안 연구를 공유하는 것을 정상화하는 것이 중요합니다. 산업은 취약성을 찾고 수정하는 것을 더 어렵게 만들기보다는 더 쉽게 만들어야 합니다. 보안 인공지능 연합(Coalition for Secure AI)과 오픈 소스 보안 인공지능 프레임워크(SAIF)는 인공지능 발전에 지원하는 기술을 보호하는 데 중요한 역할을 합니다. 구글 클라우드는 인공지능 위험 완화를 지원하고 플랫폼 및 도구 전반에 걸쳐 보호를 확장할 수 있는 일관된 제어 프레임워크를 옹호합니다. 또한, 구글 클라우드는 기밀 컴퓨팅을 인공지능과 결합하여 고객의 문제를 해결하는 데 사용하는 것을 지원합니다. 또한, 구글 클라우드의 팟캐스트에서는 클라우드 프로젝트를 상속받은 보안, 윈도우 바이너리를 분석하기 위한 대규모 언어 모델(LLMs)의 사용, 그리고 위협 행위자가 다중 요소 인증을 우회하는 방법에 대해 논의합니다.
favicon
cloud.google.com
Cloud CISO Perspectives: AI vendors should share vulnerability research. Here’s why