Google Cloud의 VP, TI Security & CISO인 Phil Venables는 최근 Google Cloud 블로그 게시물에서 AI 공급업체가 취약성 연구를 공유하는 것의 중요성을 강조했습니다. 그는 특히 AI 기술의 급속한 발전을 고려할 때 AI 기술에 대한 신뢰를 구축하려면 이러한 투명성이 중요하다고 강조했습니다. Google은 사이버 보안 연구를 중요하게 생각하며 AI 위험을 탐구하고 더 나은 사이버 방어를 개발하기 위해 많은 투자를 해왔습니다. 특히 Google의 Cloud Vulnerability Research 팀은 Vertex AI에서 이전에 알려지지 않은 취약점을 발견하고 수정했습니다. Venables는 AI 개발자가 AI 보안 연구 공유를 표준화할 것을 촉구하면서 생성 AI가 기본적으로 안전한 미래를 옹호했습니다. Google Cloud는 투명성을 증진하고 인사이트를 공유하며 AI 취약성에 대한 공개 토론을 장려하여 이러한 노력을 주도하는 것을 목표로 합니다. 그는 취약점을 숨기는 것은 다른 플랫폼에서 유사한 문제가 지속될 위험만 증가시킨다고 주장합니다. 대신 업계에서는 취약점을 찾고 수정하는 것을 더 쉽게 만들기 위해 노력해야 합니다. Venables는 AI 보안 기준을 개선하기 위한 집단적 노력을 촉구하며 AI 모델이 기본적으로 안전한 미래를 향해 노력하고 있습니다.