Google은 모든 기업이 AI에 접근할 수 있도록 하기 위한 새로운 노력을 발표하고, 지금까지 가장 빠른 모델인 Gemini 1.5 Flash를 강조했습니다. 이 모델은 대량의 고빈도 작업을 대규모로 처리하도록 최적화되었으며, Jasper.ai와 같은 회사들은 이미 사용자 경험을 개선하기 위해 이를 활용하고 있습니다.

그러나 Google의 비전은 단순히 뛰어난 모델을 제공하는 데 그치지 않습니다. Google은 이러한 모델에 대한 액세스, 평가 및 대규모 배포를 용이하게 하는 포괄적인 에코시스템을 구축하고 있습니다. 주요 업데이트는 다음과 같습니다.

* **모델 가든 확장:** Meta의 Llama 3.1 및 Mistral AI의 최신 모델과 같은 오픈 모델이 완전히 관리되는 "서비스형 모델(Model-as-a-service)"로 제공되어 사용자는 자신의 요구 사항에 가장 적합한 모델을 찾을 수 있습니다.

* **언어 장벽 허물기:** Gemini 1.5 Flash 및 Gemini 1.5 Pro는 이제 100개 이상의 언어를 이해하고 응답할 수 있으므로 전 세계 사용자가 모국어로 쉽게 소통할 수 있습니다.

* **예측 가능한 성능:** Vertex AI에서 프로비저닝된 처리량이 일반적으로 제공되고 99.5% 가동 시간 서비스 수준 계약(SLA)과 결합되어 안정성과 성능을 보장합니다.

* **AI 확장, 비용 절감:** Gemini 1.5 Flash의 개선으로 입력 비용이 최대 85%, 출력 비용이 최대 80% 절감되었습니다. 컨텍스트 캐싱과 같은 기능을 통해 긴 컨텍스트 쿼리의 비용과 지연 시간을 더욱 최적화할 수 있습니다.

이러한 개선 사항은 Google이 엔터프라이즈 규모의 AI를 모든 사람이 이용할 수 있도록 하겠다는 의지를 보여줍니다.