오픈 소스 AI 분야의 혁신 속도는 숨 막힐 정도로 빠르지만, 대규모 모델을 배포하고 최적화하는 것은 복잡하고 많은 리소스를 필요로 할 수 있습니다. 개발자들은 사용 가능한 액셀러레이터에서 모델을 시험해 볼 수 있는 재현 가능하고 검증된 레시피가 필요합니다. AI 하이퍼컴퓨터 플랫폼은 최신 Llama4 및 DeepSeek 모델에 대한 향상된 지원과 새로운 최적화된 레시피를 제공합니다. 이 플랫폼은 AI 워크로드를 위해 함께 작동하도록 설계된 일련의 목적에 맞는 인프라 구성 요소를 사용하여 강력한 AI 인프라 기반을 구축하는 데 도움이 됩니다. GitHub의 AI 하이퍼컴퓨터 리소스 저장소는 계속해서 확장되고 있으며, 이러한 레시피에 대한 액세스를 제공합니다. Google Cloud Trillium TPU 및 A3 Mega 및 A3 Ultra GPU에서 Llama4 모델을 제공하기 위한 새로운 레시피가 추가되었습니다. 마찬가지로, Google Cloud Trillium TPU 및 A3 Mega 및 A3 Ultra GPU에서 DeepSeek 모델을 제공하기 위한 새로운 레시피도 추가되었습니다. 이러한 레시피는 Google Cloud에서 Llama4 모델을 배포하고 실험하기 위한 시작점을 제공합니다. 개발자는 AI 하이퍼컴퓨터 Github 저장소의 추론 레시피를 사용하여 Llama4 Scout 및 Maverick 모델 또는 DeepSeekV3/R1 모델을 오늘부터 배포할 수 있습니다.
cloud.google.com
Accelerate your gen AI: Deploy Llama4 & DeepSeek on AI Hypercomputer with new recipes
bsky.app
AI and ML News on Bluesky @ai-news.at.thenote.app
