Das Innovationstempo im Bereich Open-Source-KI ist atemberaubend, aber die Bereitstellung und Optimierung großer Modelle kann komplex und ressourcenintensiv sein. Entwickler benötigen reproduzierbare, verifizierte Anleitungen, um Modelle auf verfügbaren Beschleunigern auszuprobieren. Die AI Hypercomputer-Plattform bietet verbesserte Unterstützung und neue optimierte Anleitungen für die neuesten Llama4- und DeepSeek-Modelle. Die Plattform hilft beim Aufbau einer soliden KI-Infrastruktur-Grundlage mithilfe einer Reihe von speziell entwickelten Infrastrukturkomponenten, die für KI-Workloads gut zusammenarbeiten sollen. Das AI Hypercomputer-Ressourcen-Repository auf GitHub wächst stetig und bietet Zugang zu diesen Anleitungen. Neue Anleitungen wurden für das Serving von Llama4-Modellen auf Google Cloud Trillium TPUs und A3 Mega- und A3 Ultra-GPUs hinzugefügt. Ebenso wurden neue Anleitungen für das Serving von DeepSeek-Modellen auf Google Cloud Trillium TPUs und A3 Mega- und A3 Ultra-GPUs hinzugefügt. Diese Anleitungen bieten einen Ausgangspunkt für die Bereitstellung und das Experimentieren mit Llama4-Modellen auf Google Cloud. Entwickler können die Llama4 Scout- und Maverick-Modelle oder die DeepSeekV3/R1-Modelle ab heute mithilfe von Inference-Anleitungen aus dem AI Hypercomputer Github-Repository bereitstellen.
bsky.app
AI and ML News on Bluesky @ai-news.at.thenote.app
cloud.google.com
Accelerate your gen AI: Deploy Llama4 & DeepSeek on AI Hypercomputer with new recipes
