Le rythme de l'innovation en IA open-source est époustouflant, mais le déploiement et l'optimisation de grands modèles peuvent être complexes et gourmands en ressources. Les développeurs ont besoin de recettes reproductibles et vérifiées pour tester les modèles sur les accélérateurs disponibles. La plateforme AI Hypercomputer offre un support amélioré et de nouvelles recettes optimisées pour les derniers modèles Llama4 et DeepSeek. La plateforme aide à construire une base solide d'infrastructure IA en utilisant un ensemble de composants d'infrastructure spécialement conçus pour bien fonctionner ensemble pour les charges de travail d'IA. Le référentiel de ressources AI Hypercomputer sur GitHub continue de croître, donnant accès à ces recettes. De nouvelles recettes ont été ajoutées pour servir les modèles Llama4 sur les TPU Trillium et les GPU A3 Mega et A3 Ultra de Google Cloud. De même, de nouvelles recettes ont été ajoutées pour servir les modèles DeepSeek sur les TPU Trillium et les GPU A3 Mega et A3 Ultra de Google Cloud. Ces recettes constituent un point de départ pour le déploiement et l'expérimentation des modèles Llama4 sur Google Cloud. Les développeurs peuvent déployer les modèles Llama4 Scout et Maverick ou les modèles DeepSeekV3/R1 dès aujourd'hui en utilisant les recettes d'inférence du référentiel Github AI Hypercomputer.
cloud.google.com
Accelerate your gen AI: Deploy Llama4 & DeepSeek on AI Hypercomputer with new recipes
bsky.app
AI and ML News on Bluesky @ai-news.at.thenote.app
Create attached notes ...