Blog de nuage RSS

Diffusez efficacement des modèles d’IA optimisés avec les microservices NVIDIA NIM sur GKE

Google Cloud et NVIDIA ont annoncé la disponibilité de NVIDIA NIM sur Google Kubernetes Engine (GKE), permettant aux utilisateurs de déployer des microservices NIM directement depuis la console GKE. Cette intégration optimise l'inférence de modèles d'intelligence artificielle, offrant une latence et un débit optimaux avec l'échelle et l'efficacité opérationnelle de GKE. Les microservices containerisés NVIDIA NIM optimisent le déploiement pour les modèles d'intelligence artificielle courants, offrant des API standard pour une intégration transparente dans les applications et les flux de travail d'intelligence artificielle générative. La combinaison de NVIDIA NIM et GKE débloque de nouveaux potentiels pour l'inférence de modèles d'intelligence artificielle, aidant les organisations à offrir une latence et un débit optimaux avec l'échelle et l'efficacité opérationnelle de GKE. Les utilisateurs peuvent déployer les derniers modèles NIM optimisés sur GKE en quelques clics, en étendant ainsi le déploiement basé sur Helm précédemment disponible. Cette collaboration améliore les capacités de déploiement et utilise des technologies avancées pour garantir les meilleures performances et la fiabilité. Pour commencer avec NVIDIA NIM sur GKE, accédez à Google Kubernetes Engine dans la console Google Cloud, sélectionnez NVIDIA NIM et lancez-le pour configurer votre déploiement. Après le déploiement, connectez-vous à votre point de terminaison NIM et envoyez une inférence de test avec une commande curl.
favicon
cloud.google.com
Efficiently serve optimized AI models with NVIDIA NIM microservices on GKE
Create attached notes ...