RSS AWS Последние объявления

Amazon SageMaker AI анонсирует поддержку MLflow без серверов для ускорения разработки ИИ.

Amazon SageMaker AI теперь предлагает серверную функциональность MLflow, которая динамически масштабируется для поддержки задач разработки моделей ИИ. С помощью MLflow разработчики ИИ могут начать отслеживать, сравнивать и оценивать эксперименты, не дожидаясь настройки инфраструктуры. Поскольку клиенты в различных отраслях ускоряют разработку ИИ, им требуются возможности для отслеживания экспериментов, наблюдения за поведением и оценки производительности моделей, приложений и агентов ИИ. Однако управление инфраструктурой MLflow требует от администраторов постоянного обслуживания и масштабирования серверов отслеживания, принятия сложных решений по планированию емкости и развертывания отдельных экземпляров для изоляции данных. Эта инфраструктурная нагрузка отвлекает ресурсы от основной разработки ИИ и создает узкие места, влияющие на производительность команды и экономическую эффективность. С этим обновлением MLflow теперь динамически масштабируется, обеспечивая высокую производительность для требовательных и непредсказуемых задач разработки моделей, а затем уменьшается в периоды простоя. Администраторы также могут повысить производительность, настроив доступ между учетными записями через Resource Access Manager (RAM), чтобы упростить совместную работу между организационными границами. Серверная функциональность MLflow в Amazon SageMaker AI предлагается без дополнительной платы и работает в нативном режиме с привычными возможностями разработки моделей ИИ Amazon SageMaker AI, такими как SageMaker AI JumpStart, SageMaker Model Registry и SageMaker Pipelines. Клиенты могут получить доступ к последней версии MLflow в Amazon SageMaker AI с автоматическими обновлениями версий. Amazon SageMaker AI с MLflow теперь доступен в отдельных регионах AWS. Чтобы узнать больше, см. руководство пользователя Amazon SageMaker AI и блог новостей AWS.
favicon
aws.amazon.com
Amazon SageMaker AI announces serverless MLflow capability for faster AI development