Amazon SageMaker AI теперь предлагает серверную функциональность MLflow, которая динамически масштабируется для поддержки задач разработки моделей ИИ. С помощью MLflow разработчики ИИ могут начать отслеживать, сравнивать и оценивать эксперименты, не дожидаясь настройки инфраструктуры. Поскольку клиенты в различных отраслях ускоряют разработку ИИ, им требуются возможности для отслеживания экспериментов, наблюдения за поведением и оценки производительности моделей, приложений и агентов ИИ. Однако управление инфраструктурой MLflow требует от администраторов постоянного обслуживания и масштабирования серверов отслеживания, принятия сложных решений по планированию емкости и развертывания отдельных экземпляров для изоляции данных. Эта инфраструктурная нагрузка отвлекает ресурсы от основной разработки ИИ и создает узкие места, влияющие на производительность команды и экономическую эффективность. С этим обновлением MLflow теперь динамически масштабируется, обеспечивая высокую производительность для требовательных и непредсказуемых задач разработки моделей, а затем уменьшается в периоды простоя. Администраторы также могут повысить производительность, настроив доступ между учетными записями через Resource Access Manager (RAM), чтобы упростить совместную работу между организационными границами. Серверная функциональность MLflow в Amazon SageMaker AI предлагается без дополнительной платы и работает в нативном режиме с привычными возможностями разработки моделей ИИ Amazon SageMaker AI, такими как SageMaker AI JumpStart, SageMaker Model Registry и SageMaker Pipelines. Клиенты могут получить доступ к последней версии MLflow в Amazon SageMaker AI с автоматическими обновлениями версий. Amazon SageMaker AI с MLflow теперь доступен в отдельных регионах AWS. Чтобы узнать больше, см. руководство пользователя Amazon SageMaker AI и блог новостей AWS.
aws.amazon.com
Amazon SageMaker AI announces serverless MLflow capability for faster AI development
