LangChain已经作为一个流行的开源LLM编排框架,受到应用程序开发者的欢迎。今年3月,Google Cloud推出了LangChain的开源集成,以便与其数据库集成,包括向量存储、文档加载器和聊天消息历史。现在,Google Cloud宣布在Vertex AI上推出了LangChain的托管集成,特别是针对AlloyDB和Cloud SQL for PostgreSQL。
这种集成使开发者能够安全地构建、部署和管理AI代理和推理框架,以满足大规模需求。借助LangChain库,开发者可以创建自定义的生成式AI应用程序,以连接Google Cloud资源和现有的Vertex AI模型。主要特点包括流畅的框架、可用的代理模板、部署管理服务和使用Google Cloud数据库的各种AI架构的端到端模板。
Vertex AI上的LangChain使应用程序可以部署到Reasoning Engine管理运行时,从而受益于安全性、隐私、可观察性和可扩展性。它解锁了强大的用例,如查询数据库、知识检索、聊天机器人和工具使用,提高了组织中的AI能力。例如,它可以将自然语言问题转换为SQL查询或使用向量支持对非结构化数据进行语义搜索。
早期的采用者,如TM Forum,已经成功地使用了Vertex AI上的LangChain来开发他们的AI虚拟助手(AIVA),展示了在hackathon中显著的生产力提高和稳定的性能。集成简化了后端功能、安全性和治理,推动了客户满意度和AIOps领域的创新解决方案。
对于AlloyDB和Cloud SQL for PostgreSQL用户,Vertex AI上的LangChain提供了快速的知识检索、安全的身份验证和聊天历史上下文。集成简化了开发知识检索应用程序,并通过自定义向量索引提高了性能。它还支持快速原型设计和托管部署,将本地测试的原型转换为企业级部署,使用Vertex AI的基础设施。
相比之下,使用Vertex AI上的LangChain简化了许多工作流步骤,如IAM授权、数据库管理、代码开发和基础设施操作。它提供了内置的可观察性功能,如Cloud Logging、Monitoring和Tracing,使应用程序管理变得更加容易。
要开始使用,开发者可以参考基于笔记本的教程和模板,以部署RAG应用程序与AlloyDB和Cloud SQL for PostgreSQL在Vertex AI上的LangChain。这些资源强调了高级用例,允许创建和部署复杂的AI应用程序。
cloud.google.com
Announcing LangChain on Vertex AI for AlloyDB and Cloud SQL for PostgreSQL
Create attached notes ...