DigitalOcean Gradient™ AI 平台现已原生集成 LlamaIndex------这是构建 RAG(检索增强生成)应用最流行的框架之一。
这意味着你现在可以直接将 Gradient AI 平台的知识库和 LLM(大语言模型)连接到 LlamaIndex 工作流中,使用你已经熟悉的抽象接口。无需额外的基础设施,无需复杂的设置。只需安装两个包,即可开始构建。
为什么这很重要
如果你之前构建过 RAG 应用,你一定熟悉这样的流程:配置向量数据库、设置嵌入管道、跨服务管理凭证,然后将所有东西拼接在一起。在你编写一行应用程序逻辑代码之前,就已经有大量的前期工作了。
借助DigitalOcean新集成的LlamaIndex,我们已经为你完成了这些繁重的工作。你的知识库负责处理文档的导入、分块和嵌入生成。LlamaIndex 检索器直接连接到它。再加上我们平台上集成的 LLM (Gemini、Claude、OpenAI),你就拥有了一个在托管的 DigitalOcean 基础设施上运行的完整 RAG 管道。
新增功能
现在 PyPI 上提供了两个包:
- llama-index-retrievers-digitalocean-gradientai:将你的知识库作为 LlamaIndex 检索器连接。支持混合搜索(关键词 + 语义)、元数据过滤和异步操作。
- llama-index-llms-digitalocean-gradientai:在你的 LlamaIndex 工作流中使用 Gradient AI 平台托管的 LLM。支持流式响应和适用于高吞吐量应用的异步操作。
这两个包都能与 LlamaIndex 的查询引擎、聊天引擎、回调函数以及更广泛的生态系统协同工作。
几分钟内即可使用
安装这些包:
bash
pip install llama-index-retrievers-digitalocean-gradientai llama-index-llms-digitalocean-gradientai
然后,配置你的 Gradient AI 平台凭证,并将检索器和 LLM 集成到你现有的 LlamaIndex 代码中。查看我们的文档以获取完整的操作指南和代码示例。
你可以构建什么
这些集成为你开启了一系列可能性:
- 基于你的产品文档构建的技术支持助手
- 用于查询公司维基和操作手册的内部工具
- 能理解私有代码库上下文的代码助手
- 用于基于文档的问答的研究工具
如果你已经在使用 LlamaIndex,你现在可以将 Gradient AI 平台集成到你现有的应用程序中。如果你是从零开始,你现在拥有了一条从知识库到生产级 RAG 应用的完全托管路径。
接下来
这仅仅是个开始。我们将继续扩展 Gradient AI 平台与主流 AI 框架的集成,我们很期待听到你正在构建的应用。
立即开始使用 LlamaIndex------或咨询DigitalOcean中国区战略合作伙伴卓普云AI Droplet,或者探索 Gradient AI 平台文档,以了解有关GPU服务器、知识库和托管 LLM 的更多信息。
祝你编程愉快!