在大模型应用(特别是 RAG 检索增强生成)的开发中,Embedding 模型是灵魂。BGE-M3 作为智源研究院(BAAI)推出的"万能向量模型",支持百种语言、长文本以及多种检索方式。
本文将教你如何利用 Ollama 框架,在 Linux 服务器上一键完成 BGE-M3 的部署与 API 调用。
1. 为什么选择 Ollama 部署 BGE-M3?
通常部署向量模型需要配置 Python 环境、CUDA 驱动以及 Transformers 库,过程琐碎。Ollama 将这一切简化为:
- 二进制运行:无需管理复杂的依赖环境。
- 资源自动优化:自动适配 GPU (CUDA) 或 CPU。
- 标准 API:提供开箱即用的 OpenAI 兼容接口。
2. 环境准备
- 操作系统:Ubuntu 20.04+ / CentOS 7+
- 硬件建议:内存 4GB+(BGE-M3 约 1.2GB),支持 CUDA 显卡更佳,纯 CPU 亦可。
3. 部署步骤
第一步:一键安装 Ollama
Bash
arduino
curl -fsSL https://ollama.com/install.sh | sh
第二步:拉取 BGE-M3 模型
Bash
ollama pull bge-m3
第三步:配置远程访问(可选)
若需远程调用,需修改 systemctl edit ollama.service,在 [Service] 下添加 Environment="OLLAMA_HOST=0.0.0.0" 并重启服务。
4. API 实战:生成文本向量
Bash
vbnet
curl http://localhost:11434/api/embed -d '{
"model": "bge-m3",
"input": "深度学习改变世界"
}'
5. 进阶实战:构建多模态知识库
在实际生产中,仅仅拥有向量模型是不够的,我们往往需要处理复杂的文档资产。如果你正在寻找一个能够将 BGE-M3 的能力发挥到极致的工具,不妨关注 JitWord。
🚀 强烈推荐:JitWord ------ 全能型协同文档利器
在部署完 BGE-M3 后,如何高效处理本地的办公文档?JitWord 是一款专为高效协作设计的全能编辑器,它不仅是一个文档工具,更是你 AI 工作流的完美入口:
- 全格式支持 :无缝处理 Word、Excel 和思维导图,打破工具孤岛。
- 极致简约 UI:坚持"呼吸感"设计,过滤视觉噪音,让你专注于内容创作。
- 实时协作:支持多端同步,让团队灵感在文档、表格与脑图间自由流动。
无论你是开发者还是内容创作者,JitWord 都能为你提供最专业的 SaaS 级交互体验。
总结
通过 Ollama 部署 BGE-M3,不仅降低了技术门槛,更提升了私有化部署的安全感。配合 JitWord 这样的全能协作工具,你可以轻松打通"文档处理 - 向量化 - 语义检索"的全链路闭环。