docker部署本地词向量模型

开源项目:GitHub - huggingface/text-embeddings-inference: A blazing fast inference solution for text embeddings models

1. 下载词向量模型

参考我的另一篇博客:langchain 加载本地词向量模型

2. 部署词向量模型

就三行命令

复制代码
model=/data/BAAI/bge-m3
volume=/home/project/text_embedding/models
docker run -p 8082:80 -v $volume:/data --pull always ghcr.io/huggingface/text-embeddings-inference:cpu-1.5 --model-id $model

会先去下载 docker 镜像,然后运行容器。我这里下载的是 cpu 版本的 docker 镜像,其他硬件环境的 docker 镜像参考:https://huggingface.co/docs/text-embeddings-inference/supported_models

特别要强调的是:model 的路径可不是随便写的。在我的这个例子中,启动 docker 时,映射的路径是**$volume:/data** ,因此 model 的路径必须以**/data** 开头,不然的话是找不到模型的。

我的模型存放路径:/home/project/text_embedding/models/BAAI/bge-m3,大家可以参考我的路径来调整 model 和 volume 变量的值。

3. 调用词向量模型

使用 REST API 调用,可调用的 API 参考:Text Embeddings Inference API

复制代码
curl 127.0.0.1:8082/embed \
    -X POST \
    -d '{"inputs":"What is Deep Learning?"}' \
    -H 'Content-Type: application/json'
相关推荐
小白编程锤炼2 分钟前
深入解析:质量门禁
人工智能·算法·架构·vibe-coding
Ares-Wang2 分钟前
AI》》 监督学习,无监督学习,半监督学习、强化学习 、深度学习 统计学的常用方法
人工智能·深度学习·学习
江瀚视野4 分钟前
DeepWay深向盈利拐点趋近意味着什么?
大数据·人工智能
爱学习的张大11 分钟前
KG与LLM:大模型时代的智能规划
人工智能
三维重建-光栅投影28 分钟前
线性代数之超定方程使用最小二乘求解
人工智能·线性代数
老码观察38 分钟前
数环通iPaaS知识库选型实践:从技术评估到RAGFlow深度调优
人工智能·agent·知识库
从零开始的奋豆38 分钟前
从零构建 ClaudeCode 风格的 AI 编程助手:Code Agent 完整架构解析
人工智能·架构
多年小白44 分钟前
【行情复盘】2026年5月12日(周二)
人工智能·科技·机器学习·ai·金融
智享食事1 小时前
从能说到能做:OpenClaw技能系统完全解析
人工智能
H_unique1 小时前
LangChain:消息
开发语言·langchain