docker部署本地词向量模型

开源项目:GitHub - huggingface/text-embeddings-inference: A blazing fast inference solution for text embeddings models

1. 下载词向量模型

参考我的另一篇博客:langchain 加载本地词向量模型

2. 部署词向量模型

就三行命令

复制代码
model=/data/BAAI/bge-m3
volume=/home/project/text_embedding/models
docker run -p 8082:80 -v $volume:/data --pull always ghcr.io/huggingface/text-embeddings-inference:cpu-1.5 --model-id $model

会先去下载 docker 镜像,然后运行容器。我这里下载的是 cpu 版本的 docker 镜像,其他硬件环境的 docker 镜像参考:https://huggingface.co/docs/text-embeddings-inference/supported_models

特别要强调的是:model 的路径可不是随便写的。在我的这个例子中,启动 docker 时,映射的路径是**$volume:/data** ,因此 model 的路径必须以**/data** 开头,不然的话是找不到模型的。

我的模型存放路径:/home/project/text_embedding/models/BAAI/bge-m3,大家可以参考我的路径来调整 model 和 volume 变量的值。

3. 调用词向量模型

使用 REST API 调用,可调用的 API 参考:Text Embeddings Inference API

复制代码
curl 127.0.0.1:8082/embed \
    -X POST \
    -d '{"inputs":"What is Deep Learning?"}' \
    -H 'Content-Type: application/json'
相关推荐
产业家13 小时前
AI手机的终极猜想:超级Agent入口|产业深度
人工智能·智能手机
幻云201013 小时前
Python深度学习:筑基与实践
前端·javascript·vue.js·人工智能·python
沛沛老爹13 小时前
从Web到AI:多模态Agent Skills生态系统实战(Java+Vue构建跨模态智能体)
java·前端·vue.js·人工智能·rag·企业转型
晓晓不觉早14 小时前
OPE.Platform,轻量化AI能力拉满
人工智能·科技
瑞华丽PLM14 小时前
制造企业研发管理体系化升级与数字化转型落地建议书
人工智能·制造·plm·国产plm·瑞华丽plm·瑞华丽
许泽宇的技术分享14 小时前
当 AI Agent 遇上 .NET:一场关于智能体架构的技术探险
人工智能·架构·.net
2401_8322981014 小时前
边缘AI协同架构,云服务器赋能端侧智能全域覆盖
人工智能
旭日跑马踏云飞14 小时前
【本地玩AI】在macOS+AppleSilicon安装ComfyUI
人工智能·macos
aitoolhub14 小时前
自媒体视觉物料高效创作新路径:稿定设计如何用AI重构内容生产逻辑
大数据·人工智能·aigc·媒体
Guheyunyi14 小时前
智能巡检:技术融合与系统生成
大数据·人工智能·科技·安全·信息可视化