docker部署本地词向量模型

开源项目:GitHub - huggingface/text-embeddings-inference: A blazing fast inference solution for text embeddings models

1. 下载词向量模型

参考我的另一篇博客:langchain 加载本地词向量模型

2. 部署词向量模型

就三行命令

复制代码
model=/data/BAAI/bge-m3
volume=/home/project/text_embedding/models
docker run -p 8082:80 -v $volume:/data --pull always ghcr.io/huggingface/text-embeddings-inference:cpu-1.5 --model-id $model

会先去下载 docker 镜像,然后运行容器。我这里下载的是 cpu 版本的 docker 镜像,其他硬件环境的 docker 镜像参考:https://huggingface.co/docs/text-embeddings-inference/supported_models

特别要强调的是:model 的路径可不是随便写的。在我的这个例子中,启动 docker 时,映射的路径是**$volume:/data** ,因此 model 的路径必须以**/data** 开头,不然的话是找不到模型的。

我的模型存放路径:/home/project/text_embedding/models/BAAI/bge-m3,大家可以参考我的路径来调整 model 和 volume 变量的值。

3. 调用词向量模型

使用 REST API 调用,可调用的 API 参考:Text Embeddings Inference API

复制代码
curl 127.0.0.1:8082/embed \
    -X POST \
    -d '{"inputs":"What is Deep Learning?"}' \
    -H 'Content-Type: application/json'
相关推荐
Purple Coder6 分钟前
神经网络与深度学习
人工智能·深度学习·神经网络
龙山云仓14 分钟前
No156:AI中国故事-对话司马迁——史家绝唱与AI记忆:时间叙事与因果之链
大数据·开发语言·人工智能·python·机器学习
niuniudengdeng19 分钟前
一种基于高维物理张量与XRF实景复刻的一步闭式解工业级3D打印品生成模型
人工智能·python·数学·算法·3d
AI周红伟34 分钟前
周红伟:Agent Skills+OpenClaw+RAG+Agent+SeeDance2.0企业智能体智能体应用实战
人工智能·大模型·智能体·seedance
张小凡vip39 分钟前
OpenClaw简介--windows系统安装OpenClaw
人工智能·windows·openclaw
HaiLang_IT1 小时前
计算机科学与技术专业优质选题推荐 选题合集 | 人工智能/自然语言处理/计算机视觉
人工智能·自然语言处理·课程设计
Rolei_zl1 小时前
AIGC(生成式AI)试用 46 -- AI与软件开发过程1
人工智能·aigc
波动几何1 小时前
信息图风格提示词方案
人工智能
tq10861 小时前
多智能体协作问题和解决方案
人工智能
蜡笔羊驼1 小时前
LALIC环境安装过程
开发语言·python·深度学习