docker部署本地词向量模型

开源项目:GitHub - huggingface/text-embeddings-inference: A blazing fast inference solution for text embeddings models

1. 下载词向量模型

参考我的另一篇博客:langchain 加载本地词向量模型

2. 部署词向量模型

就三行命令

复制代码
model=/data/BAAI/bge-m3
volume=/home/project/text_embedding/models
docker run -p 8082:80 -v $volume:/data --pull always ghcr.io/huggingface/text-embeddings-inference:cpu-1.5 --model-id $model

会先去下载 docker 镜像,然后运行容器。我这里下载的是 cpu 版本的 docker 镜像,其他硬件环境的 docker 镜像参考:https://huggingface.co/docs/text-embeddings-inference/supported_models

特别要强调的是:model 的路径可不是随便写的。在我的这个例子中,启动 docker 时,映射的路径是**$volume:/data** ,因此 model 的路径必须以**/data** 开头,不然的话是找不到模型的。

我的模型存放路径:/home/project/text_embedding/models/BAAI/bge-m3,大家可以参考我的路径来调整 model 和 volume 变量的值。

3. 调用词向量模型

使用 REST API 调用,可调用的 API 参考:Text Embeddings Inference API

复制代码
curl 127.0.0.1:8082/embed \
    -X POST \
    -d '{"inputs":"What is Deep Learning?"}' \
    -H 'Content-Type: application/json'
相关推荐
柠檬丶抒情2 分钟前
Rust深度学习框架Burn 0.20是否能超过python?
python·深度学习·rust·vllm
乾元2 分钟前
范式转移:从基于规则的“特征码”到基于统计的“特征向量”
运维·网络·人工智能·网络协议·安全
智算菩萨3 分钟前
国内Claude编程完全指南:利用镜像站合法使用Opus、Sonnet与Haiku模型
人工智能·aigc
Deepoch7 分钟前
Deepoc数学大模型:通信行业智能化的算法引擎
人工智能·算法·数学建模·开发板·通信·具身模型·deepoc
莱昂纳多迪卡普利奥9 分钟前
LLM学习指南(四)—— 预训练语言模型(PLM)
人工智能·语言模型·自然语言处理
说私域9 分钟前
链动2+1模式S2B2C商城小程序在电商直播中的应用与影响研究
大数据·人工智能·小程序·流量运营
快降重10 分钟前
效率与安全的平衡:面向毕业季的论文“降AI”应急方案对比研究
人工智能·安全·aigc·ai写作·降重·降ai
无风听海12 分钟前
CBOW输入层向量形式深入解析
人工智能·算法·机器学习
laplace012315 分钟前
第八章 agent记忆与检索上
人工智能·agent·rag
雨大王51215 分钟前
如何通过工业智造超级智能体实现汽车制造工厂数字化转型
人工智能·自动化·汽车·制造·ai-native