docker部署本地词向量模型

开源项目:GitHub - huggingface/text-embeddings-inference: A blazing fast inference solution for text embeddings models

1. 下载词向量模型

参考我的另一篇博客:langchain 加载本地词向量模型

2. 部署词向量模型

就三行命令

复制代码
model=/data/BAAI/bge-m3
volume=/home/project/text_embedding/models
docker run -p 8082:80 -v $volume:/data --pull always ghcr.io/huggingface/text-embeddings-inference:cpu-1.5 --model-id $model

会先去下载 docker 镜像,然后运行容器。我这里下载的是 cpu 版本的 docker 镜像,其他硬件环境的 docker 镜像参考:https://huggingface.co/docs/text-embeddings-inference/supported_models

特别要强调的是:model 的路径可不是随便写的。在我的这个例子中,启动 docker 时,映射的路径是**$volume:/data** ,因此 model 的路径必须以**/data** 开头,不然的话是找不到模型的。

我的模型存放路径:/home/project/text_embedding/models/BAAI/bge-m3,大家可以参考我的路径来调整 model 和 volume 变量的值。

3. 调用词向量模型

使用 REST API 调用,可调用的 API 参考:Text Embeddings Inference API

复制代码
curl 127.0.0.1:8082/embed \
    -X POST \
    -d '{"inputs":"What is Deep Learning?"}' \
    -H 'Content-Type: application/json'
相关推荐
慧一居士几秒前
Spring AI MCP服务如何选择使用 WebMVC还是WebFlux
人工智能·系统架构
Irissgwe3 分钟前
LangChain 与 LangGraph 介绍(一)
人工智能·langchain·llm·langgraph
BizObserver5 分钟前
从 SEO 到 GEO:2026 年品牌信息分发逻辑的颠覆性变革
大数据·运维·网络·人工智能·安全
AI服务老曹9 分钟前
从底层协议对接说起:基于 GB28181/RTSP 的异构视频流接入架构设计与源码级解析
人工智能·docker
CoderJia程序员甲11 分钟前
GitHub 热榜项目 - 日榜(2026-04-24)
人工智能·ai·大模型·github·ai教程
zhaoshuzhaoshu11 分钟前
主流 AI 编程助手工具特点与对比
人工智能·python
KJ_BioMed12 分钟前
AI赋能新药研发!化合物虚拟筛选春日特惠3天极速交付
人工智能·虚拟筛选·ai算法·生命科学
杨航 AI14 分钟前
Skills:让 AI 拥有“可插拔能力”的一种工程化方案
网络·人工智能
逻辑君15 分钟前
认知神经科学研究报告【20260015】
人工智能·神经网络·机器学习
萌新小码农‍15 分钟前
神经系统与深度学习介绍 学习笔记day1
人工智能·深度学习·神经网络·机器学习·语言模型