MaxKB 如何对接本地向量模型

一、下载向量模型

在对接向量模型之前,先去下载好对应的模型:https://huggingface.co/

(注意:下载模型需要使用魔法,最好使用网络稳定一点的。)

二、上传模型到服务器

下载好模型之后,上传到部署MaxKB的服务器上。

2.1 创建 model 文件夹

bash 复制代码
## 创建 model 文件夹
mkdir /opt/maxkb/model  

2.2 修改docker-compose.yaml,添加volume挂载点

bash 复制代码
## 修改docker-compose.yaml,添加volume挂载点
version: "2.1"
services:
  maxkb:
    container_name: maxkb
    hostname: maxkb
    restart: always
    image: ${MAXKB_IMAGE_REPOSITORY}/maxkb-pro:${MAXKB_VERSION}
    ports:
      - "${MAXKB_PORT}:8080"
    healthcheck:
      test: ["CMD", "curl", "-f", "localhost:8080"]
      interval: 10s
      timeout: 10s
      retries: 120
    volumes:
      - /tmp:/tmp
      - ${MAXKB_BASE}/maxkb/logs:/opt/maxkb/app/data/logs
      - mk-model-data:/opt/maxkb/model
    env_file:
      - ${MAXKB_BASE}/maxkb/conf/maxkb.env
    depends_on:
      pgsql:
        condition: service_healthy
    networks:
      - maxkb-network
    entrypoint: ["docker-entrypoint.sh"]
    command: "python /opt/maxkb/app/main.py start"

networks:
  maxkb-network:
    driver: bridge
    ipam:
      driver: default

volumes:
  mk-model-data:
    driver_opts:
      type: none
      device: ${MAXKB_BASE}/maxkb/model
      o: bind
bash 复制代码
## 添加完之后重新启动
docker-compose -f docker-compose.yml  -f docker-compose-pgsql.yml  up -d 

##  等一会查看一下状态
docker  ps 

2.3 检查mode文件夹是否有maxkb的默认模型

2.4 把下载好的向量模型放到model文件夹下

bash 复制代码
## 把下载的模型放到model当中
cp -R  /opt/models--moka-ai--m3e-large /opt/maxkb/model

注意!注意!注意:后续下载新的模型只需要放到model文件夹下面即可。

三、配置本地向量模型

3.1 添加模型

系统管理->模型设置->本地模型->"添加模型"

添加好之后如图:

3.1.1 参数详情:

模型名字: 自定义模型名字(填写自己模型名字就好)
模型类型: 选择"向量模型"
基础模型: 此处需要注意,要手动填写对应的模型地址。

例如:

bash 复制代码
/opt/maxkb/model/models--moka-ai--m3e-large/snapshots/12900375086c37ba5d83d1e417b21dc7d1d1f388

所填写的地址必须要有,pytorch_model.bin、tokenizer_config.json、tokenizer.json 等这些文件

不同的模型,路径应该有所不同,根据实际情况修改
模型目录: 默认跟"基础模型"路径一致

3.2 使用自定义模型

在创建知识库的时候,指定向量模型即可

相关推荐
Flying pigs~~2 小时前
Agent 完整面试指南:原理、框架、架构模式
大模型·prompt·agent·rag·agent架构·人工只能
xixixi777776 小时前
三重筑基:5G-A超级上行提速千兆,电联低频共享扫平盲点,800V HVDC算电协同破局
人工智能·5g·ai·大模型·算力·通信·信通院
Resistance丶未来7 小时前
GPT-5.5 深度评测:性能边界与实战价值全解析
gpt·大模型·api·claude·gemini·api key·gpt5.5
ACCELERATOR_LLC10 小时前
【DataWhale组队学习】DIY-LLM Task6 评估与基准测试
人工智能·深度学习·大模型·模型评估
CoderJia程序员甲10 小时前
GitHub 热榜项目 - 日榜(2026-04-29)
ai·大模型·github·ai教程
IT届小白11 小时前
Medical-Qwen3-14B基于Ollama内网私有化部署方案
人工智能·大模型
GoAI15 小时前
《深入浅出Agent》:项目深度解析Autoresearch
人工智能·深度学习·大模型·llm·agent
OpenCSG15 小时前
Kimi K2.6:月之暗面发布的原生多模态智能体模型
人工智能·开源·大模型·ai技术·kimi k2.6
Fleshy数模16 小时前
本地部署 Qwen2.5-1.5B-Instruct 全流程教程|Ollama + 魔搭双方案
python·语言模型·大模型·本地部署
CoderJia程序员甲16 小时前
GitHub 热榜项目 - 日榜(2026-04-28)
人工智能·ai·大模型·github·ai教程