MaxKB 如何对接本地向量模型

一、下载向量模型

在对接向量模型之前,先去下载好对应的模型:https://huggingface.co/

(注意:下载模型需要使用魔法,最好使用网络稳定一点的。)

二、上传模型到服务器

下载好模型之后,上传到部署MaxKB的服务器上。

2.1 创建 model 文件夹

bash 复制代码
## 创建 model 文件夹
mkdir /opt/maxkb/model  

2.2 修改docker-compose.yaml,添加volume挂载点

bash 复制代码
## 修改docker-compose.yaml,添加volume挂载点
version: "2.1"
services:
  maxkb:
    container_name: maxkb
    hostname: maxkb
    restart: always
    image: ${MAXKB_IMAGE_REPOSITORY}/maxkb-pro:${MAXKB_VERSION}
    ports:
      - "${MAXKB_PORT}:8080"
    healthcheck:
      test: ["CMD", "curl", "-f", "localhost:8080"]
      interval: 10s
      timeout: 10s
      retries: 120
    volumes:
      - /tmp:/tmp
      - ${MAXKB_BASE}/maxkb/logs:/opt/maxkb/app/data/logs
      - mk-model-data:/opt/maxkb/model
    env_file:
      - ${MAXKB_BASE}/maxkb/conf/maxkb.env
    depends_on:
      pgsql:
        condition: service_healthy
    networks:
      - maxkb-network
    entrypoint: ["docker-entrypoint.sh"]
    command: "python /opt/maxkb/app/main.py start"

networks:
  maxkb-network:
    driver: bridge
    ipam:
      driver: default

volumes:
  mk-model-data:
    driver_opts:
      type: none
      device: ${MAXKB_BASE}/maxkb/model
      o: bind
bash 复制代码
## 添加完之后重新启动
docker-compose -f docker-compose.yml  -f docker-compose-pgsql.yml  up -d 

##  等一会查看一下状态
docker  ps 

2.3 检查mode文件夹是否有maxkb的默认模型

2.4 把下载好的向量模型放到model文件夹下

bash 复制代码
## 把下载的模型放到model当中
cp -R  /opt/models--moka-ai--m3e-large /opt/maxkb/model

注意!注意!注意:后续下载新的模型只需要放到model文件夹下面即可。

三、配置本地向量模型

3.1 添加模型

系统管理->模型设置->本地模型->"添加模型"

添加好之后如图:

3.1.1 参数详情:

模型名字: 自定义模型名字(填写自己模型名字就好)
模型类型: 选择"向量模型"
基础模型: 此处需要注意,要手动填写对应的模型地址。

例如:

bash 复制代码
/opt/maxkb/model/models--moka-ai--m3e-large/snapshots/12900375086c37ba5d83d1e417b21dc7d1d1f388

所填写的地址必须要有,pytorch_model.bin、tokenizer_config.json、tokenizer.json 等这些文件

不同的模型,路径应该有所不同,根据实际情况修改
模型目录: 默认跟"基础模型"路径一致

3.2 使用自定义模型

在创建知识库的时候,指定向量模型即可

相关推荐
mingchen_peng12 小时前
第三章 大语言模型基础
大模型·llm·hello-agent
骚戴13 小时前
深入解析:Gemini 3.0 Pro 的 SSE 流式响应与跨区域延迟优化实践
java·人工智能·python·大模型·llm
杨二K13 小时前
大模型分块技术
大模型
骚戴17 小时前
DeepSeek V3 & Llama 3 推理避坑指南:自建 vLLM 集群 vs API 网关架构深度对比
java·人工智能·python·大模型·api·vllm
世优科技虚拟人17 小时前
智慧政务从试点到普及:AI数字人一体机在政务大厅的深度应用分析
人工智能·大模型·智慧城市·数字人·政务·智慧政务·智能交互
大千AI助手18 小时前
GPT-Neo:开源大型自回归语言模型的实现与影响
人工智能·gpt·机器学习·开源·大模型·大千ai助手·gpt-neo
AndrewHZ18 小时前
【大模型技术学习】大模型压力测试全攻略:以Qwen3-32B为例
人工智能·大模型·llm·压力测试·模型部署·通义千问·qwen3-32b
暴风鱼划水19 小时前
大型语言模型(入门篇)A
人工智能·语言模型·自然语言处理·大模型·llm
般若Neo19 小时前
企业级大模型开发及应用 - 企业应用大模型的方法
大模型·大模型应用·企业级大模型
todoitbo20 小时前
从零搭建 Dify AI 平台:一次跌宕起伏的部署之旅
人工智能·ai·大模型·dify·流处理·工具流