如何替换对接使用本地向量模型

一、下载向量模型

在对接向量模型之前,先去下载好对应的模型:[(https://huggingface.co/)]

(注意:下载模型需要使用魔法,最好使用网络稳定一点的。)

二、上传模型到服务器

下载好模型之后,上传到部署 MaxKB 的服务器上。

1. 创建 model 文件夹

复制代码
## 创建 model 文件夹
mkdir /opt/maxkb/model  

2. 修改docker-compose.yaml,添加volume挂载点

复制代码
##修改docker-compose.yaml,添加volume挂载点
version: "2.1"
services:
  maxkb:
    container_name: maxkb
    hostname: maxkb
    restart: always
    image: ${MAXKB_IMAGE_REPOSITORY}/maxkb-pro:${MAXKB_VERSION}
    ports:
      - "${MAXKB_PORT}:8080"
    healthcheck:
      test: ["CMD", "curl", "-f", "localhost:8080"]
      interval: 10s
      timeout: 10s
      retries: 120
    volumes:
      - /tmp:/tmp
      - ${MAXKB_BASE}/maxkb/logs:/opt/maxkb/app/data/logs
      - mk-model-data:/opt/maxkb/model
    env_file:
      - ${MAXKB_BASE}/maxkb/conf/maxkb.env
    depends_on:
      pgsql:
        condition: service_healthy
    networks:
      - maxkb-network
    entrypoint: ["docker-entrypoint.sh"]
    command: "python /opt/maxkb/app/main.py start"
 
networks:
  maxkb-network:
    driver: bridge
    ipam:
      driver: default
 
volumes:
  mk-model-data:
    driver_opts:
      type: none
      device: ${MAXKB_BASE}/maxkb/model
      o: bind
复制代码
## 添加完之后重新启动
docker-compose -f docker-compose.yml  -f docker-compose-pgsql.yml  up -d
 
##  等一会查看一下状态
docker  ps

3. 检查mode文件夹是否有MaxKB的默认模型

4. 把下载好的向量模型放到model文件夹下

复制代码
## 把下载的模型放到model当中
cp -R  /opt/models--moka-ai--m3e-large /opt/maxkb/model

注意:后续下载新的模型只需要放到model文件夹下面即可。

三、配置本地向量模型

1. 添加模型

系统管理->模型设置->本地模型→"添加模型"

1.1. 参数详情:

模型名字:自定义模型名字(填写自己模型名字就好)

模型类型:选择"向量模型"

基础模型:此处需要注意,要手动填写对应的模型地址。

所填写的地址必须要有,pytorch_model.bin、tokenizer_config.json、tokenizer.json 等这些文件

复制代码
/opt/maxkb/model/models--moka-ai--m3e-large/snapshots/12900375086c37ba5d83d1e417b21dc7d1d1f388

不同的模型,路径应该有所不同,根据实际情况修改

模型目录:默认跟"基础模型"路径一致

添加好之后如图:

2. 使用自定义模型

在创建知识库的时候,指定向量模型即可

相关推荐
微学AI5 小时前
智能穿戴新标杆:SD NAND (贴片式SD卡)与 SOC 如何定义 AI 眼镜未来技术路径
人工智能·ai·sd
一步一念5 小时前
Langchaine4j 流式输出 (6)
spring boot·ai·langchain4j
AI大模型系统化学习8 小时前
AI产品风向标:从「工具属性」到「认知引擎」的架构跃迁
大数据·人工智能·ai·架构·大模型·ai大模型·大模型学习
哥不是小萝莉13 小时前
如何实现RAG与MCP集成
ai·rag
武子康18 小时前
AI炼丹日志-25 - OpenAI 开源的编码助手 Codex 上手指南
人工智能·gpt·ai·语言模型·自然语言处理·开源
WebCandy20 小时前
DeepSeek-R1-0528,官方的端午节特别献礼
ai·aigc·deepseek·深度思考
陶然同学20 小时前
基于千帆大模型的AI体检报告解读系统实战:使用OSS与PDFBox实现PDF内容识别
java·ai·大模型·ai体检报告解读
smart19981 天前
制造企业搭建AI智能生产线怎么部署?
ai·制造·存储
不穿铠甲的穿山甲2 天前
大模型-modelscope下载和使用chatglm3-6b模型
ai·大模型
deephub2 天前
Jupyter MCP服务器部署实战:AI模型与Python环境无缝集成教程
人工智能·python·jupyter·大语言模型·mcp