MaxKB 如何对接本地向量模型

一、下载向量模型

在对接向量模型之前,先去下载好对应的模型:https://huggingface.co/

(注意:下载模型需要使用魔法,最好使用网络稳定一点的。)

二、上传模型到服务器

下载好模型之后,上传到部署MaxKB的服务器上。

2.1 创建 model 文件夹

bash 复制代码
## 创建 model 文件夹
mkdir /opt/maxkb/model  

2.2 修改docker-compose.yaml,添加volume挂载点

bash 复制代码
## 修改docker-compose.yaml,添加volume挂载点
version: "2.1"
services:
  maxkb:
    container_name: maxkb
    hostname: maxkb
    restart: always
    image: ${MAXKB_IMAGE_REPOSITORY}/maxkb-pro:${MAXKB_VERSION}
    ports:
      - "${MAXKB_PORT}:8080"
    healthcheck:
      test: ["CMD", "curl", "-f", "localhost:8080"]
      interval: 10s
      timeout: 10s
      retries: 120
    volumes:
      - /tmp:/tmp
      - ${MAXKB_BASE}/maxkb/logs:/opt/maxkb/app/data/logs
      - mk-model-data:/opt/maxkb/model
    env_file:
      - ${MAXKB_BASE}/maxkb/conf/maxkb.env
    depends_on:
      pgsql:
        condition: service_healthy
    networks:
      - maxkb-network
    entrypoint: ["docker-entrypoint.sh"]
    command: "python /opt/maxkb/app/main.py start"

networks:
  maxkb-network:
    driver: bridge
    ipam:
      driver: default

volumes:
  mk-model-data:
    driver_opts:
      type: none
      device: ${MAXKB_BASE}/maxkb/model
      o: bind
bash 复制代码
## 添加完之后重新启动
docker-compose -f docker-compose.yml  -f docker-compose-pgsql.yml  up -d 

##  等一会查看一下状态
docker  ps 

2.3 检查mode文件夹是否有maxkb的默认模型

2.4 把下载好的向量模型放到model文件夹下

bash 复制代码
## 把下载的模型放到model当中
cp -R  /opt/models--moka-ai--m3e-large /opt/maxkb/model

注意!注意!注意:后续下载新的模型只需要放到model文件夹下面即可。

三、配置本地向量模型

3.1 添加模型

系统管理->模型设置->本地模型->"添加模型"

添加好之后如图:

3.1.1 参数详情:

模型名字: 自定义模型名字(填写自己模型名字就好)
模型类型: 选择"向量模型"
基础模型: 此处需要注意,要手动填写对应的模型地址。

例如:

bash 复制代码
/opt/maxkb/model/models--moka-ai--m3e-large/snapshots/12900375086c37ba5d83d1e417b21dc7d1d1f388

所填写的地址必须要有,pytorch_model.bin、tokenizer_config.json、tokenizer.json 等这些文件

不同的模型,路径应该有所不同,根据实际情况修改
模型目录: 默认跟"基础模型"路径一致

3.2 使用自定义模型

在创建知识库的时候,指定向量模型即可

相关推荐
我爱学Python!6 小时前
解决复杂查询难题:如何通过 Self-querying Prompting 提高 RAG 系统效率?
人工智能·程序人生·自然语言处理·大模型·llm·大语言模型·rag
audyxiao0011 天前
突破自动驾驶瓶颈!KoMA:多智能体与大模型的完美融合
人工智能·机器学习·大模型·自动驾驶·多智能体
Slender20012 天前
大模型KS-LLM
人工智能·深度学习·机器学习·自然语言处理·大模型·bert·知识图谱
haidizym2 天前
(笔记+作业)第四期书生大模型实战营---L0G2000 Python 基础知识
redis·笔记·python·大模型
OT.Ter3 天前
基于FastAPI实现本地大模型API封装调用
人工智能·算法·大模型·fastapi
Seal软件3 天前
配置NVIDIA Container Runtime和容器运行GPUStack教程
docker·容器·大模型·llm·gpu集群
GPUStack3 天前
配置NVIDIA Container Runtime和容器运行GPUStack教程
docker·容器·大模型·llm·gpu集群
一 铭4 天前
llamaindex实战-Agent-在Agent中和数据库对话(本地部署)
人工智能·chatgpt·大模型·llm
小嗷犬4 天前
【论文笔记】LoRA: Low-Rank Adaptation of Large Language Models
论文阅读·人工智能·语言模型·自然语言处理·大模型·微调
小嗷犬4 天前
【论文笔记】SCOPE: Sign Language Contextual Processing with Embedding from LLMs
论文阅读·大模型·机器翻译·多模态·手语翻译