Milvus部署在T4 GPU上,Dify检索性能可以提升多少?

通常情况下,Dify检索知识库在秒级别,通常需要1-2秒,而部署在T4 GPU上则可以达到毫秒级别,通常在几十毫秒。

部署配置说明一下,这很关键,直接关系到是否可以正常访问milvus。

在.env环境变量中,使用默认的配置,一直连接失败,如:MILVUS_URI=http://host.docker.internal:19530

应该修改为宿主服务的IP,比如:MILVUS_URI=http://172.18.0.8:19530

另外,默认的验证false始终无效,还是要验证MILVUS_USER和MILVUS_PASSWORD,我们设置为默认的值,如:root和Milvus。

docker-compose.yaml配置中,使用的是milvusdb/milvus:v2.5.0-beta-gpu。

XML 复制代码
milvus-standalone:
    container_name: milvus-standalone
    image: milvusdb/milvus:v2.5.0-beta-gpu
    profiles:
      - milvus
    command: [ 'milvus', 'run', 'standalone' ]
    environment:
      ETCD_ENDPOINTS: ${ETCD_ENDPOINTS:-etcd:2379}
      MINIO_ADDRESS: ${MINIO_ADDRESS:-minio:9000}
      gpu.enalbe: "true"
      gpu.device_ids: "0"
      gpu.bulid_index_resouces: "16GB"
      gpu.search_resources: "16GB"
      NVIDIA_VISIBLE_DEVICES: 0
    volumes:
      - ./volumes/milvus/milvus:/var/lib/milvus
    healthcheck:
      test: [ 'CMD', 'curl', '-f', 'http://localhost:9091/healthz' ]
      interval: 30s
      start_period: 90s
      timeout: 20s
      retries: 3
    depends_on:
      - etcd
      - minio
    ports:
      - 19530:19530
      - 9091:9091
    runtime: nvidia
    networks:
      - milvus

使用DeepSeek-R1.pdf作为知识库文件进行验证。

创建一个RAG测试工作流,检索topk=7。

测试一:DeepSeek-R1

测试二:DeepSeek-R1

测试三:who are u?

测试四:who are u?

相关推荐
有点不太正常2 天前
Differentially Private Synthetic Text Generation for RAG——论文阅读
论文阅读·大模型·llm·rag
老顾聊技术3 天前
【AI课程上线了哦,打造类FastGPT产品】
langchain·rag
mit6.8244 天前
[VoiceRAG] 集成向量化 | Azure AI Search中建立自动化系统
llm·rag
dundunmm6 天前
【数据集】WebQuestions
人工智能·llm·数据集·知识库问答·知识库
lypzcgf6 天前
Coze源码分析-资源库-编辑知识库-后端源码-流程/技术/总结
系统架构·知识库·coze·coze源码分析·智能体平台·ai应用平台·agent平台
lypzcgf8 天前
Coze源码分析-资源库-编辑知识库-后端源码-基础设施/存储层
系统架构·go·知识库·coze·coze源码分析·智能体平台·ai应用平台
不语n8 天前
Windows+Docker+AI开发板打造智能终端助手
python·docker·树莓派·香橙派·dify·ollama·ai开发板
阿福Chris8 天前
Dify本地初始化后安装模型供应商瞬间失败控制台报错401
大模型·llm·dify·大模型工具
wwwzhouhui9 天前
86-dify案例分享-Qwen3-VL+Dify:从作业 OCR 到视频字幕,多模态识别工作流一步教,附体验链接
ocr·dify·qwen3-vl