低成本+高性能+超灵活!Deepseek 671B+Milvus重新定义知识库搭建

"老板说,这个项目得上Deepseek,还得再做个知识库..."

还有哪个开发者,最近没听到这样的抱怨?

Deepseek爆火,推理端的智能提速,算力成本急剧下降,让不少原本不想用大模型,用不起大模型的企业,一夕之间全部拥抱AI,开启了降本增效。在这个过程中,对于大部分拥有优质私有数据,敏感数据的企业来说,如果不想数据泄露,那么部署本地知识库,就成了拥抱大模型的必经之路。

可是当你真正开始调研的时候,就会发现这事儿没那么简单:

想用开源的蒸馏版模型?效果差强人意,连基本的问答准确度都难以保证。

比如,前不久,我们推出了基于Deepseek 7b+Milvus的本地部署教程,就有不少开发者反应,7B版本,即使加上了向量数据库,也依然效果差强人意。

可是上满血版的大模型?满血的R1,参数有671B,即使已经是FP16精度,需要的显存也高达1342GB,换算成80G的A100,也需要足足17张。而个人电脑,即使采用顶配的24GB的4090,需要的数量也足足高达56张(MoE+量化会降低实际显存需求)......

很显然,别说个人,就是一些中小企业,也没这么多显卡。

那就用开源方案搭建?光是配置环境就够喝一壶的:向量库选型、模型部署、前端界面...每一步都像是在考验你的耐心。

难道就没有一个简单可行的方案吗?

被老板抓着加班部署了一个月后,相信我,Deepseek+Milvus+AnythingLLM,绝对是你部署本地知识库的最优解!

这个方案不仅解决了性能问题,更重要的是,它真的做到了"零门槛",只需要30分钟,就能搭建一个具备企业级性能的私有知识库。而且,整个过程真的像搭积木一样简单,小白也能快速上手。

01

选型思路

首先我们来看一下,这次选型,为什么采用Deepseek+Milvus+AnythingLLM这个组合,它主要解决了目前RAG落地的三大痛点:

1.1 模型性能问题

用过ollama提供的蒸馏版Deepseek的朋友,应该都有同感,虽然也是Deepseek,但效果实在不怎么聪明。总结来说,就是7B太智障,671B用不起。

所以,在这里,我们推荐使用硅基流动以及一些云服务企业的API服务,通过API调用的方式,我们可以用很低的成本获得满血版Deepseek的算力支持。而且,最近一段时间,新注册用户还有免费的额度尝鲜。

1.2 部署难度问题

市面上开源的RAG方案不少,但要么需要复杂的环境配置,要么需要大量的运维工作。而AnythingLLM则提供完整的UI界面,天然的支持向量数据库Milvus以及各种类型的大模型接口,降低了入门用户的使用门槛。

而Milvus在召回效率、支持的数量规模等方面,也是业内毋庸置疑的第一梯队,与此同时,Milvus也是目前github上向量数据库方向,star数量最多的开源产品,属于大部分AI开发者的入门基础课程

1.3 扩展性问题

这个组合最大的亮点在于它的灵活性。可以轻松切换不同的大语言模型,Milvus支持亿级数据的高性能检索,AnythingLLM的插件机制让功能扩展变得简单。

总的来说,这个组合方案既保证了效果,又降低了使用门槛,还具备良好的扩展性。对于想要快速搭建私有知识库的个人来说,是一个非常理想的选择。

02

实战:搭建本地RAG

环境配置要求说明:

本文环境均以MacOS为例,Linux和Windows用户可以参考对应平台的部署文档。

docker和ollama安装不在本文中展开。

本地部署配置:最低CPU:4核、内存8G,建议 CPU:8核、内存16G

(1)Milvus部署

官网:https://milvus.io

1.1下载Milvus部署文件
ruby 复制代码
bash-3.2$ wget https://github.com/milvus-io/milvus/releases/download/v2.5.4/milvus-standalone-docker-compose.yml -O docker-compose.yml
go 复制代码
1.2修改配置文件

说明:anythingllm对接milvus时需要提供milvus账号密码,因此需要修改docker-compose.yml文件中的username和password字段。

properties 复制代码
version: '3.5'
services:
  etcd:
    container_name: milvus-etcd
    image: registry.cn-hangzhou.aliyuncs.com/xy-zy/etcd:v3.5.5
    environment:
      - ETCD_AUTO_COMPACTION_MODE=revision
      - ETCD_AUTO_COMPACTION_RETENTION=1000
      - ETCD_QUOTA_BACKEND_BYTES=4294967296
      - ETCD_SNAPSHOT_COUNT=50000
    volumes:
      - ${DOCKER_VOLUME_DIRECTORY:-.}/volumes/etcd:/etcd
    command: etcd -advertise-client-urls=http://127.0.0.1:2379 -listen-client-urls http://0.0.0.0:2379 --data-dir /etcd
    healthcheck:
      test: ["CMD", "etcdctl", "endpoint", "health"]
      interval: 30s
      timeout: 20s
      retries: 3
  minio:
    container_name: milvus-minio
    image: registry.cn-hangzhou.aliyuncs.com/xy-zy/minio:RELEASE.2023-03-20T20-16-18Z
    environment:
      MINIO_ACCESS_KEY: minioadmin
      MINIO_SECRET_KEY: minioadmin
    ports:
      - "9001:9001"
      - "9000:9000"
    volumes:
      - ${DOCKER_VOLUME_DIRECTORY:-.}/volumes/minio:/minio_data
    command: minio server /minio_data --console-address ":9001"
    healthcheck:
      test: ["CMD", "curl", "-f", "http://localhost:9000/minio/health/live"]
      interval: 30s
      timeout: 20s
      retries: 3
  standalone:
    container_name: milvus-standalone
    image: registry.cn-hangzhou.aliyuncs.com/xy-zy/milvus:v2.5.4
    command: ["milvus", "run", "standalone"]
    security_opt:
    - seccomp:unconfined
    environment:
      ETCD_ENDPOINTS: etcd:2379
      MINIO_ADDRESS: minio:9000
      COMMON_USER: milvus
      COMMON_PASSWORD: milvus
    volumes:
      - ${DOCKER_VOLUME_DIRECTORY:-.}/volumes/milvus:/var/lib/milvus
    healthcheck:
      test: ["CMD", "curl", "-f", "http://localhost:9091/healthz"]
      interval: 30s
      start_period: 90s
      timeout: 20s
      retries: 3
    ports:
      - "19530:19530"
      - "9091:9091"
    depends_on:
      - "etcd"
      - "minio"
networks:
  default:
    name: milvus
1.3启动并检查Milvus服务
ruby 复制代码
bash-3.2$ docker-compose up -d

(2)ollama下载向量模型

官网:https://ollama.com/

2.1 下载查看向量模型
ruby 复制代码
bash-3.2$  ollama pull nomic-embed-text
cpp 复制代码
bash-3.2$  ollama list

(3)注册硅基流动获取API密钥

官网:https://siliconflow.cn/zh-cn/

3.1复制满血版deepseek模型名称
3.2 创建API密钥并记录

(4)下载安装AnythingLLM

官网:https://anythingllm.com/

4.1 安装时点击GetStarted
4.2 暂不配置先点下一步
4.3 点击Skip跳过
4.4 部署完成进入首页

(5)配置AnythingLLM

5.1添加deepseek模型

说明:点击LLM首选项选择提供商Generic OpenAI并填入刚才注册的API密钥、baserul、deepseek模型名称并保存

5.2 添加milvus向量数据库

说明:点击向量数据库选项选择Milvus并填入刚才部署好的milvus的地址、用户名、密码并保存

5.3 添加embeding模型

说明:点击Embedder首选项选择ollama并填入刚才部署好的ollama的URL和模型名称并保存

(6)效果演示

6.1 回到首页新建工作区
6.2 上传测试数据集

说明:数据集可以从huggingface上获取 网址:https://huggingface.co/datasets

上传区域传入数据集并点击Move向量化后存入milvus

6.3 测试问答效果

说明:对话框中输入"怎么实现向量检索检索?"得到的回复是符合预期的,可以看到回复中引用了本地知识库中的内容。

03

写在结尾:RAG落地的思考与展望

看到这里,相信你已经成功搭建起了自己的知识库系统。不过除了具体的搭建步骤,我觉得这个方案背后还有一些值得分享的思考。

1.架构设计的前瞻性

这套方案采用了"模型服务+向量数据库+应用前端"的解耦设计。这种架构的好处是显而易见的:

当新的大模型出现时,我们只需要替换模型服务

数据规模扩大时,可以单独升级向量库

业务需求变化时,前端界面也能独立演进

这种松耦合的设计理念,让系统具备了持续进化的能力。在AI技术快速迭代的今天,这一点尤为重要。

2.技术选型的平衡之道

在选择技术栈时,我们需要在多个维度之间找到平衡:

性能与易用性:通过API调用满血版模型,而不是本地部署蒸馏版

开发效率与扩展性:选择开箱即用的AnythingLLM,但保留了插件扩展能力

成本与效果:利用硅基流动等云服务,避免了高昂的硬件投入

这些选择背后,体现的是一种务实的工程思维。

3.RAG应用的演进趋势

从更大的视角来看,这套方案的出现其实反映了几个重要的行业趋势:

知识库建设正在从企业级需求向个人需求扩展

RAG技术栈正在标准化、组件化,降低了使用门槛

云服务的普及让高性能AI能力变得触手可及

未来,随着更多优秀的开源组件出现,RAG的应用场景会越来越丰富。我们可能会看到:

更多细分领域的专业知识库方案

更智能的数据处理和检索算法

更便捷的部署和运维工具

总的来说,这个"Deepseek+Milvus+AnythingLLM"的组合不仅解决了当前的实际需求,也为未来的演进预留了空间。对于想要探索RAG应用的个人和团队来说,现在就是最佳的入局时点。

如对以上案例感兴趣,或想对Milvus做进一步了解,欢迎扫描文末二维码交流进步。

作者介绍

Zilliz 黄金写手:尹珉

推荐阅读

相关推荐
大龄码农有梦想9 小时前
SpringBoot集成Milvus,实现数据增删改查
人工智能·spring boot·ai·springboot·milvus·向量数据库
Carry_NJ9 小时前
给milvus添加账号密码
milvus
大龄码农有梦想9 小时前
MacOS安装Milvus向量数据库
macos·milvus·向量数据库·安装部署·milvus安装
张登杰踩2 天前
【Milvus】向量数据库pymilvus使用教程
数据库·oracle·milvus
Zilliz Planet3 天前
Milvus 存储设计揭秘:从数据写入到 Segment 管理的全链路解析
milvus
colorknight3 天前
疯狂SQL转换系列- SQL for Milvs2.4
sql·milvus·数据科学·huggingfists·graphrag·向量库·moql
健忘的派大星20 天前
【AI大模型】根据官方案例使用milvus向量数据库打造问答RAG系统
人工智能·ai·语言模型·llm·milvus·agi·rag
小菜鸟博士22 天前
大模型学习笔记 - 第一期 - Milvus向量数据库
数据库·笔记·学习·算法·milvus
kcarly22 天前
认识 Milvus 向量数据库
数据库·milvus·向量数据库