【自然语言处理与大模型】Windows安装RAGFlow并接入本地Ollama模型

本文给大家带来一个实用的RAG框架------RAGFlow。我们来看看它的自我介绍吧!

还是老规矩,它是什么?有什么用?这些官方文档都可以简单的查到(官方中文README_zh.md)。下面我带大家一步步安装并实现一个知识库问答吧!

(1)快速安装

1、拉取官方github上的ragflow仓库

bash 复制代码
git clone https://github.com/infiniflow/ragflow.git

2、进入ragflow下面的docker目录,执行docker compose命令进行本地安装

bash 复制代码
# 进入docker目录中
cd ragflow/docker

# 我们安装GPU版本的
docker compose -f docker-compose-gpu.yml up -d

3、网页输入localhost进入ragflow的使用界面

(2)设置默认模型

4、点击头像进入设置,在模型供应商里面配置大模型

5、 因为要使用本地部署的模型,所以选择Ollama是最简单的

6、embedding模型也可以选择qwen3:4b

【坑】这里添加失败了,原因是Ollama的服务默认不是所有地址都能访问的,所以我们要去设置一个HOST环境,让宿主机的IP也能访问Ollama的API。

7、先配置一下Docker的.env文件

8、在.env文件里面添加环境变量,这样Docker里面的ragflow就可以正确访问Ollama的API

bash 复制代码
# 配置Ollama服务的宿主机IP
OLLAMA_API_BASE_URL=http://10.170.151.170:11434

# 兼容OpenAI的API
CUSTOM_OPENAI_API_BASE_URL=http://10.170.151.170:8000

9、再去我自己的电脑(宿主机)去配置系统环境变量,允许ollama服务被所有地址访问

【坑】 配置好HOST之后一定要重启Ollama,不然不会生效

10、我们继续配置Ollama模型

11、默认已经安装了通义千问的向量模型,给它填入API KEY

【注】现在去阿里云百炼注册账号,可以获得每个模型免费100万的额度!!!跳转链接:阿里云百炼https://bailian.console.aliyun.com/

(3)创建知识库

12、点击上方的知识库去创建一个

13、添加文件成功之后,进行文本转向量处理

14、进行一些必要的配置(这些配置参数自行去官方doc里面查)

RAGFlow官方文档https://ragflow.io/docs/dev/

(4)创建基于RAG的聊天

15、点击上方的聊天,新建一个助理

16、测试RAG对话

相关推荐
数字供应链安全产品选型几秒前
AI全生命周期安全:从开发到下线,悬镜安全灵境AIDR如何覆盖智能体每一个环节?
人工智能
2501_933329551 分钟前
企业舆情处置实战:Infoseek数字公关AI中台技术架构与功能解析
大数据·人工智能·架构·数据库开发
带娃的IT创业者3 分钟前
深度解析 Claude Design:如何利用 Anthropic 最新设计范式构建 AI 原生应用
人工智能·python·llm·claude·应用开发·anthropic·ai原生应用
QC·Rex5 分钟前
Spring AI MCP Apps 实战:打造聊天与富 UI 融合的智能化应用
人工智能·spring·ui·spring ai·mcp
koharu1238 分钟前
大模型后训练全解:SFT、RLHF/PPO、DPO 的原理、实践与选择
人工智能·llm·后训练
Kel26 分钟前
LangChain.js 架构设计深度剖析
人工智能·设计模式·架构
百度Geek说27 分钟前
我把 Karpathy 的 AutoResearch 搬到了软件开发领域,效果炸了
人工智能
嵌入式小企鹅39 分钟前
国产大模型与芯片加速融合,RISC-V生态多点开花,AI编程工具迈入自动化新纪元
人工智能·学习·ai·嵌入式·算力·risc-v·半导体
数智大号41 分钟前
聚焦 AI 音频创新 ,Shure 亮相 InfoComm 全场景解决方案破解协作难题
人工智能
做个文艺程序员1 小时前
Spring Boot 项目集成 OpenClAW【OpenClAW + Spring Boot 系列 第1篇】
java·人工智能·spring boot·开源