ubuntu22.04部署ragflow和ollama

文章目录

安装驱动和CUDA

参考下面这个链接
安装NVIDIA驱动

安装过程中可能会出现下面这个报错:

an error occurred while performing building kernel modules see /var/log/nvidia-installer.log for details. unrecognized command-line option...

原因是系统gcc版本和内核gcc版本不一致,安装gcc-12

That's an issue with the Ubuntu kernel. For whatever reasons, the ubuntu kernel team decided to use gcc-12 for kernel compilation while the 22.04 system compiler is gcc-11. Please install gcc-12 from ubuntu repo to be able to compile the nvidia modules again.

cpp 复制代码
sudo apt update
sudo apt install gcc-12 g++-12

并将gcc-12设置为默认编译器

cpp 复制代码
sudo update-alternatives --install /usr/bin/gcc gcc /usr/bin/gcc-12 12
sudo update-alternatives --install /usr/bin/g++ g++ /usr/bin/g++-12 12

验证gcc版本

cpp 复制代码
gcc --version

部署ollama(本地)

打开ollama官网,选择linux,直接下载
ollama官网

下载完成之后,可以在官网下载模型,搜索你想下载的模型,复制右边的命令即可下载模型

ollama配置

需要修改ollama配置,如果不修改ragflow没办法访问到ollama

由于默认ollama绑定在127.0.0.1的11434端口,其他IP都拒绝

使用docker只能访问到自己不能访问到宿主机上,所以需要将ollama服务暴露给网络

方法修改如下文件:

复制代码
vim /etc/systemd/system/ollama.service

在[Service]下继续添加如下内容,使ollama绑定到0.0.0.0的11434端口

复制代码
Environment="OLLAMA_HOST=0.0.0.0"

填入的基础URL为

复制代码
http://host.docker.internal:11434/

参考链接
ragflow无法访问ollama

解决linux中待机时间过长导致ollama回退到cpu处理模式的问题

笔记本电脑挂起恢复

在 Linux 上,经过一次挂起/恢复周期后,有时 Ollama 会无法发现你的 NVIDIA GPU,并回退到在 CPU 上运行。你可以通过重新加载 NVIDIA UVM 驱动来解决这个驱动程序错误,命令为 sudo rmmod nvidia_uvm && sudo modprobe nvidia_uvm。

出现这个问题后,复制下面四条命令重启ollama即可

The 999 error is a generic "unknown error" code, which isn't super helpful.

What happens if you try removing the uvm module:

cpp 复制代码
sudo systemctl stop ollama
sudo rmmod nvidia_uvm
sudo modprobe nvidia_uvm
sudo systemctl start ollama

如何找到这个问题呢,停止ollama然后重新启动ollama就会有log出来

bash 复制代码
sudo systemctl stop ollama
ollama serve

会有这些log出来,说明GPU找不到了,所以ollama又使用cpu来跑模型了

bash 复制代码
msg="unknown error initializing cuda driver library /usr/lib/x86_64-linux-gnu/libcuda.so.550.144.03: cuda driver library init failure: 999"
msg="no compatible GPUs were discovered"
msg="inference compute" id=0 library=cpu variant=avx2

解决方法参考链接
Unknown error initializing cuda driver library

部署ragflow(docker)

搜索ragflow,在github上面clone下来

bash 复制代码
git clone https://github.com/infiniflow/ragflow.git

ragflow有两个镜像版本,一个迷你版,一个完整版,推荐下载完整版本

如果要下载完整版本,打开ragflow/docker/.env,把完整版本取消注释,slim版本注释

然后执行下面这条命令即可拉取镜像

bash 复制代码
docker compose -f docker-compose.yml up -d

完成后,在浏览器输入0.0.0.0即可打开ragflow的网页

加入ollama里的模型

ollama list,复制模型名字

如图填即可

相关推荐
飞睿科技16 分钟前
乐鑫代理商飞睿科技,2025年AI智能语音助手市场发展趋势与乐鑫芯片解决方案分析
人工智能
许泽宇的技术分享17 分钟前
从新闻到知识图谱:用大模型和知识工程“八步成诗”打造科技并购大脑
人工智能·科技·知识图谱
坤坤爱学习2.031 分钟前
求医十年,病因不明,ChatGPT:你看起来有基因突变
人工智能·ai·chatgpt·程序员·大模型·ai编程·大模型学
蹦蹦跳跳真可爱5891 小时前
Python----循环神经网络(Transformer ----注意力机制)
人工智能·深度学习·nlp·transformer·循环神经网络
空中湖3 小时前
tensorflow武林志第二卷第九章:玄功九转
人工智能·python·tensorflow
lishaoan773 小时前
使用tensorflow的线性回归的例子(七)
人工智能·tensorflow·线性回归
千宇宙航6 小时前
闲庭信步使用SV搭建图像测试平台:第三十一课——基于神经网络的手写数字识别
图像处理·人工智能·深度学习·神经网络·计算机视觉·fpga开发
onceco7 小时前
领域LLM九讲——第5讲 为什么选择OpenManus而不是QwenAgent(附LLM免费api邀请码)
人工智能·python·深度学习·语言模型·自然语言处理·自动化
jndingxin9 小时前
OpenCV CUDA模块设备层-----高效地计算两个 uint 类型值的带权重平均值
人工智能·opencv·计算机视觉
Sweet锦10 小时前
零基础保姆级本地化部署文心大模型4.5开源系列
人工智能·语言模型·文心一言