ollama+dify安装

暂时没有图文,下次有再次安装的时候再配图文

1.安装nvidia

复制代码
    检测是否安装驱动
	lspci | grep -i nvidia
	禁用nouveau驱动
	sudo nano /etc/modprobe.d/blacklist-nouveau.conf
    添加以下内容
		blacklist nouveau
		options nouveau modeset=0
    更新initramfs
	sudo update-initramfs -u
	检查可安装的驱动
	ubuntu-drivers devices
	安装指定版本(非必要尽量安装带有open的,因为ubentu可能不识别不带open的)
	sudo apt install nvidia-driver-580-open
	重启电脑
	sudo reboot
	测试是否完成(如果出现显卡状态说明安装成功了)
	nvidia-smi

2.安装cuda

复制代码
	官网地址,根据官网给的命令安装即可
	https://developer.nvidia.com/cuda-toolkit-archive
	测试是否安装成功
	nvcc -V

3.安装cudnn

复制代码
	https://developer.nvidia.com/cudnn
	根据官方命令安装即可

安装驱动后黑屏/无法进入系统

尝试在GRUB引导时选择"Advanced options",使用恢复模式

卸载驱动后重新安装

nvidia-smi命令找不到

确认驱动是否正确安装

检查PATH环境变量是否包含/usr/bin/

CUDA版本不匹配

确保CUDA工具包版本不超过驱动支持的最高版本

使用nvidia-smi查看驱动支持的CUDA版本

尝试在GRUB引导时选择"Advanced options",使用恢复模式

卸载驱动后重新安装

nvidia-smi命令找不到

确认驱动是否正确安装

检查PATH环境变量是否包含/usr/bin/

CUDA版本不匹配

确保CUDA工具包版本不超过驱动支持的最高版本

使用nvidia-smi查看驱动支持的CUDA版本

4.安装ollama

复制代码
	从官网下载包,然后进行解压(解压时注意存放路径和命令路径)
	sudo tar -C /usr -xzf ollama-linux-amd64.tgz
	如果报错:bash: sudo: command not found
	apt-get update
	apt-get install sudo
	验证是否成功
	ollama serve
	设为自启
	sudo useradd -r -s /bin/false -U -m -d /usr/share/ollama ollama
	sudo usermod -a -G ollama $(whoami)
	创建服务文件
	创建一个 systemd 服务文件来管理 Ollama 作为后台服务运行。该文件通常位于 /etc/systemd/system/ollama.service
	
	[Unit]
	Description=Ollama Service
	After=network-online.target
	 
	[Service]
	ExecStart=/usr/bin/ollama serve
	User=ollama
	Group=ollama
	Restart=always
	RestartSec=3
	Environment="PATH=/usr/local/sbin"
	Environment="OLLAMA_HOST=0.0.0.0:11434"
	Environment="OLLAMA_GPU_LAYER=cuda"
	Environment="OLLAMA_ORIGINS=*"
	Environment="OLLAMA_NUM_PARALLEL=2"  # 最大同时执行数
	Environment="OLLAMA_MAX_LOADED_MODELS=2" #最大模型加载数
	[Install]
	WantedBy=default.target
	
	启动服务
	sudo systemctl daemon-reload
	sudo systemctl enable ollama
	启动、重启、查看状态
	Start Ollama
	Start Ollama and verify it is running:
	sudo systemctl start ollama
	sudo systemctl status ollama
	sudo systemctl restart ollama

5.安装dify

复制代码
	为了方便管理从宝塔进行安装:
	https://www.bt.cn/new/download.html
	从官网下载dify包
	https://gitcode.com/GitHub_Trending/di/dify?source_module=search_result_repo
	找到docker目录
	docker-compose up -d
相关推荐
skywalk816312 小时前
使用llama.cpp和ollama推理LFM2.5-1.2B模型
llama·ollama·lfm2.5-1.2b
用什么都重名17 小时前
【Dify学习笔记】:Dify插件离线转换教程
插件·dify·ollama
安全二次方security²2 天前
CUDA C++编程指南(7.19&20)——C++语言扩展之Warp投票函数和Warp匹配函数
c++·人工智能·nvidia·cuda·投票函数·匹配函数·vote
摸鱼仙人~2 天前
Dify 应用用户隔离与会话管理技术方案
dify
摸鱼仙人~2 天前
实战 BGE-M3 与 Ollama:从接口测试到向量原理解析
ollama·bge
安全二次方security²3 天前
CUDA C++编程指南(7.15&16)——C++语言扩展之内存空间谓词和转化函数
c++·人工智能·nvidia·cuda·内存空间谓词函数·内存空间转化函数·address space
勇气要爆发3 天前
Docker+Ollama+LangChain:从零搭建企业级“隐私优先”本地 RAG 知识库 (附源码)
docker·容器·langchain·lora·rag·ollama·llama 3
安全二次方security²3 天前
CUDA C++编程指南(7.5&6)——C++语言扩展之内存栅栏函数和同步函数
c++·人工智能·nvidia·cuda·内存栅栏函数·同步函数·syncthreads
大脑经常闹风暴@小猿4 天前
Coze开源了!! 扣子(Coze) 和 dify怎么选?
dify·coze
安全二次方security²4 天前
CUDA C++编程指南(7.2)——C++语言扩展之变量内存空间指定符
c++·人工智能·nvidia·cuda·内存空间指定符·__shared__·__device__