系统:Deepin V23
1.Ollama简单介绍
Ollama是一个开源的大语言模型本地部署工具,通过它可以方便的在本机部署开源大模型。
Ollama仓库地址:https://github.com/ollama/ollama
Ollama官方下载地址:https://ollama.com/download
2.安装Ollama
在Deepin V23中打开一个终端,切换至root用户.执行如下命令.
#cd /usr/local (将ollama安装在/usr/local中)
#curl -fsSL https://ollama.com/install.sh | sh (安装时间视网络而定)
查看ollama运行情况
3.安装(运行)模型
安装完成后在终端运行模型,如Qwen2的7B模型:ollama run qwen2:7b
4.与Qiwen2:7b对话
(1)在终端中对话
打开终端,普通用户即可
执行命令:$ollama run qwen2:7b
若要退出,输入 /bye
(2)UOS AI中(接入本地模型)对话
如: