deepin V23 部署Ollama

系统:Deepin V23

1.Ollama简单介绍

Ollama是一个开源的大语言模型本地部署工具,通过它可以方便的在本机部署开源大模型。

Ollama仓库地址:https://github.com/ollama/ollama

Ollama官方下载地址:https://ollama.com/download

2.安装Ollama

在Deepin V23中打开一个终端,切换至root用户.执行如下命令.

#cd /usr/local (将ollama安装在/usr/local中)

#curl -fsSL https://ollama.com/install.sh | sh (安装时间视网络而定)

查看ollama运行情况

3.安装(运行)模型

安装完成后在终端运行模型,如Qwen2的7B模型:ollama run qwen2:7b

4.与Qiwen2:7b对话

(1)在终端中对话

打开终端,普通用户即可

执行命令:$ollama run qwen2:7b

若要退出,输入 /bye

(2)UOS AI中(接入本地模型)对话



如:

相关推荐
最菜灰夫人14 小时前
在Ubuntu 20.04上安装Ollama并部署大型语言模型:含Open WebUI图形界面教程
ollama
狂炫一碗大米饭9 天前
使用 Ollama搭建代理ai工作流
ollama
我想说一句12 天前
Next.js+Ollama本地聊天模型应用!
前端·next.js·ollama
G等你下课13 天前
使用 Ollama 本地部署 AI 聊天应用
next.js·ollama
AI大模型13 天前
重磅!Ollama发布UI界面,告别命令窗口!
程序员·llm·ollama
浩瀚蓝天dep16 天前
使用Ollama部署自己的本地模型
ai大模型·ollama·deepseek
大模型教程18 天前
LM Studio本地部署Qwen3
程序员·llm·ollama
_風箏18 天前
Ollama【部署 02】Linux本地化部署及SpringBoot2.X集成Ollama(ollama-linux-amd64.tgz最新版本 0.6.2)
人工智能·后端·ollama
AI大模型24 天前
基于 Ollama 本地 LLM 大语言模型实现 ChatGPT AI 聊天系统
程序员·llm·ollama
李大腾腾1 个月前
3、JSON处理( n8n 节点用于交换信息的语言)
openai·workflow·ollama