deepin V23 部署Ollama

系统:Deepin V23

1.Ollama简单介绍

Ollama是一个开源的大语言模型本地部署工具,通过它可以方便的在本机部署开源大模型。

Ollama仓库地址:https://github.com/ollama/ollama

Ollama官方下载地址:https://ollama.com/download

2.安装Ollama

在Deepin V23中打开一个终端,切换至root用户.执行如下命令.

#cd /usr/local (将ollama安装在/usr/local中)

#curl -fsSL https://ollama.com/install.sh | sh (安装时间视网络而定)

查看ollama运行情况

3.安装(运行)模型

安装完成后在终端运行模型,如Qwen2的7B模型:ollama run qwen2:7b

4.与Qiwen2:7b对话

(1)在终端中对话

打开终端,普通用户即可

执行命令:$ollama run qwen2:7b

若要退出,输入 /bye

(2)UOS AI中(接入本地模型)对话



如:

相关推荐
呱牛do it13 小时前
离线部署大模型:ollama+deepseek+open-webui
人工智能·ollama·deepseek
Stara051120 小时前
AI客服-接入deepseek大模型到微信(本地部署deepseek集成微信自动收发消息)
微信·node·ollama·deepseek
a41324471 天前
亲测Windows部署Ollama+WebUI可视化
windows·ollama·open-webui·deepseek本地化部署
wrj的博客2 天前
1 使用ollama完成DeepSeek本地部署
本地部署·ollama·deepseek
倔强青铜三2 天前
函数调用与工具使用在大语言模型中的应用
人工智能·python·ollama
码农阿豪3 天前
本地部署Anything LLM+Ollama+DeepSeek R1打造AI智能知识库教程
人工智能·llm·ollama·deepseek
shandianchengzi4 天前
【BUG】LLM|Ubuntu 用 ollama 部署 DeepSeek 但没输出,llama 有输出
ubuntu·llm·bug·llama·ollama·deepseek
熊文豪5 天前
亲测有效!使用Ollama本地部署DeepSeekR1模型,指定目录安装并实现可视化聊天与接口调用
人工智能·ai·自然语言处理·ollama·deepseek·deepseekr1·chatbox
_老码7 天前
避雷,Ubuntu通过ollama本地化部署deepseek,open-webui前端显示
ubuntu·ai·ollama·deepseek
AlfredZhao7 天前
手把手教你更优雅的享受 DeepSeek
ai·llm·ollama·deepseek·page assist