deepin V23 部署Ollama

系统:Deepin V23

1.Ollama简单介绍

Ollama是一个开源的大语言模型本地部署工具,通过它可以方便的在本机部署开源大模型。

Ollama仓库地址:https://github.com/ollama/ollama

Ollama官方下载地址:https://ollama.com/download

2.安装Ollama

在Deepin V23中打开一个终端,切换至root用户.执行如下命令.

#cd /usr/local (将ollama安装在/usr/local中)

#curl -fsSL https://ollama.com/install.sh | sh (安装时间视网络而定)

查看ollama运行情况

3.安装(运行)模型

安装完成后在终端运行模型,如Qwen2的7B模型:ollama run qwen2:7b

4.与Qiwen2:7b对话

(1)在终端中对话

打开终端,普通用户即可

执行命令:$ollama run qwen2:7b

若要退出,输入 /bye

(2)UOS AI中(接入本地模型)对话



如:

相关推荐
我重来不说话4 天前
免费Ollama大模型集成系统——Golang
golang·gin·ollama·免费大模型
浪淘沙jkp4 天前
AI大模型学习十八、利用Dify+deepseekR1 +本地部署Stable Diffusion搭建 AI 图片生成应用
人工智能·stable diffusion·agent·dify·ollama·deepseek
小声读源码4 天前
【技巧】使用frpc点对点安全地内网穿透访问ollama服务
内网穿透·frpc·ollama·安全访问
pedestrian_h5 天前
Spring AI 开发本地deepseek对话快速上手笔记
java·spring boot·笔记·llm·ollama·deepseek
木偶彡5 天前
如何通过http访问ollama接口
大模型·ollama·deepseek
Violet_Stray9 天前
【Ollama】docker离线部署Ollama+deepseek
docker·部署·ollama·deepseek
猿小猴子13 天前
在Window10 和 Ubuntu 24.04LTS 上 Ollama 在线或离线安装部署
ollama
暮乘白帝过重山21 天前
Ollama 在本地分析文件夹中的文件
前端·chrome·ollama
whltaoin22 天前
基于Spring AI Alibaba + Spring Boot + Ollama搭建本地AI对话机器人API
spring boot·ollama