deepin V23 部署Ollama

系统:Deepin V23

1.Ollama简单介绍

Ollama是一个开源的大语言模型本地部署工具,通过它可以方便的在本机部署开源大模型。

Ollama仓库地址:https://github.com/ollama/ollama

Ollama官方下载地址:https://ollama.com/download

2.安装Ollama

在Deepin V23中打开一个终端,切换至root用户.执行如下命令.

#cd /usr/local (将ollama安装在/usr/local中)

#curl -fsSL https://ollama.com/install.sh | sh (安装时间视网络而定)

查看ollama运行情况

3.安装(运行)模型

安装完成后在终端运行模型,如Qwen2的7B模型:ollama run qwen2:7b

4.与Qiwen2:7b对话

(1)在终端中对话

打开终端,普通用户即可

执行命令:$ollama run qwen2:7b

若要退出,输入 /bye

(2)UOS AI中(接入本地模型)对话



如:

相关推荐
Ki13812 天前
将树莓派5当做Ollama服务器,C#调用generate的API的示例
linux·树莓派·ollama
Learn-Share_HY2 天前
[Python]如何利用Flask搭建一個Web服務器,並透過Ngrok訪問來實現LINE Bot功能?
linux·人工智能·python·ubuntu·flask·ollama·ngrok
whltaoin4 天前
《2核2G阿里云神操作!Ubuntu+Ollama低成本部署Deepseek模型实战》
ubuntu·阿里云·大模型·ollama
乐予吕5 天前
MCP:AI 时代的“USB-C”,解锁模型上下文新范式
openai·ollama·mcp
tinghe176 天前
本地部署Dify 添加Ollama模型DeepSeek
dify·本地部署·ollama·deepseek
小小工匠10 天前
LLM - CentOS上离线部署Ollama+Qwen2.5-coder模型完全指南
ollama·离线部署·qwen2.5-coder
TitusTong14 天前
使用 <think> 标签解析 DeepSeek 模型的推理过程
前端·ollama·deepseek
山巅14 天前
Mac下Ollama安装全攻略:开启本地大模型之旅
大模型·mac·ollama·deepseek
星沉大海@T15 天前
关于修改 Ollama 及其模型默认路径、迁移已安装的 Ollama 程序和模型以及重启 Ollama 的操作指南
ollama·迁移指南
前端梭哈攻城狮15 天前
ollama+dify本地化部署【菜鸟教程】
aigc·ollama·deepseek