deepin V23 部署Ollama

系统:Deepin V23

1.Ollama简单介绍

Ollama是一个开源的大语言模型本地部署工具,通过它可以方便的在本机部署开源大模型。

Ollama仓库地址:https://github.com/ollama/ollama

Ollama官方下载地址:https://ollama.com/download

2.安装Ollama

在Deepin V23中打开一个终端,切换至root用户.执行如下命令.

#cd /usr/local (将ollama安装在/usr/local中)

#curl -fsSL https://ollama.com/install.sh | sh (安装时间视网络而定)

查看ollama运行情况

3.安装(运行)模型

安装完成后在终端运行模型,如Qwen2的7B模型:ollama run qwen2:7b

4.与Qiwen2:7b对话

(1)在终端中对话

打开终端,普通用户即可

执行命令:$ollama run qwen2:7b

若要退出,输入 /bye

(2)UOS AI中(接入本地模型)对话



如:

相关推荐
warrah1 天前
fastGpt
oneapi·fastgpt·ollama
仙魁XAN2 天前
AGI 之 【Dify】 之 Dify 在 Windows 端本地部署调用 Ollama 本地下载的大模型,实现 API 形式进行聊天对话
api·qwen·dify·1024程序员节·ollama
beyond阿亮7 天前
Ollama前端页面调用大模型 知识问答 模型切换
ai·大模型·ollama
一路追寻12 天前
使用Ollama测试OpenAI的Swarm多智能体编排框架
llm·openai·agent·swarm·ollama·qwen2.5
wxl7812271 个月前
如何让ollama本地模型使用code-interpreter(代码解释器)?
python·code·ollama·本地大模型·interperter·代码解释器
GuokLiu1 个月前
240922-chromadb的基本使用
langchain·pdf·rag·ollama
一笑1 个月前
在MAC中Ollama开放其他电脑访问
mac·ollama·ollama api·ollama外网访问
GuokLiu1 个月前
240912-设置WSL中的Ollama可在局域网访问
linux·api·wsl·ollama
玖石书1 个月前
ollama安装(ubuntu20.04)
llm·安装·ollama