deepin V23 部署Ollama

系统:Deepin V23

1.Ollama简单介绍

Ollama是一个开源的大语言模型本地部署工具,通过它可以方便的在本机部署开源大模型。

Ollama仓库地址:https://github.com/ollama/ollama

Ollama官方下载地址:https://ollama.com/download

2.安装Ollama

在Deepin V23中打开一个终端,切换至root用户.执行如下命令.

#cd /usr/local (将ollama安装在/usr/local中)

#curl -fsSL https://ollama.com/install.sh | sh (安装时间视网络而定)

查看ollama运行情况

3.安装(运行)模型

安装完成后在终端运行模型,如Qwen2的7B模型:ollama run qwen2:7b

4.与Qiwen2:7b对话

(1)在终端中对话

打开终端,普通用户即可

执行命令:$ollama run qwen2:7b

若要退出,输入 /bye

(2)UOS AI中(接入本地模型)对话



如:

相关推荐
lpcarl4 天前
Ubuntu安装ollama,并运行ollama和通义千问,使用gradio做界面
ubuntu·gradio·ollama
DbWong_09186 天前
langchain_chatchat+ollama部署本地知识库,联网查询以及对数据库(Oracle)数据进行查询
python·oracle·langchain·ollama
冷小鱼6 天前
【BUG】Error: llama runner process has terminated: exit status 127
bug·llama·ollama
小G同学13 天前
vue通过ollama接口调用开源模型
vue·ollama
水中加点糖13 天前
使用SpringAI快速实现离线/本地大模型应用
java·文生图·智能对话·comfyui·ollama·spring ai·离线大模型
waiting不是违停15 天前
LangChain Ollama实战文献检索助手(二)少样本提示FewShotPromptTemplate示例选择器
langchain·llm·ollama
Agile.Zhou17 天前
给 Ollama 穿上 GPT 的外衣
llm·ollama
Agile.Zhou18 天前
使用 ollama 在本地试玩 LLM
llm·ollama
warrah24 天前
fastGpt
oneapi·fastgpt·ollama
仙魁XAN25 天前
AGI 之 【Dify】 之 Dify 在 Windows 端本地部署调用 Ollama 本地下载的大模型,实现 API 形式进行聊天对话
api·qwen·dify·1024程序员节·ollama