deepin V23 部署Ollama

系统:Deepin V23

1.Ollama简单介绍

Ollama是一个开源的大语言模型本地部署工具,通过它可以方便的在本机部署开源大模型。

Ollama仓库地址:https://github.com/ollama/ollama

Ollama官方下载地址:https://ollama.com/download

2.安装Ollama

在Deepin V23中打开一个终端,切换至root用户.执行如下命令.

#cd /usr/local (将ollama安装在/usr/local中)

#curl -fsSL https://ollama.com/install.sh | sh (安装时间视网络而定)

查看ollama运行情况

3.安装(运行)模型

安装完成后在终端运行模型,如Qwen2的7B模型:ollama run qwen2:7b

4.与Qiwen2:7b对话

(1)在终端中对话

打开终端,普通用户即可

执行命令:$ollama run qwen2:7b

若要退出,输入 /bye

(2)UOS AI中(接入本地模型)对话



如:

相关推荐
大模型教程6 天前
Windows系统本地知识库构建:Cherry Studio+Ollama
llm·agent·ollama
Qiuner7 天前
快速入门LangChain4j Ollama本地部署与阿里百炼请求大模型
语言模型·langchain·nlp·llama·ollama
景天科技苑7 天前
【AI智能体开发】什么是LLM?如何在本地搭建属于自己的Ai智能体?
人工智能·llm·agent·智能体·ai智能体·ollama·智能体搭建
尽兴-12 天前
【10 分钟!M4 Mac mini 离线部署「私有 ChatGPT」完整实录】
macos·ai·chatgpt·大模型·ollama·私有化
成子不是橙子13 天前
Langchain | Ollama | Python快速上手使用LLM的DEMO
开发语言·python·langchain·ollama
深色風信子13 天前
SpringAI 本地调用 Ollama
rag·ollama·springai·springai ollama
大模型教程13 天前
AI 新玩法:GraphRAG × Ollama 打造更聪明的智能体
程序员·llm·ollama
tongsound17 天前
ollama部署本地模型(deepseek,qwen,gemma3,...)
ollama·deepseek
laizi_laizi17 天前
ollama+openwebui本地部署及踩坑记录
ollama·openwebui
深色風信子20 天前
SpringBoot 集成 LangChain4j 本地调用 Ollama
java·spring boot·spring·ollama·langchain4j