deepin V23 部署Ollama

系统:Deepin V23

1.Ollama简单介绍

Ollama是一个开源的大语言模型本地部署工具,通过它可以方便的在本机部署开源大模型。

Ollama仓库地址:https://github.com/ollama/ollama

Ollama官方下载地址:https://ollama.com/download

2.安装Ollama

在Deepin V23中打开一个终端,切换至root用户.执行如下命令.

#cd /usr/local (将ollama安装在/usr/local中)

#curl -fsSL https://ollama.com/install.sh | sh (安装时间视网络而定)

查看ollama运行情况

3.安装(运行)模型

安装完成后在终端运行模型,如Qwen2的7B模型:ollama run qwen2:7b

4.与Qiwen2:7b对话

(1)在终端中对话

打开终端,普通用户即可

执行命令:$ollama run qwen2:7b

若要退出,输入 /bye

(2)UOS AI中(接入本地模型)对话



如:

相关推荐
会飞的果粒橙8 天前
在Ubuntu24上安装ollama
ollama·deepseek
_pass_19 天前
Docker 运行RAGFlow 搭建RAG知识库
ollama·ragflow
关山月25 天前
使用 Ollama 和 Next.js 构建 AI 助理(使用 LangChain、Pinecone 和 Ollama 实现 RAG)
ollama
ZackSock25 天前
自己开发 MCP 服务器
llm·ollama·mcp
陈佬昔没带相机1 个月前
基于 open-webui 搭建企业级知识库
人工智能·ollama·deepseek
bug菌1 个月前
手把手教你DeepSeek-R1本地部署和企业知识库搭建(Ollama+DeepSeek+RAGFlow)【保姆级教学】
人工智能·ollama·deepseek
人工智能小豪1 个月前
2025年大模型平台落地实践研究报告|附75页PDF文件下载
大数据·人工智能·transformer·anythingllm·ollama·大模型应用
AI大模型1 个月前
Ollama系列教程(八):semantic kernel调用ollama接口
程序员·llm·ollama
理论最高的吻1 个月前
本地部署 DeepSeek R1(最新)【从下载、安装、使用和调用一条龙服务】
ai·本地部署·ollama·deepseek
老大白菜1 个月前
构建多模型协同的Ollama智能对话系统
python·ollama