deepin V23 部署Ollama

系统:Deepin V23

1.Ollama简单介绍

Ollama是一个开源的大语言模型本地部署工具,通过它可以方便的在本机部署开源大模型。

Ollama仓库地址:https://github.com/ollama/ollama

Ollama官方下载地址:https://ollama.com/download

2.安装Ollama

在Deepin V23中打开一个终端,切换至root用户.执行如下命令.

#cd /usr/local (将ollama安装在/usr/local中)

#curl -fsSL https://ollama.com/install.sh | sh (安装时间视网络而定)

查看ollama运行情况

3.安装(运行)模型

安装完成后在终端运行模型,如Qwen2的7B模型:ollama run qwen2:7b

4.与Qiwen2:7b对话

(1)在终端中对话

打开终端,普通用户即可

执行命令:$ollama run qwen2:7b

若要退出,输入 /bye

(2)UOS AI中(接入本地模型)对话



如:

相关推荐
大模型教程15 小时前
使用Langchain4j和Ollama3搭建RAG系统
langchain·llm·ollama
scx_link4 天前
使用docker安装ollama及ollama拉取模型的总结
运维·docker·容器·ollama
福大大架构师每日一题4 天前
ollama v0.13.2 最新更新详解:Qwen3-Next首发与性能优化
性能优化·ollama
starvapour6 天前
配置ollama的显卡和模型保存路径(Ubuntu, systemd)
linux·ubuntu·ollama
肥猪猪爸7 天前
TextToSql——Vanna的安装与使用
人工智能·python·算法·机器学习·大模型·ollama·vanna
用什么都重名8 天前
Dify服务部署指南
人工智能·docker·dify·ollama
大模型教程9 天前
零基础上手 Ollama:教你3分钟跑通本地大模型
llm·agent·ollama
Yeliang Wu12 天前
使用Docker安装Ollama及Open-WebUI完整教程
ollama·openwebui
skywalk816312 天前
GLM-edge-1.5B-chat 一个特别的cpu可以推理的小型llm模型
人工智能·ollama·llama.cpp
聆风吟º14 天前
openEuler 开源操作系统测试实战:搭建本地AI问答工具
人工智能·ai·开源·openeuler·ollama