deepin V23 部署Ollama

系统:Deepin V23

1.Ollama简单介绍

Ollama是一个开源的大语言模型本地部署工具,通过它可以方便的在本机部署开源大模型。

Ollama仓库地址:https://github.com/ollama/ollama

Ollama官方下载地址:https://ollama.com/download

2.安装Ollama

在Deepin V23中打开一个终端,切换至root用户.执行如下命令.

#cd /usr/local (将ollama安装在/usr/local中)

#curl -fsSL https://ollama.com/install.sh | sh (安装时间视网络而定)

查看ollama运行情况

3.安装(运行)模型

安装完成后在终端运行模型,如Qwen2的7B模型:ollama run qwen2:7b

4.与Qiwen2:7b对话

(1)在终端中对话

打开终端,普通用户即可

执行命令:$ollama run qwen2:7b

若要退出,输入 /bye

(2)UOS AI中(接入本地模型)对话



如:

相关推荐
wuli_滔滔4 小时前
Qwen2.5、Llama 3.1轻量模型本地化部署指南:从环境配置到企业级实战
vllm·ollama·qwen2.5·llama 3.1
重整旗鼓~1 天前
2.LangChain4j+springboot+大模型整合
openai·springboot·ollama·langchain4j
用什么都重名2 天前
设置 Ollama 容器自动重启和模型自动加载的方法
人工智能·ollama·自加载
七夜zippoe6 天前
基于Qwen2.5-7B-Chat的本地化部署实战——从模型原理到企业级应用
vllm·ollama·qwen2.5·gradio web·企业级api
Jack_abu11 天前
RAG系统学习之——RAG技术详解与实战指南
llm·rag·ollama
血小溅13 天前
Ollama 鉴权方案实现教程
ollama
York·Zhang18 天前
Ollama:在本地运行大语言模型的利器
人工智能·语言模型·自然语言处理·ollama
大模型教程21 天前
30分钟内搞定!在本地电脑上部署属于你自己的大模型
llm·agent·ollama
血小溅22 天前
Spring Boot 整合 Spring AI:接入 DeepSeek 与 Ollama 调用大模型
后端·ollama·deepseek
大模型教程1 个月前
Windows系统本地知识库构建:Cherry Studio+Ollama
llm·agent·ollama