Ollma本地部署Qwen2.5 14B(不使用docker)

部署机器硬件情况:
内存 :32GB
显卡 :3060

为什么不使用docker:

1.网上教程大多以docker为主

2.安装docker的时间太长,在等待的时候顺便尝试一下不用docker的部署

1.安装Ollama

下载地址:https://ollama.com/

下载好之后默认安装即可。

Ollama常用命令

【跟docker差不多,初次安装的话这边可以忽略,先看下面的】

ollama serve # 启动ollama

ollama create # 从模型文件创建模型

ollama show # 显示模型信息

ollama run # 运行模型,会先自动下载模型

ollama pull # 从注册仓库中拉取模型

ollama push # 将模型推送到注册仓库

ollama list # 列出已下载模型

ollama ps # 列出正在运行的模型

ollama cp # 复制模型

ollama rm # 删除模型

2.下载模型

Ollama模型库类似于Docker托管镜像的Docker Hub。

链接:https://ollama.com/library/qwen2.5-coder:14b

复制这边的命令来拉取模型并运行。

第一次运行的时候需要下载。

3.启动

ollama run qwen2.5-coder:14b

正常启动大概15秒左右。

下载好之后即可运行。

可以正常对其进行提问。

输入/? 查看常用指令

4.Open-webui实现可视化

官方github界面https://github.com/open-webui/open-webui?tab=readme-ov-file
官方文档https://docs.openwebui.com/getting-started/

具体参考Quick Start 的内容:https://docs.openwebui.com/getting-started/quick-start/

0.安装anaconda并打开anaconda prompt

打开之后默认使用的环境是base

1.创建一个名为open-webui 的Python3.11的环境:

conda create -n open-webui python=3.11

安装好之后可以通过conda env list来查看

2.切换并激活到这个环境

conda activate open-webui

3.安装open-webui 库

pip install open-webui

花费的时间比较长,10min左右。

4.启动服务

open-webui serve

初次启动也需要花费一点时间,启动成功之后即可看到8080端口。

5.访问webui界面

在浏览器里输入localhost:8080 即可正常访问。

第一次登录会要求输入用户名、邮箱和密码,之后每次登录都会要求输入邮箱和密码。

左上角可以切换安装好的模型。