部署机器硬件情况:
内存
:32GB
显卡
:3060
为什么不使用docker:
1.网上教程大多以docker为主
2.安装docker的时间太长,在等待的时候顺便尝试一下不用docker的部署
1.安装Ollama
下载地址:https://ollama.com/
下载好之后默认安装即可。
Ollama常用命令
【跟docker差不多,初次安装的话这边可以忽略,先看下面的】
ollama serve # 启动ollama
ollama create # 从模型文件创建模型
ollama show # 显示模型信息
ollama run # 运行模型,会先自动下载模型
ollama pull # 从注册仓库中拉取模型
ollama push # 将模型推送到注册仓库
ollama list # 列出已下载模型
ollama ps # 列出正在运行的模型
ollama cp # 复制模型
ollama rm # 删除模型
2.下载模型
Ollama模型库类似于Docker托管镜像的Docker Hub。
链接:https://ollama.com/library/qwen2.5-coder:14b
复制这边的命令来拉取模型并运行。
第一次运行的时候需要下载。
3.启动
ollama run qwen2.5-coder:14b
正常启动大概15秒左右。
下载好之后即可运行。
可以正常对其进行提问。
输入/?
查看常用指令
4.Open-webui实现可视化
官方github界面
:https://github.com/open-webui/open-webui?tab=readme-ov-file
官方文档
:https://docs.openwebui.com/getting-started/
具体参考Quick Start
的内容:https://docs.openwebui.com/getting-started/quick-start/
0.安装anaconda并打开anaconda prompt
打开之后默认使用的环境是base
1.创建一个名为open-webui
的Python3.11的环境:
conda create -n open-webui python=3.11
安装好之后可以通过conda env list来查看
2.切换并激活到这个环境
conda activate open-webui
3.安装open-webui 库
pip install open-webui
花费的时间比较长,10min左右。
4.启动服务
open-webui serve
初次启动也需要花费一点时间,启动成功之后即可看到8080端口。
5.访问webui界面
在浏览器里输入localhost:8080
即可正常访问。
第一次登录会要求输入用户名、邮箱和密码,之后每次登录都会要求输入邮箱和密码。
左上角可以切换安装好的模型。