服务器Ubuntu22.04系统下 ollama的详细部署安装和搭配open_webui使用

服务器Ubuntu22.04系统下 ollama的详细部署安装和搭配open_webui使用

一、ubuntu和docker基本环境配置

1.更新包列表:
  • 打开终端,输入以下命令:

    sudo apt-get update

    sudo apt upgrade

更新时间较长,请耐心等待

2. 安装docker依赖
复制代码
sudo apt-get install ca-certificates curl gnupg lsb-release
3. 添加docker密钥
复制代码
curl -fsSL http://mirrors.aliyun.com/docker-ce/linux/ubuntu/gpg | sudo apt-key add -
4.添加阿里云docker软件源
复制代码
sudo add-apt-repository "deb [arch=amd64] http://mirrors.aliyun.com/docker-ce/linux/ubuntu $(lsb_release -cs) stable"
5.安装docker
复制代码
apt-get install docker-ce docker-ce-cli containerd.i
6.安装完成docker测试
复制代码
docker -v
7. docker配置国内镜像源
  • 7.1 编辑配置文件

    vi /etc/docker/daemon.json

按i进入编辑模式

加入以下内容:

复制代码
{
  "registry-mirrors": [
    "https://docker.mirrors.ustc.edu.cn",
    "https://hub-mirror.c.163.com",
    "https://docker.m.daocloud.io", 
    "https://ghcr.io",
    "https://mirror.baidubce.com",
    "https://docker.nju.edu.cn"
  ]
}

按ESC键退出编辑模式,接着输入:wq,保存并退出

  • 7.2 重新加载docker

    sudo systemctl daemon-reload

  • 7.3 重启docker

    sudo systemctl restart docker

二、安装英伟达显卡驱动

1.使用 Apt 安装

  • 配置存储库

    curl -fsSL https://nvidia.github.io/libnvidia-container/gpgkey

    | sudo gpg --dearmor -o /usr/share/keyrings/nvidia-container-toolkit-keyring.gpg

    curl -s -L https://nvidia.github.io/libnvidia-container/stable/deb/nvidia-container-toolkit.list

    | sed 's#deb https://#deb [signed-by=/usr/share/keyrings/nvidia-container-toolkit-keyring.gpg] https://#g'

    | sudo tee /etc/apt/sources.list.d/nvidia-container-toolkit.list

  • 更新包列表

    sudo apt-get update

  • 安装 NVIDIA Container Toolkit 软件包

    sudo apt-get install -y nvidia-container-toolkit

  • 配置 Docker 以使用 Nvidia 驱动程序

    sudo nvidia-ctk runtime configure --runtime=docker

  • 重新启动docker

    sudo systemctl restart docker

三、使用docker安装ollama

1. 使用docker拉取ollama镜像
复制代码
docker pull ollama/ollama:latest

国内镜像

复制代码
docker pull dhub.kubesre.xyz/ollama/ollama:latest
2.使用docker运行以下命令来启动 Ollama 容器
复制代码
docker run -d --gpus=all --restart=always -v /root/project/docker/ollama:/root/project/.ollama -p 11434:11434 --name ollama ollama/ollama

使ollama保持模型加载在内存(显存)中

3.使用ollama下载模型
  • 这里示例下载阿里的通义千问

    docker exec -it ollama ollama run qwen2

  • 运行效果如图:

  • 模型库

模型

参数数量

大小

下载方式

Llama 2

7B

3.8GB

docker exec -it ollama ollama run llama2

Mistral

7B

4.1GB

docker exec -it ollama ollama run mistral

Dolphin Phi

2.7B

1.6GB

docker exec -it ollama ollama run dolphin-phi

Phi-2

2.7B

1.7GB

docker exec -it ollama ollama run phi

Neural Chat

7B

4.1GB

docker exec -it ollama ollama run neural-chat

Starling

7B

4.1GB

docker exec -it ollama ollama run starling-lm

Code Llama

7B

3.8GB

docker exec -it ollama ollama run codellama

Llama 2 Uncensored

7B

3.8GB

docker exec -it ollama ollama run llama2-uncensored

Llama 2

13B

7.3GB

docker exec -it ollama ollama run llama2:13b

Llama 2

70B

39GB

docker exec -it ollama ollama run llama2:70b

Orca Mini

3B

1.9GB

docker exec -it ollama ollama run orca-mini

Vicuna

7B

3.8GB

docker exec -it ollama ollama run vicuna

LLaVA

7B

4.5GB

docker exec -it ollama ollama run llava

Gemma

2B

1.4GB

docker exec -it ollama ollama run gemma:2b

Gemma

7B

4.8GB

docker exec -it ollama ollama run gemma:7b

四、使用docker安装open-webui

1. docker部署ollama web ui

查看自己服务器的业务端口,我们这里是30131-30140

main版本

复制代码
docker run -d -p 30131:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.nju.edu.cn/open-webui/open-webui:main

cuda版本

复制代码
docker run -d -p 30131:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.nju.edu.cn/open-webui/open-webui:cuda
  • 安装成功后,可以在另一台计算机进行访问,如下:
2.注册账号
  • 默认第一个账号是管理员
3.成功进入:
4. 聊天界面


相关推荐
可可嘻嘻大老虎5 小时前
nginx无法访问后端服务问题
运维·nginx
阳光九叶草LXGZXJ6 小时前
达梦数据库-学习-47-DmDrs控制台命令(LSN、启停、装载)
linux·运维·数据库·sql·学习
无忧智库6 小时前
某市“十五五“地下综合管廊智能化运维管理平台建设全案解析:从数字孪生到信创适配的深度实践(WORD)
运维·智慧城市
珠海西格6 小时前
“主动预防” vs “事后补救”:分布式光伏防逆流技术的代际革命,西格电力给出标准答案
大数据·运维·服务器·分布式·云计算·能源
阿波罗尼亚7 小时前
Kubectl 命令记录
linux·运维·服务器
Fᴏʀ ʏ꯭ᴏ꯭ᴜ꯭.7 小时前
Keepalived单播模式配置与实战指南
linux·服务器·负载均衡
IDC02_FEIYA7 小时前
Linux文件搜索命令有哪些?Linux常用命令之文件搜索命令find详解
linux·运维·服务器
犀思云7 小时前
如何通过网络即服务平台实现企业数字化转型?
运维·网络·人工智能·系统架构·机器人
江畔何人初7 小时前
kubectl apply与kubectl create的区别
linux·运维·云原生
M158227690558 小时前
四通道全能组网!SG-Canet-410 CAN转以太网网关,破解工业CAN通信瓶颈
linux·运维·服务器