安装Ollama通过Open-Webui运行访问llama2、GPT大模型

安装Ollama并运行

本地安装Ollama并运行

shell 复制代码
mkdir -p /data/

curl -fsSL https://ollama.com/install.sh | sh
>>> Downloading ollama...
######################################################################## 100.0%
>>> Installing ollama to /usr/local/bin...
>>> Creating ollama user...
>>> Adding ollama user to video group...
>>> Adding current user to ollama group...
>>> Creating ollama systemd service...
>>> Enabling and starting ollama service...
Created symlink from /etc/systemd/system/default.target.wants/ollama.service to /etc/systemd/system/ollama.service.
>>> The Ollama API is now available at 127.0.0.1:11434.
>>> Install complete. Run "ollama" from the command line.
WARNING: No NVIDIA/AMD GPU detected. Ollama will run in CPU-only mode.

运行大模型

安装完,即可 支持命令行交互 对话

shell 复制代码
ollama run llama2
> 这时系统会自动下载对应的大模型文件。

pulling manifest
pulling 8934d96d3f08... 100% ▕██████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████▏ 3.8 GB
pulling 8c17c2ebb0ea... 100% ▕██████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████▏ 7.0 KB
pulling 7c23fb36d801... 100% ▕██████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████▏ 4.8 KB
pulling 2e0493f67d0c... 100% ▕██████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████▏   59 B
pulling fa304d675061... 100% ▕██████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████▏   91 B
pulling 42ba7f8a01dd... 100% ▕██████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████▏  557 B
verifying sha256 digest
writing manifest
removing any unused layers
success

>>> hello
Hello! It's nice to meet you. Is there something I can help you with or would you like to chat?

>>> Send a message (/? for help)

大模型的models

安装运行70b版本模型测试

shell 复制代码
ollama run llama2:70b

通过Web访问模型

不可能一直通过命令行交互实现chat

通过web控制台,类似chatgpt

更改Ollama运行模式

首先,修改Ollama运行模式为后端模式

shell 复制代码
screen
ollama serve
netstat -antp | grep ollama

安装open-webui依赖

安装docker「已安装则可选」

shell 复制代码
# docker 依赖
yum install -y yum-utils device-mapper-persistent-data  lvm2 --skip-broken
yum install screen

yum-config-manager     --add-repo     https://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo

sed -i 's/download.docker.com/mirrors.aliyun.com\/docker-ce/g' /etc/yum.repos.d/docker-ce.repo

yum makecache fast

yum install -y docker-ce

chkconfig docker on
service docker restart
service docker status

安装open-webui

用于在web交互ollama

shell 复制代码
docker run -d -p 3000:8080 -e OLLAMA_BASE_URL=http://172.31.130.74:11434 -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

允许访问open-webui API

shell 复制代码
vi /etc/systemd/system/ollama.service
增加
Environment="OLLAMA_HOST=0.0.0.0:11434"


systemctl daemon-reload
systemctl restart ollama

可能还需要开通防火墙 最终访问 http://172.31.130.74:11434/api 即可

通过api访问ollama

验证通过api可访问ollama

shell 复制代码
curl http://localhost:11434/api/generate -d '{   "model": "llama2:70b",   "prompt":"Why is the sky blue?" }'

验证和访问open-webui

访问页面,注册账号。models列表可见即可。

添加其他模型

Q&A

Models

  • gemma:2b,这是 Google 及其 DeepMind 团队开发的新型开放模型。
  • qwen:0.5b,这是阿里云推出的基于 Transformer 的大型语言模型

「可选扩容磁盘」

shell 复制代码
阿里云在线扩容系统盘

# 第二步 在线扩容分区
fdisk -lu

Disk /dev/vda: 274.9 GB, 274877906944 bytes, 536870912 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk label type: dos
Disk identifier: 0x000c6592

   Device Boot      Start         End      Blocks   Id  System
/dev/vda1   *        2048    83886046    41941999+  83  Linux


type growpart || sudo yum install -y cloud-utils-growpart
growpart is /usr/bin/growpart

sudo LC_ALL=en_US.UTF-8 growpart /dev/vda 1
CHANGED: partition=1 start=2048 old: size=83883999 end=83886047 new: size=536868831 end=536870879


# 第三步 在线扩容文件系统
df -Th
Filesystem     Type      Size  Used Avail Use% Mounted on
devtmpfs       devtmpfs   31G     0   31G   0% /dev
tmpfs          tmpfs      31G     0   31G   0% /dev/shm
tmpfs          tmpfs      31G  608K   31G   1% /run
tmpfs          tmpfs      31G     0   31G   0% /sys/fs/cgroup
/dev/vda1      ext4       40G   25G   14G  65% /
tmpfs          tmpfs     6.2G     0  6.2G   0% /run/user/0

sudo resize2fs /dev/vda1
resize2fs 1.42.9 (28-Dec-2013)
Filesystem at /dev/vda1 is mounted on /; on-line resizing required
old_desc_blocks = 3, new_desc_blocks = 16
The filesystem on /dev/vda1 is now 67108603 blocks long.

df -h
Filesystem      Size  Used Avail Use% Mounted on
devtmpfs         31G     0   31G   0% /dev
tmpfs            31G     0   31G   0% /dev/shm
tmpfs            31G  608K   31G   1% /run
tmpfs            31G     0   31G   0% /sys/fs/cgroup
/dev/vda1       252G   25G  218G  10% /
tmpfs           6.2G     0  6.2G   0% /run/user/0
相关推荐
IT_陈寒19 分钟前
SpringBoot 3.2新特性实战:这5个隐藏技巧让你的启动速度提升50%
前端·人工智能·后端
然我1 小时前
搞定异步任务依赖:Promise.all 与拓扑排序的妙用
前端·javascript·算法
徐小夕1 小时前
支持1000+用户同时在线的AI多人协同文档JitWord,深度剖析
前端·vue.js·算法
后端小肥肠3 小时前
卷出新高度!字节Seedream 4.0模型真实体验:它真的解决了AI绘画的核心痛点?
人工智能·aigc
后端小肥肠3 小时前
从“盲人摸象”到“精准导航”:我眼中的PromptPilot,远不止是一个工具
人工智能
大模型真好玩4 小时前
深入浅出LangGraph AI Agent智能体开发教程(六)—LangGraph 底层API入门
人工智能·python·mcp
飞哥数智坊4 小时前
从界面崩塌到功能完整:CodeBuddy + uniapp 小程序生成实录
人工智能·ai编程
IT_陈寒4 小时前
Vue3性能优化:掌握这5个Composition API技巧让你的应用快30%
前端·人工智能·后端
黎燃16 小时前
人工智能在法律文书自动生成中的深度实践:从语言模型到审判逻辑的可解释对齐
人工智能
沐怡旸19 小时前
【算法】【链表】328.奇偶链表--通俗讲解
算法·面试