Proxmox VE(PVE)提供了一个基于 Web UI (管理界面)的虚拟化管理平台,用户可以通过浏览器管理 虚拟机(VM)、容器(LXC)、存储、网络、备份、用户权限等。
一、PVE Web 界面功能详解
PVE 的 Web 管理界面分为 左侧导航栏(资源树) 和 右侧管理面板,主要包括以下核心功能:
1. 数据中心(Datacenter)
位置: 界面左侧最顶层的节点
用途: 适用于 集群管理、全局配置
🔹 主要功能
子功能 | 作用 |
---|---|
集群(Cluster) | 管理 PVE 集群节点(多个服务器组成的 PVE 集群) |
存储(Storage) | 添加/管理存储池(ZFS、Ceph、NFS、iSCSI 等) |
备份(Backup) | 配置 自动备份任务,支持快照、增量备份 |
用户(Users)& 权限(Permissions) | 创建/管理 用户、权限、API 访问 |
防火墙(Firewall) | 配置集群级别的 防火墙规则 |
订阅(Subscription) | 显示企业订阅信息(无订阅会提示警告) |
✅ 适用场景:
-
适用于 多台 PVE 服务器组成的集群管理
-
统一管理 存储、权限、备份策略
2. 节点(Node)
位置: 数据中心下的每台服务器节点
用途: 管理单个 PVE 服务器的资源(CPU、内存、存储、网络等)
🔹 主要功能
子功能 | 作用 |
---|---|
摘要(Summary) | 显示 CPU、内存、磁盘、网络 IO 统计 |
系统(System) | 管理 服务器 hostname、时区、更新 |
网络(Network) | 配置 桥接网络、VLAN、绑定(bonding) |
存储(Disks & Storage) | 管理服务器本地 磁盘、ZFS 存储、RAID |
任务(Tasks) | 监控任务状态(备份、迁移、启动等) |
日志(Logs) | 查看系统日志,排查问题 |
Shell 终端 | 远程 SSH 登录管理服务器 |
✅ 适用场景:
-
管理单台 PVE 服务器(虚拟化资源、存储、网络)
-
网络配置(VLAN、桥接、Bonding)
3. 虚拟机(VM)
位置: 选中某个节点后,点击"虚拟机"
用途: 创建、管理 KVM 虚拟机(VM)
🔹 主要功能
子功能 | 作用 |
---|---|
概览(Summary) | 显示 VM CPU、内存、磁盘使用情况 |
硬件(Hardware) | 配置 CPU、内存、磁盘、网卡、PCI 直通(Passthrough) |
选项(Options) | 设置 VM 自动启动、引导顺序、QEMU Guest Agent |
快照(Snapshots) | 创建 VM 快照(Snapshot),支持回滚 |
备份(Backup) | 手动备份 VM,或配置 定期自动备份 |
云初始化(Cloud-Init) | 用于 云环境 VM 自动初始化 |
控制台(Console) | 远程连接 VM(VNC、Spice) |
日志(Logs) | 查看 VM 运行日志 |
✅ 适用场景:
-
创建 Windows/Linux KVM 虚拟机
-
PCI 直通(GPU、网卡),用于 AI、NAS、网络优化
-
通过 快照/备份 保护 VM 数据安全
4. 容器(LXC)
位置: 选中某个节点后,点击"容器"
用途: 管理轻量级 LXC 容器(比 VM 更轻量)
🔹 主要功能
子功能 | 作用 |
---|---|
概览(Summary) | 显示 LXC 容器 CPU、内存、磁盘 |
硬件(Hardware) | 调整 CPU、内存、磁盘、挂载点 |
备份(Backup) | 备份/恢复 LXC 容器 |
控制台(Console) | 远程访问 LXC 容器 |
日志(Logs) | 查看 LXC 容器运行日志 |
✅ 适用场景:
-
Web 服务器、数据库(比 VM 轻量,占用资源更少)
-
轻量级应用(如 Home Assistant、NAS 服务等)
5. 存储(Storage)
位置: 数据中心 → 存储
用途: 管理 PVE 存储资源(本地磁盘、NFS、Ceph、ZFS)
🔹 主要存储类型
存储类型 | 用途 |
---|---|
本地磁盘(Directory) | 存放 VM 磁盘、ISO、备份 |
ZFS(RAID + 存储池) | 高性能存储,可做 快照、复制 |
Ceph(分布式存储) | 适用于 PVE 集群高可用存储 |
NFS / iSCSI / CIFS | 远程存储,适合 NAS 设备 |
✅ 适用场景:
-
小型环境:ZFS 本地存储(快照 + RAID)
-
大规模集群:Ceph 分布式存储
6. 备份(Backup)
位置: 数据中心 → 备份
用途: 定期自动备份 VM/LXC,防止数据丢失
✅ 支持功能:
-
快照备份(Snapshot)
-
增量备份(Proxmox Backup Server,节省存储空间)
-
定时任务(自动备份)
-
远程存储(NFS、PBS 服务器)
✅ 适用场景:
-
企业级数据保护(备份重要 VM,防止数据丢失)
-
异地备份(PBS + 远程存储)
7. 用户 & 权限(User & Permissions)
位置: 数据中心 → 用户/权限
用途: 管理用户角色和权限
✅ 支持功能:
-
多用户管理(管理员、运维、只读用户)
-
API 访问控制(Proxmox API 权限)
-
LDAP/Active Directory 认证
✅ 适用场景:
-
多管理员管理 PVE(限制不同用户权限)
-
企业 IT 认证系统(LDAP 集成)
总结
PVE Web UI 提供了完整的虚拟化管理能力,集成 VM、LXC、存储、备份、权限等功能,适用于企业私有云、IT 运维管理、个人服务器等场景。 🚀
二、PVE网络介
在 Proxmox VE(PVE) 中,网络管理是核心组件之一,涉及 虚拟机(VM)、容器(LXC)、存储、集群、高可用(HA)等,正确的网络配置可以提升性能、可用性和安全性。
1. PVE 网络管理概述
PVE 默认使用 Linux 网络栈 ,支持 Linux Bridge(桥接)、VLAN、Bonding(链路聚合)、SDN(软件定义网络)等,可以灵活配置不同的网络方案。
🛠 核心网络概念:
组件 | 作用 |
---|---|
Linux Bridge(桥接) | 让 VM/LXC 通过物理网卡访问网络(类似交换机) |
VLAN(虚拟局域网) | 逻辑隔离 VM/LXC 网络,提高安全性 |
Bonding(链路聚合) | 绑定多个物理网口,提高带宽和冗余 |
SDN(软件定义网络) | 适用于大规模集群,支持 VXLAN、BGP 等 |
NAT(网络地址转换) | 适用于无公网 IP 的 PVE 服务器 |
2. PVE 网络配置界面
位置: PVE Web 界面 → 选择节点 → 网络(Network)
在 网络(Network) 选项卡中,你可以看到:
-
物理网卡(eth0、eth1、eno1等)
-
桥接网络(vmbr0, vmbr1等)
-
VLAN 设备(vlan10, vlan20等)
-
Bonding(bond0, bond1等)
3. 常见网络配置方案
3.1 桥接网络(Bridge)
✅ 适用场景:
-
单台 PVE 或 小型集群,让 VM/LXC 直接访问物理网络
-
适用于家庭服务器、企业私有云
📌 配置步骤(Web UI)
-
创建 Linux Bridge(桥接)
-
节点 → 网络 → 创建 → Linux Bridge
-
名称:
vmbr0
-
网卡: 选择
eth0
(或者其他物理网卡) -
IP 地址: 配置 PVE 管理 IP(如
192.168.1.100/24
) -
网关: 填写路由器 IP(如
192.168.1.1
)
-
-
绑定虚拟机
- 创建 VM/LXC 时,网卡选择
vmbr0
(相当于 VM 连接到交换机)
- 创建 VM/LXC 时,网卡选择
✅ 示例 interfaces
配置文件
auto lo
iface lo inet loopback
# 物理网卡(无 IP)
auto eth0
iface eth0 inet manual
# 桥接网络(给 PVE & VM 用)
auto vmbr0
iface vmbr0 inet static
address 192.168.1.100/24
gateway 192.168.1.1
bridge_ports eth0
bridge_stp off
bridge_fd 0
📌 效果:
-
PVE 本机 IP :
192.168.1.100
-
VM/LXC 直接访问路由器,获取 IP(DHCP 或静态分配)
3.2 VLAN(虚拟局域网)
✅ 适用场景
-
隔离不同 VM/LXC 网络
-
企业级环境(提高安全性)
📌 配置步骤
-
启用 VLAN
-
节点 → 网络 → 编辑 vmbr0
-
VLAN 选项:开启 VLAN 感知(VLAN Aware)
-
-
创建 VM/LXC 并分配 VLAN
- VM 网卡 → 高级 → VLAN Tag(如 10)
✅ 示例 interfaces
配置
auto eth0
iface eth0 inet manual
auto vmbr0
iface vmbr0 inet manual
bridge_ports eth0
bridge_stp off
bridge_fd 0
bridge_vlan_aware yes
📌 效果:
-
VM 1(VLAN 10) → 只能访问 VLAN 10 的设备
-
VM 2(VLAN 20) → 只能访问 VLAN 20 的设备
-
PVE 本机 仍能访问所有 VLAN
3.3 Bonding(链路聚合)
✅ 适用场景
-
提高带宽 & 负载均衡
-
高可用(防止单网口故障)
📌 配置步骤
-
创建 Bonding
-
节点 → 网络 → 创建 → Bond
-
模式:LACP(802.3ad)
-
绑定网卡:eth0 + eth1
-
-
创建桥接并连接 Bond
-
创建
vmbr0
-
桥接端口:
bond0
-
✅ 示例 interfaces
配置
auto bond0
iface bond0 inet manual
bond-slaves eth0 eth1
bond-mode 802.3ad
bond-miimon 100
auto vmbr0
iface vmbr0 inet static
address 192.168.1.100/24
gateway 192.168.1.1
bridge_ports bond0
bridge_stp off
bridge_fd 0
📌 效果:
-
PVE 服务器 & VM 使用双网口(LACP 绑定)
-
提升带宽 & 可靠性
3.4 NAT(适用于无公网 IP)
✅ 适用场景
-
PVE 服务器无公网 IP
-
VM/LXC 需要访问外网
📌 配置步骤
-
创建内部网桥(vmbr1)
-
启用 NAT
iptables
配置转发规则
✅ 示例 interfaces
配置
auto vmbr1
iface vmbr1 inet static
address 192.168.100.1/24
bridge_ports none
bridge_stp off
bridge_fd 0
post-up echo 1 > /proc/sys/net/ipv4/ip_forward
post-up iptables -t nat -A POSTROUTING -s 192.168.100.0/24 -o eth0 -j MASQUERADE
post-down iptables -t nat -D POSTROUTING -s 192.168.100.0/24 -o eth0 -j MASQUERADE
📌 效果:
-
VM(192.168.100.x)可通过 NAT 访问外网
-
但外网无法访问 VM(需要端口转发)
4. 总结
方案 | 适用场景 | 特点 |
---|---|---|
桥接(Bridge) | 小型环境 | VM 直连物理网络 |
VLAN | 多部门隔离 | VM 只能访问特定 VLAN |
Bonding | 高可用 & 负载均衡 | 提高带宽,防止单点故障 |
NAT | 无公网 IP | VM 通过 PVE 出网 |
📌 最佳实践建议
-
小型环境(家庭/小企业) → 桥接 + VLAN
-
企业私有云 → VLAN + Bonding
-
无公网 IP 服务器 → NAT
这样,你可以根据 需求 选择合适的 PVE 网络配置 🚀
三、PVE网络管理
PVE(Proxmox Virtual Environment) 没有像 VMware vSwitch(虚拟交换机) 这样的概念,而是直接使用 Linux Bridge(桥接网络) 作为虚拟机和物理网络之间的桥梁。
对比项 | PVE(Proxmox VE) | VMware ESXi |
---|---|---|
虚拟交换机 | ❌ 无独立 vSwitch,使用 Linux Bridge | ✅ 具有 vSwitch(标准交换机、分布式交换机) |
默认网络模式 | Linux Bridge(vmbr0) | vSwitch(vSwitch0) |
VLAN 支持 | ✅ 支持 VLAN Aware | ✅ 支持 VLAN 端口组 |
链路聚合 | ✅ Bonding(Linux Bonding) | ✅ LAG / LACP |
SDN 支持 | ✅ 通过 Proxmox SDN 插件 | ✅ vDS(分布式交换机) |
NAT 支持 | ✅ 通过 Linux iptables | ❌ 需要 NSX 或物理路由 |
防火墙 | ✅ Linux iptables | ✅ VMware NSX |
1. PVE 使用 Linux Bridge(桥接网络)
在 VMware ESXi 里,每个 ESXi 主机都会有一个 vSwitch(标准交换机或分布式交换机) ,然后你可以在 vSwitch 上创建 端口组(Port Group) 并分配 VLAN。
但在 PVE 中,它不需要 vSwitch,而是使用 Linux 自带的 桥接(Bridge) 机制。Linux Bridge 直接模拟一个二层交换机,所有连接到它的虚拟机就像插入了物理交换机一样。
✅ 默认情况下,PVE 创建的 vmbr0
就是一个虚拟交换机
-
物理网卡(eth0) 连接到 vmbr0
-
VM/LXC 的网卡(vnet0、vnet1...) 连接到 vmbr0
-
vmbr0 负责数据转发,相当于 vSwitch
📌 示例:PVE vmbr0
配置
auto eth0
iface eth0 inet manual
auto vmbr0
iface vmbr0 inet static
address 192.168.1.100/24
gateway 192.168.1.1
bridge_ports eth0
bridge_stp off
bridge_fd 0
📌 效果:
-
vmbr0
相当于 VMware vSwitch -
所有 VM 连接
vmbr0
,就能访问物理网络
2. VLAN 管理(类似 VMware 端口组)
在 VMware vSwitch 里,我们可以创建 端口组(Port Group),并分配不同的 VLAN ID。
在 PVE 里,我们可以直接在 Linux Bridge(vmbr0)上启用 VLAN 感知(VLAN Aware),然后给 VM 绑定 VLAN。
✅ 在 PVE Web UI 里启用 VLAN
-
进入 PVE Web UI
-
节点 → 网络 → 编辑 vmbr0
-
勾选 VLAN Aware(支持 VLAN 感知)
-
-
创建 VM 并绑定 VLAN
-
VM → 网络设备 → VLAN Tag
-
填写 VLAN ID(如 10)
-
✅ 示例 VLAN 配置(手动 interfaces
文件)
auto vmbr0
iface vmbr0 inet manual
bridge_ports eth0
bridge_vlan_aware yes # 启用 VLAN 感知
📌 效果:
-
VM1(VLAN 10) → 只能访问 VLAN 10
-
VM2(VLAN 20) → 只能访问 VLAN 20
-
PVE 本机仍然可以访问所有 VLAN
3. Bonding(等效 VMware LAG / LACP)
在 VMware 里,我们可以创建 LAG(链路聚合组) 或者 LACP(动态链路聚合),提升带宽和可靠性。
在 PVE 里,我们使用 Linux Bonding 实现相同的效果。
✅ PVE 绑定两个网卡(eth0 + eth1)
auto bond0
iface bond0 inet manual
bond-slaves eth0 eth1
bond-mode 802.3ad # LACP 模式
bond-miimon 100
auto vmbr0
iface vmbr0 inet static
address 192.168.1.100/24
gateway 192.168.1.1
bridge_ports bond0
📌 效果:
-
双网卡绑定,实现负载均衡
-
高可用(一个网卡故障,仍然能访问网络)
4. SDN(等效 VMware NSX)
VMware 有 NSX-T(软件定义网络) ,用于 VXLAN、BGP 路由等。
PVE 也支持 SDN(软件定义网络) ,但需要 安装 Proxmox SDN 插件。
✅ PVE SDN 支持的功能
功能 | VMware NSX | Proxmox SDN |
---|---|---|
VXLAN | ✅ | ✅ |
BGP 动态路由 | ✅ | ✅ |
防火墙 | ✅ | ✅(iptables) |
NAT / DNAT | ✅ | ✅ |
📌 适用于大规模集群,适合云计算平台
5. 总结
功能 | PVE(Proxmox VE) | VMware ESXi |
---|---|---|
虚拟交换机 | ❌ 无 vSwitch,使用 Linux Bridge | ✅ vSwitch(标准/分布式) |
VLAN 支持 | ✅ VLAN Aware | ✅ VLAN Port Group |
链路聚合 | ✅ Bonding | ✅ LACP / LAG |
NAT 支持 | ✅ iptables | ❌ 需要 NSX |
SDN | ✅ Proxmox SDN | ✅ NSX-T |
防火墙 | ✅ iptables | ✅ NSX 分布式防火墙 |
✅ 适用场景建议
-
小型企业 / 个人服务器 → PVE 桥接网络(Linux Bridge)
-
企业环境(多 VLAN) → VLAN + Bonding
-
大型 SDN / 云计算 → Proxmox SDN(VXLAN、BGP)
🔹 总结一句话:
PVE 没有 VMware vSwitch ,但 Linux Bridge + VLAN + Bonding 足以满足大多数需求,并且 更加灵活和开源 🚀
四、PVE(Proxmox Virtual Environment)的 HA(高可用)功能
Proxmox VE(PVE) 提供了 HA(High Availability,高可用性) 功能,使虚拟机(VM)和容器(LXC)能够在物理节点故障时自动迁移,保持业务连续性。
1. PVE HA 的核心概念
PVE HA 主要基于 集群(Cluster) 和 HA 资源管理器(HA Manager),确保 VM 和容器在主机宕机后能够自动恢复。
组件 | 作用 |
---|---|
Proxmox Cluster(集群) | 由多个 PVE 节点组成,支持 HA 管理 |
HA Manager(HA 管理器) | 负责监测节点健康状态,执行 HA 任务 |
Corosync | 负责集群通信,确保 HA 管理同步 |
Fence(隔离机制) | 防止 "脑裂" 现象,确保宕机节点不会误操作 |
Live Migration(实时迁移) | 在主机健康状态下手动迁移 VM |
📌 HA 的核心目标:
-
自动故障切换:如果某个节点故障,VM/容器会自动启动到其他健康节点
-
高可用性:最大限度减少宕机时间
-
自动恢复:系统自动检测失败节点,并在可用节点上恢复 VM/容器
2. HA 工作原理
🟢 正常运行
-
所有节点正常,VM 运行在各自的 PVE 服务器上。
-
Corosync 负责集群内的状态同步,所有节点都知道彼此的状态。
🔴 发生故障
-
某个 PVE 节点宕机(如服务器断电)。
-
HA Manager 通过 Corosync 发现该节点丢失心跳。
-
Fence(隔离机制)触发,防止脑裂(如果启用了 STONITH)。
-
HA Manager 自动将 VM 迁移到其他健康节点 并启动。
🟢 故障恢复
-
故障节点恢复后,VM 仍然运行在迁移后的新节点。
-
管理员可以手动迁移 VM 回到原始节点。
3. 配置 PVE HA
📌 3.1 创建 PVE 集群
-
第一台 PVE 服务器:创建集群
pvecm create my-cluster
-
其他 PVE 服务器:加入集群
pvecm add <主节点IP>
-
检查集群状态
pvecm status
示例输出
Cluster information
-------------------
Name: my-cluster
Nodes: 3
Quorum: 2
📌 3.2 配置 HA
启用 HA 管理器
systemctl enable --now pve-ha-lrm pve-ha-crm
在 Web 界面
-
进入 Datacenter(数据中心)→ HA
-
选择 "HA 资源" 并添加 VM / LXC
-
设置 恢复策略(Recovery Policy):
-
restart
(重启 VM) -
migrate
(自动迁移 VM)
-
4. HA 资源的恢复策略
策略 | 说明 |
---|---|
Disabled(禁用) | 资源不会 HA 保护 |
Freeze(冻结) | 保持资源当前状态 |
Restart(重启) | VM/容器将在相同节点上自动重启 |
Migrate(迁移) | VM/容器将在其他节点上启动 |
5. 使用 HA 时的最佳实践
✅ 建议至少 3 台 PVE 服务器 ,确保 集群仲裁(Quorum)
✅ 启用 Fencing(隔离机制) ,防止脑裂(STONITH + IPMI)
✅ 使用共享存储(Ceph、NFS、iSCSI) ,确保 VM 迁移不丢数据
✅ 使用 Bonding 提升网络可用性 ,防止网络单点故障
✅ 定期检查 HA 状态:
ha-manager status
6. 总结
-
PVE HA 允许 VM/LXC 在节点故障时自动迁移
-
依赖 Corosync 进行集群通信
-
需要至少 3 台 PVE 服务器保证 Quorum
-
支持 Restart、Migrate 等策略
-
配合 Ceph 存储,可实现无缝高可用
📌 适用于:
-
企业生产环境
-
私有云 / 数据中心
-
关键业务服务(数据库、Web 服务器等)
🚀 如果你希望构建企业级 HA 高可用架构,PVE + Ceph 是一个不错的选择!
五、PVE 中的 Ceph 存储:完整指南
Ceph 是一个开源的分布式存储系统,在 Proxmox VE(PVE) 中可用于 高可用共享存储 ,支持 块存储(RBD)、文件存储(CephFS)和对象存储(RGW)。
📌 适用场景:
-
高可用存储:无单点故障,数据自动复制
-
Proxmox HA(高可用集群):支持 VM 迁移
-
分布式存储:自动均衡,扩展性强
1. Ceph 的基本概念
组件 | 作用 |
---|---|
Monitor(MON) | 维护集群状态、管理元数据 |
Manager(MGR) | 提供额外的监控和管理功能 |
OSD(Object Storage Daemon) | 负责存储数据,每个硬盘一个 OSD |
Metadata Server(MDS) | 仅用于 CephFS 文件存储 |
RADOS(Reliable Autonomic Distributed Object Store) | Ceph 的核心存储引擎 |
📌 Ceph 主要有三种存储类型:
-
RBD(RADOS Block Device) → VM 磁盘存储(PVE 推荐)
-
CephFS(Ceph Filesystem) → 文件共享存储
-
RGW(RADOS Gateway) → S3 兼容对象存储
2. PVE 中部署 Ceph
📌 2.1 硬件要求
-
至少 3 个 PVE 节点(建议 5 个)
-
每个节点至少 1 块 SSD/HDD(用于 OSD)
-
高性能网络(10Gbps 推荐)
-
独立 Ceph 网络(Public 和 Cluster Network)
📌 2.2 安装 Ceph
📍 在 PVE Web 界面
-
进入"Datacenter" → "Ceph"
-
点击 "Install Ceph" ,选择 版本
-
等待安装完成
📍 或者在 CLI 手动安装
pveceph install
3. 配置 Ceph
📌 3.1 创建 Monitor(MON)
📍 添加 MON 节点
pveceph mon create
📍 检查 MON 状态
ceph mon dump
📌 3.2 创建 Manager(MGR)
📍 添加 MGR
pveceph mgr create
📍 检查 MGR 运行状态
ceph mgr dump
📌 3.3 添加 OSD
📍 在 PVE Web 界面
-
进入"Ceph" → "OSD"
-
选择 磁盘 ,点击 创建 OSD
📍 或者使用 CLI
pveceph osd create /dev/sdX
📍 检查 OSD 状态
ceph osd tree
📌 3.4 配置 Ceph 网络
📍 编辑 /etc/pve/ceph.conf
[global]
public_network = 192.168.10.0/24
cluster_network = 192.168.20.0/24
📍 重启 Ceph
systemctl restart ceph*
4. 在 PVE 中使用 Ceph 存储
📌 4.1 配置 RBD 存储
📍 在 Web UI
-
进入"Datacenter" → "Storage"
-
添加存储类型 → Ceph RBD
-
填写 Pool 名称 (如
rbd
)
📍 或者 CLI 配置
pvesm add rbd ceph-rbd --pool rbd --content images
✅ 创建后,VM 磁盘就可以直接存储到 Ceph 了
📌 4.2 配置 CephFS 共享存储
📍 创建 CephFS
ceph fs new cephfs cephfs_metadata cephfs_data
📍 在 PVE 添加存储
pvesm add cephfs cephfs --monhost 192.168.10.1
✅ CephFS 可用于 VM 备份 / 共享数据
5. 监控和优化
📍 查看 Ceph 状态
ceph -s
📍 查看存储使用情况
ceph df
📍 优化 PG(Placement Groups)
ceph osd pool set rbd pg_num 128
ceph osd pool set rbd pgp_num 128
6. 总结
✅ Ceph 适用于 高可用存储,支持 VM 迁移
✅ Ceph RBD(块存储) 是 PVE 推荐的存储方式
✅ CephFS 适用于文件共享 ,如 VM 备份
✅ 需要至少 3 台 PVE 服务器 ,建议 5 台以上
✅ 建议使用 10Gbps 网络,提升性能
🚀 如果你想构建高可用 PVE 集群,Ceph 是最佳选择!