openEuler 25.09 性能测评:6.6 内核环境部署与内存磁盘性能监控的指南

文章目录

  • 前言
  • [一 、openEuler 技术背景与架构解析](#一 、openEuler 技术背景与架构解析)
    • [1.1 openEuler 项目定位与技术起源](#1.1 openEuler 项目定位与技术起源)
    • [1.2 openEluer的核心架构设计与组件分层](#1.2 openEluer的核心架构设计与组件分层)
    • [1.3 openEuler 架构的两大优势](#1.3 openEuler 架构的两大优势)
  • [二 、openEuler环境准备](#二 、openEuler环境准备)
    • [2.1 虚拟化环境搭建](#2.1 虚拟化环境搭建)
    • [2.2 操作系统推荐配置](#2.2 操作系统推荐配置)
  • 三、环境测试和基础配置
    • [3.1 环境基线信息核查](#3.1 环境基线信息核查)
  • 四、openEluer核心性能维度测试
    • [4.1 内存读写性能测试](#4.1 内存读写性能测试)
    • [4.2 IO 性能测试](#4.2 IO 性能测试)
    • [4.3 内存负载稳定性测试](#4.3 内存负载稳定性测试)
  • 五、系统运行态监控与分析
    • [5.1 实时多维度监控方案](#5.1 实时多维度监控方案)
    • [5.2 系统资源趋势分析](#5.2 系统资源趋势分析)
      • [5.2.1 CPU 与进程负载特征](#5.2.1 CPU 与进程负载特征)
      • [5.2.2 内存与交换分区动态](#5.2.2 内存与交换分区动态)
      • [5.2.3 磁盘 IO 与系统调用](#5.2.3 磁盘 IO 与系统调用)
  • 总结:

前言

openEuler 25.09 是基于 6.6 内核打造的创新版本,传承华为 EulerOS 十余年技术沉淀,以 "支持多样性计算、覆盖全场景" 为核心定位,兼容 x86、ARM 等多架构,深度融合欧拉 - 鸿蒙双生态,已成为操作系统的中坚力量。随着企业对高性能、高可靠开源系统的需求激增,尤其是 AI 推理、数据库部署等性能敏感场景的落地,系统的资源调度效率与稳定性愈发关键。本次测评以 openEuler 25.09 为核心,围绕安装部署、基础配置、内存性能、磁盘 IO 性能等多维度展开实测,搭配 nmon、vmstat 等工具完成全链路监控,全面验证其在实际应用场景中的表现。测评全程基于 VMware 虚拟机真实环境,所有数据均为实测所得,无模拟或估算成分,旨在为企业数字化转型及相关场景落地提供客观、可靠的性能参考。

一 、openEuler 技术背景与架构解析

1.1 openEuler 项目定位与技术起源

openEuler 的前身是华为内部研发的服务器操作系统 EulerOS,自 2010 年起便服务于华为存储、云计算等核心业务,积累了深厚的技术沉淀。2019 年 12 月,华为正式将其开源并更名为 openEuler,随后捐赠给开放原子开源基金会孵化运营,成为完全开放的社区项目。

作为面向数字基础设施的操作系统,openEuler 的核心定位是 "支持多样性计算的全场景智能操作系统",它打破了传统操作系统的架构壁垒,覆盖服务器、云计算、边缘计算、嵌入式四大核心场景,同时支持 IT、CT、OT 领域的融合应用,为企业数字化转型提供统一的技术底座。截至 2024 年,openEuler 累计装机量超 680 万套,覆盖全球 153 个国家,在中国新增服务器操作系统市场份额已达 36.8%,成为自主创新操作系统的中坚力量。

1.2 openEluer的核心架构设计与组件分层

1.3 openEuler 架构的两大优势

  • 多架构硬件兼容,打破嵌入式芯片生态壁垒
    支持 ARM、RISC-V、LoongArch、x86 等主流处理器架构,兼容龙芯、飞腾及国际 ARM、x86 芯片,开发者无需为不同硬件单独适配系统,实现 "一次开发,多端部署",大幅降低跨芯片开发成本。
  • 欧拉 + 鸿蒙双生态融合,拓展嵌入式全场景互联
    深度融合欧拉与鸿蒙生态,通过分布式软总线等技术,让嵌入式设备与鸿蒙智能终端(如工业平板)

二 、openEuler环境准备

本文章需要安装功能完整openEuler,即所有操作在虚拟机中进行实现,本章节将会讲述从初始创建到完整安装的基础步骤。

本章节采用虚拟机实现openEuler操作系统,需要下载VMware workstation

下载教程可以参考:https://blog.csdn.net/weixin_74195551/article/details/127288338

openEuler操作系统官方地址:https://www.openeuler.openatom.cn/zh/

2.1 虚拟化环境搭建

2.2 操作系统推荐配置

虚拟机已经配置完成,接下来就是配置openEuler操作系统

  1. 开启虚拟机

    openEuler的菜单栏有"开启此虚拟机选项",选择并点击

    等待5分钟左右,等待虚拟机自动安装完成。

  2. 语言选择

    选择自己能看懂的语言,这里选择的是"中文"

  3. 配置信息摘要

    这里是配置系统的核心面板,我们需要配置几个信息:

    (1)root账户:

    点击面板上的"Root账户",设置相关信息

    (2)网络和主机名:

    ens160以太网默认是关闭的,需要手动打开,一旦启用,虚拟机会从VMware NAT服务获取一个ip地址

三、环境测试和基础配置

输入在配置中的用户名和密码后,可进入操作系统,进行验证

看到第一个登录符的时候代表成功

3.1 环境基线信息核查

bash 复制代码
#查看系统信息
cat /etc/os-release
#查看ip地址
ip addr
#查看内存信息
free
#查看CPU信息
lscpu
  1. 操作系统发行版与版本

    • 发行版:openEuler
    • 具体版本:25.09(通过cat /etc/os-release中VERSION="25.09"、PRETTY_NAME="openEuler 25.09"确认)
  2. 内核与硬件架构

    • 内核版本:6.6.0-102.0.0.oe2509.x86_64(通过uname -r确认)
    • 硬件架构:x86_64(内核版本中的x86_64标识)
  3. 网络配置

    • 回环接口lo:IP 为127.0.0.1/8,用于本地回路通信。
    • 物理网卡ens160:IP 为192.168.72.128/24,处于UP状态,支持 IPv4 和 IPv6。
    • Docker 虚拟网卡docker0:IP 为172.17.0.1/16,当前状态DOWN(未启用 Docker 网络时的常见状态)。

四、openEluer核心性能维度测试

内存性能测试

  • 测试介绍:通过专业工具模拟内存读写负载与高压力场景,检测系统内存的读写效率、延迟及稳定性,验证内存资源在业务峰值下的可用性与性能表现。
  • 测试目的:确保系统内存能高效支撑数据交换、缓存等业务需求,避免因内存性能瓶颈导致应用响应缓慢、系统崩溃等问题。
  • 测试工具:sysbench(需手动安装)、stress(需手动安装)

磁盘 IO 性能测试

  • 测试介绍:通过命令行工具与专业测试软件模拟磁盘顺序读写、随机 IO 等场景,检测磁盘吞吐量、IOPS(每秒输入输出次数)、延迟等核心指标,验证磁盘 IO 性能是否满足业务对数据持久化、读取的效率要求。
  • 测试目的:确保磁盘在高负载下的读写稳定性与效率,避免因磁盘 IO 瓶颈影响数据库、日志存储等业务模块的性能表现。
  • 测试工具:openEuler 自带dd命令、sysbench(需手动安装)

4.1 内存读写性能测试

内存作为系统数据交换的核心载体,其读写速度、负载稳定性直接影响应用响应效率。以下通过sysbench与stress工具开展测试。

测试命令:

bash 复制代码
# 测试内存随机读写,块大小1M,总数据量1G
sysbench memory --memory-block-size=1M --memory-total-size=1G run

测试结果:

测试配置:block size=1024KiB(1M)、total size=1024MiB(1G)、写操作、单线程。

指标类别 具体数值 含义与价值
吞吐量 5474.99 MiB/sec 每秒可写入的内存数据量,直接反映内存写带宽,数值越高则内存吞吐能力越强。
操作效率 5474.99 次/秒 每秒完成的内存写操作次数,与 "块大小 × 操作次数" 的乘积可验证吞吐量的一致性。
延迟(Latency) 平均0.18ms、95% 分位0.25ms 内存写操作的响应时间,延迟越低则内存实时性越好,对高并发、低延迟业务越友好。

该测试结果显示,当前系统的内存写性能在吞吐量、操作效率、延迟三方面均表现优异,适合对内存性能敏感的业务场景

4.2 IO 性能测试

测试命令:

bash 复制代码
# 磁盘写测试:直接写入10个100M文件
dd if=/dev/zero of=/tmp/testfile_dd bs=100M count=10 oflag=direct
# 磁盘读测试:读取上述文件
dd if=/tmp/testfile_dd of=/dev/null bs=100M count=10 iflag=direct
# 清理测试文件
rm -f /tmp/testfile_dd
  • 第一条测试:
    • 数据量:1.0 GB(1000 MiB)
    • 耗时:1.95251 s
    • 吞吐量:537 MB/s
  • 第二条测试:
    • 数据量:1.0 GB
    • 耗时:0.756053 s
    • 吞吐量:1.4 GB/s(约 1400 MB/s)

性能差异分析

  1. 缓存机制影响:
    • 若第一条测试是 "首次写入"(系统缓存未命中),第二条是 "二次写入"(缓存命中),则缓存会大幅提升吞吐量(内存级缓存速度远高于磁盘)。
    • 若测试时未加oflag=direct参数(禁用系统缓存),这种差异会更明显。
  2. 存储介质类型:
    • 若为NVMe SSD,1.4 GB/s的吞吐量符合其高性能特性(顶级 NVMe SSD 顺序写速度可达 3000+ MB/s,该结果属于正常区间);
    • 若为SATA SSD,537 MB/s也符合其典型性能(SATA SSD 顺序写速度通常在 500-600 MB/s)。
    • 两条测试可能对应 "不同存储介质" 或 "同一介质的不同 IO 调度策略"。
  3. 块大小与 IO 调度:dd的块大小(bs参数)和系统 IO 调度算法(如mq-deadline、kyber)也会影响吞吐量,若两条测试的块大小或调度策略不同,也会导致性能差异。

4.3 内存负载稳定性测试

工具介绍: stress-ng
测试命令:

bash 复制代码
# 模拟2个进程,每个进程占用1G内存,持续60秒
stress-ng --vm 2 --vm-bytes 1G --timeout 60s

运行截图:

本次测试模拟了高并发随机读写 + 强数据一致性的典型场景(完全贴合数据库、交易系统的真实逻辑):

  • 数据规模:创建 128 个文件,单文件 40MB,总数据量 5GiB;
  • IO 配置:采用 16KiB 块大小,读写比 1.5(读操作更多);
  • 同步策略:开启周期性fsync,强制使用同步 IO 模式(确保数据落盘一致性,模拟数据库事务提交场景)。
  • 从数据特征判断,这是一款高性能 NVMe SSD的典型表现 ------ 只有 NVMe 协议的存储设备,才能在 "同步 IO + 高并发随机读写" 场景下保持如此高的 IOPS 和低延迟。
  • 对比传统 SATA SSD(随机 IOPS 通常不足 2000 次 / 秒,延迟毫秒级),其性能优势至少在 3 倍以上,完全拉开代差。

五、系统运行态监控与分析

5.1 实时多维度监控方案

运行代码

bash 复制代码
# 安装nmon
yum install -y nmon
# 启动nmon监控
nmon

交互界面

工具快捷键展示:

使用nmon工具实时监控 CPU、内存、磁盘、网络的综合状态,直观查看测试过程中的系统负载变化:

在nmon交互界面中,按以下字母切换监控维度:

  • c:CPU 使用率(各核心负载、用户态 / 内核态占比),关注高负载下是否存在核心饱和;
  • m:内存使用(已用、空闲、缓存、交换分区),结合内存测试观察是否有溢出风险;
  • d:磁盘 IO(各磁盘的读写吞吐量、IOPS),判断磁盘是否成为性能瓶颈;
  • n:网络带宽(各网卡的收发速率、丢包率),验证网络传输稳定性。

优点

在 openEuler 运维场景中,nmon 凭借三大核心优势成为性能监控利器:

  • 全维度覆盖:一键切换 CPU、内存、磁盘、网络、进程等核心指标,全局掌握系统性能全景。
  • 极简交互:单键操作切换监控项,零学习成本,快速定位性能瓶颈。
  • 轻量兼容:资源消耗可忽略,深度适配 openEuler,日常监控与故障排查全程高效。

5.2 系统资源趋势分析

工具介绍 :vmstat是 Linux 自带的系统状态统计工具,可输出 CPU、内存、磁盘、进程等资源的实时趋势数据,便于长期性能趋势分析。
测试命令

bash 复制代码
# 每1秒输出一次系统状态,共输出10次
vmstat 1 10

这是通过vmstat 1 10命令(每隔 1 秒采样,共 10 次)获取的 openEuler 系统性能数据,从以下维度解析系统状态:

5.2.1 CPU 与进程负载特征

  • 进程队列(procs)r(运行队列长度)多为 0 或 1,b(阻塞进程数)始终为 0 → 无进程排队等待 CPU 或 IO 阻塞,进程调度压力极小。
  • CPU 利用率(cpu)id(空闲率)持续 99%~100%,us(用户态)、sy(系统态)占比极低 → CPU 几乎完全空闲,无计算或系统调用压力。

5.2.2 内存与交换分区动态

  • 内存(memory)swpd(交换分区使用)始终为 0,free(空闲内存)数值稳定 → 内存充足,未触发交换分区使用。
  • 交换(swap)si(换入)、so(换出)均为 0 → 内存与交换分区无数据交换,内存资源完全满足当前需求。

5.2.3 磁盘 IO 与系统调用

  • 磁盘 IO(io)bi(块入)、bo(块出)多为 0,仅偶尔出现小数值 → 磁盘读写压力极低,无高频 IO 操作。
  • 系统调用(system)in(中断数)、cs(上下文切换)数值平缓 → 系统中断和进程切换负载极轻。

总结:

安装部署便捷,通过 VMware 虚拟机即可完成,基础配置流程清晰,适配 x86_64 架构稳定可靠。性能测试中,内存写吞吐量达 5474.99 MiB/sec,平均延迟 0.18ms;磁盘顺序读写最高 1.4 GB/s,随机 IO 场景 IOPS 超 1.3 万次 / 秒,适配 AI 推理、数据库等性能敏感场景。

nmon 工具实现全维度指标监控,vmstat 精准捕捉资源趋势,二者适配性强。综上,openEuler 25.09 在性能、兼容性、易用性上表现均衡,为企业数字化转型及云原生 AI 落地,提供高性价比的开源方案。

相关推荐
xcLeigh1 小时前
openEuler 在 AI 与云原生场景下的性能评测与实践
人工智能·云原生·openeuler
倔强的石头1061 小时前
openEuler 开发环境搭建与工具链优化实践深度评测
运维·服务器·操作系统·openeuler
todoitbo1 小时前
openEuler 云原生实战:使用 Docker Compose 快速部署企业应用
docker·云原生·容器·openeuler
熊文豪1 小时前
openEuler + Nginx 高性能 Web 服务深度评测
openeuler
倔强的石头1061 小时前
openEuler 云原生容器基础搭建与Podman应用部署实操
运维·云原生·podman·openeuler
wei_shuo1 小时前
openEuler 25.09 实操指南:飞腾 arm64 服务器的 C 程序开发与 Hadoop 伪集群部署及性能测试
hadoop·openeuler
人工智能训练2 天前
Linux 系统核心快捷键表(可打印版)
linux·运维·服务器·人工智能·ubuntu·容器·openeuler
张永清-老清2 天前
每周读书与学习->JMeter性能测试脚本编写实战(二)- 前一个请求返回的结果作为后一个请求的入参
学习·jmeter·性能优化·性能测试·性能调优·jmeter性能测试·每周读书与学习
qq_381454992 天前
性能优化实战:从瓶颈定位到系统提速
性能测试