一、环境准备
1.1 环境配置
- 虚拟化平台: VMware Workstation Pro 17.5x
- 操作系统 : openEuler 24.03 LTS SP2 (X86_64 Offline Everything ISO)
- 虚拟机配置:- CPU: 4核心
- 内存: 8GB
- 硬盘: 50GB
- 网络: NAT模式
1.2 下载并安装openEuler系统
从 openEuler 官网下载 openEuler 24.03 LTS SP2 的全量安装 ISO:
python
https://www.openEuler.openatom.cn/zh/download/#openEuler%2024.03%20LTS%20SP2
下载完成后,创建虚拟机,使用该镜像
随后进入到可视化安装页面,配置完安装目的地,网络,Root账户后点击开始安装

安装完成后,点击重启系统

输入用户名和密码成功登录到系统中,后续使用SSH工具远程连接虚拟机即可。

1.3 系统初始化
登录系统后,执行以下命令:
python
# 安装必要工具
sudo yum install -y vim wget curl net-tools

python
# 检查系统版本
cat /etc/os-release

二、iSula 容器引擎简介
2.1 什么是 iSula?
iSula 是华为开源的轻量级容器引擎,专为云原生场景设计。iSula 通用容器引擎相比 Docker,是一种新的容器解决方案,提供统一的架构设计来满足 CT(通信技术) 和 IT(信息技术) 领域的不同需求。
2.1.1 核心技术特点
轻量级容器使用 C/C++ 实现,具有 轻、灵、巧、快 的特点:
- 轻(Lightweight):
- 内存占用极低,空载仅需 ~50MB
- 二进制文件体积小,适合资源受限环境
- 不受硬件规格和架构的限制,可运行在 x86、ARM、RISC-V 等多种架构
- 灵(Flexible): - 模块化设计,可根据场景裁剪功能
- 支持多种容器运行时(LCR、kata-runtime)
- 统一架构适配 CT 领域(5G 基站、边缘网关)和 IT 领域(云数据中心)
- 巧(Smart): - 智能资源调度,优化 CPU 和内存使用
- 精细化的生命周期管理
- 底噪开销更小,对宿主机性能影响微乎其微
- 快(Fast): - 容器启动速度极快,平均 <100ms
- 镜像拉取和加载速度提升 30%+
- 高并发场景下响应迅速
2.1.2 应用领域对比

可应用领域更为广泛:
- CT 领域 :电信网络、5G/6G 基础设施、边缘计算节点
- IT 领域:云原生应用、微服务架构、CI/CD 流水线
- OT 领域:工业互联网、智能制造、车联网
2.2 iSula 架构设计

三、安装 iSula 容器引擎
3.1 安装 iSulad
由于使用的是全量 ISO,iSulad 软件包已包含在 ISO 中:
python
# 使用 yum 安装 iSulad(推荐方式)
sudo yum install -y iSulad
# 安装 lcr
sudo yum install lcr
# 验证安装
rpm -qa | grep iSulad
关键组件说明:
- iSulad :容器引擎守护进程,负责容器生命周期管理
- iSulad-img:镜像管理工具,处理镜像拉取、存储和删除
- lcr:轻量级容器运行时,负责实际的容器创建和管理
使用 rpm -qa | grep iSulad命令能查询到iSulad,这验证了它已成功安装。通过yum自动下载的iSulad版本也与当前操作系统兼容。

3.2 配置 iSulad
3.2.1 配置存储驱动
编辑 iSulad 配置文件:
python
sudo vim /etc/isulad/daemon.json
基本配置示例:
配置完成使用,wq保存并退出
python
{
"group": "isulad", // iSulad 运行的用户组
"default-runtime": "lcr", // 默认容器运行时
"graph": "/var/lib/isulad", // 容器和镜像数据存储路径
"state": "/var/run/isulad", // 运行时状态文件路径
"engine": "lcr", // 容器引擎类型
"log-level": "ERROR", // 日志级别(DEBUG/INFO/WARN/ERROR)
"pidfile": "/var/run/isulad.pid", // PID 文件路径
"log-opts": {
"log-file-mode": "0600", // 日志文件权限(仅 root 可读写)
"log-path": "/var/lib/isulad", // 日志文件存储路径
"max-file": "10", // 最多保留10个日志文件
"max-size": "30MB" // 单个日志文件最大30MB
},
"log-driver": "file", // 日志驱动类型
"hook-spec": "/etc/default/isulad/hooks/default.json", // 容器钩子配置
"start-timeout": "2m", // 容器启动超时时间
"storage-driver": "overlay2", // 存储驱动(推荐 overlay2)
"storage-opts": [
"overlay2.override_kernel_check=true" // 跳过内核版本检查
],
"registry-mirrors": [
"docker.io" // 镜像仓库地址
],
"insecure-registries": [], // 不安全的镜像仓库(HTTP)
"pod-sandbox-image": "", // Pod 沙箱镜像(Kubernetes 场景)
"native.umask": "secure", // 文件权限掩码
"network-plugin": "", // 网络插件(CNI)
"cni-bin-dir": "", // CNI 插件二进制目录
"cni-conf-dir": "", // CNI 配置文件目录
"image-layer-check": false, // 是否检查镜像层完整性
"use-decrypted-key": true, // 使用解密密钥
"insecure-skip-verify-enforce": false // 是否跳过 TLS 验证
}

3.2.2 优化内存配置(可选)
针对高并发场景,配置内存管理:
python
sudo vim /etc/sysconfig/iSulad
添加以下内容:
为了优化iSulad在高并发场景下的内存使用,我们通过环境变量 MALLOC_ARENA_MAX将其内存分配区域的最大数量限制为4个,以防止内存占用过高。
python
MALLOC_ARENA_MAX=4
配置原理:
- MALLOC_ARENA_MAX:控制 glibc 内存分配器的 arena(内存池)数量
- 默认值:8 * CPU核心数,在多核系统上可能创建大量 arena
- 设置为 4 :限制 arena 数量,减少内存碎片
- 适用场景:- 高并发容器启动(>100 个容器)
- 内存受限环境(<8GB)
- 长时间运行的守护进程
内存优化效果:
- 减少内存占用 20-30%
- 降低内存碎片化
- 提升内存分配效率

3.2.3 创建isulad用户组以及设置运行时目录权限
python
# 创建isulad用户组
sudo groupadd isulad
# 验证组是否创建成功
getent group isulad
# 创建运行时目录
sudo mkdir -p /var/run/isula
# 设置正确的所有权(组为isulad)
sudo chown root:isulad /var/run/isula
sudo chmod 750 /var/run/isula
3.3 启动 iSulad 服务
python
# 重新加载systemd配置
sudo systemctl daemon-reload
# 启动服务
sudo systemctl start isulad
# 设置开机自启
sudo systemctl enable isulad
# 检查服务状态
sudo systemctl status isulad
# 查看版本信息
isula version

四、基础功能测试
4.1 拉取测试镜像
python
# 拉取 busybox 镜像
sudo isula pull busybox
# 查看镜像列表
sudo isula images

4.2 容器生命周期测试
4.2.1 创建和启动容器
我使用的是直接运行容器这种方式
方式一:分步创建
python
# 创建容器(不启动)
sudo isula create --name test-container busybox sh
# 启动容器
sudo isula start test-container
# 查看运行中的容器
sudo isula ps
方式二:直接运行(推荐)
python
# 一步到位:创建并启动容器
sudo isula run -itd --name test-run busybox sh
参数说明:
- -i:保持 STDIN 打开(交互模式)
- -t:分配伪终端(TTY)
- -d:后台运行(detached 模式)
- --name:指定容器名称
- busybox:镜像名称
- sh:容器内执行的命令
4.2.2 容器操作测试
python
# 进入容器
sudo isula exec -it test-run sh
# 在容器内执行命令
echo "Hello iSula" > /tmp/test.txt
cat /tmp/test.txt
exit

python
# 从外部执行容器命令
sudo isula exec test-run cat /tmp/test.txt

python
# 查看容器详细信息
sudo isula inspect test-run
# 查看容器日志
sudo isula logs test-run
# 查看容器资源使用
sudo isula stats --no-stream test-run
4.2.3 停止和删除容器
python
# 停止容器
sudo isula stop test-run
# 删除容器
sudo isula rm test-run
# 强制删除运行中的容器
sudo isula rm -f test-container
# 查看所有容器(验证下是否成功删除)
sudo isula ps -a
如果没有输出,说明容器已成功删除。

五、性能测试
5.1 准备测试环境
python
# 安装性能测试工具
sudo yum install -y time sysstat
# 创建测试脚本目录
mkdir -p ~/isulad-benchmark
cd ~/isulad-benchmark
工具说明:
- time:测量命令执行时间
- sysstat:系统性能监控工具集(包含 iostat、mpstat)
- bc :高精度计算器,用于浮点数运算

5.2 容器启动性能测试
5.2.1 单容器启动时间测试
创建测试脚本 single_start_test.sh:
测试脚本原理详解:
本测试脚本通过精确测量容器从创建到完全进入运行状态的时间,评估 iSula 的启动性能。核心测量机制采用纳秒级时间戳(date +%s.%N)记录启动前后的时间点,并通过 bc 工具进行高精度浮点数计算。为确保测量的是真实启动时间而非 API 响应时间,脚本使用状态轮询机制,每 10ms 检查一次容器状态,直到容器真正进入 running 状态。统计分析部分计算了平均值、最小/最大值和标准差,其中标准差反映了启动时间的稳定性------标准差越小说明性能越稳定。测试重复 10 次以获得统计学上有意义的结果,每次测试后清理容器并等待 1 秒,避免资源竞争影响下次测试。
python
#!/bin/bash
echo "=== iSula 单容器启动性能测试 ==="
# 测试次数
TEST_COUNT=10
echo "测试次数: $TEST_COUNT"
echo "开始测试..."
echo ""
total_time=0
declare -a times
for i in $(seq 1 $TEST_COUNT); do
# 记录启动时间
start_time=$(date +%s.%N)
# 启动容器
container_id=$(sudo isula run -d busybox sleep 10)
# 等待容器真正进入 running 状态
while true; do
status=$(sudo isula inspect -f '{{.State.Status}}' $container_id 2>/dev/null)
if [ "$status" = "running" ]; then
break
fi
sleep 0.01 # 10ms 轮询间隔
done
end_time=$(date +%s.%N)
# 计算耗时
elapsed=$(echo "$end_time - $start_time" | bc)
times+=("$elapsed")
total_time=$(echo "$total_time + $elapsed" | bc)
# 格式化输出,确保显示完整的秒数
printf "第 %2d 次测试: %8.4f 秒 (容器ID: %s)\n" $i $elapsed ${container_id:0:12}
# 清理容器
sudo isula rm -f $container_id > /dev/null 2>&1
sleep 1
done
echo ""
echo "=== 测试结果 ==="
# 计算平均时间
avg_time=$(echo "scale=4; $total_time / $TEST_COUNT" | bc)
# 找出最小值和最大值
min=${times[0]}
max=${times[0]}
for time in "${times[@]}"; do
result=$(echo "$time < $min" | bc)
if [ $result -eq 1 ]; then
min=$time
fi
result=$(echo "$time > $max" | bc)
if [ $result -eq 1 ]; then
max=$time
fi
done
printf "总耗时: %8.4f 秒\n" $total_time
printf "平均启动时间: %8.4f 秒\n" $avg_time
printf "最快启动时间: %8.4f 秒\n" $min
printf "最慢启动时间: %8.4f 秒\n" $max
# 计算标准差
sum_sq_diff=0
for time in "${times[@]}"; do
diff=$(echo "$time - $avg_time" | bc)
sq_diff=$(echo "$diff * $diff" | bc)
sum_sq_diff=$(echo "$sum_sq_diff + $sq_diff" | bc)
done
variance=$(echo "scale=6; $sum_sq_diff / $TEST_COUNT" | bc)
std_dev=$(echo "scale=4; sqrt($variance)" | bc -l)
printf "标准差: %8.4f 秒\n" $std_dev
echo ""
echo "=== 性能评估 ==="
if (( $(echo "$avg_time < 0.1" | bc -l) )); then
echo "✓ 优秀: 平均启动时间小于 100ms"
elif (( $(echo "$avg_time < 0.5" | bc -l) )); then
echo "✓ 良好: 平均启动时间小于 500ms"
elif (( $(echo "$avg_time < 1.0" | bc -l) )); then
echo "○ 一般: 平均启动时间小于 1s"
else
echo "✗ 需优化: 平均启动时间超过 1s"
fi
执行测试:
python
chmod +x single_start_test.sh
./single_start_test.sh
测试结果:
测试结果显示 iSula 的单容器平均启动时间为 76ms,充分展现了其轻量级容器引擎的性能优势。最快启动时间 71ms 和最慢启动时间 86ms 之间仅相差 15ms,说明启动性能非常稳定。标准差仅 4.4ms,进一步证明了 iSula 在不同测试轮次中表现的一致性。对于需要快速扩缩容的云原生应用、边缘计算场景和 Serverless 架构,这种极速启动能力具有重要价值。

python
=== iSula 单容器启动性能测试 ===
测试次数: 10
开始测试...
第 1 次测试: 0.0720 秒 (容器ID: fbc46adb4d94)
第 2 次测试: 0.0771 秒 (容器ID: 5af21febcafe)
第 3 次测试: 0.0788 秒 (容器ID: 45b903bffe5a)
第 4 次测试: 0.0862 秒 (容器ID: c5e12d1d4724)
第 5 次测试: 0.0758 秒 (容器ID: 70ca1ad19c2d)
第 6 次测试: 0.0712 秒 (容器ID: 5d70c2715981)
第 7 次测试: 0.0734 秒 (容器ID: a9cf758811bc)
第 8 次测试: 0.0741 秒 (容器ID: 98459aba9ab5)
第 9 次测试: 0.0779 秒 (容器ID: 93e143ceda4a)
第 10 次测试: 0.0710 秒 (容器ID: 9ac9852abbae)
=== 测试结果 ===
总耗时: 0.7575 秒
平均启动时间: 0.0757 秒
最快启动时间: 0.0710 秒
最慢启动时间: 0.0862 秒
标准差: 0.0044 秒
=== 性能评估 ===
✓ 优秀: 平均启动时间小于 100ms
5.2.2 批量容器启动测试
创建测试脚本 batch_start_test.sh:
批量测试脚本原理详解:
批量启动测试通过同时创建多个容器来评估 iSula 的并发处理能力和系统吞吐量。测试分为两个阶段:第一阶段快速发起所有容器创建请求,不等待单个容器启动完成,这模拟了真实生产环境中的突发流量场景;第二阶段通过全局状态监控,轮询所有容器的状态直到全部进入 running 状态,并实时显示启动进度。性能指标包括总耗时、平均每容器启动时间和启动吞吐量(容器/秒),其中吞吐量是衡量系统并发能力的关键指标。测试还监控了 iSulad 进程的 CPU 和内存占用,以评估高并发场景下的资源开销。清理阶段采用并行删除策略,每 10 个容器为一批进行后台删除,避免进程数过多导致系统负载过高,同时显著提升清理速度。
python
#!/bin/bash
echo "=== iSula 批量容器启动性能测试 ==="
# 容器数量
CONTAINER_COUNT=50
echo "容器数量: $CONTAINER_COUNT"
echo "开始测试..."
echo ""
# 记录开始时间
start_time=$(date +%s.%N)
# 存储容器ID
declare -a container_ids
# 批量启动容器
echo "步骤1: 发起容器创建请求..."
for i in $(seq 1 $CONTAINER_COUNT); do
container_id=$(sudo isula run -d --name batch-test-$i busybox sleep 300 2>/dev/null)
container_ids+=("$container_id")
if [ $((i % 10)) -eq 0 ]; then
echo " 已发起 $i/$CONTAINER_COUNT 个容器创建请求"
fi
done
echo " 所有创建请求已发起"
echo ""
# 等待所有容器进入 running 状态
echo "步骤2: 等待所有容器启动完成..."
all_running=0
check_count=0
max_wait=600 # 最多等待60秒 (600 * 0.1s)
while [ $all_running -eq 0 ] && [ $check_count -lt $max_wait ]; do
running_count=0
for container_id in "${container_ids[@]}"; do
if [ -n "$container_id" ]; then
status=$(sudo isula inspect -f '{{.State.Status}}' $container_id 2>/dev/null)
if [ "$status" = "running" ]; then
((running_count++))
fi
fi
done
# 每秒更新一次进度
if [ $((check_count % 10)) -eq 0 ]; then
printf "\r 进度: %3d/%d 容器已启动 (%3d%%)" $running_count $CONTAINER_COUNT $((running_count * 100 / CONTAINER_COUNT))
fi
if [ $running_count -eq $CONTAINER_COUNT ]; then
all_running=1
else
sleep 0.1
((check_count++))
fi
done
echo ""
echo ""
# 记录结束时间
end_time=$(date +%s.%N)
# 计算耗时
elapsed=$(echo "$end_time - $start_time" | bc)
# 最终检查成功启动的容器数量
running_count=$(sudo isula ps | grep batch-test | grep -c "Up")
failed_count=$((CONTAINER_COUNT - running_count))
echo "=== 测试结果 ==="
printf "总耗时: %8.4f 秒\n" $elapsed
printf "成功启动容器数: %8d / %d\n" $running_count $CONTAINER_COUNT
if [ $failed_count -gt 0 ]; then
printf "失败容器数: %8d\n" $failed_count
fi
if [ $running_count -gt 0 ]; then
avg_time=$(echo "scale=4; $elapsed / $running_count" | bc)
printf "平均每个容器启动时间: %8.4f 秒\n" $avg_time
# 计算吞吐量
throughput=$(echo "scale=2; $running_count / $elapsed" | bc)
printf "启动吞吐量: %8.2f 容器/秒\n" $throughput
fi
echo ""
echo "=== 容器状态统计 ==="
sudo isula ps -a | grep batch-test | awk '{print $2}' | sort | uniq -c | while read count status; do
printf " %-10s: %3d 个\n" "$status" "$count"
done
# 显示系统资源
echo ""
echo "=== 系统资源占用 ==="
echo "iSulad 进程:"
ps aux | grep -E "isulad$" | grep -v grep | awk '{printf " PID: %s, CPU: %s%%, MEM: %s%%, VSZ: %s KB, RSS: %s KB\n", $2, $3, $4, $5, $6}'
echo ""
echo "内存使用:"
free -h | awk 'NR==1{print " "$0} NR==2{printf " 总计: %s, 已用: %s, 可用: %s\n", $2, $3, $7}'
# 清理
echo ""
echo "按回车键清理测试容器..."
read
echo ""
echo "清理测试容器..."
cleanup_start=$(date +%s.%N)
for i in $(seq 1 $CONTAINER_COUNT); do
sudo isula rm -f batch-test-$i > /dev/null 2>&1 &
if [ $((i % 10)) -eq 0 ]; then
wait
fi
done
wait
cleanup_end=$(date +%s.%N)
cleanup_time=$(echo "$cleanup_end - $cleanup_start" | bc)
printf "清理完成,耗时: %.4f 秒\n" $cleanup_time
执行测试:
python
chmod +x batch_start_test.sh
./batch_start_test.sh
批量测试结果展示了 iSula 在高并发场景下的卓越性能。50 个容器在 3.59 秒内全部启动完成,平均每秒可启动 13.92 个容器,这种高吞吐量能力对于需要快速扩容的云原生应用至关重要。平均每容器启动时间 72ms 与单容器测试结果(76ms)基本一致,说明 iSula 在并发场景下依然保持稳定的性能表现,不会因为容器数量增加而显著降低单个容器的启动速度。系统资源占用方面,即使运行 50 个容器,iSulad 进程的内存占用仅 55MB,CPU 占用率仅 0.2%,充分体现了其"轻量级"的设计理念。这种低资源占用特性使得在同等硬件条件下可以部署更多容器,提高资源利用率。

python
=== iSula 批量容器启动性能测试 ===
容器数量: 50
开始测试...
步骤1: 发起容器创建请求...
已发起 10/50 个容器创建请求
已发起 20/50 个容器创建请求
已发起 30/50 个容器创建请求
已发起 40/50 个容器创建请求
已发起 50/50 个容器创建请求
所有创建请求已发起
步骤2: 等待所有容器启动完成...
进度: 50/50 容器已启动 (100%)
=== 测试结果 ===
总耗时: 3.5912 秒
成功启动容器数: 50 / 50
平均每个容器启动时间: 0.0718 秒
启动吞吐量: 13.92 容器/秒
=== 容器状态统计 ===
busybox : 50 个
=== 系统资源占用 ===
iSulad 进程:
PID: 21335, CPU: 0.2%, MEM: 0.7%, VSZ: 576784 KB, RSS: 55412 KB
内存使用:
total used free shared buff/cache available
总计: 7.2Gi, 已用: 941Mi, 可用: 6.3Gi
按回车键清理测试容器...
清理测试容器...
清理完成,耗时: 1.2631 秒
5.3 资源占用测试
创建测试脚本 resource_test.sh:
资源测试脚本原理详解:
资源占用测试采用对比测试方法,通过测量 iSulad 在空载和满载两种状态下的资源占用差异,精确评估容器引擎的资源效率。测试使用 ps 命令获取进程的 CPU 使用率、内存使用率、RSS(常驻内存集)和 VSZ(虚拟内存大小),其中 RSS 反映了进程实际占用的物理内存,是最关键的指标。测试分为三个阶段:首先记录 iSulad 空载状态的基准资源占用;然后启动 100 个容器并等待全部进入运行状态;最后再次测量资源占用并计算差值。通过计算"内存增长 = 负载状态 RSS - 空载状态 RSS"和"平均每容器 = 内存增长 / 容器数量",可以准确评估单个容器对系统资源的影响。这种测试方法排除了操作系统和其他进程的干扰,真实反映了 iSula 的资源效率。
python
#!/bin/bash
echo "=== iSula 资源占用测试 ==="
echo ""
CONTAINER_COUNT=100
# 获取 iSulad 资源
get_resources() {
local pid=$(pgrep -x isulad)
local cpu=$(ps -p $pid -o %cpu= | awk '{print $1}')
local mem=$(ps -p $pid -o %mem= | awk '{print $1}')
local rss=$(ps -p $pid -o rss= | awk '{print $1}')
local vsz=$(ps -p $pid -o vsz= | awk '{print $1}')
printf "CPU: %6.2f%%, MEM: %6.2f%%, RSS: %8.2f MB, VSZ: %8.2f MB\n" \
$cpu $mem $(echo "scale=2; $rss/1024" | bc) $(echo "scale=2; $vsz/1024" | bc)
echo $rss
}
# 1. 初始状态
echo "1. iSulad 初始状态(空载):"
initial_rss=$(get_resources)
echo ""
# 2. 启动容器
echo "2. 启动 $CONTAINER_COUNT 个容器..."
start_time=$(date +%s.%N)
for i in $(seq 1 $CONTAINER_COUNT); do
sudo isula run -d --name resource-test-$i busybox sleep 600 > /dev/null 2>&1
[ $((i % 10)) -eq 0 ] && printf "\r 进度: %3d/%d" $i $CONTAINER_COUNT
done
# 等待启动完成
echo ""
while true; do
running=$(sudo isula ps | grep resource-test | grep -c "Up")
printf "\r 运行中: %3d/%d" $running $CONTAINER_COUNT
[ $running -eq $CONTAINER_COUNT ] && break
sleep 1
done
end_time=$(date +%s.%N)
echo ""
printf "启动完成,耗时: %.2f 秒\n" $(echo "$end_time - $start_time" | bc)
echo ""
sleep 5
# 3. 负载状态
echo "3. iSulad 负载状态($CONTAINER_COUNT 个容器):"
loaded_rss=$(get_resources)
echo ""
# 4. 统计
echo "4. 资源对比:"
memory_increase=$(echo "scale=2; ($loaded_rss - $initial_rss) / 1024" | bc)
memory_per_container=$(echo "scale=3; $memory_increase / $CONTAINER_COUNT" | bc)
printf "内存增长: %.2f MB\n" $memory_increase
printf "平均每容器: %.3f MB\n" $memory_per_container
echo ""
echo "5. 容器状态:"
sudo isula ps | grep resource-test | wc -l | xargs echo "运行中:"
echo ""
# 5. 清理
echo "6. 清理测试容器..."
for i in $(seq 1 $CONTAINER_COUNT); do
sudo isula rm -f resource-test-$i > /dev/null 2>&1 &
[ $((i % 10)) -eq 0 ] && wait
done
wait
echo "清理完成"
执行测试:
资源占用测试结果充分验证了 iSula 的轻量级特性。在运行 100 个容器的情况下,iSulad 进程的内存占用仅增加了 25MB,平均每个容器仅带来 250KB 的额外内存开销,这种极低的资源占用得益于 C/C++ 的高效内存管理和优化的数据结构设计。CPU 占用率从空载的 0.1% 仅增加到 0.3%,说明即使在高并发场景下,iSula 的 CPU 底噪依然极低,不会对宿主机的其他应用造成明显影响。虚拟内存(VSZ)从 560MB 增加到 580MB,增幅仅 20MB,说明 iSula 的内存分配策略非常保守和高效。这种资源效率使得 iSula 特别适合边缘计算、IoT 设备等资源受限场景,以及需要高密度容器部署的云数据中心环境。
python
chmod +x resource_test.sh
./resource_test.sh




六、iSula 容器引擎部署与性能测试总结
本次在openEuler 24.03 LTS SP2系统上成功部署了iSula容器引擎,并通过系统测试验证了其卓越性能:单容器平均启动时间仅76毫秒,批量启动50个容器仅需3.59秒(吞吐量13.92个/秒),且运行100个容器时引擎内存增量仅25MB(单容器250KB),充分体现了iSula轻量级、快启动、低开销的设计优势,完全满足云原生及边缘计算场景对高效资源利用和快速弹性伸缩的需求。
如果您正在寻找面向未来的开源操作系统,不妨看看DistroWatch 榜单中快速上升的 openEuler:https://distrowatch.com/table-mobile.php?distribution=openeuler,一个由开放原子开源基金会孵化、支持"超节点"场景的Linux 发行版。
openEuler官网:https://www.openeuler.openatom.cn/zh/