Ultralytics的YOLO26模型提供专门的分割模型以支持实例分割,其主要预训练模型及参数如下表所示,其中的mAPbox指标用于评估模型目标检测的能力,即预测的边界框(Bounding Box)与真实物体框的重合度,而mAPmask指标用于评估模型实例分割的能力,即预测的像素级轮廓掩码(Mask)与真实物体轮廓的重合度。

实例分割模型的输出是一组掩码或轮廓,它们勾勒出图像中每个对象,以及每个对象的类别标签和置信度分数。YOLO26的实例分割模型的输出数据形状为[N, H, W],也即result.masks.data的数据形状,其中N为从图片中检测到的目标个数,H与输入模型图像的像素高度相同,W与输入模型图像的像素宽度相同。同时检测结果中的result.boxes属性保存检测到所有目标的边界框,result.boxes.data属性的数据形状为[N,6],保存所有目标的坐标、置信度及类别。不过将分割模型转换为onnx格式后,其输出形状变为[1,300,38]及[1,32,160,160]的形式,具体解析方式后续再学习。


最后是示例程序及程序运行效果,如下所示:
python
from ultralytics import YOLO
# Load a model
model = YOLO(r"E:\MyPrograms\Python\ultralytics\yolo26m-seg.pt")
# Predict with the model
results = model("ertong.jpg")
# Access the results
for result in results:
xy = result.masks.xy # mask in polygon format
xyn = result.masks.xyn # normalized
data = result.masks.data # mask in matrix format (num_objects x H x W)
print(result.boxes.data.shape)
print(result.boxes.data)
result.show()

参考文献:
1\]https://docs.ultralytics.com/zh/models/yolo26/ \[2\]https://docs.ultralytics.com/zh/tasks/segment/ \[3\]https://deepwiki.com/ultralytics/ultralytics/5.2-annotation-and-plotting-utilities \[4\]https://docs.ultralytics.com/reference/engine/results/#ultralytics.engine.results.Masks