YOLO交通目标识别数据集(红绿灯-汽车-自行车-卡车等)

YOLO交通目标识别 数据集 模型 ui界面

✓图片数量15000,xml和txt标签都有;

✓class:biker,car,pedestrian,trafficLight,trafficLight-Green,trafficLight-GreenLeft, trafficLight-Red,trafficLight-RedLeft,trafficLight-Yellow,trafficLight-YellowLeft,truck(也可按需求除去其中一些类别);

数据集名称

YOLO交通目标识别数据集(YOLO Traffic Object Recognition Dataset)

数据集概述

该数据集专为交通目标识别设计,包含15,000张图像及其对应的VOC XML和YOLO TXT格式标签文件,标签类别包括九种常见的交通目标:骑自行车者(biker)、汽车(car)、行人(pedestrian)、交通灯(trafficLight)及其细分状态(Green、GreenLeft、Red、RedLeft、Yellow、YellowLeft)、卡车(truck)。该数据集适用于使用深度学习和机器学习方法进行交通目标检测的任务,特别是适用于基于YOLO系列(如YOLOv5、YOLOv6、YOLOv7、YOLOv8等)的模型训练。

数据集特点
  • 高清图像:所有图像均为高清画质,确保交通目标的细节清晰可见。
  • 详细标注:每张图像都有对应的VOC XML和YOLO TXT格式标签文件,标注了交通目标的位置信息。
  • 标准化格式:标签文件采用VOC XML和YOLO TXT格式,方便直接用于模型训练。
  • 多类别标注:涵盖多种交通目标类别,有助于提高模型的泛化能力和应用场景的广泛性。
数据集构成
  • 图像数量:15,000张高清图像
  • 类别
    • biker(骑自行车者)
    • car(汽车)
    • pedestrian(行人)
    • trafficLight(交通灯)
    • trafficLight-Green(绿灯)
    • trafficLight-GreenLeft(左转绿灯)
    • trafficLight-Red(红灯)
    • trafficLight-RedLeft(左转红灯)
    • trafficLight-Yellow(黄灯)
    • trafficLight-YellowLeft(左转黄灯)
    • truck(卡车)
  • 标签格式:VOC XML格式和YOLO TXT格式
  • 数据划分
    • 训练集:主要部分用于模型训练
    • 验证集:用于调整模型超参数和防止过拟合
    • 测试集:用于最终评估模型性能
数据集用途
  • 交通目标检测:可用于训练模型识别交通场景中的各类目标,提高检测精度。
  • 智能交通系统:帮助构建更加智能的交通管理系统,提高道路安全性和交通效率。
  • 自动驾驶:为自动驾驶汽车提供关键的感知能力,使其能够在复杂的环境中安全行驶。
  • 研究与开发:作为基准数据集,支持学术研究和技术开发,推动目标检测技术在交通领域的应用。
  • 教育与培训:作为教学资源,帮助学生和从业人员理解并掌握交通目标检测的相关技术和方法。
示例代码

以下是一个简单的Python脚本示例,用于加载数据集中的图像及其对应的标签,并绘制出标注的边界框:

1import os
2import cv2
3import numpy as np
4import matplotlib.pyplot as plt
5from xml.etree import ElementTree as ET
6
7# 数据集目录路径
8data_dir = 'path/to/YOLO_traffic_object_recognition_dataset'
9train_image_dir = os.path.join(data_dir, 'images/train')
10train_xml_label_dir = os.path.join(data_dir, 'labels/xml/train')
11train_txt_label_dir = os.path.join(data_dir, 'labels/txt/train')
12
13# 选取一张图像及其标签文件
14image_files = os.listdir(train_image_dir)
15image_file = image_files[0]  # 假设取第一张图
16image_path = os.path.join(train_image_dir, image_file)
17
18xml_label_file = os.path.splitext(image_file)[0] + '.xml'
19xml_label_path = os.path.join(train_xml_label_dir, xml_label_file)
20
21txt_label_file = os.path.splitext(image_file)[0] + '.txt'
22txt_label_path = os.path.join(train_txt_label_dir, txt_label_file)
23
24# 加载图像
25image = cv2.imread(image_path)
26
27# 从VOC XML文件加载标签
28def parse_xml(xml_file):
29    tree = ET.parse(xml_file)
30    root = tree.getroot()
31    objects = []
32    for obj in root.findall('object'):
33        name = obj.find('name').text
34        bbox = obj.find('bndbox')
35        xmin = int(bbox.find('xmin').text)
36        ymin = int(bbox.find('ymin').text)
37        xmax = int(bbox.find('xmax').text)
38        ymax = int(bbox.find('ymax').text)
39        objects.append((name, (xmin, ymin, xmax, ymax)))
40    return objects
41
42# 从YOLO TXT文件加载标签
43def parse_yolo(txt_file, width, height):
44    with open(txt_file, 'r') as f:
45        lines = f.readlines()
46    objects = []
47    for line in lines:
48        class_id, x_center, y_center, box_width, box_height = map(float, line.strip().split())
49        x_min = int((x_center - box_width / 2) * width)
50        y_min = int((y_center - box_height / 2) * height)
51        x_max = int((x_center + box_width / 2) * width)
52        y_max = int((y_center + box_height / 2) * height)
53        objects.append((int(class_id), (x_min, y_min, x_max, y_max)))
54    return objects
55
56# 解析VOC XML标签
57xml_objects = parse_xml(xml_label_path)
58
59# 解析YOLO TXT标签
60txt_objects = parse_yolo(txt_label_path, image.shape[1], image.shape[0])
61
62# 绘制图像和边界框
63plt.figure(figsize=(10, 10))
64plt.imshow(cv2.cvtColor(image, cv2.COLOR_BGR2RGB))
65plt.axis('off')
66
67colors = {0: 'red', 1: 'blue', 2: 'green', 3: 'yellow', 4: 'orange', 5: 'purple', 6: 'cyan', 7: 'magenta', 8: 'brown', 9: 'lime', 10: 'pink'}
68names = ['biker', 'car', 'pedestrian', 'trafficLight', 'trafficLight-Green', 'trafficLight-GreenLeft', 'trafficLight-Red', 'trafficLight-RedLeft', 'trafficLight-Yellow', 'trafficLight-YellowLeft', 'truck']
69
70for name, (xmin, ymin, xmax, ymax) in xml_objects:
71    plt.gca().add_patch(plt.Rectangle((xmin, ymin), xmax - xmin, ymax - ymin, edgecolor='black', facecolor='none'))
72    plt.text(xmin, ymin, name, color='black', fontsize=8)
73
74for class_id, (xmin, ymin, xmax, ymax) in txt_objects:
75    plt.gca().add_patch(plt.Rectangle((xmin, ymin), xmax - xmin, ymax - ymin, edgecolor=colors[class_id], facecolor='none'))
76    plt.text(xmin, ymin, names[class_id], color=colors[class_id], fontsize=8)
77
78plt.show()
数据集使用指南
  1. 数据准备:确认数据集路径是否正确,并且图像和标签文件均存在指定的目录下。
  2. 数据划分:数据集可以根据需要划分为训练集、验证集和测试集。通常建议至少保留一部分数据作为独立的测试集来评估模型的泛化能力。
  3. 配置文件:确保YOLOv5/v6/v7/v8等模型配置文件中的数据集路径和类别名称与数据集中的标签一致。
  4. 模型训练:使用YOLO框架或其他支持VOC格式的框架加载数据集,并开始训练模型。确保模型配置文件中数据集路径正确。
  5. 模型测试:使用已经训练好的模型进行测试,评估模型在测试集上的性能。
数据集结构示例
1├── YOLO_traffic_object_recognition_dataset
2│   ├── images
3│   │   ├── train
4│   │   │   ├── 00000.jpg
5│   │   │   ├── 00001.jpg
6│   │   │   └── ...
7│   │   ├── val
8│   │   │   ├── 00000.jpg
9│   │   │   ├── 00001.jpg
10│   │   │   └── ...
11│   │   └── test
12│   │       ├── 00000.jpg
13│   │       ├── 00001.jpg
14│   │       └── ...
15│   ├── labels
16│   │   ├── xml
17│   │   │   ├── train
18│   │   │   │   ├── 00000.xml
19│   │   │   │   ├── 00001.xml
20│   │   │   │   └── ...
21│   │   │   ├── val
22│   │   │   │   ├── 00000.xml
23│   │   │   │   ├── 00001.xml
24│   │   │   │   └── ...
25│   │   │   └── test
26│   │   │       ├── 00000.xml
27│   │   │       ├── 00001.xml
28│   │   │       └── ...
29│   │   ├── txt
30│   │   │   ├── train
31│   │   │   │   ├── 00000.txt
32│   │   │   │   ├── 00001.txt
33│   │   │   │   └── ...
34│   │   │   ├── val
35│   │   │   │   ├── 00000.txt
36│   │   │   │   ├── 00001.txt
37│   │   │   │   └── ...
38│   │   │   └── test
39│   │   │       ├── 00000.txt
40│   │   │       ├── 00001.txt
41│   │   │       └── ...
42│   └── data.yaml  # 包含类别定义和数据路径
UI界面

对于UI界面的设计,可以考虑以下几个功能模块:

  1. 数据加载:允许用户选择数据集的路径,并加载数据集。
  2. 数据浏览:展示图像及其标签信息,支持用户浏览和预览数据集中的图像。
  3. 模型训练:提供模型训练的配置选项,如选择模型架构、设置超参数等。
  4. 模型评估:提供模型评估的功能,包括绘制损失曲线、显示混淆矩阵等。
  5. 结果展示:展示模型预测的结果,并允许用户比较预测与真实标签之间的差异。
  6. 模型导出:允许用户导出训练好的模型,以便在其他环境中使用。
引用出处

为了确保正确引用该数据集,请查看原始数据集发布者的具体要求。如果该数据集来自某个特定的研究项目或竞赛,引用格式可能类似于以下示例:

1@misc{dataset_paper,
2  title={Title of the Data Set},
3  author={Author Names},
4  year={Publication Year},
5  publisher={Publishing Institution},
6  url={URL of the data set}
7}
总结

YOLO交通目标识别数据集为交通目标检测提供了专业的数据支持。通过高分辨率图像和详细的VOC XML及YOLO TXT格式标注信息,该数据集能够帮助训练和评估模型在识别交通场景中的各类目标方面的能力。无论是对于学术研究还是工业应用,该数据集都是一个极具价值的研究资源。

相关推荐
命里有定数1 天前
Ubuntu问题 - 显示ubuntu服务器上可用磁盘空间 一条命令df -h
服务器·ubuntu·数据集
数据猎手小k2 天前
PCBS:由麻省理工学院和Google联合创建,揭示1.2M短文本间的相似性的大规模图聚类数据集。
机器学习·支持向量机·数据集·聚类·机器学习数据集·ai大模型应用
数据猎手小k5 天前
DAHL:利用由跨越 29 个类别的 8,573 个问题组成的基准数据集,评估大型语言模型在生物医学领域长篇回答的事实准确性。
人工智能·深度学习·语言模型·数据集·机器学习数据集·ai大模型应用
此星光明9 天前
GEE 数据集——美国gNATSGO(网格化国家土壤调查地理数据库)完整覆盖了美国所有地区和岛屿领土的最佳可用土壤信息
javascript·数据库·数据集·美国·数据·gee·土壤
OpenBayes9 天前
OpenBayes 一周速览丨VASP 教程上线!HPC 助力材料计算;AllClear 公共云层去除数据集发布,含超 23k 个全球分布的兴趣区域
人工智能·深度学习·机器学习·自然语言处理·开源·数据集·大语言模型
数据猎手小k12 天前
CulturalBench :一个旨在评估大型语言模型在全球不同文化背景下知识掌握情况的基准测试数据集
数据集·机器学习数据集·ai大模型应用
此星光明13 天前
2016年7月29日至2017年2月21日NASA大气层层析(ATom)任务甲醛(HCHO)、羟基(OH)和OH生产率的剖面积分柱密度
数据集·甲醛·nasa·羟基·密度·剖面·hcho
数据猎手小k14 天前
GS-Blur数据集:首个基于3D场景合成的156,209对多样化真实感模糊图像数据集。
数据集·机器学习数据集·ai大模型应用
HyperAI超神经14 天前
贝式计算的 AI4S 观察:使用机器学习对世界进行感知与推演,最大魅力在于横向扩展的有效性
人工智能·深度学习·机器学习·数据集·ai4s·科研领域·工科
HyperAI超神经16 天前
突破1200°C高温性能极限!北京科技大学用机器学习合成24种耐火高熵合金,室温延展性极佳
人工智能·深度学习·机器学习·数据集·ai4s·材料学·合金