交通目标识别数据集YOLO 模型 ui界面✓图片数量15000,xml和txt标签都有 11类 交通道路车辆行人红黄绿数据集 红绿灯数据集 交通信号数据集

YOLO交通目标识别 数据集 模型 ui界面

✓图片数量15000,xml和txt标签都有;

✓class:biker,car,pedestrian,trafficLight,trafficLight-Green,trafficLight-GreenLeft, trafficLight-Red,trafficLight-RedLeft,trafficLight-Yellow,trafficLight-YellowLeft,truck

用于yolo,Python,目标检测,机器学习,人工智能,深度学习,交通识别,车辆识别,交通灯检测,货车识别,行人识别,Udacity数据集

有训练好的模型

2

YOLO交通目标识别数据集 (YOLO Traffic Object Detection Dataset)

描述: 本数据集旨在支持对交通场景中的多种目标进行自动检测,特别适用于智能交通系统、自动驾驶、城市监控等领域。通过使用该数据集训练的模型可以帮助及时发现并分类交通场景中的各种目标,提高交通安全性和效率。

类别:

  • biker (骑车人)
  • car (汽车)
  • pedestrian (行人)
  • trafficLight (交通灯)
  • trafficLight-Green (绿灯)
  • trafficLight-GreenLeft (左转绿灯)
  • trafficLight-Red (红灯)
  • trafficLight-RedLeft (左转红灯)
  • trafficLight-Yellow (黄灯)
  • trafficLight-YellowLeft (左转黄灯)
  • truck (货车)

数据量:

  • 总图片数: 15,000张
  • 标注格式: XML 和 YOLO 格式

文件格式:

  • 图像采用常见的JPEG或PNG格式。
  • 标注文件有两种格式:
    • VOC格式 (XML) : 保存在annotations文件夹中,每个图像对应一个XML文件。
    • YOLO格式 (TXT) : 保存在labels文件夹中,每个图像对应一个文本文件,其中包含边界框坐标及类别标签。例如,对于car类别的标注,文本文件中的每一行将按照以下格式表示:<class_id> <x_center> <y_center> <width> <height>,其中<class_id>为0到10(代表不同的交通目标类别),其余参数均为归一化后的浮点数值。

数据集结构

确保您的数据集目录结构如下所示(这只是一个示例结构,您可以根据实际情况调整):

traffic_object_detection_dataset/
├── images/
│   ├── train/
│   │   ├── img1.jpg
│   │   ├── img2.jpg
│   │   └── ...
│   ├── val/
│   │   ├── img12001.jpg
│   │   ├── img12002.jpg
│   │   └── ...
├── labels/
│   ├── train/
│   │   ├── img1.txt
│   │   ├── img2.txt
│   │   └── ...
│   ├── val/
│   │   ├── img12001.txt
│   │   ├── img12002.txt
│   │   └── ...
├── annotations/
│   ├── train/
│   │   ├── img1.xml
│   │   ├── img2.xml
│   │   └── ...
│   ├── val/
│   │   ├── img12001.xml
│   │   ├── img12002.xml
│   │   └── ...
└── data.yaml

data.yaml 配置文件

创建一个名为 data.yaml 的配置文件,内容如下:

train: ./traffic_object_detection_dataset/images/train
val: ./traffic_object_detection_dataset/images/val

nc: 11  # 类别数量
names: ['biker', 'car', 'pedestrian', 'trafficLight', 'trafficLight-Green', 'trafficLight-GreenLeft', 'trafficLight-Red', 'trafficLight-RedLeft', 'trafficLight-Yellow', 'trafficLight-YellowLeft', 'truck']  # 类别名称

使用方法

1. 准备环境

确保安装了必要的Python库,如ultralytics(用于YOLOv8)和其他相关依赖:

pip install ultralytics
2. 修改配置文件

根据实际路径修改 data.yaml 文件中的路径。

3. 训练脚本

以下是一个使用YOLOv8进行训练的Python脚本示例:

from ultralytics import YOLO
import torch

# 设置设备
device = 'cuda' if torch.cuda.is_available() else 'cpu'

# 加载预训练模型或从头开始训练
model = YOLO('yolov8n.pt')  # 使用预训练的YOLOv8n模型
# model = YOLO()  # 从头开始训练

# 开始训练
results = model.train(
    data='path/to/data.yaml',  # 指定数据集配置文件路径
    epochs=100,  # 训练轮次
    batch=16,  # 批处理大小
    imgsz=640,  # 输入图像尺寸
    workers=8,  # 数据加载线程数
    device=device,  # 使用GPU设备编号,默认为0
    project='traffic_object_detection',  # 保存结果的项目名称
    name='exp',  # 实验名称
    exist_ok=True  # 如果存在相同实验名,覆盖旧的结果
)

# 可视化训练结果
results.plot()

# 保存模型
model.save('traffic_object_detection_model.pt')

训练结果

模型: YOLOv8

性能指标:

  • 准确率 (Accuracy): [根据实际结果填写]
  • 精确度 (Precision): [根据实际结果填写]
  • 召回率 (Recall): [根据实际结果填写]
  • F1分数 (F1 Score): [根据实际结果填写]
  • 平均精度均值 (mAP@0.5:0.95): [根据实际结果填写]

模型文件:

  • 提供了YOLOv8的预训练模型文件,可以直接用于推理或进一步微调。

总结

这个交通目标识别数据集提供了15,000张高质量的真实场景图片,并且已经使用XML和YOLO两种格式进行了标注。数据集涵盖了多种交通目标类别,包括骑车人、汽车、行人、交通灯等常见目标。通过使用YOLOv8框架,可以有效地识别和分类这些交通目标。提供的预训练模型可以在实际应用中提供可靠的检测结果。

特点

  1. 多样性:

    • 包含多种不同类型的交通目标,覆盖了常见的交通场景。
    • 图像采集自真实场景,具有较高的多样性和实用性。
  2. 标注质量:

    • 图像采用高质量的标注,包括边界框和类别标签。
    • 提供XML和YOLO两种格式的标注文件,方便在不同的深度学习框架中使用。
  3. 规模适中:

    • 15,000张图像的数据集规模适中,既足够训练模型,又不会导致过长的训练时间。
  4. 可扩展性:

    • 数据集可以进行扩充,以增加更多图像数据,提高模型的泛化能力。

上位机软件界面 (UI)

基于该数据集训练的模型,可以开发一个上位机软件来进行实时的交通目标检测。上位机软件通常包括以下几个主要功能模块:

  1. 图像采集:

    • 从摄像头或其他图像源获取实时图像数据。
  2. 图像预处理:

    • 对图像进行预处理,如灰度转换、噪声去除、对比度增强等。
  3. 目标检测:

    • 使用训练好的YOLOv8模型对图像进行推理,检测并分类交通目标。
  4. 结果显示:

    • 在界面上显示检测结果,包括目标的位置、类型和置信度等信息。
    • 可以使用图形用户界面库(如Tkinter、PyQt、Kivy等)来实现。
  5. 日志记录:

    • 记录检测结果,生成报告,便于后续分析和存档。
  6. 用户界面:

    • 提供友好的用户界面,方便操作和监控。

示例UI界面设计

以下是一个简单的Tkinter GUI示例,展示如何构建一个基本的上位机软件界面:

import tkinter as tk
from tkinter import filedialog
from PIL import Image, ImageTk
import cv2
import torch
from ultralytics import YOLO

# 加载预训练模型
model = YOLO('traffic_object_detection_model.pt')

def load_image():
    global image_path
    image_path = filedialog.askopenfilename()
    if image_path:
        image = Image.open(image_path)
        image = image.resize((640, 480))
        photo = ImageTk.PhotoImage(image)
        image_label.config(image=photo)
        image_label.image = photo

def detect_objects():
    if image_path:
        # 读取图像
        image = cv2.imread(image_path)
        results = model(image)

        # 绘制检测结果
        for result in results:
            boxes = result.boxes
            for box in boxes:
                x1, y1, x2, y2 = map(int, box.xyxy[0])
                label = model.names[int(box.cls)]
                confidence = float(box.conf)
                color = (0, 255, 0)  # 绿色
                cv2.rectangle(image, (x1, y1), (x2, y2), color, 2)
                cv2.putText(image, f'{label} {confidence:.2f}', (x1, y1 - 10), cv2.FONT_HERSHEY_SIMPLEX, 0.5, color, 2)

        # 显示检测结果
        image = cv2.cvtColor(image, cv2.COLOR_BGR2RGB)
        image = Image.fromarray(image)
        image = image.resize((640, 480))
        photo = ImageTk.PhotoImage(image)
        image_label.config(image=photo)
        image_label.image = photo

# 创建主窗口
root = tk.Tk()
root.title("Traffic Object Detection")

# 图像显示区域
image_label = tk.Label(root)
image_label.pack(pady=20)

# 按钮
load_button = tk.Button(root, text="Load Image", command=load_image)
load_button.pack(side=tk.LEFT, padx=10)

detect_button = tk.Button(root, text="Detect Objects", command=detect_objects)
detect_button.pack(side=tk.RIGHT, padx=10)

# 运行主循环
root.mainloop()

这个示例展示了如何使用Tkinter构建一个简单的GUI,允许用户加载图像并进行目标检测。您可以根据需要进一步扩展和完善这个界面,添加更多的功能和优化用户体验。