使用可识别的CNN进行茶花检测和拔出点识别

Pose estimation-guided CNN for tea bud detection and plucking point identification


研究背景与痛点

任务目标:为智能采茶机器人解决(茶芽检测+拔茶点识别)问题

核心挑战:

目标背景高度相似、目标形态不一、严重遮挡/密集分布

核心方法:是把"拔芽茶点定位"重新定义成了"假体贴算问题",并设计了两阶段的流水线任务

第一阶段:茶芽检测---基于DINO检测器,加入光谱注意力模块+多尺度特征融合(解决问题:增强模型对细微色彩、纹理对比度的敏感度,先把茶芽从复杂的背景里"揪出来")

第二阶段:拔芽点识别:带空间坐标编码的高分辨率网络--在茶芽被遮挡、簇聚的情况下,依然能精准定位到采摘点,解决遮挡和密集目标定位的难题

方法优势:

两阶段是耦合的:检测阶段的输出直接喂给识别阶段,能利用前一阶段的上下文信息,提升整体的鲁棒性

针对茶园场景做了定制优化:不是通用的目标检测模型的套用,而是专门解决了植物的"遮挡、相似、形态多变"三大痛点

借鉴人体姿态估计的思路,采用"先检测茶芽、再识别拔点"的两级流水线

1.第一阶段为第二阶段提供精准的的茶芽区域定位,提升模型的模块化程度与复杂场景的适应性,更适配真实茶园环境

2.优化DINO检测器,增强:

将频谱注意力模块和空间金字塔池化融入DINO的表征学习范式,在不增加计算成本/内存开销的前提下,提升茶芽检测的稳定性和抗干扰能力

3.高分辨率+瓶颈Transformer应对复杂场景,采用高分率的模块和瓶颈Transformer结构,让模型更好的地处理茶芽的复杂形态、相互遮挡问题


核心思想:从人类姿态估计(HPE)中找灵感

这篇论文的核心思路,是把茶芽检测+拔点识别任务,类比成多人人体姿态估计(HPE)问题:

每个茶芽就像一个人,而它的拔点就像人的"关键点"

借鉴HPE中(自上而下)的范式,设计了一个两阶段的流水线,解决茶园里茶芽密集、遮挡、形态多变的难题

为什么不是自下而上(HPE)方法:直接检测所有关键点,在分组,容易在茶芽密集、重叠时混淆关键点归属,姿态相似、关键点靠近时,容易出现分配错误

自上而下的HPE方法:先检测目标,再在目标框内估计关键点,能确保"一个茶芽对应一组拔点",对应不混乱,可以减少背景干扰

PENet两阶段工作流程图

相关推荐
CS创新实验室2 小时前
AI推理进化史:从GPT到推理模型,AI的“思考能力”如何突破?
人工智能·gpt
威迪斯特2 小时前
项目解决方案:食堂反浪费AI智能监督系统项目解决方案
人工智能·实时视频分析·算法分析·边缘分析·ai识别盒子·餐盘浪费检测·智能食堂
AI服务老曹2 小时前
深度解析:基于异构计算的 AI 视频管理平台架构实践
人工智能·架构·音视频
谷哥的小弟2 小时前
大模型核心基础知识(02)—大模型的主要特征与能力边界
人工智能·深度学习·机器学习·大模型·智能体
xiaotao1312 小时前
03-深度学习基础:LoRA与参数高效微调(PEFT)
人工智能·深度学习
Mr.敦的私房菜2 小时前
Spring AI 企业增强版(含安全版与合规版
人工智能·安全·spring
醉卧考场君莫笑2 小时前
NLP(命名实体识别NER)
人工智能·自然语言处理
Hello world.Joey2 小时前
YOLO和SiamFC的不同之处
人工智能·计算机视觉·目标跟踪