使用可识别的CNN进行茶花检测和拔出点识别

Pose estimation-guided CNN for tea bud detection and plucking point identification


研究背景与痛点

任务目标:为智能采茶机器人解决(茶芽检测+拔茶点识别)问题

核心挑战:

目标背景高度相似、目标形态不一、严重遮挡/密集分布

核心方法:是把"拔芽茶点定位"重新定义成了"假体贴算问题",并设计了两阶段的流水线任务

第一阶段:茶芽检测---基于DINO检测器,加入光谱注意力模块+多尺度特征融合(解决问题:增强模型对细微色彩、纹理对比度的敏感度,先把茶芽从复杂的背景里"揪出来")

第二阶段:拔芽点识别:带空间坐标编码的高分辨率网络--在茶芽被遮挡、簇聚的情况下,依然能精准定位到采摘点,解决遮挡和密集目标定位的难题

方法优势:

两阶段是耦合的:检测阶段的输出直接喂给识别阶段,能利用前一阶段的上下文信息,提升整体的鲁棒性

针对茶园场景做了定制优化:不是通用的目标检测模型的套用,而是专门解决了植物的"遮挡、相似、形态多变"三大痛点

借鉴人体姿态估计的思路,采用"先检测茶芽、再识别拔点"的两级流水线

1.第一阶段为第二阶段提供精准的的茶芽区域定位,提升模型的模块化程度与复杂场景的适应性,更适配真实茶园环境

2.优化DINO检测器,增强:

将频谱注意力模块和空间金字塔池化融入DINO的表征学习范式,在不增加计算成本/内存开销的前提下,提升茶芽检测的稳定性和抗干扰能力

3.高分辨率+瓶颈Transformer应对复杂场景,采用高分率的模块和瓶颈Transformer结构,让模型更好的地处理茶芽的复杂形态、相互遮挡问题


核心思想:从人类姿态估计(HPE)中找灵感

这篇论文的核心思路,是把茶芽检测+拔点识别任务,类比成多人人体姿态估计(HPE)问题:

每个茶芽就像一个人,而它的拔点就像人的"关键点"

借鉴HPE中(自上而下)的范式,设计了一个两阶段的流水线,解决茶园里茶芽密集、遮挡、形态多变的难题

为什么不是自下而上(HPE)方法:直接检测所有关键点,在分组,容易在茶芽密集、重叠时混淆关键点归属,姿态相似、关键点靠近时,容易出现分配错误

自上而下的HPE方法:先检测目标,再在目标框内估计关键点,能确保"一个茶芽对应一组拔点",对应不混乱,可以减少背景干扰

PENet两阶段工作流程图

相关推荐
石榴树下的七彩鱼5 小时前
AI抠图效果实测:基于Python的3种背景移除模型对比
开发语言·人工智能·python·ai抠图·石榴智能·背景移除·rmbg
中杯可乐多加冰5 小时前
Graphiti:让AI拥有“记忆“这件事,终于有人做对了
人工智能
碳基硅坊5 小时前
LoRA微调Qwen3-VL-8B-Instruct做产品质量检查
人工智能·qwen3-vl-8b
shchojj6 小时前
Generative AI applications -- Writing
人工智能
AirDroid_cn6 小时前
macOS Sequoia 通知摘要:如何启用AI生成的通知摘要,并排除特定应用?
人工智能·macos
霍夫曼vx_helloworld73526 小时前
经典图像检测技术概述
图像处理·人工智能·计算机视觉
AI人工智能+6 小时前
营业执照识别技术通过计算机视觉与人工智能技术,实现企业证照信息的自动化采集
人工智能·深度学习·ocr·营业执照识别
目黑live +wacyltd6 小时前
算法备案的实操指南(含截图示例)
人工智能·算法·llm·大模型备案·算法备案
guslegend6 小时前
第2节:工程初始化
人工智能·大模型
wuyoula6 小时前
如何在捷云鲸论坛高效获取高质量技术解答?
服务器·c++·人工智能·tcp/ip·源码