收藏 分享(赏)

基于YOLO v5m的红花花冠目标检测与空间定位方法.pdf

上传人:哎呦****中 文档编号:3079990 上传时间:2024-01-19 格式:PDF 页数:10 大小:6.39MB
下载 相关 举报
基于YOLO v5m的红花花冠目标检测与空间定位方法.pdf_第1页
第1页 / 共10页
基于YOLO v5m的红花花冠目标检测与空间定位方法.pdf_第2页
第2页 / 共10页
亲,该文档总共10页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

1、doi:10.6041/1000-1298.2023.07.0272023年7 月第54卷第7 期农报学业机械基于YOLOv5m的红花花冠目标检测与空间定位方法郭辉陈海洋高国民周伟武天伦邱兆鑫(新疆农业大学机电工程学院,乌鲁木齐8 30 0 52)摘要:针对红花采摘机器人田间作业时花冠检测及定位精度不高的问题,提出了一种基于深度学习的目标检测定位算法(Mobilesafflowerdetectionandpositionnetwork,M SD P-Ne t)。针对目标检测,本文提出了一种改进的YOLOv5m网络模型C-YOLOv5m,在YOLOv5m主干网络和颈部网络插入卷积块注意力模块,使

2、模型准确率、召回率、平均精度均值相较于改进前分别提高4.98、4.3、5.5个百分点。针对空间定位,本文提出了一种相机移动式空间定位方法,将双目相机安装在平移台上,使其能在水平方向上进行移动,从而使定位精度一直处于最佳范围,同时避免了因花冠被遮挡而造成的漏检。经田间试验验证,移动相机式定位成功率为93.7 9%,较固定相机式定位成功率提升9.32 个百分点,且在X、Y、Z方向上移动相机式定位方法的平均偏差小于3mm。将MSDP-Net算法与目前主流目标检测算法的性能进行对比,结果表明,MSDP-Net的综合检测性能均优于其他5种算法,其更适用于红花花冠的检测。将MSDP-Net算法和相机移动式

3、定位方法应用于自主研发的红花采摘机器人上进行采摘试验。室内试验结果表明,在50 0 次重复试验中,成功采摘451朵,漏采49朵,采摘成功率90.2 0%。田间试验结果表明,在选取垄长为15m范围内,盛花期红花花冠采摘成功率大于90%。关键词:红花采摘机器人;深度学习;目标检测;空间定位中图分类号:TP391.4;S2 4文献标识码:A文章编号:10 0 0-12 98(2 0 2 3)0 7-0 2 7 2-10OSID:Safflower Corolla Object Detection and Spatial PositioningMethods Based on YOLO v5mGUO

4、HuiCHEN HaiyangGAO GuominZHOU WeiWU TianlunQIU Zhaoxin(College of Mechanical and Electrical Engineering,Xinjiang Agricultural University,Urumqi 830052,China)Abstract:Aiming at the problem of low accuracy of corolla detection and position during field operationof safflower picking robots,a deep learn

5、ing-based object detection and position algorithm,mobilesafflower detection and position network,MSDP-Net,was proposed.For object detection,an improvedYOLO v5m model was proposed.By inserting the convolutional block attention module,the modelprecision,recall and mean average precision were improved

6、by 4.98,4.3 and 5.5 percentage points,respectively,compared with those before the improvement.For spatial position,a camera-moving spatialposition method was proposed,which kept the position accuracy in the best range and avoided the misseddetection caused by the obstructed corolla at the same time.

7、The experimental verification showed that thesuccess rate of mobile camera-based positioning was 93.79%,which was 9.32 percentage points higherthan that of fixed camera-based positioning,and the average deviation of mobile camera-based positioningmethod in X,Y and Z directions was less than 3 mm.The

8、 MSDP-Net algorithm had better performancecompared with five mainstream object detection algorithms and was more suitable for the detection ofsafflower corolla.The MSDP-Net algorithm and the camera mobile position method were applied to theself-developed safflower picking robot for picking experimen

9、ts.The indoor test results showed that among500 replicate tests,totally 451 were successfully picked and 49 were missed,with a picking success rateof 90.20%.The field test results showed that the success rate of safflower corolla picking was greaterthan 90%within the selected monopoly length of 15 m

10、.Key words:safflower picking robot;deep learning;object detection;spatial positioning收稿日期:2 0 2 3-0 3-30 修回日期:2 0 2 3-0 5-17基金项目:新疆维吾尔自治区自然科学基金项目(2 0 2 2 D01A177)作者简介:郭辉(197 9一),男,副教授,博士生导师,主要从事特色作物采收关键技术与装备研究,E-mail:g h 97 0 2 6 12 6.c o m273郭辉等:基于YOLOv5m的红花花冠目标检测与空间定位方法第7 期0引言红花是一种集药用、油料为一体的特种经济作物

11、,我国红花产地主要分布在新疆,占全国8 0%左右1-3。由于红花花球多批次开花,花冠高低不一,采用传统机械化采收比较困难4-5。人工采摘成本在红花产收成本中占比最大6-7 。而红花采摘机器人可有效解决上述问题。由于红花生长环境为非结构化环境8 ,且花冠小、姿态朝向各异,不易识别,因此红花花冠的目标检测与定位成为红花采摘机器人的关键技术。目前针对花朵的目标检测大多采用传统目标检测方法,即利用花朵的颜色以及形状信息,通过人为提取图像特征完成花朵图像的分割9-10 。崔明等1针对草莓花朵图像特点,采用改进K均值聚类方法完成图像的分割,并利用形态学处理和连通区域特征分析提取花朵区域目标,完成对草莓花朵

12、的识别。JASON等12 采用远近识别相结合的方法,使用相机对目标区域进行识别,根据花朵颜色特征利用分类器提取图像中可能存在花朵区域,再用迁移学习的方法判断在此区域中是否存在花朵目标。在近距离识别中使用RGB-D相机(深度相机)以及实时定位与地图构建技术(Simultaneous localizationandmapping,SLA M)对植株进行重构,再用分类算法对重构的植株图像中的花朵进行识别,总体准确率达到7 8.6%。近几年,随着深度学习技术的快速发展,基于深度学习的目标检测方法在花朵目标检测领域中的应用也十分广泛。WILLIAMS等13 采用深度学习方法,通过FasterR-CNN网

13、络算法对猕猴桃花朵数据集进行训练,模型平均精度为8 5.3%。DIAS等141 采用一种对杂乱和光照条件变化具有鲁棒性的花卉识别技术,对深度卷积神经网络进行调整,训练得到的模型准确率和召回率都高于90.0%。TIAN等15】采用多类别单次检测(Single shotmultiboxdetector,SSD)深度学习方法,利用牛津大学出版的花卉数据集VOC2007和VOC2012进行训练,前者平均准确率为8 3.6%,后者平均准确率为87.0%,并可以检测多个目标花卉。赵春江等16 1提出一种基于级联卷积神经网络的番茄花期识别检测方法,在玻璃温室环境下准确率为7 6.6 7%。熊俊涛等17 通过

14、深度语义分割算法对荔枝花识别与分割,平均检测精度为8 7%。针对红花检测,张天勇等18 通过对比花丝颜色特征,运用色差法分析。选用最大类间方差法提取花丝轮廓,并通过红花丝团簇状特征,提出改进的形态学处理方法。最后结合改进质心法和最大内切圆法,确定花丝二维中心点坐标。在盛花期检测准确度为93.3%,在败花期检测准确度为53.3%。综上所述,传统目标检测方法提取的花朵特征有限,识别精度较低,适用性较差,且传统目标检测方法缺乏学习能力,不能根据图像的变化进行自动调整。本文提出一种基于深度学习的移动式红花目标检测定位算法(Mobile safflower detection and position

15、network,MSDP-Net)。该算法主要由红花花冠目标检测算法以及红花花冠空间定位算法两部分组成,以期能够准确地检测出盛花期红花花冠,并输出其三维空间坐标。1红花花冠目标检测1.1数据收集2022年7 月在新疆维吾尔自治区昌吉回族自治州吉木萨尔县红旗农场采集红花图像共计32 0 0幅,并采用随机角度旋转、随机缩放、加人随机噪点等数据增强方法,将红花图像数据集扩展至6 40 0幅,并将其按照比例7:2:1随机划分为训练集、测试集和验证集,其中训练集448 0 幅、验证集12 8 0 幅、测试集6 40 幅。李彤彤6 将红花开花过程分为4个阶段,分别为花蕾期、初花期、盛花期和败花期,如图1所

16、示。盛花期为符合本机器人采摘条件和经济效益的最佳时期19-2 0 。在不错标、不重标、不漏标的原则下,使用MakeSense2工具对每幅图像的盛花期红花花冠进行标注,得到其对应的标签文件,从而完成数据集建立。花冠花球叶(a)花蕾期(b)初花期(c)盛花期(d)败花期图14种不同花期的红花花冠Fig.1Four different stages of safflower corolla1.2YOLOv5模型选择本文基于YOLOv5算法2 2-2 3】,提出一种改进的YOLOv5算法,用于红花花冠的目标检测。利用同一红花数据集对YOLOv5的6 种架构2 4 进行训练,得到YOLOv5-Lite、

17、YO LO v 5s、YO LO v 5n、YOLOv5m、YO LO v 51以及YOLOv5x6种模型,并采用准确率(Precision,P)、召回率(Recall,R)、平均精度均值(Mean average precision,mA P)、顿速率(Fr a me s p e r s e c o n d,FPS)和模型内存占用量(Modelsize,Ms)作为衡量模型性能的主要指标,模型各项指标对比结果如表1所示。274农2023年机报业学械表1楼模型性能指标对比Tab.1Comparison of model performance metrics平均精模型内准确召回顿速率/模型度均存

18、占用率/%率/%(fs1值/%量/MBYOLO v5-Lite80.3085.1086.611896.71YOLOv5s85.9187.1888.7216628.21YOLOv5n89.4088.3190.5915141.20YOLO v5m90.2389.8391.2312783.16YOLOv5192.0986.1293.51102122.37YOLOv5x94.8287.5094.0045203.21为了对以上6 种模型进行更准确的性能评估,首先对各模型的指标进行归一化处理,以消除不同度量之间的量纲差异。采用Min-Max归一化方法2 5,将每个指标映射到0 1之间。其次根据实际应用场景

19、以及研究目标为各项指标分配以下权重:Wprecio=0.2;WReall=0.3;Wmp=0.2;Wrps=0.2;WModlize=-0.1(负权重,较小的模型在实际应用中更具优势)。根据上述权重分配计算每个模型的加权得分,计算式为P-PR-R.Pm=0.2min+0.3min+P-PR-R.maxminmaxminmAP-mAP0.2min+mAPmax-mAPminFPS-FPS,Ms-Msminmin0.20.(1)FPS,-FPSMs.Ms一maxminmaxminYOLOv56种模型的综合加权得分结果如表2所示。表2 6 种模型的综合加权得分Tab.2Comprehensive w

20、eighted scores of six modelsYOLOYOLOYOLOYOLOYOLOYOLO模型v5-Litev5sv5nv5mv51v5x0.2000.4220.5620.6290.4250.453根据表2 可知,YOLOv5m的综合加权得分在6种模型中最高。因此YOLOv5m针对红花花冠的目标检测更具有优势1.3YOLOv5m模型优化为了进一步提升对红花花冠的检测精度,对YOLOv5m模型引人卷积块注意力模块(CBA M)2 6-2 。CBA M 模块可以自适应地对输人的特征图进行调整,从而提升网络的性能和泛化能力2 8 。CBAM模块由通道注意力模块(CAM)以及空间注意力模

21、块(SAM)两部分组成,其结构示意如图2 所示。通道注意力模块利用通道之间的关联性来提取图像的重要特征,从而更好地区分不同的目标。该通道注意力模块空间注意力模块CAMSAM输人特征改进特征特征图相乘图2CBAM模块结构示意图Fig.2CBAM structure模块先对卷积层的输出进行全局平均池化和全局最大池化,得到每个通道的全局特征图,然后将其输人到2 个全连接层中,分别学习每个通道的权重,最后将权重应用到每个通道的特征图上,从而得到加权后的特征图,如图3所示。全局最大池化向量输人特征通道注意力全局平均池化向量共享全连接层按元素相加SSigmoid运算图3通道注意力模块结构示意图Fig.3C

22、hannel attention module structure空间注意力模块利用空间之间的关联性来提取图像的重要特征。该模块的实现方式类似于通道注意力模块,但是在全连接层中需要学习每个空间位置的权重,最后将权重应用到每个空间位置的通道上,从而得到加权后的特征图,如图4所示。卷积输人特征最大池化,平均池化空间注意力Sigmoid运算图4空间注意力模块结构示意图Fig.4Spatial attention module structure将CBAM模块插人到主干网络的最后1个卷积层和颈部网络的第1个卷积层之间以及颈部网络的最后1个卷积层之后,分别用于增强特征图的表达能力以及增强输出特征图的判别

23、能力。改进后的C-YOLOv5m网络结构如图5所示2红花花冠空间定位2.1相机移动式空间定位方法采用双目视觉技术来对红花花冠进行空间定位,双目相机选用Stereolabs公司生产的ZED2双目相机2 9。将双目相机连接在由步进电机驱动的滚珠丝杆平移台上,使其能够在采摘机器人左右方向上移动,如图6 所示。红花花冠空间定位流程如图7 所示。系统上电后机器人移动到待作业区域,同时目标检测定位系统归零,进人待机状态。开始作业后275郭辉等:基于YOLOv5m的红花花冠目标检测与空间定位方法第7 期主干网络颈部网络输出层输入层Focu-(3.64.1.1)Concat(512)C3(512.256)3C

24、omv2d(256.nax(ne+5)1.1)ConvConvUpsample(256)(64.128.3.2)(256.256.3.2)ConvC3(128.128)3(512.256.1.1)Concat(512)Conv(128.256.3.2)C3(1024.512)3C3(512.512)3Conv2d(512.nax(nc+5)1,1)ConvC3(256.256)9Concat(1024)(512.512.3.2)ConvUpsample(256.512.3.2)(512)Concat(1024)ConvC3(512.512)9(768.512.1.1)C3(1024.768)3

25、Conv2d(768.nax(nc+5)1.1)ConvConvC3(1536.768)3(512.768.3.2)(768.768.3.2)C3(768.768)3Concat(1536)Concat(1536)ConvUpsample(768.1024.3.2)(768)C3(1536.1024)3SPP(1024)C3(1024,1024)3ConvCBAVCBAMConv2d(1024.nax(nc+5)1.1)(1024.768.1.1)图5C-YOLOv5m网络结构示意图Fig.5C-YOLOv5mnetwork architecture68图6目标检测定位系统位置结构示意图Fig

26、.6Safflower object detection and positioningsystem structural diagram1.ZED2双目相机2.左限位开关3.步进电机4.平移台5.滚珠丝杆6.右限位开关7.并联机械臂8.采摘头判断当前检测区域内是否有红花花冠,如没有,则平移台带动双目相机移动到下一块检测区域,并重新进行判断,双目相机移动示意如图8 所示如检测到红花花冠,则将红花花冠二维检测框中心点坐标(X,Y)输人到ZED2双目相机的深度感知StereoVision算法30 中,得到二维检测框中心点的深度Z。将红花花冠三维空间坐标(X,Y,Z)通过开始立系统上电机器人移动到目

27、标检测定位待作业区域系统归零目标检测定位系统进入待机状态当前区域内N步进电机转动,有红花花冠?相机向一侧移动Y通过C-YOLOv5m算法得到花冠二维检测框通过StereoVision算法得到花冠三维坐标将花冠三维坐标发送至机械臂分控制器中完成当前作业区域采摘工作机器人向前行进至下一个作业区域Y到达地头转向点?NN到达结束点?Y结束图7红花花冠空间定位流程图Fig.7Flowchart of safflower corolla position图像中心像素坐标,像素等效焦距,mm276农2023年机业报学械双目相机移动方向双目相机视场检测区域1检测区域2!检测区域3检测区域4机器人移动方向为垂直

28、页面向里图8 双目相机移动示意图Fig.8Schematic of binaural camera movementCAN总线发送至机器人采摘机械臂分控制器中,完成此检测区域的采摘工作。当完成所有4个检测区域采摘工作后,机器人向前行进至下一片作业区域,并判断是否到达垄行尽头的转向点,如到达转向点,则机器人转向后重新移动到待作业区域并重复以上步骤。如没有到达转向点,则判断机器人是否到达结束点,如没有到达结束点,则目标检测定位系统重新进人待机状态并重复以上步骤。如到达结束点,则结束红花花冠目标检测与定位并退出。2.2双目相机内参标定通过标定双目相机内参来得到图像像素坐标系到相机坐标系的转换关系。采

29、用张正友标定法31标定双目相机内参,标定结果如表3所示。表3ZED2双目相机内参Tab.3Intrinsic parameters of ZED2 stereo camera左目右目554.050575.77554.050575.77内参0554.05359.470554.05359.48矩阵001001kt=-0.049 6k=-0.053 9k2=0.022 6k2=0.032 8畸变P1=-0.000 0Pi=-0.000 0系数P2=-0.001 3P2=0.001 3k3=-0.010 3k3=-0.010 3图像像素坐标系到相机坐标系的转换关系为uuoXZ=0Y(2)L1JLO01

30、儿ZJ式中像素坐标系下坐标,像素(X,Y,Z)-相机坐标系下坐标,mm为了使得到的图像坐标更为准确,需要消除由于透镜成像和安装误差产生的畸变,即X。=X(1+k,r +k,r*+k,r)+2 p,XY+P2(r?+2 X)(3)其中式中Y,=Y(1+k,r+k,r*+kgr)+2p,XY+P2(r?+2Y)(4)?=X2+Y2式中(X,Y)一一校正前坐标,mm(X。,Y。)校正后坐标,mmki、k 2、h s 径向畸变系数P1P2切向畸变系数2.3双目相机外参标定在实际双目相机使用过程中,除了标定双目相机的内参外,还需要标定双目相机的外参来获取相机坐标系到机械臂坐标系的转换关系。双目相机坐标系

31、定义其坐标原点位于左目相机光心0。处,Z轴指向相机正前方,X轴与基线平行指向右侧镜头,左手大拇指指向Z轴,X轴沿四指方向旋转90 为Y轴正方向。机械臂坐标系定义其坐标原点位于机械臂静平台中心点O,处,Z轴垂直地面指向正下方,Y轴平行于地面指向机器人前进方向,X轴平行于地面指向机器人的右侧,如图9所示。w(8Y图9相机坐标系和机械臂坐标系示意图Fig.9Illustration of camera coordinate systemand robotic arm coordinate system相机坐标系到机械臂坐标系绕X、Y、Z轴旋转的角度、Q、用1个33的旋转矩阵R来表示。相机坐标系原点到

32、机械臂坐标系原点沿X、Y、Z轴平移的距离x、z 用一个31的平移向量T来表示,相机坐标系到机械臂坐标系转换的数学模型为X.1X.Y,=RY+T(5)Lz.J式中(X,Y,Z,)机械臂坐标系坐标,mm(X,Y,Z.)相机坐标系坐标,mm将相关参数代人式(5),可得X.cos-sinoX.1-11Y=010Y。+90(6)singcOsOZ.0式中相机坐标系绕Y.轴旋转角,取18 0 277郭辉等:基于YOLOv5m的红花花冠目标检测与空间定位方法第7 期t-相机坐标系原点0.沿X。轴的平移向量偏差2.4相机移动式空间定位坐标转换针对在目标检测过程中的遮挡问题,将双目相机安装在平移台上,以最大程度

33、消除在目标检测中机器零部件对花冠的遮挡、红花植株对花冠的遮挡以及花冠与花冠之间的遮挡,如图10 所示。(a)机器遮挡(b)植株遮挡()花冠遮挡图10目标检测过程中的遮挡Fig.10Target occlusion illustration读取步进电机控制器在运行过程中的脉冲数来计算出相机的移动距离,完成在移动定位时的坐标转换。本文带动滚珠丝杆的步进电机的控制器选用ArduinoUNo32单片机;步进电机为57 系两相步进电机,步距角为1.8;步进电机驱动器为普菲德TB6600(默认细分1);滚珠丝杆导程Ph为4mm,总长为10 7 0 mm,左限位开关到右限位开关的距离为1000mm,相机移动

34、距离计算式为N1=P(7)200式中l一一相机的移动距离,mmN脉冲数,个ltl=500-l,通过替换式(6)中的ltl,可得X,coso0-singX.500-NC50Y,=010Y。+90Z,L sing0cose JLZ.J0(8)整合红花花冠目标检测算法和红花花冠空间定位算法,得到MSDP-Net算法。该算法能够从复杂背景中检测出红花花冠并获取其二维检测框,并对检测出的红花花冠进行空间定位,经坐标转换后输出红花花冠的三维空间坐标。MSDP-Net算法原理如图11所示3试验与结果分析将MSDP-Net算法和相机移动式定位方法应用于自主研发的红花采摘机器人控制系统中,完成对红花花冠的目标检

35、测和空间定位,控制机械臂依据定位信息完成采摘作业。3.1试验设置模型训练的硬件环境采用的CPU为13thGen图像输人获取红花花冠二维检测框目标检测C-YOLOv5m检测框中心点算法坐标输出机械臂坐标系下的坐标红花花冠红花花冠三维空间坐标转换空间定位算法获取红花花冠三维空间坐标图11MSDP-Net算法原理图Fig.11Principleof MSDP-NetalgorithmIntel(R)Core(TM)i9-13900KF3.00GHz,GPU为NVIDIA GeForce RTX 409024 GB,内存为KingstonDDR55600MHz(16 CB4),操作系统为Windows

36、11,网络训练框架选用Pytorch,并配有并行计算平台CUDA11.1以及CUDA深度神经网络加速库cuDNNv8.0.5。训练轮数为30 0,批次大小为16,图像尺寸为6 40 像素48 0 像素进行训练。试验于2 0 2 2 年7 月3一10 日在新疆维吾尔自治区昌吉回族自治州吉木萨尔县红旗农场二分场红花种植基地(44.2 9413N,8 9.0 112 0 E)进行试验,试验地垄宽1m,垄距0.5m,红花植株高度分布在350750mm之间。3.2目标检测性能试验采用准确率、召回率、平均精度均值、每秒传输数和模型内存占用量作为衡量目标检测模型性能的指标。在相同条件下,分别对优化前和优化后

37、的YOLOv5m模型性能进行了试验,用两种模型对红花花冠图像验证集进行检测。检测效果如图12 所示,图中检测框上方的saf表示类别名称,名称后方的数字表示该类别的置信度。试验结果如表4所示。Afo.91(a)优化前(b)优化后图12优化前后检测效果对比Fig.12Comparison of detection results beforeand after optimization根据表4可知,优化后的YOLOv5m模型准确率、召回率以及平均精度均值都有不同程度的提升,准确率从90.2 2%增加至95.2 0%,提高4.98 个百分点,召回率从8 9.8 1%增加至94.11%,提高4.3个百

38、分点,平均精度均值从91.2 3%增加至96.73%,提高5.5个百分点,每秒传输顿数没有变化,模型内存占用量有小幅度增加。总体来说,YOLOv5m网络引人CBAM模块有效地提高了模型农2782023年机报业学械表4优化前后模型各项指标Tab.4Various indicators of model before and afteroptimization平均精模型内存准确召回顿速率/模型度均占用量/率/%率/%(fs-1)值/%MBYOLOv5m90.2289.8191.2312783.16C-YOLOv5m95.2094.1196.7312783.72性能,增加了目标检测算法鲁棒性。3.3

39、经典目标检测算法性能对比为突出MSDP-Net算法的优越性,在相同条件下对Faster R-CNN、YO LO v 3、YO LO v 4、YO LO v 6和YOLOv75种经典目标检测算法的性能进行测试,并与MSDPNe t 算法进行对比,结果如表5所示。表5经典目标检测算法性能对比Tab.5Performance comparison of classic objectdetectionalgorithms平均精模型内存准确率/召回顿速率/算法度均占用量/%率/%(fs值/%MBFaster R-CNN82.6078.8181.232192.16YOLOv389.2286.4989.10

40、57102.31YOLOv489.6783.2189.555395.67YOLOv691.3190.3691.106987.79YOLOv791.7790.6592.338891.10MSDP-Net95.2094.1196.7312783.72根据表5可知,相较于其他5种经典目标检测算法,本文提出的MSDP-Net算法检测准确率高、检测速度快、占用内存小,表现出优异的检测性能,满足采摘机器人要求。3.4空间定位性能试验为验证红花花冠空间定位的性能,随机选取1垄红花,在垄长3m范围内共计16 1朵盛花期红花花冠。分别采用固定相机式和移动相机式定位方法对区域内16 1朵花冠进行空间定位。采用5线

41、激光水平仪和瑞士DimetixAG公司生产的DAN-10-150型激光测距仪(精度0.5mm),测量出每朵花冠的真实坐标,将空间定位算法得到的输出坐标与真实坐标进行对比,输出坐标与真实坐标在X、Y、Z任意一个方向上的偏差大于5mm就认为该朵花冠定位失败。试验结果如表6 所示,2 种定位方法分别在X、Y、Z轴方向上的偏差分布示意如图13所示。表6空间定位试验结果Tab.6Position experiment results花冠定位定位定位定位方法总数/朵成功数/朵失败数/朵成功率/%固定相机1611362584.47移动相机1611511093.79根据图13可以看出,满足机器人采摘条件的最大

42、偏差为5mm,输出坐标在X、Y、Z任意1个方向上的偏差大于5mm都会导致机器人采摘失败。由101010固定相机式定位方法固定相机式定位方法固定相机式定位方法移动相机式定位方法移动相机式定位方法移动相机式定位方法888满足机器人采摘条件满足机器人采摘条件一满足机器人采摘条件最大偏差最大偏差最大偏差66644422200-400-2000200400-400-2000200400300360420480540600660720780X/mmY/mmZ/mm图132 种定位方法分别在X、Y、Z轴方向上的偏差分布示意Fig.13Distribution of deviations in X,Y and

43、 Z directions for two different position methods于相机透镜成像的影响,固定相机式定位方法只在画面中心区域有较高的精度,越靠近画面边缘精度越低,输出坐标与真实坐标之间的偏差也就越大。而移动相机式定位方法很好地克服了这一不足,其在画面任意位置都能保持最佳精度,且在X、Y、Z轴方向上的输出坐标与真实坐标之间的平均偏差小于3mm,满足采摘机器人的精度要求。3.5采摘试验将提出的MSDP-Net算法以及移动式检测定位方法应用于自主研发的红花采摘机器人上,在实验室环境下对盆栽红花进行采摘试验,实验室作业场景如图14所示,试验结果如表7 所示根据表7 可以得出

44、,在50 0 次采摘试验中,成功采摘红花花冠451朵,漏采49朵,采摘成功率90.20%。为测试实际环境下机器人的采摘性能,在红花种植区域中随机选取一垄红花,在垄长15m范围内进行采摘试验,田间采摘试验结果表明,盛花279郭辉等:基于YOLOv5m的红花花冠目标检测与空间定位方法第7 期期红花花冠采摘成功率大于90%,田间作业场景如图15所示图14实验室作业场景Fig.14Laboratoryworkscene表7采摘试验结果Tab.7Harvesting experiment results采摘成功漏采摘误采摘采摘成功参数试验次数数/朵数/朵数/朵率/%数值50045149090.20图15

45、田间作业场景Fig.15Fieldworkscene4结论(1)针对红花花冠目标检测,提出了一种改进的YOLOv5m模型C-YOLOv5m,对YOLOv5m模型引人卷积块注意力模块CBAM,使得模型的准确率、召回率以及平均精度均值分别提高4.98、4.3、5.5个百分点,减少了红花花冠漏检、误检等情况。(2)针对红花花冠的空间定位,提出了一种移动相机式定位方法,并通过和固定相机式进行对比来验证其有效性。试验结果表明,固定相机式定位成功率为8 4.47%,移动相机式定位成功率为93.79%,且移动相机式定位方法在X、Y、Z方向上的平均偏差小于3mm,满足采摘机器人的精度要求。(3)将MSDP-N

46、et算法与目前主流目标检测算法进行对比。结果表明,本文提出的MSDP-Net算法的综合性能均优于其他5种目标检测算法,在红花花冠检测方面更具优势(4)将MSDP-Net算法和相机移动式定位方法应用于自主研发的红花采摘机器人,进行红花采摘试验。实验室试验结果表明,在50 0 次重复试验中,成功采摘451朵,漏采49朵,采摘成功率90.2 0%。田间试验结果表明,在实际作业场景中,盛花期红花花冠采摘成功率大于90%,验证了MSDP-Net算法以及相机移动式定位方法的有效性。参考文献1周远航,郭建富,马小龙,等.新疆红花生产现状及发展对策研究J.安徽农业科学,2 0 2 1,49(19):199-2

47、 0 1,2 17.ZHOU Yuanhang,GUO Jianfu,MA Xiaolong,et al.Research on current situation and development countermeasures of Xinjiangsafflower productionJ.Journal of Anhui Agricultural Sciences,2021,49(19):199-201,217.(in Chinese)2张振国,邢振宇,杨双平,等.圆弧渐进式红花丝采收装置设计与试验J.农业工程学报,2 0 2 2,38(17):10-2 1.ZHANG Zhenguo,

48、XING Zhenyu,YANG Shuangping,et al.Design and experiments of the circular arc progressive type harvesterfor the safflower filamentsJJ.Transactions of the CSAE,2022,38(17):10-21.(in Chinese)3张振国,赵敏义,邢振宇,等.红花采收机双动对切式末端执行器设计与试验J.农业机械学报,2 0 2 2,53(12):16 0-17 0.ZHANG Zhenguo,ZHAO Minyi,XING Zhenyu,et al.

49、Design and test of double-acting opposite direction cutting end effector forsafflower harvesterJJ.Transactions of the Chinese Society for Agricultural Machinery,2022,53(12):160-170.(in Chinese)4董芙楠.基于机器视觉技术的红花识别与定位方法研究D.乌鲁木齐:新疆农业大学,2 0 2 2.DONG Funan.Research on safflower recognition and localizatio

50、n method based on machine vision technology D.Urumqi:Xinjiang Agricultural University,2022.(in Chinese)5ZHANG Z G,GUO J X,YANG S P,et al.Feasibility of high-precision numerical simulation technology for improving theharvesting mechanization level of safflower filaments:a reviewJ.International Agricu

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 专业资料 > 其它

copyright@ 2008-2023 wnwk.com网站版权所有

经营许可证编号:浙ICP备2024059924号-2