基于YOLO v2的辣椒叶部蚜虫图像识别

2023-12-01 02:19邹玮岳延滨冯恩英彭顺正张爱民肖玖军
关键词:蚜虫辣椒准确率

邹玮,岳延滨*,冯恩英,彭顺正,张爱民,肖玖军

基于YOLO v2的辣椒叶部蚜虫图像识别

邹玮1,岳延滨1*,冯恩英1,彭顺正1,张爱民2,肖玖军3

1. 贵州省农业科技信息研究所, 贵州 贵阳 550006 2. 贵州省辣椒研究所, 贵州 贵阳 550006 3 贵州省山地资源研究所, 贵阳 550006

针对传统辣椒蚜虫识别精度不高、研究较少等问题,本研究一种基于YOLO v2的辣椒蚜虫图像识别方法,准确定位蚜虫位置,识别两种不同类型蚜虫,并探究不同网络深度对模型性能的影响。首先YOLO v2目标检测网络与Resnet50网络六种不同深度卷积结构相融合,构建辣椒蚜虫识别模型,然后利用预测框生成算法设置候选框参数,对六种模型进行训练,根据训练结果设计辣椒蚜虫识别系统。在验证集上进行对比试验,结果表明Resnet-22模型对辣椒叶部蚜虫识别精度最高,平均识别准确率为96.49%,其中黄色蚜虫识别准确率为98.70%,绿色蚜虫识别准确率为94.27%,识别时间为0.129 s。Resnet-22模型具有较强的鲁棒性,为实现田间复杂背景下辣椒蚜虫识别奠定基础。

辣椒; 蚜虫; 图像识别

目前我国辣椒常年种植面积约为214.4多万hm2,是我国种植面积最大的蔬菜作物之一,栽培面积和总产量居世界首位[1]。由于受天气、土壤和防治技术等因素的影响,蚜虫危害日益加重,严重降低了辣椒品质和产量。蚜虫多以成虫、若虫群集于辣椒叶背和嫩尖上刺吸汁液,主要危害表现为:嫩叶卷曲皱缩、成龄叶上产生褪绿斑点,叶片发黄,老化,植株矮小、生长缓慢,严重的甚至萎蔫枯死,此外,蚜虫还是造成病毒病传播的主要媒介,其吸食汁液后排泄的蜜露会诱发煤污病[2]。一般辣椒受害减产可高达20%~30%,因此,对蚜虫进行早期识别和防控是保证辣椒高产、优质的重要措施之一。

传统的作物病虫害识别方法仍停留在人工调查和田间取样上,该过程耗时、费力,而且存在代表性差、主观性强和时效性差等弊端,从而影响作物病虫害及时防治。随着计算机技术的不断发展,利用图像处理技术对病虫害进行识别,已成为农作物病虫害监测的重要研究方向[3]。传统识别方法是基于颜色、纹理和形状特征对图片信息进行提取分析,由于受作物种类、病虫害类型、光照环境等因素的影响,病虫害特征提取较为困难[4]。在作物病虫害分类识别的研究中主要包括支持向量机(SVM)、-Means聚类算法[5]、贝叶斯分类器以及人工神经网络(ANN)等几种比较典型的传统机器学习算法。如彭勤等[6]基于支持向量机SVM提取豆类病害特征并对豆类作物斑病进行分类识别,模型准确率为93.27%。杨昕薇等[7]用逐步判别分析法对水稻常见的3种病害特征进行分析,发现识别准确率与病斑的饱和度纹理相关性较大,与颜色相关性较小,在剔除相关性较小的特征后利用贝叶斯分类器进行分类识别,平均准确率达97.5%。房俊龙等[8]通过提取图像中番茄果径和圆度特征并结合人工神经网络可以准确地判断番茄生理病害果。

基于深度学习的卷积神经网络( Deep convolutional neural network,DCNN)能够不依赖特定特征,在目标检测领域得到了广泛应用。目前目标检测方法主要分为两类:一是基于区域生成的检测方法,先由算法生成一系列样本候选框,再对候选框中的目标进行分类,R-CNN[9]、Fast R-CNN[10]网络均属于这类算法,宋中山等[11]提出一种基于二值化的Faster R-CNN区域检测模型对自然环境下柑橘叶片病害进行检测,平均准确率为87.5%。这类方法检测精度高、漏检率也较低,但运行时间长,难以满足现实场景需求。二是基于回归的方法,该方法通过一系列卷积操作提取特征,最后进行分类和边框回归,实现了输入原始图像到直接输出目标位置和类别的优化[12]。典型算法有SSD[13]和YOLO[14-16]系列网络,这类方法运行速度快,而且实时检测精度也能达到第一类方法的水平[17]。

以上基于传统机器视觉和基于深度学习的目标检测算法模型,相对于传统的作物病虫害识别方法来说检测时间和识别精度均取得了较好的效果,但是,基于回归的目标检测算法在辣椒虫害识别方面的研究还较少。因此,本研究以离体辣椒叶片上的蚜虫为研究对象,提出一种基于YOLO v2目标检测网络的辣椒蚜虫识别算法,以期为实现田间辣椒蚜虫精细化、智能化管理奠定基础。

1 材料与方法

1.1 试验环境

本研究中模型训练的硬件环境配置为:Windows10 64位操作系统,CPU为Intel(R) Core(TM) i5-10400 2.9GHz,GPU为NVIDIA GeForce GT 710内存10G,系统型号为戴尔Vostro 3888-China HDD Protection 1.3.1。软件开发环境为:CUDA 11.4,MATLAB 2020b。图像采集装置为iPhone XR,图像分辨率为3024像素×4032像素。

1.2 数据来源与预处理

1.2.1 数据来源辣椒蚜虫叶片采集于贵州省农业科学院,采集时间2022年8月,采集的叶片带回实验室后平铺在吸光白板上,分别采集蚜虫叶片正反面图像,并用标签做好标记,拍摄高度约为12 cm。

1.2.2 数据预处理原图采集的辣椒叶片图像中包含了标签、蚜虫和背景板,如果对原图进行目标检测,将出现模型的运行时间长、精度低等问题,所以需要对图片进行尺寸转换,以缩短网络运行时间,提升训练效率。根据特征提取网络对图像尺寸的要求,将原始图片裁剪为224×224大小,MATLAB通过imcrop函数对图像目标区域进行截取,如图1所示。

图 1 截取蚜虫区域图像

经过裁剪后试验共采集了291张辣椒蚜虫样本图像,其中黄色蚜虫图像146张,绿色蚜虫图像145张,这两种蚜虫分别代表了两种不同类型蚜虫的状态。一般而言,检测结果与光照、拍摄角度等有很大关系,为了使模型具有较强的泛化能力,避免出现过拟合现象,采用数据增强技术对图像进行扩增[18],对已有图像进行平移、镜像、缩放、旋转、对比度增强以及高斯白噪声等操作将图像扩充至2619张,数据增强效果如图2所示。

图 2 数据增强

本研究使用MATLAB自带的图像标注工具Image Labeler对数据集进行ROI标注,黄色蚜虫用橘黄色方框标注,标签名设置为aphid1,绿色蚜虫用蓝色方框标注,标签名设置为aphid2。标注时真实框(Ground trurh)为蚜虫的最小外接矩形框,以减少真实框内额外像素的面积,数据集标注如图3所示。标注好的数据集按照比例7:3划分为训练集、验证集,数据量分别为1833张、786张。其中,训练集主要用来训练网络中的参数,验证集用来评估模型的性能[19]。

图 3 数据集标注

2 模型构建

2.1 YOLO网络模型

YOLO系列网络是由Redmon J等[20]在2015年提出的一种端到端的单阶段目标检测网络,与之前以Faster R-CNN区域检测模型为代表的两阶段网络不同,YOLO网络直接将带分类的目标检测问题视为回归问题,加快了检测速度且能将目标和背景更好地区分开。该模型利用特征提取网络自动提取前景目标特征,最后通过检测网络预测目标类别和边框位置如图4所示。

图 4 YOLO网络检测流程图

本研究选用YOLO v2作为分类检测网络,综合考虑时间和检测精度因素,在精度均满足条件的情况下,较高级的YOLO模型训练时间较长,对计算机的性能要求更高。YOLO v2网络相对于原始YOLO网络而言,对网络模型结构进行了相应改进,提升了网络检测性能,能够适应本试验要求。与之前的网络相比,做出的改进如下:

(1)加入了Batch Normalization(批归一化)层[21],可以把每个神经元的输出限制在以0为均值,标准差为1的分布里,加快神经网络收敛速度,起到正则化作用,防止模型过拟合。

(2)提高了图像分辨率。YOLO v2在预训练网络进行特征提取时使用ImageNet数据集初始化网络参数,此时图像分辨率为224×224,为提高网络检测精度,在训练检测网络时,将输入图像分辨率调整为448×448,这一操作将网络的精度整体提升了约3.5%。

(3)加入了Anchor机制。事先给定B个长、宽大小不一的先验参考框,每个Anchor对应一个预测框,预测框只需要预测它对应的Anchor的偏移量。原始YOLO网络中B设置为2,而YOLO v2网络可以增加预测框数量。

(4)利用-means聚类选定先验参考框尺寸。在ROI标注的数据集上用-means聚类自动选择先验框长宽比,这种方式比Faster R-CNN网络中用手动设置更加科学,能够尽可能覆盖所有目标。不同的聚类个数对应不同的IOU,个数越多覆盖的IOU越大,但相应模型的复杂度也会大大增加。

2.2 模型主干网络Resnet50

目前,Resnet网络主要有Resnet18、Resnet34、Resnet50、Resnet101和Resnet152,随着Resnet网络层数不断加深,卷积核尺寸减小、数量增多,模型参数量增加,从而导致训练过程计算量增大且容易出现梯度消失现象,但小卷积核提取的语义信息更加全面。考虑到本研究图像目标特征较为简单,因此选择Resnet50作为特征提取网络。

Resnet50[22]主要包含三种基本结构:独立卷积结构、卷积残差结构、平均池化和全连接结构。其中卷积残差结构通过跳跃连接、恒等映射将浅层特征与深层特征融合,有效解决了梯度弥散等问题,残差网络结构如图5所示。在特征提取网络中引入残差结构能够保留更多蚜虫特征信息,可以进一步提高模型检测性能。

图 5 残差网络结构示意图

2.3 基于改进的辣椒蚜虫检测模型架构

本研究以Resnet50在数据集ImageNet上进行测试的预训练网络为起点,通过迁移学习来微调网络参数,即利用预训练网络Resnet50提取辣椒叶片上蚜虫的图像特征,再使用学习到的图像特征训练分类器。Resnet提出以前,普遍认为网络的深度越深,提取到的特征越抽象,模型的检测效果越好。在实际训练过程中,发现网络层数越深,就会出现梯度消失和模型退化等问题,从而导致模型的学习能力下降,检测准确率也会降低,甚至出现不能检出目标的情况。为进一步验证不同深度网络模型对辣椒叶片上蚜虫的识别性能,特征提取模块分别选用Resnet50前10、16、22、28、34、42层卷积网络,去掉最后的平均池化层和全连接层,分类检测模块采用YOLO v2网络结构,构成辣椒蚜虫检测模型,模型整体框架如图6所示。将这六个模型分别叫做Resnet-10、Resnet-16、Resnet-22、Resnet-28、Resnet-34、Resnet-42,Resnet50卷积结构与YOLO v2网络相融合的位置在图中分别用红色、蓝色、绿色、粉色、紫色和黄色箭头位置表示。

图 6 辣椒蚜虫检测模型框架

2.4 预测框生成算法

YOLO v2网络中加入Anchor机制,为选择最具代表性的候选框,使用-means聚类算法,选出适合实际问题的候选框数量和尺寸。-means聚类的相似度检测通常用欧式距离进行度量,对YOLO v2来说,候选框尺寸的衡量标准为IOU,所以YOLO v2利用IOU来计算距离,公式如下:

(box,centroid)= 1-IOU(box,centroid)(1)

在使用-means聚类方法时需要人为指定聚类数,针对本研究中要检测识别辣椒叶片上蚜虫类型的问题,需要在ROI标注蚜虫的数据集上进行-means聚类,以得到适合图像中标注蚜虫的anchor box尺寸和数量。聚类结果如图7所示,当<5时,AvgIOU随值增加而增大,当>5时,AvgIOU随值增加而上下浮动。AvgIOU表示辣椒蚜虫数据集上预测的anchor box与实际标注框覆盖度的平均值,设置不同聚类数对应不同地AvgIOU,AvgIOU值越大说明预测框对蚜虫位置、尺寸预测越准确,但值越大则anchor box数量越多,会导致模型复杂度增加,因此本研究将anchor box个数设置为5。

图 7 K-means聚类结果

辣椒叶片图像中每个目标对应多个预测框,每个预测框都有一个置信度,先去除置信度低于阈值的预测框,本试验设置置信度阈值为0.5,将剩余预测框按照置信度大小排序,选取置信度最高的预测框,分别计算其余预测框与该框的重叠度IOU,最后将IOU大于阈值的预测框去除,以上操作经过不断迭代,输出的图像中每个目标将由唯一的预测框进行预测,IOU阈值大小应根据实际情况而定,设置过高,多余预测框将会被保留下来,设置过低,可能会消除相近目标对象的预测框,因此反复试验后将IOU阈值设置为0.5。通过上述NMS极大值抑制算法处理后即可得到蚜虫在辣椒叶片中的准确位置。

3 模型训练与结果分析

3.1 辣椒蚜虫检测网络训练

损失函数是网络训练中很重要的一环,在训练过程中,YOLO v2网络的输出层通过优化预测框与实际标注框之间的均方误差损失来调整网络中的各项参数。YOLO v2的损失函数定义如下[23]:

(2)

1、2、3、4分别代表预测框定位误差损失权重、在网格的第个边界框中检测到一个对象的置信度误差权重、网格的第个边界框中没有检测到对象时的误差权重、预测框分类误差权重

损失函数中第一项和第二项负责修正预测框定位参数,第三项和第四项负责检测预测框中是否包含蚜虫,当不包含对象的网格数量超过包含对象的网格数量时,置信度损失可能会导致训练发散,为了弥补这一点,可以增加2的值降低3的值。第五项负责修正预测框中检测到蚜虫的类条件概率平方误差。

3.2 试验参数设置

试验中检测网络在训练和测试时选择GPU进行加速,其中ExecutionEnvironment参数默认选择GPU,部分训练参数设置为:选择SGDM算法对模型进行优化,动量为0.9,初始学习率0.001,每次训练迭代的小批量大小为8,每迭代50次显示一次训练结果,3-7个epoch后训练结果输出变化不大,模型基本收敛,因此最大训练轮数设置为8个epoch。

3.3 试验结果分析

模型训练损失曲线可以描述损失函数的变化趋势,表示随着迭代次数的增加,模型预测辣椒叶片上蚜虫位置和类别与真实值之间的偏差情况,损失值大小与模型预测出错概率相关。本次试验各模型在训练集中训练迭代1 520次的损失曲线如图8(a)所示,为便于清楚查看损失值波动情况,通过间隔10次取值的方式对各模型训练迭代过程中损失值的显示如图8(b)所示。可以看到,以Resnet50前10层卷积结构为特征提取网络的模型Resnet-10收敛缓慢且波动较大,其他结构模型以小批量进行训练迭代200次后迅速收敛,迭代1 000次后所有模型基本趋于稳定。

图 8 模型训练损失曲线

试验中选用的评价指标主要有精度precision、召回率recall、P-R曲线、绿色和黄色蚜虫的识别准确率、平均识别准确率、训练时间1和识别时间2。其中精度表示本次试验中模型检测出所有辣椒叶片上的蚜虫有多大比例与标签值相同,召回率代表数据集中被标记的蚜虫有多大比例被模型检测出来,识别准确率是验证集中各类蚜虫识别精度的平均,其大小为P-R曲线下的面积。计算公式如下:

式中:—表示图像中目标被识别为对应类型蚜虫且识别正确;—表示图像中目标被识别为背景且识别正确;—表示图像中目标被识别为对应类型蚜虫但识别错误;—表示图像中目标被识别为背景但识别错误;Pinterpo—表示召回率为时的精度;—验证集样本个数。

评价指标中的P-R曲线反映了召回率与准确率之间的关系,一般横坐标为recall,纵坐标为precision,可以度量目标检测分类器模型优劣。模型的输出是某个类别的概率值,概率值越大表示属于某一类别的概率越大,根据预测结果将验证集样本按从大到小顺序进行排列,选取第一个样本的概率值作为判断目标对象是蚜虫还是背景的阈值,将大于等于该值的样本视为对应类型蚜虫,小于这个值的样本看作背景,由此计算recall和precision的值,遍历整个验证集样本后绘制两个类别蚜虫的P-R曲线如图9所示。可以看出,随着阈值的降低,召回率recall值逐渐增加,阈值较高时值越大值越小,因此精度precision值较大且比较平稳,当阈值降低时,值增加,精度precision值开始降低。由图可知随着特征提取网络层数逐渐增加,模型识别性能变好,但深度到一定层数后又逐渐变差。其中Resnet-22模型的P-R曲线表现最优,值分别为98.70%和94.27%,Resnet-42模型性能最差,对绿色蚜虫的识别准确率仅为76.10%。

图9 P-R曲线

本研究中六个模型是基于YOLO v2网络,融合Resnet50前10、16、22、28、34、42层卷积结构构成,在神经网络中,网络深度会影响模型检测效果,因此需要分析不同深度网络模型对辣椒叶片上蚜虫的识别性能,以获得最优模型。利用训练集和验证集对六个模型进行性能分析的结果如表1所示。

表 1 六种网络模型的识别结果

由表1可知,在相同试验条件下,随着网络层数不断加深,模型训练时间变长,由开始的0.22 h增加至1.98 h,单张图片识别时间也有所增加,图片识别准确率提高,以Resnet50前22层卷积结构为特征提取网络的模型Resnet-22对蚜虫识别准确率最高,平均识别准确率为96.49%,但之后随着网络深度增加,模型识别准确率降低。由于绿色蚜虫颜色与辣椒叶片相近、形态与叶片上茎秆相似,因此绿色蚜虫的识别准确率整体低于黄色蚜虫。通过对比表中数据发现,浅层网络模型Resnet-10的识别准确率均高于深层网络模型Resnet-28、Resnet-34、Resnet-42,说明对于本研究中目标特征较为简单的图像,增加过多地卷积层将导致梯度消失模型学习能力下降,识别准确率降低。在利用深度卷积网络作为特征提取器时,卷积网络深度对网络性能具有较大影响,与浅层网络相比,深层网络可以拟合更复杂的特征、识别检测性能更好,但随着网络层数不断加深,反向传播算法无法将输出误差梯度传播至更远节点,权重得不到调整,导致网络拟合能力变弱,增加网络的深度将变得毫无意义。本试验中Resnet-22模型识别准确率最高,识别时间与其余四个模型相比差距不大,因此本研究选用模型Resnet-22识别辣椒叶片上的蚜虫,用该模型对两种不同生长阶段蚜虫进行识别的结果如图10所示。由图可知Resnet-22模型能够比较精准地定位蚜虫位置并识别蚜虫类型。

图 10 辣椒叶片上蚜虫识别结果

4 界面设计与实现

4.1 App Designer

App Designer是MATLAB内置的App开发工具,采用面向对象的方式进行编程,该软件包含前端交互界面设计和后台代码编写模块,在程序开发过程中,需要按照实际需求添加回调函数、修改控件属性等,更改控件属性后代码会自动更新,大大提高了开发效率。

4.2 辣椒蚜虫识别界面设计

本研究开发的辣椒蚜虫识别系统界面如图11所示,其中设计视图界面添加了Button控件、Label控件、TextArea文本区域控件和Image图像显示控件。各控件根据实际情况添加回调函数,回调相当于MFC中的响应函数,是与界面交互的接口。例如“打开图片”按钮控件的功能是让待识别辣椒蚜虫图片显示在Image控件上,“识别虫害”按钮控件的回调函数设计是为了调用训练好的蚜虫检测模型并将检测结果(蚜虫类型和数量)显示在Label控件中。界面和回调函数设计完成后,将其保存为.mlapp文件并退出。

图 11 辣椒蚜虫识别界面

5 结论

(1)针对传统辣椒蚜虫识别精度不高等问题,本研究提出了一种YOLO v2目标检测网络与Resnet50不同深度卷积结构相结合的方法,对离体辣椒叶片上的蚜虫进行分类识别和定位。检测效果最好的模型为Resnet-22,平均识别准确率为96.49%,其中黄色蚜虫识别准确率为98.70%,绿色蚜虫识别准确率为94.27%,模型训练时间为0.35 h,单张图片识别时间为0.129 s;

(2)本文探究了不同深度网络模型对辣椒叶片上蚜虫识别性能的影响,发现浅层网络模型对辣椒蚜虫识别准确率高于深层网络,表明根据不同的图像特征要选择合适地网络深度模型,模型结构不是越复杂越好;

(3)本研究与结果表明,辣椒蚜虫检测模型Resnet-22,能够更好地进行辣椒叶片上蚜虫的定位和识别,具有较强的鲁棒性,可以为实现田间辣椒蚜虫识别奠定基础,同时该模型也具有很强的稳定性和实用性,对于其他作物虫害识别具有一定的参考价值。

[1] 赵泽阳.我国辣椒价格波动分析研究[D].保定:河北农业大学,2019

[2] 邱宁宏,刘芬,江秋菊,等.遵义辣椒智慧产业园辣椒病虫害发生情况调查[J].长江蔬菜,2022(16):61-66

[3] 李静,陈桂芬,安宇.基于优化卷积神经网络的玉米螟虫害图像识别[J].华南农业大学学报,2020,41(3):110-116

[4] 王翔宇,温皓杰,李鑫星,等.农业主要病害检测与预警技术研究进展分析[J].农业机械学报,2016,47(9):266-277

[5] 唐林.自动采摘目标图像快速识别算法研究——基于K-means聚类算法[J].农机化研究,2023,45(05):32-36

[6] 彭勤,高士,彭佳红.基于SVM的豆类作物病害识别研究[J].电脑知识与技术,2019,15(24):210-211

[7] 杨昕薇,谭峰.基于贝叶斯分类器的水稻病害识别处理的研究[J].黑龙江八一农垦大学学报,2012,24(3):64-67,79

[8] 房俊龙,张长利,潘伟,等.用遗传算法训练的人工神经网络识别番茄生理病害果[J].农业工程学报,2004(3):113-116

[9] Yanyan D, Subin P, Kidong L. Utilizing mask R-CNN for solid-volume food instance segmentation and calorie estimation [J]. Applied Sciences,2022,12(21):10938

[10] Cheng X. Research on application of the feature transfer method based on fast R-CNN in smoke image recognition [J]. Advances in Multimedia, 2021(1):1-7

[11] 宋中山,汪进,郑禄,等.基于二值化的Faster R-CNN柑橘病虫害识别研究[J].中国农机化学报,2022,43(6):150-158

[12] Marietta I, Kenneth M,Sean XG,. A multimodal (FACILE) classification for optical diagnosis of inflammatory bowel disease associated neoplasia [J]. Endoscopy, 2019,51(2):133-141

[13] 程海超.基于YOLO的番茄病虫害识别算法研究[J].农业与技术,2022,42(10):38-40

[14] 印志本,刘锋,栾世伟.改进SSD算法在骏枣黑斑病识别模型研究[J].农业与技术,2022,42(22):15-18

[15] 傅云龙,梁丹,梁冬泰,等.基于机器视觉与YOLO算法的马铃薯表面缺陷检测[J].机械制造,2021,59(8):82-87

[16] 周维,牛永真,王亚炜,等.基于改进的YOLOv4-GhostNet水稻病虫害识别方法[J].江苏农业学报,2022,38(3):685-695

[17] 徐会杰,黄仪龙,刘曼.基于改进YOLOv3模型的玉米叶片病虫害检测与识别研究[J].南京农业大学学报,2022,45(6):1276-1285

[18] 刘芳,刘玉坤,林森,等.基于改进型YOLO的复杂环境下番茄果实快速识别方法[J].农业机械学报,2020,51(6):229-237

[18] 朱晓慧,钱丽萍,傅伟.图像数据增强技术研究综述[J].软件导刊,2021,20(5):230-236

[19] 李就好,林乐坚,田凯,等.改进Faster R-CNN的田间苦瓜叶部病害检测[J].农业工程学报,2020,36(12):179-185

[20] Redmon J, Farhadi A. YOLO9000: Better, Faster, Stronger [C]. San Juan, Puerto Rico: IEEE Conference on Computer Vision and Pattern Recognition, 2017

[21] Ioffe S, Szegedy C. Batch normalization: accelerating deep network training by reducing internal covariate shift [J]. CoRR,2015,abs/1502.03167

[22] 余小东,杨孟辑,张海清,等.基于迁移学习的农作物病虫害检测方法研究与应用[J].农业机械学报,2020,51(10):252-258

[23] 冯艳君,刘军,周台典,等.基于改进特征提取网络和YOLO V2的手势识别[J].电子世界,2020(19):198-200

Image Recognition of Aphid on Pepper Leaves Based on YOLO v2

ZOU Wei1, YUE Yan-bin1*, FENG En-ying1, PENG Shun-zheng1, ZHANG Ai-min2, XIAO Jiu-jun3

1.550006,2.550006,3.550006,

Aiming at the low identification accuracy and less research of traditional pepper aphid recognition, we studies a YOLO v2-based image identification method of pepper aphid to accurately locate aphid locations, identify two different types of aphids, and explore the impact of different network depths on model performance. First, the YOLO v2 target detection network is integrated with six different deep convolutional structures of the Resnet50 network to construct a pepper aphid recognition model, and then the candidate box parameters are set using the prediction box generation algorithm, finally, the six models are trained, and the pepper aphids identification system is designed. The comparative test results on the validation set demonstrate that Resnet-22 model has the highest identification accuracy, and achieves the average identification accuracy of 96.49% on two different types of aphid species, the identification accuracy of yellow aphid and green aphid is 98.70% and 94.27% respectively, and the average identification time of one picture is 0.129 s. Resnet-22 model is robust and lays the foundation for pepper aphid identification in a complex context in the field.

Pepper; aphid; image recognition

TP751

A

1000-2324(2023)05-0700-10

10.3969/j.issn.1000-2324.2023.05.009

2023-02-26

2023-05-02

贵州省科技计划项目(黔科合支撑[2021]一般173);贵州省科技计划项目(黔科合支撑[2020]IY172号)

邹玮(1997-),女,硕士,实习研究员,主要从事图像处理、植物表型等方面研究工作. E-mail:171465192@qq.com

Author for correspondence. E-mail:58644230@qq.com

猜你喜欢
蚜虫辣椒准确率
原来,你还是这样的辣椒
你的辣椒结出果实了吗?
蚜虫婆婆
出生十天就当“外婆”的蚜虫
辣椒也疯狂
乳腺超声检查诊断乳腺肿瘤的特异度及准确率分析
不同序列磁共振成像诊断脊柱损伤的临床准确率比较探讨
出生十天就当“外婆”的蚜虫
2015—2017 年宁夏各天气预报参考产品质量检验分析
拣辣椒