可左右滑动选省市

一种基于迁移元学习的害虫识别方法发明专利

更新时间:2024-07-06
一种基于迁移元学习的害虫识别方法发明专利 专利申请类型:发明专利;
地区:广东-广州;
源自:广州高价值专利检索信息库;

专利名称:一种基于迁移元学习的害虫识别方法

专利类型:发明专利

专利申请号:CN202210738451.X

专利申请(专利权)人:华南农业大学
权利人地址:广东省广州市天河区五山路483号

专利发明(设计)人:梁炜健,王春桃,郭庆文

专利摘要:本发明提供一种基于迁移元学习的害虫识别方法,包括以下步骤:S1:构建害虫数据集,并随机采样分别组成支持集和查询集;得到改进的特征提取网络;S2:更新改进的特征提取网络的参数;S3:得到支持集和查询集中各个样本的特征向量;S4:计算得到支持集中每个类别的原型;S5:计算得到查询集中各个样本的类别概率作为害虫识别结果。本发明提供一种基于迁移元学习的害虫识别方法,解决了现有的害虫识别方法在区分新类别和旧类别害虫时准确率较低的问题。

主权利要求:
1.一种基于迁移元学习的害虫识别方法,其特征在于,包括以下步骤:S1:获取害虫图像样本构建害虫数据集,并从害虫数据集中随机采样分别组成支持集和查询集;
将现有的特征提取网络结合空间注意力模块得到改进的特征提取网络;
S2:通过基于迁移的元学习方法更新改进的特征提取网络的参数;
S3:将支持集和查询集分别输入更新好的特征提取网络,对应得到支持集和查询集中各个样本的特征向量;
S4:根据支持集中各个样本的特征向量计算得到支持集中每个类别的原型;
S5:根据支持集中每个类别的原型和查询集中各个样本的特征向量计算得到查询集中各个样本的类别概率作为害虫识别结果;
步骤S2具体为:
A1:设置学习批次和学习率;
A2:从害虫数据集中随机抽取N1个类别,从所抽取的每个类别中分别随机抽取K1张害虫图像组成学习支持集,从所抽取的类别中随机抽取q1张不重复的害虫图像组成学习查询集;
A3:将学习支持集和学习查询集输入到改进的特征提取网络中,对应得到学习支持集和学习查询集中各个样本的特征向量;
A4:根据学习支持集中各个样本的特征向量计算得到学习支持集中每个类别的原型;
A5:根据学习支持集中每个类别的原型和学习查询集中各个样本的特征向量计算得到学习查询集中各个样本的类别概率;
A6:计算各个样本的类别概率与其相应的类别标签之间的损失值;
A7:判断损失值是否收敛,
若是,则完成小样本学习;
若否,则更新改进的特征提取网络的参数,返回步骤A2;
通过以下公式计算类别c的原型:
其中, 表示支持集中类别c的第i个样本,c=1,2,…,N,yi表示样本xi的类别标签,Avg(.)函数表示求多个向量平均值, 表示样本xi的特征向量;
通过以下公式计算类别c的概率:
其中,xj表示查询集中第j个样本,yj表示样本xj的类别标签,j=1,2,…,q, 表示样本xj的特征向量,τ表示超参数,sim表示计算两个向量之间相似度的函数,En表示支持集中类别n的原型,n=1,2,…,N。
2.根据权利要求1所述的一种基于迁移元学习的害虫识别方法,其特征在于,步骤S1中,所述害虫数据集包括M个类别的害虫图像,从害虫数据集中随机抽取N个类别,N<M,从所抽取的每个类别中分别随机抽取K张害虫图像组成支持集,从所抽取的类别中随机抽取q张不重复的害虫图像组成查询集。
3.根据权利要求1所述的一种基于迁移元学习的害虫识别方法,其特征在于,通过将ResNeSt101结合空间注意力模块得到改进的特征提取网络,具体为:在ResNeSt101的3×3全局最大池化前的SAM位置和/或在ResNeSt101的每层的每个颈部最后的SAM位置插入空间注意力模块,得到改进的特征提取网络。
4.根据权利要求3所述的一种基于迁移元学习的害虫识别方法,其特征在于,所述空间注意力模块为NAM空间注意力模块或者CBAM空间注意力模块。
5.根据权利要求4所述的一种基于迁移元学习的害虫识别方法,其特征在于,在ResNeSt101的3×3全局最大池化前的SAM位置插入的空间注意力模块与在ResNeSt101的每层的每个颈部最后的SAM位置插入的空间注意力模块的类型相同或不相同;
在ResNeSt101的每层的每个颈部最后的SAM位置插入的空间注意力模块的类型相同。
6.根据权利要求5所述的一种基于迁移元学习的害虫识别方法,其特征在于,使用交叉熵损失函数计算各个样本的类别概率与其相应的类别标签之间的损失值。
7.根据权利要求1所述的一种基于迁移元学习的害虫识别方法,其特征在于,在将害虫图像样本输入特征提取网络之前,还包括对害虫图像样本进行数据增强处理;数据增强处理包括:随机长宽比裁剪、随机放缩、随机水平翻转、随机垂直翻转、随机旋转、颜色抖动、高斯模糊。 说明书 : 一种基于迁移元学习的害虫识别方法技术领域[0001] 本发明涉及图像识别的技术领域,更具体的,涉及一种基于迁移元学习的害虫识别方法。背景技术[0002] 随着深度学习技术的发展,在农业病虫害智能防治中,采用深度学习模型对害虫进行识别分类已经越来越热门。目前大多数基于小样本学习的害虫识别方法,需要先在有足够样本的常见类(基类)上训练深层模型,然后将模型迁移到只有少数几个示例的新类进行小样本学习。这些模型网络结构简单,往往不足以对害虫图像中蕴含的信息进行有效表达,从而在区分新类别和旧类别害虫时准确率较低。[0003] 现有技术中,如2021‑03‑09公开的专利“害虫检测模型构建方法”,公开号为CN112464971A,利用测试集测试卷积注意力模型构建害虫检测模型,使得害虫检测模型具有高检测精度和强鲁棒性,但在新类别和旧类别害虫混合时,无法准确地识别出害虫的类别是已知的还是未知的。发明内容[0004] 本发明为克服现有的害虫识别方法在区分新类别和旧类别害虫时准确率较低的技术缺陷,提供一种基于迁移元学习的害虫识别方法。[0005] 为解决上述技术问题,本发明的技术方案如下:[0006] 一种基于迁移元学习的害虫识别方法,包括以下步骤:[0007] S1:获取害虫图像样本构建害虫数据集,并从害虫数据集中随机采样分别组成支持集和查询集;[0008] 将现有的特征提取网络结合空间注意力模块得到改进的特征提取网络;[0009] S2:通过基于迁移的元学习方法更新改进的特征提取网络的参数;[0010] S3:将支持集和查询集分别输入更新好的特征提取网络,对应得到支持集和查询集中各个样本的特征向量;[0011] S4:根据支持集中各个样本的特征向量计算得到支持集中每个类别的原型;[0012] S5:根据支持集中每个类别的原型和查询集中各个样本的特征向量计算得到查询集中各个样本的类别概率作为害虫识别结果。[0013] 上述方案中,通过引入空间注意力模块改进了现有的特征提取网络的特征提取能力,提高了害虫图像识别性能;同时基于迁移的元学习方法更新改进的特征提取网络的参数,不仅可以保持特征提取网络的特征提取能力,还使其具备了对迁移后新类别特征的辨别能力,提高了区分新类别和旧类别害虫的准确性。[0014] 优选的,步骤S1中,所述害虫数据集包括M个类别的害虫图像,从害虫数据集中随机抽取N个类别,N<M,从所抽取的每个类别中分别随机抽取K张害虫图像组成支持集,从所抽取的类别中随机抽取q张不重复的害虫图像组成查询集。[0015] 优选的,通过将ResNeSt101结合空间注意力模块得到改进的特征提取网络,具体为:在ResNeSt101的3×3全局最大池化前的SAM位置和/或在ResNeSt101的每层的每个颈部最后的SAM位置插入空间注意力模块,得到改进的特征提取网络。[0016] 优选的,所述空间注意力模块为NAM空间注意力模块或者CBAM空间注意力模块。[0017] 优选的,[0018] 在ResNeSt101的3×3全局最大池化前的SAM位置插入的空间注意力模块与在ResNeSt101的每层的每个颈部最后的SAM位置插入的空间注意力模块的类型相同或不相同;[0019] 在ResNeSt101的每层的每个颈部最后的SAM位置插入的空间注意力模块的类型相同。[0020] 上述方案中,改进的特征提取网络SA‑ResNeSt101保留了与其他残差网络一致的网络深度,可以充分表达害虫图像中蕴含的信息,并在网络中使用了多组3×3卷积、通道注意力、空间注意力等模块,不仅关注图像中各通道的信息,还会关注每个通道中各个像素的信息,能够集中关注害虫图像的重点区域,可以在不大幅增加计算量的前提下,提升网络的表达能力,从而提高了特征提取网络的表达能力。[0021] 优选的,步骤S2具体为:[0022] A1:设置学习批次和学习率;[0023] A2:从害虫数据集中随机抽取N1个类别,从所抽取的每个类别中分别随机抽取K1张害虫图像组成学习支持集,从所抽取的类别中随机抽取q1张不重复的害虫图像组成学习查询集;[0024] A3:将学习支持集和学习查询集输入到改进的特征提取网络中,对应得到学习支持集和学习查询集中各个样本的特征向量;[0025] A4:根据学习支持集中各个样本的特征向量计算得到学习支持集中每个类别的原型;[0026] A5:根据学习支持集中每个类别的原型和学习查询集中各个样本的特征向量计算得到学习查询集中各个样本的类别概率;[0027] A6:计算各个样本的类别概率与其相应的类别标签之间的损失值;[0028] A7:判断损失值是否收敛,[0029] 若是,则完成小样本学习;[0030] 若否,则更新改进的特征提取网络的参数,返回步骤A2。[0031] 上述方案中,与主流的元学习和迁移学习方法不同的是,基于迁移的元学习(小样本学习)方法不仅可以保持SA‑ResNeSt101的特征提取能力,经过少量样本的元学习过程后还具备了对迁移后新类别特征的辨别能力,因此在害虫识别中该方法比主流的小样本学习方法更有效。[0032] 优选的,使用交叉熵损失函数计算各个样本的类别概率与其相应的类别标签之间的损失值。[0033] 优选的,在将害虫图像样本输入特征提取网络之前,还包括对害虫图像样本进行数据增强处理;数据增强处理包括:随机长宽比裁剪、随机放缩、随机水平翻转、随机垂直翻转、随机旋转、颜色抖动、高斯模糊。[0034] 优选的,通过以下公式计算类别c的原型:[0035][0036] 其中, 表示支持集中类别c的第i个样本,c=1,2,...,N,yi表示样本xi的类别标签,Avg(.)函数表示求多个向量平均值, 表示样本xi的特征向量。[0037] 优选的,通过以下公式计算类别c的概率:[0038][0039] 其中,xj表示查询集中第j个样本,yj表示样本xj的类别标签,j=1,2,...,q,表示样本xj的特征向量,τ表示超参数,sim表示计算两个向量之间相似度的函数,En表示支持集中类别n的原型,n=1,2,...,N。[0040] 与现有技术相比,本发明技术方案的有益效果是:[0041] 本发明提供了一种基于迁移元学习的害虫识别方法,通过引入空间注意力模块改进了现有的特征提取网络的特征提取能力,提高了害虫图像识别性能;同时基于迁移的元学习方法更新改进的特征提取网络的参数,不仅可以保持特征提取网络的特征提取能力,还使其具备了对迁移后新类别特征的辨别能力,提高了区分新类别和旧类别害虫的准确性。附图说明[0042] 图1为本发明的技术方案实施步骤流程图;[0043] 图2为本发明中改进的特征提取网络的预训练流程图;[0044] 图3为本发明中改进的特征提取网络的结构示意图;[0045] 图4为本发明中NAM空间注意力模块的结构示意图;[0046] 图5为本发明中CBAM空间注意力模块的结构示意图;[0047] 图6为本发明中基于迁移的元学习流程图。具体实施方式[0048] 附图仅用于示例性说明,不能理解为对本专利的限制;[0049] 为了更好说明本实施例,附图某些部件会有省略、放大或缩小,并不代表实际产品的尺寸;[0050] 对于本领域技术人员来说,附图中某些公知结构及其说明可能省略是可以理解的。[0051] 下面结合附图和实施例对本发明的技术方案做进一步的说明。[0052] 实施例1[0053] 如图1所示,一种基于迁移元学习的害虫识别方法,包括以下步骤:[0054] S1:获取害虫图像样本构建害虫数据集,并从害虫数据集中随机采样分别组成支持集和查询集;[0055] 将现有的特征提取网络结合空间注意力模块得到改进的特征提取网络;[0056] S2:通过基于迁移的元学习方法更新改进的特征提取网络的参数;[0057] S3:将支持集和查询集分别输入更新好的特征提取网络,对应得到支持集和查询集中各个样本的特征向量;[0058] S4:根据支持集中各个样本的特征向量计算得到支持集中每个类别的原型;[0059] S5:根据支持集中每个类别的原型和查询集中各个样本的特征向量计算得到查询集中各个样本的类别概率作为害虫识别结果。[0060] 在具体实施过程中,通过引入空间注意力模块改进了现有的特征提取网络的特征提取能力,提高了害虫图像识别性能;同时基于迁移的元学习方法更新改进的特征提取网络的参数,不仅可以保持特征提取网络的特征提取能力,还使其具备了对迁移后新类别特征的辨别能力,提高了区分新类别和旧类别害虫的准确性。[0061] 实施例2[0062] 一种基于迁移元学习的害虫识别方法,包括以下步骤:[0063] S1:获取害虫图像样本构建害虫数据集,并从害虫数据集中随机采样分别组成支持集和查询集;[0064] 更具体的,所述害虫数据集包括M个类别的害虫图像,从害虫数据集中随机抽取N个类别,N<M,从所抽取的每个类别中分别随机抽取K张害虫图像组成支持集,从所抽取的类别中随机抽取q张不重复的害虫图像组成查询集。[0065] 将现有的特征提取网络结合空间注意力模块得到改进的特征提取网络[0066] 如图2所示,对改进的特征提取网络进行预训练:在SA‑ResNeSt101的输出端增加一个全连接层作为分类器,采用交叉熵作为损失函数,并设置批次、学习率等超参数。首先将训练用的害虫图像样本作为输入,得到相应的预测作为输出,然后计算预测与样本的标签之间的损失值,重复该过程直到损失值不再下降,训练完成后去掉分类器即得到带初始化参数的SA‑ResNeSt101。[0067] 更具体的,如图3所示,通过将ResNeSt101结合空间注意力模块得到改进的特征提取网络,具体为:在ResNeSt101的3×3全局最大池化前的SAM位置和/或在ResNeSt101的每层的每个颈部最后的SAM位置插入空间注意力模块,得到改进的特征提取网络。[0068] 更具体的,如图4‑5所示,所述空间注意力模块为NAM空间注意力模块或者CBAM空间注意力模块。[0069] 更具体的,[0070] 在ResNeSt101的3×3全局最大池化前的SAM位置插入的空间注意力模块与在ResNeSt101的每层的每个颈部最后的SAM位置插入的空间注意力模块的类型相同或不相同;[0071] 在ResNeSt101的每层的每个颈部最后的SAM位置插入的空间注意力模块的类型相同。[0072] 在具体实施过程中,改进的特征提取网络SA‑ResNeSt101保留了与其他残差网络一致的网络深度,可以充分表达害虫图像中蕴含的信息,并在网络中使用了多组3×3卷积、通道注意力、空间注意力等模块,不仅关注图像中各通道的信息,还会关注每个通道中各个像素的信息,能够集中关注害虫图像的重点区域,可以在不大幅增加计算量的前提下,提升网络的表达能力,从而提高了特征提取网络的表达能力。[0073] S2:通过基于迁移的元学习方法更新改进的特征提取网络的参数;[0074] 更具体的,如图6所示,步骤S2具体为:[0075] A1:设置学习批次和学习率;[0076] A2:从害虫数据集中随机抽取N1个类别,从所抽取的每个类别中分别随机抽取K1张害虫图像组成学习支持集,从所抽取的类别中随机抽取q1张不重复的害虫图像组成学习查询集;[0077] A3:将学习支持集和学习查询集输入到改进的特征提取网络中,对应得到学习支持集和学习查询集中各个样本的特征向量;[0078] A4:根据学习支持集中各个样本的特征向量计算得到学习支持集中每个类别的原型;[0079] 更具体的,通过以下公式计算类别c的原型:[0080][0081] 其中, 表示学习支持集中类别c的第i个样本,c=1,2,...,N,yi表示样本xi的类别标签,Avg(.)函数表示求多个向量平均值, 表示样本xi的特征向量。[0082] A5:根据学习支持集中每个类别的原型和学习查询集中各个样本的特征向量计算得到学习查询集中各个样本的类别概率;[0083] 更具体的,通过以下公式计算类别c的概率:[0084][0085] 其中,xj表示学习查询集中第j个样本,yj表示样本xj的类别标签,j=1,2,...,q,表示样本xj的特征向量,τ表示超参数,sim表示计算两个向量之间相似度的函数,En表示学习支持集中类别n的原型,n=1,2,...,N。[0086] A6:计算各个样本的类别概率与其相应的类别标签之间的损失值;[0087] 更具体的,使用交叉熵损失函数计算各个样本的类别概率与其相应的类别标签之间的损失值。[0088] 在具体实施过程中,交叉熵损失函数为:[0089][0090] 其中,p(yi=c|xi)表示样本xi的类别概率,yi′表示样本xi的类别标签,n表示学习查询集的样本数量,log(.)是求对数函数。[0091] A7:判断损失值是否收敛,[0092] 若是,则完成小样本学习;[0093] 若否,则更新改进的特征提取网络的参数,返回步骤A2。[0094] 在具体实施过程中,与主流的元学习和迁移学习方法不同的是,基于迁移的元学习(小样本学习)方法不仅可以保持SA‑ResNeSt101的特征提取能力,经过少量样本的元学习过程后还具备了对迁移后新类别特征的辨别能力,因此在害虫识别中该方法比主流的小样本学习方法更有效。[0095] S3:将支持集和查询集分别输入更新好的特征提取网络,对应得到支持集和查询集中各个样本的特征向量;[0096] S4:根据支持集中各个样本的特征向量计算得到支持集中每个类别的原型;[0097] 更具体的,通过以下公式计算类别c的原型:[0098][0099] 其中, 表示支持集中类别c的第i个样本,c=1,2,...,N,yi表示样本xi的类别标签,Avg(.)函数表示求多个向量平均值, 表示样本xi的特征向量。[0100] S5:根据支持集中每个类别的原型和查询集中各个样本的特征向量计算得到查询集中各个样本的类别概率作为害虫识别结果。[0101] 更具体的,通过以下公式计算类别c的概率:[0102][0103] 其中,xj表示查询集中第j个样本,yj表示样本xj的类别标签,j=1,2,...,q,表示样本xj的特征向量,τ表示超参数,sim表示计算两个向量之间相似度的函数,En表示支持集中类别n的原型,n=1,2,...,N。[0104] 更具体的,在将害虫图像样本输入特征提取网络之前,还包括对害虫图像样本进行数据增强处理;数据增强处理包括:随机长宽比裁剪、随机放缩、随机水平翻转、随机垂直翻转、随机旋转、颜色抖动、高斯模糊。[0105] 实施例3[0106] 本实施例中构建了两个较为完备的害虫数据集,分别为aug‑D0和semi‑IP102,并将两个害虫数据集划分为训练数据集、测试数据集和验证数据集,具体统计数据如表1所示。[0107] 表1.aug‑D0和semi‑IP102害虫数据集的统计数据[0108][0109] 采用aug‑D0和semi‑IP102对所述的一种基于迁移元学习的害虫识别方法(本方法)进行实验,实验结果如下:[0110] 在aug‑IP102上与传统模型的小样本学习实验结果对比情况如表2所示;[0111] 表2[0112][0113][0114] 训练时,每轮抽取的类别数设置为5,每类抽取的支持集样本数量设置为5,查询集样本数量设置为15;测试时,评价指标是准确率(accuracy)(%)每次抽取的类别数设置为5,每类抽取的支持集样本数量设置为1、5、10,查询集样本数量设置为15,置信度区间是95%;[0115] 平均识别准确率的计算公式为:[0116][0117] 其中,Numcorrect表示预测正确数,Num表示查询集样本总数。[0118] 在semi‑IP102数据集上与传统模型的小样本学习实验结果对比情况如表3所示;[0119] 表3[0120] 模型名称 1‑shot 5‑shot 10‑shot匹配网络 42.66%±0.42% 55.06%±0.39% 60.61%±0.38%原型网络 38.23%±0.36% 54.96%±0.36% 59.96%±0.34%关系网络 37.74%±0.40% 51.35%±0.41% 55.61%±0.39%元基线网络 34.07%±0.35% 46.90%±0.55% 51.83%±0.38%SA‑ResNeSt101 57.62%±0.53% 72.90%±0.30% 76.80%±0.30%[0121] 训练时,每轮抽取的类别数设置为5,每类抽取的支持集样本数量设置为5,查询集样本数量设置为15;测试时,评价指标是准确率(accuracy)(%)每次抽取的类别数设置为5,每类抽取的支持集样本数量设置为1、5、10,查询集图像数量设置为15,置信度区间是95%。[0122] 由表2和表3可见,在semi‑IP102和aug‑D0由新类别组成的数据集上,本实施例中的SA‑ResNeSt101的效果取得了比现有技术高的识别准确率。[0123] 往ResNeSt101的SAM位置加入空间注意力模块,其中,注意力类型中ResNeSt101表示不加任何空间注意力模块的ResNeSt101网络,C‑SAM表示CBAM的空间注意力模块,N‑SAM表示NAM的空间注意力模块。空间注意力模块位置中,B表示在ResNeSt101主路前3个卷积后的位置加入空间注意力模块(SAM),E表示在ResNeSt101每个颈部的最后位置加入空间注意力模块(SAM),训练和测试方式与表2、表3一致。[0124] 在aug‑D0上的注意力机制的有效性如表4所示;[0125] 表4[0126] 注意力类型 空间注意力模块位置 1‑shot 5‑shot 10‑shotResNeSt101 —— 78.83%±0.51% 91.53%±0.26% 93.48%±0.21%N‑SAM B 80.45%±0.32% 92.44%±0.17% 94.16%±0.15%N‑SAM E 79.18%±0.43% 91.89%±0.26% 93.80%±0.20%C‑SAM B 84.18%±0.43% 95.00%±0.14% 96.37%±0.10%C‑SAM E 77.56%±0.50% 90.25%±0.27% 92.31%±0.22%N‑SAM,N‑SAM B,E 78.40%±0.43% 91.78%±0.28% 93.88%±0.21%N‑SAM,C‑SAM B,E 78.19%±0.46% 92.13%±0.29% 94.11%±0.22%C‑SAM,N‑SAM B,E 79.75%±0.46% 92.44%±0.26% 94.30%±0.22%C‑SAM,C‑SAM B,E 78.09%±0.46% 91.11%±0.28% 93.10%±0.24%[0127] 在semi‑IP102上的注意力机制的有效性如表5所示;[0128] 表5[0129][0130][0131] 由表4和表5可见,改进的特征提取网络SA‑ResNeSt101增强了害虫图像特征的表达能力,有效提升了对害虫图像的识别准确率。[0132] 在由aug‑D0上的开放世界学习实验结果对比情况如表6所示;[0133] 表6[0134] 模型名称 1‑shot 5‑shot 10‑shot匹配网络 55.49%±0.18% 70.56%±0.09% 74%±0.08%原型网络 47.77%±0.18% 67.39%±0.10% 70.17%±0.08%关系网络 43.13%±0.18% 62.16±0.10% 64.01%±0.08%元基线网络 12.33%±0.05% 34.18%±0.09% 37.39%±0.07%SA‑ResNeSt101 63.44%±0.13% 79.37%±0.07% 81.86%±0.07%[0135] 在由semi‑IP102上的开放世界学习实验结果对比情况如表7所示;[0136] 表7[0137] 模型名称 1‑shot 5‑shot 10‑shot匹配网络 34.36%±0.13% 46.61%±0.09% 51.69%±0.08%原型网络 36.82%±0.15% 53.19%±0.09% 55.6%±0.08%关系网络 36.46%±0.15% 51.11%±0.08% 52.7%±0.07%元基线网络 17.92%±0.08% 30.23%±0.08% 33.74%±0.07%SA‑ResNeSt101 44.87%±0.18% 60.01%±0.08% 63.58%±0.07%[0138] 由表6和表7可见,在由aug‑D0和semi‑IP102新类别和旧类别组成的开放世界数据集上,与现有技术相比,本方法能够较准确地区分新类别和旧类别。[0139] 在由aug‑D0和semi‑IP102新类组成的数据集上,将本实施例中所述的基于迁移的元学习方法与现有的元学习的实验结果对比情况如表8所示;[0140] 表8[0141][0142][0143] 在由aug‑D0和semi‑IP102新类和旧类组成的开放世界数据集上,将本实施例中所述的基于迁移的元学习方法与现有的元学习的实验结果对比情况如表9所示;[0144] 表9[0145][0146] 由表8和表9可见,在由semi‑IP102和aug‑D0组成的新类新数据集和开放世界数据集上,相比于现有的元学习过程,本方法进一步提升了基于元学习的害虫识别准确率。[0147] 显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。

专利地区:广东

专利申请日期:2022-06-27

专利公开日期:2024-06-18

专利公告号:CN115019175B

电话咨询
读内容
搜本页
回顶部