全国科技企业知识转化平台
专利申请类型:发明专利;专利名称:一种基于自适应感知机的遥感影像智能解译方法及系统
专利类型:发明专利
专利申请号:CN202210064145.2
专利申请(专利权)人:辽宁工程技术大学
权利人地址:辽宁省阜新市细河区中华路47号
专利发明(设计)人:张兵,朱洪波,宋伟东,戴激光,蓝歆玫
专利摘要:本发明公开了一种基于自适应感知机的遥感影像智能解译方法及系统,涉及深度学习在遥感影像目标解译技术领域,其中方法包括:在遥感影像智能解译时,对其进行预处理;构建基于局部阈值的自适应感知机;确定阈值范围及感知机权重;根据自适应感知机与改进UNet模型确定解译网络结构;依据前述网络结构与改进UNet遥感智能解译模型,采用自训练迭代方式求取目标地物特征。本发明解决了现有UNet模型结构单一、参数复杂、解译时间长的问题,增加了不同阈值条件下的UNet模型适用范围、解译速度和灵活程度。
主权利要求:
1.一种基于自适应感知机的遥感影像智能解译方法,其特征在于,包括以下步骤:S101:获取遥感影像地物解译公开数据集,对所述公开数据集进行预处理,将所述预处理后的影像数据按比例进行划分得到训练集、测试集和验证集;
S102:构建感知机模型,对所述训练数据集进行计算,输出目标地物复杂程度阈值;
S103:根据所述目标地物复杂程度阈值,选用改进UNet遥感地物解译模型,对所述公开数据集中所选解译类别地物进行训练权重迭代求解,获取遥感地物智能解译权重模型;
S104:将所述遥感地物智能解译权重模型导入所述改进UNet遥感地物解译模型,输入测试集,进行自适应遥感地物智能解译;
S102中所述构建感知机模型包括以下步骤:
S1021:将所述预处理的公开数据集,进行图像堆叠,组成线性可分的感知机数据集,公式如下T={(x1,y1),(x2,y2),...,(xn,yn)}(2)n n * *
式中,xi∈X=R ,yi∈Y=R,i=1,2,...,N,xi,yi均为在最大间隔超平面ω x+b=0上*的特征点;X为二维特征超平面的任意轴,Y为二维特征超平面中与X正交的轴,ω 为二维特*征超平面在空间直角坐标系中X‑O‑Z面上投影的斜率,b为二维特征超平面在空间直角坐标系中X‑O‑Z面上投影与Z轴的截距,n为n维特征空间,N为整数集;
S1022:定义感知机损失函数为误分类点到特征分类超平面的距离之和,如下式所示,其中,误分类点的感知机输出结果与真实结果的符号相反,如下式所示,融合损失函数的自适应感知机模型表达式如下式所示,
式(3)‑(5)中,M为误分类点的集合;
S103中改进UNet遥感地物解译模型为基于UNet模型构建2组遥感地物解译模型,具体包括:UNet‑1模型:由9个3×3卷积模块、3个最大池化模块组成特征提取网络;
UNet‑2模型:由6个3×3卷积模块、2个最大池化模块组成特征提取网络。
2.根据权利要求1所述的一种基于自适应感知机的遥感影像智能解译方法,其特征在于,S101中的预处理包括:直方图校正和波段组合;
其中,所述直方图校正的具体内容为:
将每波段的M×N个像元亮度值均减去本波段像元亮度最小值,其中,影像宽为M个像元,高为N个像元,计算如下式:式中,fij为该波段的像元亮度值,fmin为该波段像元亮度最小值,fg为经直方图校正后影像像元亮度值;
所述波段组合的具体内容为:设置不同的波段组合方式生成假彩色影像。
3.根据权利要求1所述的一种基于自适应感知机的遥感影像智能解译方法,其特征在于,根据所述目标地物复杂程度阈值选择对应网络深度的遥感地物解译模型,其中,所述目标地物复杂程度阈值与所述遥感地物解译模型的对应关系为:所述目标地物复杂程度阈值>k1时,对应UNet‑2模型;k2<所述目标地物复杂程度阈值≤k1时,对应UNet‑1模型;所述目标地物复杂程度阈值≤k2时,对应UNet模型,其中,k1>k2,k1、k2均为常数,且0
4.根据权利要求1所述的一种基于自适应感知机的遥感影像智能解译方法,其特征在于,S101中对所述预处理后的影像数据按0.8:0.1:0.1比例划分为训练集、测试集、验证集;其中,所述训练集为改进UNet遥感地物解译模型训练使用的样本集,所述测试集为改进UNet遥感地物解译模型交叉验证所使用的样本集,所述验证集为改进UNet遥感地物解译模型训练结束后评估模型性能所使用的样本。
5.一种基于自适应感知机的遥感影像智能解译系统,其特征在于,应用所述权利要求
1‑4任一项所述的一种基于自适应感知机的遥感影像智能解译方法,包括依次连接的影像预处理模块、自适应感知机构建模块、特征训练模块和遥感智能解译模块;
所述影像预处理模块,用于获取遥感影像地物解译公开数据集,对所述公开数据集进行预处理后,得到预处理后的影像数据,将所述预处理后的影像数据按比例进行划分得到训练集、测试集和验证集;
所述自适应感知机构建模块,用于构建感知机模型,对所述训练数据集进行计算,输出目标地物复杂程度阈值;
所述特征训练模块,用于根据所述目标地物复杂程度阈值,选用多种尺度和多种网络深度的改进UNet遥感地物解译模型,对所述公开数据集中所选解译类别地物进行训练权重迭代求解,获取遥感地物智能解译权重模型;
所述遥感智能解译模块,用于将所述遥感地物智能解译权重模型导入所述改进UNet遥感地物解译模型,输入测试集,进行自适应遥感地物智能解译。 说明书 : 一种基于自适应感知机的遥感影像智能解译方法及系统技术领域[0001] 本发明涉及深度学习在遥感影像目标解译技术领域,尤其涉及一种基于自适应感知机的遥感影像智能解译方法及系统。背景技术[0002] 遥感技术是研究全球地表覆盖状况及变化的重要手段。近年来,深度学习技术快速发展,其可以通过迭代训练的方式完成海量数据确定目标的识别、提取、反演等任务。理论上,深度学习可以通过遥感影像地物解译数据集提取特定目标,实现大范围遥感智能解译。[0003] 目前应用深度学习技术进行遥感地物智能解译应用最为广泛的模型为2015年提出的全卷积神经网络(FullyConvolutionalNetworks,FCN)模型及其改进模型。但是,FCN模型在建模时,未考虑目标地物前、背景之间的差异,这显然与现实情况中复杂的遥感地物解译不符且存在运算量大、模型部署难度大、计算时间长等问题。同年,UNet模型的提出,为复杂的遥感地物解译带来了可能,UNet模型在减少数据成本的同时,保证了提取精度,但该方法的解译速度仍有待提升。近年来,基于FCN和UNet的改进模型应用于遥感、测绘、图像、计算机等多个领域,能够解决单一领域的确定任务,但均未考虑目标物体的前、背景之间的差异,未能自适应选择适合于某一特定目标的最佳尺度模型。[0004] 因此,在复杂背景遥感影像地物智能解译中,提出一种基于自适应感知机的遥感影像智能解译方法及系统,解决现有技术中存在的问题,是本领域技术人员亟需解决的问题。发明内容[0005] 有鉴于此,本发明提供了一种基于自适应感知机的遥感影像智能解译方法及系统,解决传统UNet模型未考虑目标地物前、背景之间的差异,将遥感地物解译描述为固定的单一任务,与现实不符的问题。[0006] 为了实现上述目的,本发明采用如下技术方案:[0007] 一种基于自适应感知机的遥感影像智能解译方法,包括以下步骤:[0008] S101:获取遥感影像地物解译公开数据集,对所述公开数据集进行预处理后,得到预处理后的影像数据,将所述预处理后的影像数据按比例进行划分得到训练集、测试集和验证集;[0009] S102:构建感知机模型,对所述训练数据集进行计算,输出目标地物复杂程度阈值;[0010] S103:根据所述目标地物复杂程度阈值,选用多种尺度和多种网络深度的改进UNet遥感地物解译模型,对所述公开数据集中所选解译类别地物进行训练权重迭代求解,获取遥感地物智能解译权重模型;[0011] S104:将所述遥感地物智能解译权重模型导入所述改进UNet遥感地物解译模型,输入测试集,进行自适应遥感地物智能解译。[0012] 可选的,S101中的预处理包括:直方图校正和波段组合;[0013] 其中,所述直方图校正的具体内容为:[0014] 将每波段的M×N个像元亮度值均减去本波段像元亮度最小值,其中,影像宽为M个像元,高为N个像元,计算如下式:[0015][0016] 式中,fij为该波段的像元亮度值,fmin为该波段像元亮度最小值,fg为经直方图校正后影像像元亮度值;[0017] 所述波段组合的具体内容为:设置不同的波段组合方式生成假彩色影像。[0018] 可选的,S102中所述构建感知机模型包括以下步骤:[0019] S1021:将所述预处理的公开数据集,进行图像堆叠,组成线性可分的感知机数据集,公式如下[0020] T={(x1,y1),(x2,y2),...,(xn,yn)}(2)[0021] 式中,xi∈X=Rn,yi∈Y=Rn,i=1,2,...,N,xi,yi均为在最大间隔超平面ω*x+b*=*0上的特征点;X为二维特征超平面的任意轴,Y为二维特征超平面中与X正交的轴,ω 为二*维特征超平面在空间直角坐标系中X‑O‑Z面上投影的斜率,b 为二维特征超平面在空间直角坐标系中X‑O‑Z面上投影与Z轴的截距,n为n维特征空间,N为整数集。[0022] S1022:定义感知机损失函数为误分类点到特征分类超平面的距离之和,如下式所示,[0023][0024] 其中,误分类点的感知机输出结果与真实结果的符号相反,如下式所示,[0025][0026] 融合损失函数的自适应感知机模型表达式如下式所示,[0027][0028] 式(3)‑(5)中,M为误分类点的集合。[0029] 可选的,S103中改进UNet遥感地物解译模型为基于UNet模型构建2组遥感地物解译模型,具体内容如下:[0030] UNet‑1模型:由9个3×3卷积模块、3个最大池化模块组成特征提取网络;具体的,由9个反卷积模块对目标特征信息进行上采样,并通过3次层间连接将特征提取网络提取的包含目标地物低阶位置信息的特征图与上采样部分保留高阶语义信息的特征图融合,对所述预处理后的公开数据集的目标地物的端到端进行提取与分类;[0031] UNet‑2模型:由6个3×3卷积模块、2个最大池化模块组成特征提取网络;具体的,由6个反卷积模块组成上采样网络,2次层间连接实现低阶位置信息与高阶语义信息的融合,对所述预处理后的公开数据集的前、背景区域场景目标地物进行提取与分类。[0032] 可选的,根据所述目标地物复杂程度阈值选择对应网络深度的遥感地物解译模型,其中,所述目标地物复杂程度阈值与所述遥感地物解译模型的对应关系为:所述目标地物复杂程度阈值>k1时,对应UNet‑2模型;k2<所述目标地物复杂程度阈值≤k1时,对应UNet‑1模型;所述目标地物复杂程度阈值≤k2时,对UNet模型,其中,k1>k2,k1、k2均为常数,且0[0033] 可选的,S101中对所述预处理后的影像数据按0.8:0.1:0.1比例划分为训练集、测试集、验证集;其中,所述训练集为改进UNet遥感地物解译模型训练使用的样本集,所述测试集为改进UNet遥感地物解译模型交叉验证所使用的样本集,所述验证集为改进UNet遥感地物解译模型训练结束后评估模型性能所使用的样本。[0034] 一种基于自适应感知机的遥感影像智能解译系统,包括依次连接的影像预处理模块、自适应感知机构建模块、特征训练模块和遥感智能解译模块;[0035] 所述影像预处理模块,用于获取遥感影像地物解译公开数据集,对所述公开数据集进行预处理后,得到预处理后的影像数据,将所述预处理后的影像数据按比例进行划分得到训练集、测试集和验证集;[0036] 所述自适应感知机构建模块,用于构建感知机模型,对所述训练数据集进行计算,输出目标地物复杂程度阈值;[0037] 所述特征训练模块,用于根据所述目标地物复杂程度阈值,选用多种尺度和多种网络深度的改进UNet遥感地物解译模型,对所述公开数据集中所选解译类别地物进行训练权重迭代求解,获取遥感地物智能解译权重模型;[0038] 所述遥感智能解译模块,用于将所述遥感地物智能解译权重模型导入所述改进UNet遥感地物解译模型,输入测试集,进行自适应遥感地物智能解译。[0039] 经由上述的技术方案可知,与现有技术相比,本发明提供了一种基于自适应感知机的遥感影像智能解译方法及系统:将遥感影像数据集经过直方图校正和波段组合的预处理,突出目标地物的前景、背景之间的差异,便于目标地物提取的同时减少了模型计算量和模型训练时间;采用自适应感知机与改进UNet相结合的遥感地物解译技术更符合现实场景,可适用于多种目标地物遥感解译,适用范围广,应用更灵活;通过设置目标地物复杂程度判读阈值大小,并根据UNet模型改进得到多个不同网络深度的解译网络,在不同目标地物解译的情况下能保证解译精度、提升总体解译速度;实现容易,可以更好地服务于遥感解译、全球地表覆盖变化研究等。附图说明[0040] 为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。[0041] 图1为基于自适应感知机的遥感影像智能解译方法原理图;[0042] 图2基于自适应感知机的遥感影像智能解译方法的解译网络结构图;[0043] 图3为本发明一种基于自适应感知机的遥感影像智能解译方法流程图;[0044] 图4为本发明一种基于自适应感知机的遥感影像智能解译系统结构框图;[0045] 图5为本发明地物解译结果图,其中5a某镇遥感影像图,5b基于本方法遥感智能解译图。具体实施方式[0046] 下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。[0047] 参照图1所示,公开了基于自适应感知机的遥感影像智能解译方法原理图,包括三个方面:影响预处理、自适应感知机和遥感智能解译。[0048] 参照图2所示,为基于自适应感知机的遥感影像智能解译方法的解译网络结构图,包括:UNet模型、UNet‑1模型和UNet‑2模型。[0049] 参照图3所示,本发明公开了一种基于自适应感知机的遥感影像智能解译方法,包括以下步骤:[0050] S101:获取遥感影像地物解译公开数据集,对公开数据集进行预处理后,得到预处理后的影像数据,将预处理后的影像数据按比例进行划分得到训练集、测试集和验证集;[0051] S102:构建感知机模型,对训练数据集进行计算,输出目标地物复杂程度阈值;[0052] S103:根据目标地物复杂程度阈值,选用多种尺度和多种网络深度的改进UNet遥感地物解译模型,对公开数据集中所选解译类别地物进行训练权重迭代求解,获取遥感地物智能解译权重模型;[0053] S104:将遥感地物智能解译权重模型导入改进UNet遥感地物解译模型,输入测试集,进行自适应遥感地物智能解译。[0054] 进一步的,S101中的预处理包括:直方图校正和波段组合;[0055] 其中,直方图校正的具体内容为:[0056] 对于山体阴影处,反射率极低的深海水体处等像元辐射亮度或反射亮度应为0或趋近于0的像元,其实际像素值为大气散射的影响,基于直方图校正方法,将每波段的M×N个像元亮度值均减去本波段像元亮度最小值,其中,影像宽为M个像元,高为N个像元,计算如下式:[0057][0058] 式中,fij为该波段的像元亮度值,fmin为该波段像元亮度最小值,fg为经直方图校正后影像像元亮度值;[0059] 波段组合的具体内容为:设置不同的波段组合方式生成假彩色影像。通过预处理,去除大气层辐射对遥感影像的影响以及突出影像前、后景之间的差异。具体的,多光谱影像的不同波段对不同地物具有不同的波谱反射特性,设置不同的433、456等波段组合方式生成假彩色影像,突出多种目标地物在影像上的前背景之间的差异。[0060] 进一步的,S102中构建感知机模型包括以下步骤:[0061] S1021:将预处理的公开数据集,进行图像堆叠,组成线性可分的感知机数据集,公式如下[0062] T={(x1,y1),(x2,y2),...,(xn,yn)}(2)[0063] 式中,xi∈X=Rn,yi∈Y=Rn,i=1,2,...,N,xi,yi均为在最大间隔超平面ω*x+b*=*0上的特征点;X为二维特征超平面的任意轴,Y为二维特征超平面中与X正交的轴,ω 为二*维特征超平面在空间直角坐标系中X‑O‑Z面上投影的斜率,b 为二维特征超平面在空间直角坐标系中X‑O‑Z面上投影与Z轴的截距,n为n维特征空间,N为整数集。[0064] 其中,自适应感知机模型分类函数表达式为:[0065] f(x)=sign(ω*x+b*)(6)[0066] 式中,x为输入的特征向量,具体为输入训练集图像中目标地物前、背景区域之间* *的颜色差异及边界轮廓;ω x+b为特征分类超平面;[0067] S1022:定义感知机损失函数为误分类点到特征分类超平面的距离之和,如下式所示,[0068][0069] 其中,误分类点的感知机输出结果与真实结果的符号相反,如下式所示,[0070][0071] 融合损失函数的自适应感知机模型表达式如下式所示,[0072][0073] 式(3)‑(5)中,M为误分类点的集合。[0074] 其中,感知机模型输出对不同假彩色数据集、不同目标地物的目标地物复杂程度判读结果转化为目标地物复杂程度阈值,并输入到改进UNet网络中。[0075] 进一步的,S103中改进UNet遥感地物解译模型为基于UNet模型构建2组遥感地物解译模型,具体内容如下:[0076] UNet‑1模型:由9个3×3卷积模块、3个最大池化模块组成特征提取网络;具体的,由9个反卷积模块对目标特征信息进行上采样,并通过3次层间连接将特征提取网络提取的包含目标地物低阶位置信息的特征图与上采样部分保留高阶语义信息的特征图融合,对所述预处理后的公开数据集的目标地物的端到端进行提取与分类;[0077] UNet‑2模型:由6个3×3卷积模块、2个最大池化模块组成特征提取网络;具体的,由6个反卷积模块组成上采样网络,2次层间连接实现低阶位置信息与高阶语义信息的融合,对所述预处理后的公开数据集的前、背景区域场景目标地物进行提取与分类。[0078] 进一步的,根据目标地物复杂程度阈值选择对应网络深度的遥感地物解译模型,其中,目标地物复杂程度阈值与对遥感地物解译模型的对应关系为:目标地物复杂程度阈值>k1时,对应UNet‑2模型;k2<目标地物复杂程度阈值≤k1时,对应UNet‑1模型;目标地物复杂程度阈值≤k2时,对UNet模型,其中,k1>k2,k1、k2均为常数,且0[0079] 依据感知机模型输出结果,将基于前述阈值判断为简单目标的地物输入到层数较少、模型较简单的UNet‑1、UNet‑2解译网络中,以减少模型的计算量,增加计算速度;将基于前述阈值判断为复杂的目标地物,因其前、背景区域色彩、纹理、轮廓等相似程度大,目标地物易受背景干扰,将其输入到深层卷积网络中,在提取低阶特征图的目标位置信息的同时,提取高阶特征图中的目标语义信息,从而达到对目标精确提取的目的。[0080] 进一步的,S101中对预处理后的影像数据按0.8:0.1:0.1比例划分为训练集、测试集、验证集;其中,所述训练集为改进UNet遥感地物解译模型训练使用的样本集,所述测试集为改进UNet遥感地物解译模型交叉验证所使用的样本集,所述验证集为改进UNet遥感地物解译模型训练结束后评估模型性能所使用的样本。[0081] 参照图4所示,本发明还公开了一种基于自适应感知机的遥感影像智能解译系统,应用上述的一种基于自适应感知机的遥感影像智能解译方法,包括依次连接的影像预处理模块、自适应感知机构建模块、特征训练模块和遥感智能解译模块;[0082] 影像预处理模块,用于获取遥感影像地物解译公开数据集,对公开数据集进行预处理后,得到预处理后的影像数据,将预处理后的影像数据按比例进行划分得到训练集、测试集和验证集;[0083] 自适应感知机构建模块,用于构建感知机模型,对训练数据集进行计算,输出目标地物复杂程度阈值;[0084] 特征训练模块,用于根据目标地物复杂程度阈值,选用多种尺度和多种网络深度的改进UNet遥感地物解译模型,对公开数据集中所选解译类别地物进行训练权重迭代求解,获取遥感地物智能解译权重模型;[0085] 遥感智能解译模块,用于将遥感地物智能解译权重模型导入改进UNet遥感地物解译模型,输入测试集,进行自适应遥感地物智能解译。[0086] 为进一步清晰说明本发明一种基于自适应感知机和改进UNet模型遥感影像智能解译方法,采用欧洲全球环境与安全监测系统项目提供的辽宁沈阳地区的一景Sentinel影像及AIDDataset遥感影像分类公开数据集对本专利模型和算法进行验证。注意,此处仅用于举例说明,本发明并不限定数据源。[0087] 实验数据采用AIDDataset遥感影像分类公开数据集,利用美国ExelisVisualInformationSolutions公司发布的ENVI软件进行数据预处理。[0088] 具体步骤如下:[0089] S1,遥感影像预处理:获取关于遥感影像地物解译公开数据集,进行直方图校正和波段组合,去除大气层辐射对遥感影像的影响以及突出影像前、背景之间的差异,具体方法如下:[0090] 1)直方图校正:[0091] 对于山体阴影处像元辐射亮度应为0或趋近于0的像元,其实际像素值为大气散射的影响,利用ENVI软件的直方图校正方法,将每波段的MN个像元亮度值(影像宽为M个像元,高为N个像元)均减去本波段像元亮度最小值,如式(1)。[0092] 2)影像波段组合:[0093] 多光谱影像的不同波段对不同地物具有不同的波谱反射特性,通过研究采用543波段组合、652波段组合和432波段组合这三种波段组合的假彩色影像。突出多种目标地物在影像上的前、背景之间的差异。并将预处理后的影像数据按0.8:0.1:0.1比例划分为训练集、测试集、验证集。[0094] S2,感知机模型构建:[0095] 构建感知机模型,对训练集数据进行目标地物复杂程度判读,对数据前、背景之间的色彩差异、目标地物轮廓进行加权分析,输出判读阈值,感知机模型分类函数表达式如式(6);通过计算特征空间中各特征向量到特征超平面的最大距离,确定感知机模型分类函数,具体方法如下:[0096] 1)数据线性可分:[0097] 基于前述不同波段组合的多张假彩色影像,扩充本专利获取的AIDDataset遥感影像分类公开数据集,将不同遥感影像地物解译数据集作为自适应感知机的输入参数,如式(2)。[0098] 2)感知机学习:[0099] 定义感知机损失函数为,误分类点到特征分类超平面的距离之和,如式(3)。其中,误分类点的感知机输出结果与真实结果的符号相反,如式(4)。融合损失函数的自适应感知机模型表达式如(5),M为误分类点的集合。感知机学习后输出目标地物复杂程度阈值(P)。[0100] 感知机模型输出对不同假彩色数据集、不同目标地物的目标地物复杂程度判读结果转化为目标地物复杂程度阈值,并输入到改进UNet网络中。[0101] S3,遥感智能解译:[0102] 此步骤主要是在感知机输出后选择对应解译网络进行目标地物特征提取及遥感地物解译,包括:[0103] 1)目标地物特征提取:[0104] 依据自适应感知机输出结果,将基于前述阈值判断为简单目标的地物输入到层数较少、模型较简单的UNet‑1、UNet‑2解译网络中,以减少模型的计算量,增加计算速度;将基于前述阈值判断为复杂的目标地物,因其前、背景区域色彩、纹理、轮廓等相似程度大,目标地物易受背景干扰,将其输入到深层卷积网络中,在提取低阶特征图的目标位置信息的同时,提取高阶特征图中的目标语义信息,从而达到对目标精确提取的目的。[0105] 2)遥感地物解译:[0106] 利用前述不同波段组合的假彩色数据集在改进UNet模型上进行训练权重迭代求解,通过调参获得最优化训练权重,并对目标地物进行智能解译。将不同波段组合条件下的自适应感知机语义判断为简单地物的提取结果进行特征堆叠,实现多类遥感地物智能解译。[0107] 参照图3所示,给出了采用本实施例得出的遥感地物解译结果。为定量分析,本发明采用专家目视解译作为参考,构建数学模型,对该方法的解译准确性进行评估。将经解译后的遥感影像结果图(解译图)与专家目视解译的遥感影像(即专家图)二值化处理。使目标地物部分像素为255,背景部分像素为0,将对两种图像的像素级对比结果作为评价指标。本文采用三个性能指标对遥感智能解译方法进行评价,即精确率(precision)、召回率(Recall)、准确率(Accuracy)定义为:[0108][0109] 式(7)‑(9)中:TP为解译图和专家图中像素值均为255的像素点数量,即该算法正确识别的像素数量;FP—解译图像素值为255但专家图像素值为0的像素点数量,即该算法误识别的像素数量;FN—解译图像素值为0但专家图像素值为255的像素点数量,即该算法遗漏的目标地物所占像素点的数量;TN—解译图和专家图中像素值均为0的像素点数量,即检测算法正确判断为背景区域的像素数量。采用本发明算法得出的植被高度结果,其对应的准确率为91.3%,召回率为87.7%,精确率为90.3%,与现有技术中的专家标注结果相比精度高。[0110] 对所公开的实施例的上述说明,按照递进的方式进行,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
专利地区:辽宁
专利申请日期:2022-01-20
专利公开日期:2024-11-19
专利公告号:CN114418000B