联合UNet++和多级差分模块的多源光学遥感影像对象级变化检测

2023-03-15 01:47李俊勇
测绘学报 2023年2期
关键词:变化检测尺度卷积

王 超,王 帅,陈 晓,4,李俊勇,谢 涛

1.南京信息工程大学电子与信息工程学院,南京 210044;2.南京信息工程大学遥感与测绘工程学院,南京 210044;3.青岛海洋科学技术国家实验室区域海洋学与数值模拟实验室,青岛 266237;4.南京信息工程大学江苏省大气环境与装备技术协同创新中心,南京 210044

遥感影像变化检测通过对多时相图像进行对比分析从而获得变化的地理对象,目前已广泛应用于土地利用规划、灾害评估等领域[1-2]。相较于单源影像方法,基于多源光学遥感影像的变化检测方法利用多模式数据的差异性与互补性有助于发现隐藏的知识和规律,同时具有更高的数据选择灵活性及方法可用性[3-4]。近年来,随着不同对地观测平台的日益丰富,面向多源光学遥感影像的变化检测技术已成为遥感技术与应用领域中的研究热点。

与此同时,不同传感器带来的光谱、纹理及成像视角等差异降低了对象内部像素的空间一致性,导致变化检测过程面临的“伪变化”问题更为突出,即跨多传感器实现变化检测比单传感器更具挑战性[5]。为此,学者们已经开展了广泛的研究工作并取得了诸多成果。文献[6]将成像模态不变算子与多尺度特征相结合,以应对多源光学卫星图像中各结构区域高频特征的差异。文献[7]先通过分割将图像划分为均匀的图像目标集合,再根据分类对象的隶属度定义判别准则对图像进行分类,进而获得多源光学图像的变化检测结果。文献[8]联合视觉与语义特征,提出了一种基于词袋(bag of words,BOW)模型和主动学习的变化检测方法,有助于减少由于多源光学影像成像差异而造成的“伪变化”。尽管如此,以上方法均采用用户定义的变化特征,检测性能容易受到先验知识、成像环境差异等制约因素的影响。

近年来,基于深度学习的遥感影像处理技术获得了学者们的广泛关注,并已在多源光学遥感影像变化检测任务中展现出了优异的性能。基于深度学习的变化检测方法从影像自身出发,利用神经网络强大的抽象化表示能力,自动提取多层次、多维度深层变化特征[9-10]。文献[11]提出了一种面向多源影像的深度卷积耦合网络,该网络由对称的卷积层和耦合层组成,通过将多时相图像分别转换到特征空间,从而得到更一致的特征表示。文献[12]提出了一种基于深度Siamese卷积网络与混合卷积特征提取模块(hybrid convolutional feature extraction module,HCFEM)的多源图像监督变化检测方法,其扩张卷积网络结构能够有效地提取深度变化特征。此外,采用UNet及其改进模型UNet++等分割网络的变化检测模型由于提取的特征与输入图像尺寸具有很好的一致性,且具有很强的细节特征提取能力,受到了学者们的广泛重视。文献[13]设计了一种面向光学影像变化检测的差分增强密集注意卷积神经网络(difference-enhancement dense-attention convolutional neural network,DDCNN),使用UNet++结构作为主干,有效模拟高、低级特征之间的内在相关性,并结合差分增强(difference enhancement,DE)单元实现了聚合特征的加权提取。文献[14]提出了一种基于UNet的跨层卷积神经网络(cross-layer network,CLNet),通过嵌入所设计的跨层块(cross-layer block,CLB)以合并多尺度特征和多级上下文信息,在多源光学变化检测中取得了很好的效果。

尽管如此,在多源光学变化检测任务中,变化区域通常分布更加离散且表现形式差异显著,因而对变化信息的准确提取提出了更高要求[15-16]。另一方面,传统UNet结构忽略了对变化区域的自主定位及变化特征的强化学习。此外,UNet作为一种语义分割网络,其输出的像素级变化检测结果与真实地理对象之间存在着显著的语义鸿沟,限制了其在变化检测领域中的实际应用[17-18]。

为此,本文提出一种联合UNet++和多级差分模块的对象级变化检测方法。在以UNet++作为主网络框架基础上,设计一种多尺度特征提取差分模块(multi-scale feature extraction difference module,MFED),旨在突出变化区域特征的同时减少“伪变化”的影响;在此基础上,结合深度网络输出的像素级变化检测结果,提出一种加权DS证据融合策略(weighted dempster shafer evidence fusion,WDSEF),从而实现像素级检测结果到对象的跨越。多组试验结果表明,本文方法的变化检测效果均显著优于其他先进的对比方法,在不同空间分辨率和时相差异条件下总体精度(overall accuracy,OA)和F1score分别可达91.92%和63.31%以上。

1 多源光学遥感变化检测方法

本文提出的多源光学遥感影像变化检测主要包括3个部分:①数据预处理;②基于MFED-UNet++的像素级变化检测;③联合多尺度证据融合的变化对象识别。具体流程如图1所示,T1和T2分别代表不同时相的影像。

图1 所提方法的总体流程

1.1 数据预处理

1.1.1 影像配准与对象集合提取

由于多源光学遥感影像通常存在着空间分辨率差异,本文采用商业软件Envi进行重采样并进行配准处理。其中,两个数据集均以低分辨率影像为基准,对高分辨率影像进行重采样。为保证配准精度,通过调整和删除不符合要求的控制点,确保均方根误差(root mean square error,RMSE)不超过0.5[19-20]。

由于对象级变化检测要求在多时相影像中提取统一的对象集合,本文对已配准影像作进一步的影像分割。分割采用目前流行的商业软件eCognition中的多分辨率分割,其由分形网络演化算法(fractal network evolution algorithm,FNEA)发展而来[21-22]。基于采集时间较晚的影像进行目视解译调参后,4组数据集中尺度参数、形状参数和紧致度参数分别设置为[35,0.5,0.3],[34,0.6,0.3],[35,0.4,0.4]和[36,0.6,04]。最后根据坐标对应关系将分割边界投影到另一时相影像中,从而获得包含N个对象的集合Rall。

1.1.2 数据集标注

为充分验证本文方法在不同空间分辨率、不同时相差异条件下的精度及可靠性,本文试验采用不同地区的4组多源光学高分遥感影像数据集。数据集1和数据集2均为典型的城市区域。其中,数据集1采用南京地区和银川地区不同时相的高分一号(GF-1)和高分二号(GF-2)光学影像,空间分辨率分别为2 m和0.81 m;数据集2采用南京地区和银川地区不同时相的资源3号(ZY-3)和GF-2光学影像,空间分辨率分别为2.1、0.81 m。数据集3和数据集4除了城市场景外,还包含山地和丘陵等不同地区。其中,数据集3采用南京地区不同时相的Worldview-2和航拍光学影像,空间分辨率分别为2和0.5 m,空间分辨率差异达4倍;数据集4采用贵阳地区不同时相的GF-1和GF-2光学影像,空间分辨率分别为2、0.81 m,时相差异超过5 a。4组数据集如图2所示。

图2 数据集研究区域

在1.1.1节预处理策略基础上,本文将原始影像裁剪为128×128像素的子图像集合,将每个子图像视为一个样本作为后续深度网络的输入。在样本标注中,本文结合目视分析和Google Earth对每个样本进行人工解译,并将该样本中的每个对象标注为“变化”或“未变化”。最终,数据集1共取得1232个样本,数据集2共取得1280个样本,数据集3共取得1249个样本,数据集4共取得2929个样本。图3的4个子图分别展示了一个样本对应的原始影像、影像分割及标注结果(其中黑色为“未变化”,白色为“变化”)。

图3 数据集标签展示

1.2 基于MFED-UNet++的像素级变化检测

变化检测任务的实质是图像的二分类问题,为此本文采用UNet++_MSOF作为基础网络进行语义分割。UNet++是一种编码器-解码器结构类型的网络,采用密集的跳跃连接结构,具有很强的特征提取和细节保留能力[23]。在此基础上,通过采用多边输出融合策略(multiple side-output fusion,MSOF)将高级语义信息和低级纹理特征结合起来,能更好地保留细节边缘,避免混淆效应[24]。尽管如此,面对更加复杂的多源光学影像变化特征提取,UNet++并未专门强化对差分信息的学习,导致模型难以有效应对突出的“伪变化”问题。为此,本文在编码器部分设计了一种多尺度特征提取差分模块MFED来增强对变化类特征的学习,从而提高模型对真实变化信息的鉴别能力。MFED-UNet++的基本框架如图4所示,其中MFEM(multi-scale feature extraction module)是多尺度特征提取模块,Y0,Y1,…,Y4对应的5个输出结果分别代表了MFED-UNet++在不同深度网络中所提取的变化特征。

图4 基于MFED-UNet++的像素级变化检测框架

1.2.1 UNet++_MSOF的基本框架

如图4所示,UNet++由卷积单元、下采样模块、上采样模块及卷积单元之间密集的跳跃连接组成。其中,卷积单元Xi,j采用VGG16中的块结构[25];xi,j表示Xi,j的输出特征映射;i表示第i个下采样层;j表示跳跃方向上的第j个卷积单元

(1)

在此基础上,MSOF令4个输出节点{X0,1,X0,2,X0,3,X0,4}经过sigmoid层获得4个侧输出{Y0,Y1,Y2,Y3},然后通过连接4个侧输出的结果生成第5个输出节点

X0,5=[Y0,Y1,Y2,Y3]

(2)

式中X0,5通过sigmoid层生成第5个输出Y4,从而获得UNet++_MSOF的5个输出{Y0,Y1,Y2,Y3,Y4}。

1.2.2 MFED模块

本文所设计的MFED模块由MFEM模块及多级差分模块构成,MFEM模块如图5所示。

图5 MFEM模块展示

MFEM联合了4个不同卷积层组成的通道:通道1通过将最大池化和平均池化并联在1×1卷积层之前,以增加对全局信息的感知;通道2采用了扩张率为1的3×3卷积单元;通道3通过Add函数融合扩张率为1和2的3×3卷积单元的输出结果;通道4通过Add函数融合扩张率为2和5的3×3卷积单元的输出结果,由此可获得通道2、3、4所提供的不同深度的抽象特征。在此基础上,在4条通道的输出位置加入了卷积注意力模块(convolutional block attention module,CBAM)[26],从而使模型能够聚焦对多源光学影像关键特征的学习。

在MFED模块中,通过对多尺度特征进行差分后可获得原始差分特征图,并执行下采样和卷积单元运算,从而得到与UNet++_MSOF编码器部分的5个卷积层分别对应的差分特征Di:{D0,D1,D2,D3,D4}。此时,式(1)中的xi,j在添加了本文设计的MFED模块后更新为xMFEDi,j

(3)

式中,当j=0时,差分特征映射Di作为编码器部分卷积单元输入的一部分。由此可得到MFED-UNet++所输出的5层像素级变化检测结果。

1.3 联合多尺度证据融合的变化对象识别

MFED-UNet++的输出反映了每个像素在不同网络深度中的多尺度变化信息。尽管如此,由于来源于不同深度网络的学习结果,其可信程度(即置信度)也不尽相同。为此,本文首先设计了一种自适应证据置信度指标(adaptive evidence credibility indicators,AECI),以定量每层输出结果的可信程度。在此基础上,结合影像分割所提取的对象集合与DS证据理论,提出了一种联合多尺度证据融合的变化对象识别WDSEF。

1.3.1 证据置信度指标AECI自适应提取

在MFED-UNet++训练过程中,通过对预测结果与验证集进行比较能够获得不同卷积层的预测精度和损失函数值。当深度学习模型收敛后,若某层对应的预测精度越高或损失函数越小,通常其输出结果的可信程度越高;此外,随着网络深度的增加,通常也意味着更好的非线性表达能力,从而能够学习更加复杂的变化特征[24,27]。为此,本文综合预测精度、损失函数值及网络深度,提出了一种面向DS融合的证据置信度指标AECI

(4)

式中,e为数学常数;s=1,2,…,5代表不同层次的网络深度,训练过程中,本文采用基于验证集的损失函数值取得最小作为模型收敛的依据,此时记录第s层的预测精度和损失函数值并分别用VAs和Ls表示。由此可见,作为一种归一化指标,AECI可根据模型训练结果自适应确定,AECI越大,则预测结果的可信程度越高。

1.3.2 基于DS理论的识别框架

令Rall中的任一对象为Rn(n=1,2,…,N),定义识别框架Θ:{P,Q},其中P和Q分别代表变化和未变化,则Θ的非空子集A包括{P},{Q}和{P,Q}。在此基础上,定义基本概率分配函数公式(basic probability assignment functions,BPAF)为m:2Θ→[0,1],且满足以下条件

(5)

则基于这个约束条件的合成规则如下

(6)

2 试验与结果分析

2.1 试验设置与对比方法

本文采用1.1.2节中的4组多源光学高分遥感影像数据集开展试验,每组数据集按照6∶1∶3的样本比例划分为训练集、验证集和测试集。此外,试验采用Keras实现,TensorFlow作为后端,采用基于交叉熵的损失函数[24],所有卷积层的卷积核大小均设置为3×3像素。

在此基础上,本文选择了4种先进的对比方法进行比较试验,具体包括:①UNet++_MSOF,该框架在UNet++的特征融合阶段采用了一种MSOF策略,能够有效地捕获复杂场景中不同尺度的变化信息[23];②CLNet,通过在UNet结构中嵌入CLB模块,能够有效融合多尺度特征和多级上下文信息[14];③MPFF-CNN,该框架通过融合不同尺度输入下得到的特征,充分利用样本的空间特征信息,结合影像分割和投票法得到变化检测结果[28];④OB-DSCNH,该框架面向多源光学遥感影像变化检测,提出了基于Siamese网络和混合卷积的特征提取模块[12]。其中,前两种是像素级的变化检测方法,本文依据像素内比例占优的像素类别确定对象级变化检测结果;后两者则可以直接获得对象级变化检测结果。此外,4种对比方法均采用本文所提取的对象集合,作为开展对象级精度评价的基本单元。

2.2 不同网络的性能比较

2.2.1 试验结果与目视分析

为便于目视分析,在数据集1和数据集2试验中各选择了两块具有代表性的密集建筑物区域进行展示,在数据集3和数据集4试验中各选择了两块包含山地、丘陵的区域进行展示。在前两组数据集中,区域1的变化主要体现在个别建筑物的新建或拆除,对应建成区中开展的部分区域更新改造的应用场景;区域2主要是大面积的荒地与变为整齐排列的密集建筑物区域,对应城市快速发展过程中对荒地的原始开发场景。在数据集3中,区域1和区域2主要是人为施工造成的变化;数据集4中,区域1和区域2主要是人为施工或物候差异造成的植被覆盖变化。在此基础上,进一步采用橙色框代表真实变化区域,紫色框代表未变化但光谱、纹理等存在较大差异的“伪变化”区域,本文方法与对比方法的试验结果如图6—图9所示。

由图6—图9可见,本文方法在两种常见的实际应用场景中,变化检测效果显著优于其他4种对比方法。与本文方法相比,UNet++_MSOF、CLNet和MPFF_CNN均属于单源影像的变化检测方法,这些方法将多时相影像进行通道合并输进网络进行训练,而没有针对性的加强对图像中的可能变化区域的特征提取能力,因此会很容易受到多源光学影像中“伪变化”的影响。如图6(f)和(h)的区域1及区域2的橙色框所示,CLNet和MPFF_CNN存在明显的漏检;而在图7(e)的两个区域及图7(h)的区域1的紫色框中,UNet++_MSOF和MPFF_CNN则出现了误检,主要是将阴影检测为变化区域;在图8(h)和图9(h)的区域1及区域2的紫色框中,MPFF_CNN出现了明显的误检和漏检。对于山地、丘陵地区发生的变化,如图8和图9的区域2所示,虽然所有方法都能检测到变化信息,但只有本文方法误检和漏检最少,且较为完整地提取了整片变化区域。整体而言,OB-DSCNH与本文方法均属于多源光学检测方法,综合利用多时相、多尺度特征提取得到的差分特征集合,相较于其他3种方法,有效缓解了“伪变化”问题。尽管如此,OB-DSCNH仅依赖图像之间的差分特征,而忽视了原始单时相影像的抽象特征,因此容易在变化特征不明显的区域出现漏检,如图6(g)及图7(g)的区域2中的紫色框区域所示。与之相比,本文的MFED模块在特征提取阶段引入了注意力机制,且差分特征仅作为判别变化与否的辅助信息,因此效果更好。

图6 不同网络对数据集1的试验结果

图7 不同网络对数据集2的试验结果

图8 不同网络对数据集3的试验结果

图9 不同网络对数据集4的试验结果

2.2.2 定量评价

为了验证本文方法的有效性,本文采用准确率(Precision,P)、召回率(Recall,R)、F1score、OA和Kappa系数进行了精度评价。其中,P和R反映了变化对象检测结果的单类精度,P越大则虚警率越低,R越大则漏检率越低;F1score反映了P和R的均衡评价结果,OA和Kappa系数则揭示了变化检测的整体性能,它们的值越大则检测精度越高。

(7)

(8)

(9)

(10)

(11)

式中,TP、TN、FP、FN分别代表真阳性、真阴性、假阳性及假阴性。以变化对象为例,TP为变化被正确预测为变化概率;TN为非变化预测为非变化概率;FP为非变化预测为变化概率;FN为变化预测为非变化概率。结合上述评价指标与本文所提取的对象集合Rall,对不同方法的对象级变化检测结果进行定量评价(表1)。

表1 不同方法的对象级变化检测结果定量评价

如表1可知,在4组数据集中,本文方法的OA分别达到了95.74%、95.67%、96.71%和91.62%,Kappa系数则分别达到了0.559 3、0.659 3、0.739 4和0.656 4,显著优于其他对比方法。在数据集4试验中,5种方法的精度在P、R和F1score上均有显著提高,而在OA上却显著降低,那是由于在4组数据集中非变化对象的比例分别达到了94%、92%、93%和86%,数据集1、2和3中的变化对象相较于数据集4要少,导致了前3个数据集的精度指标OA存在一定程度的虚高。为此,基于P、R进一步评价本文方法对变化对象的检测性能。在数据集1中分别为60.91%和65.90%,在数据集2中分别为63.25%和74.23%,在数据集3中分别为72.29%和81.46%,在数据集4中分别为72.09%、72.01%。相较于OB-DSCNH分别提高了3.5%、6%以上。此外,相较于本文方法,3种单源影像方法UNet++_MSOF、CLNet和MPFF_CNN的F1score分别下降了4%、1.8%和6%以上。因此,本文方法的检测精度显著优于其他对比方法,与目视分析结论一致。

3 讨 论

3.1 MFED模块嵌入效果分析

为单独验证MFED模块的有效性,在均采用WDSEF的条件下,本文分别对基础网络UNet++_MSOF在嵌入MFED模块前后的检测效果进行了对比试验,结果见表2。

表2 MFED模块的嵌入效果分析

由表2可知,在嵌入MFED模块后,4组数据集试验中的OA提高了0.91%~1.73%,Kappa系数提高了0.02~0.08,F1score提高了3%以上,P和R也都有所提高。因此,在UNet++语义分割网络中,通过引入多尺度特征差分机制,有助于提高其对变化区域的特征提取能力,证明了所构建MFED模块是可行且有效的。

3.2 深度网络输出像素级结果对比分析

为单独验证所构建模型中深度网络部分的性能,在采用相同训练设置基础上,对不同网络的像素级预测结果进行定量评价,结果见表3。其中,本文方法采用最深层网络的输出结果进行评价。

表3 不同方法的像素级预测结果定量评价

由表3可知,与对象级检测结果分析结论类似,本文方法的深度网络输出结果依然显著优于4种对比方法。其中,OA在4组数据集试验中均达到了91.85%以上,F1score则达到60.06%以上。由此可见,在不采用像素至对象的映射的情况下,本文设计的网络能更准确地识别出多源光学遥感影像中的变化区域。此外,通过对比表1和表3可以看出,经过像素至对象映射后所有方法的各类精度评价指标都有所提升,这说明以对象作为分析基元有助于提高对变化区域的分类精度。

3.3 多尺度差分特征有效性分析

为了进一步验证所提取的多尺度差分特征的必要性,基于WDSEF,分别对全部尺度和每个尺度的对象级输出结果采用F1score进行精度评价,结果如图10所示。

图10 基于不同尺度输出的像素转对象的评价结果

图10中,Y0、Y1、Y2、Y3、Y4分别代表不同尺度,Y0~4代表全部尺度的集合。由图10可知,预测精度并不一定随着网络深度的增加而提高(如Y3的精度略低于Y2),但Y0~Y4整体上呈现出逐渐上升的趋势。此外,本文基于WDSEF综合利用了不同尺度的变化特征,预测精度显著优于单一尺度。因此,各个尺度的差分特征之间具有互补性,即联合多尺度特征的策略是可行且必要的。

3.4 AECI有效性分析

在本文提出的WDSEF中,自适应提取的AECI作为一个关键参数,反映了每个尺度差分特征的可信程度。为了证明其有效性,本文对所有尺度直接赋予一致的可信程度,并与采用AECI的效果进行对比,结果见表4。

由表4可知,采用AECI后各项精度都有一定的提高,尤其是在数据集1中,F1score提高了1.5%。因此,尽管采用不同尺度有助于从多个角度刻画差分特征,但其可靠程度存在差异。另一方面也说明,本文结合验证集的损失函数和精度来确定AECI的策略是合理且有效的。

表4 AECI有效性分析

3.5 图分辨率和时相差异影响分析

3.5.1 分辨率变化对精度影响分析

当影像的空间分辨率越高时,同一个地物对象内包含更多像素,因此包含更多的细节变化信息。为了分析不同分辨率的训练样本对网络训练效果的影响,本文对原始影像分别按照0.4、0.6和0.8倍进行了下采样。在此基础上,利用数据集1和数据集2两组多源光学数据集进行训练,并进行精度评价。空间分辨率与变化检测精度的关系曲线如图11所示。

由图11可知,随着分辨率的上升,采用本文方法的P、R、F1score都呈逐渐上升趋势。与原始影像相比,在两组数据集中,0.4倍下采样后的P分别下降了10.83%、13.91%;R分别下降了5.61%、8.94%;F1score分别下降了8.6%、12.03%。因此,更加丰富的细节信息有助于提高变化区域的检测精度,在数据集的分辨率越高则网络训练效果越好。

图11 影像空间分辨率对变化检测精度的影响

3.5.2 分辨率及时相差异对精度影响分析

为进一步分析双时相影像之间分辨率及时相差异的大小对于本文方法检测精度的影响,对4组数据集的试验统计结果见表5。

如表5所示,在双时相影像分辨率相同条件下,数据集1和数据集4的差异分别为约2 a和大于5 a,数据集4的OA相较于数据集1降低了3.82%。因此,时相差异越大通常也意味着地物变化信息越丰富,检测难度越大。另一方面,前3个数据集的时相差异均约为2 a,而分辨率差异在2.6~4倍之间,但OA波动范围只有0.07%~1.04%,且最大值为数据集3的96.71%。因此,所提出方法的OA受双时相影像的分辨率差异影响不大,具有良好的稳定性。

表5 分辨率及时相差异与精度关系统计结果

3.6 数据集扩增

为了进一步分析数据集扩增对模型性能的影响,在原始数据集基础上,采用旋转、镜像和平移操作来增加训练样本。经过扩增,4个数据集分别包含2864、3920、2872和5272个样本,精度评价结果如图12所示。

如图12所示,随着标记样本数量的增加,P、R、F1score、OA和Kappa均有显著提高,在数据集1中分别提高了0.1%、6%、2.14%、0.28%及2.43%,在数据集2中分别提高了1.41%、2.85%、1.98%、0.87%及3.12%,在数据集3中分别提高了1.85%、1.25%、1.62%、0.35%及1.83%,在数据集4中分别提高了4.39%、4.12%、4.27%、0.68%及4.6%。因此,通过样本集扩增有助于进一步提高所提出模型的性能。

图12 数据扩增的有效性分析

4 结 论

面向对象级的多源光学遥感影像变化检测,本文提出了一种联合UNet++和多级差分模块的多源光学遥感影像变化检测方法。其中,通过设计一种MFED模块实现了多尺度特征差分图的提取,并作为UNet++的补充输入,以提高网络对变化区域特征的学习能力,从而有效减少“伪变化”;在此基础上,为实现像素级结果到地理对象的映射,设计了一种不同尺度的自适应置信度指标AECI,进而构建了一种基于DS证据理论的WDSEF识别策略。通过对ZY-3/GF-2、GF-1/GF-2、Worldview-2/航拍和GF-1/GF-2 4组光学影像数据集进行试验,并与多种先进的深度学习方法进行对比分析,结果表明所提出方法能够显著提高对变化区域的识别能力,同时有效减少“伪变化”的影响。在对城区、山地、丘陵等不同地区的变化检测中,本文方法的OA和F1score最高可达96.71%和76.60%,且目视分析和定量评价均显著优于对比方法。此外,本文方法的检测效果总体上随双时相影像间的时相差异减小而有所提高,但受分辨率差异影响不大。在数据集时相差异为5a及和数据集分辨率差异为4倍的两组试验中,OA分别达到了91.92%和96.71%,F1score则分别达到了71.04%和76.60%。

猜你喜欢
变化检测尺度卷积
用于遥感图像变化检测的全尺度特征聚合网络
基于3D-Winograd的快速卷积算法设计及FPGA实现
基于多尺度纹理特征的SAR影像变化检测
财产的五大尺度和五重应对
基于稀疏表示的视网膜图像对变化检测
从滤波器理解卷积
基于傅里叶域卷积表示的目标跟踪算法
基于Landsat影像的黄丰桥林场森林变化检测研究
宇宙的尺度
9