Abstract:
针对现有基于深度学习的遥感智能解译方法直接获取全局信息具有挑战性,造成地物边缘模糊、相似类间分类精度低等问题,提出基于Swin Transformer和卷积神经网络的高分遥感图像语义分割模型(SRAU-Net).SRAU-Net以Swin Transformer编码器-解码器框架为基础,采用U-Net形状,提出了以下改进:构造基于Swin Transformer和基于卷积神经网络的双分支编码器,用不同尺度空间细节特征补充具有全局信息的上下文特征,以获得更高的地物分类精度和更清晰的地物边缘;设计特征融合模块,作为双分支编码器的桥梁从通道和空间维度对全局和局部特征进行有效融合,提升对小目标地物的分割精度;添加特征增强模块,利用注意力机制自适应融合来自编码器和解码器的特征,进一步有效聚合空间和语义特征,提升模型对特征的提取效果.结果表明,SRAU-Net能够更好地提取地物的边缘信息,总体分类精度较原始模型提升了2.57百分点,提高了对小尺度地物的分类精度,有效区分如树木和低矮植被等类间相似的遥感地物,总体精度和F1分数分别为92.60%和86.90%,总体效果优于对比模型.
Keyword:
Reprint 's Address:
Email:
Source :
激光与光电子学进展
ISSN: 1006-4125
Year: 2024
Issue: 14
Volume: 61
Page: 245-256
1 . 0 0 0
JCR@2022
Cited Count:
SCOPUS Cited Count:
ESI Highly Cited Papers on the List: 0 Unfold All
WanFang Cited Count:
Chinese Cited Count:
30 Days PV: 1
Affiliated Colleges: