基于渐进上采样深度先验网络的单高光谱图像超分辨方法

allin2025-03-24  30


本发明涉及图像处理,尤其是涉及基于渐进上采样深度先验网络的单高光谱图像超分辨方法。


背景技术:

1、图像超分辨是一种根据一幅或者多幅低分辨率图像重建出高分辨率图像的技术,该技术旨在提高图像的空间分辨率,增强图像的细节和信息量,为各个领域的应用提供更准确、更全面的数据基础,推动相关领域的发展和进步,具有十分重要的使用价值。

2、一般来说,根据是否使用全色、rgb或多光谱高分辨图像来辅助重建,高光谱图像超分辨方法可归为两类:基于融合的高光谱图像超分辨方法,单高光谱图像超分辨方法。

3、基于融合的高光谱图像超分辨方法通过将高光谱图像与同一场景其它高分辨图像融合,增加空间细节。此类方法的优点在于可以融合不同图像的互补信息,提高对地物目标的高空间分辨率的描述能力,提高重建效果和鲁棒性,缺点在于基于融合的高光谱图像超分辨方法几乎都要假设输入的低分辨率高光谱图像和高分辨率辅助图像能够很好的配准,而现实中很难获取到能够辅助配准的图像,并且需要处理多幅图像的信息,计算量较大。

4、单高光谱图像超分辨方法则试图从低分辨高光谱图像中直接重建高分辨率高光谱图像,不需要额外的辅助信息,这些方法应用的关键环节是有效利用高光谱图像在空间上的非局部自相似性和光谱间的高度相关性。其中,dong等人在文献dong c,loy c c,hek,et al.image super-resolution using deep convolutional networks[j].ieeetransactions on pattern analysis and machine intelligence,2014,38(02):295-307中提出超分辨率神经网络(srcnn)算法,首次将卷积神经网络运用在图像超分辨任务上,是深度学习在图像超分辨领域的里程碑之作之一。之后,liebel等人在文献liebel l,m.single-image super resolution for multispectral remote sensing data usingconvolutional neural networks[j].the international archives of thephotogrammetry,remote sensing and spatial information sciences,2016,41:883-890中首次将srcnn应用于单幅遥感图像的超分辨率重建。woo等人在文献woo s,park j,lee j y,et al.cbam:convolutional block attention module[c]//proceedings oftheeuropean conference on computer vision(eccv).2018:3-19中设计出卷积注意力模块(cbam),沿着空间和通道维度实施注意力,由于cbam的通用性,可以集成到任何cnn网络中。此外,mei等人在文献s.mei,x.yuan,j.ji,y.zhang,s.wan,and q.du,“hyperspectralimage spatial super-resolution via 3d full convolutional neural network,”remote sensing,vol.9,no.11,p.1139,2017中通过构建三维超分辨率网络来提取先验信息。三维卷积虽然可以很好地利用光谱相关性,但模型所需的计算量非常大。jiang等人在文献j.jiang,h.sun,x.liu,and j.ma,“learning spatial-spectral prior for super-resolution of hyperspectral imagery,”ieee transactions on computationalimaging,vol.6,pp.1082–1096,2020中采用参数共享策略引入分组卷积来捕捉光谱波段间的相关性,并提取空间信息,极大地降低模型参数量。hou等人在文献j.hou,z.zhu,j.hou,h.zeng,j.wu and j.zhou,"deep posterior distribution-based embedding forhyperspectral image super-resolution,"in ieee transactions on imageprocessing,vol.31,pp.5720-5732,2022中开发了一种基于后验分布的高光谱图像sr嵌入(pde-net),该方法将高光谱嵌入形式化为一组精心定义的高光谱嵌入事件的后验分布近似值;但由于高光谱图像维度较高,训练数据较少,波段之间的联系较复杂,因此很难充分利用连续波段之间的相关性。如何设计出能充分捕获高光谱图像空间和光谱间信息相关性的模型是一个具有挑战性的问题。


技术实现思路

1、本发明的目的是提供基于渐进上采样深度先验网络的单高光谱图像超分辨方法,以解决上述背景技术中提到的问题。

2、为实现上述目的,本发明提供了基于渐进上采样深度先验网络的单高光谱图像超分辨方法,包括以下步骤:

3、s1、获取数据集,对数据集内的图像进行预处理;

4、s2、将预处理后的图像划分为训练集str和测试集ste;

5、s3、构建渐进上采样深度先验网络,使用训练集对渐进上采样深度先验网络进行训练,得到训练后的渐进上采样深度先验模型,使用渐进上采样深度先验模型学习低分辨-高分辨图像对之间的映射;

6、s4、在s3的模型训练过程中,计算损失函数的导数,将高分辨图像ihr和超分辨结果isr之间的误差进行反向传播,更新渐进上采样深度先验网络的各个权重值,继续输入下一批次训练样本训练网络,直到模型的损失函数值达到设定的阈值停止。

7、优选的,s1的具体步骤如下:

8、s11、输入一幅形状为ih1×iw1×iic的低分辨图像ir1,剪裁掉边缘信息缺失部分,得到图像中心区域的子图像ir形状为ih×iw×ic;

9、s12、对子图像ir中每个通道的任一像素x进行最大值归一化,得到子图像im_lr:

10、

11、其中x表示ir第c个通道上的任意像素,x′为x经过最大值归一化之后的像素值;

12、s13、对子图像im_lr进行双立方插值(bicubic)下采样得到形状为h/r×w/r×c(r为超分辨放大倍数)的插值图像ilr:

13、ilr=bicubic(im_lr)

14、其中bicubic(·)表示双立方插值函数,将插值后的图像切分成p×p空间大小的图像块,高分辨图像切分成4p×4p空间大小的图像块,其中训练集采用重叠切分的方式,当p=64时,每次重叠32个像素。

15、优选的,s2的具体步骤如下:

16、s21、构造样本图像对{iq,hq},q=1,2,...,m,并转换为张量形式,其中iq为双立方插值(bicubic)图像的图像块,hq为对应的高分辨图像(hr)的图像块;

17、s22、从上述m个样本图像对中随机选取n个p×p图像对作为训练集str,剩余的图像作为测试集ste。

18、优选的,s3的具体步骤如下:

19、s31、将图像ilr输入渐进上采样深度先验网络中,得到超分辨结果isr;

20、s32、通过损失函数衡量模型预测值与真实值之间的差异,损失函数的定义如下:

21、l=ll+αlgtv

22、其中,α表示平衡参数,α=0.001,ll表示l1损失函数,lgtv表示gtv损失函数,l1损失函数的定义为:

23、

24、其中θ表示网络的参数,n表示批量大小,n表示重建图像的索引;gtv损失函数的定义为:

25、

26、其中,表示模型预测的每个像素在高度方向上的梯度;表示groundtruth中每个像素在深度方向上的斜率;表示模型预测图像在宽度方向上的每个像素的梯度;而表示ground truth中每个像素在宽度方向的梯度;h、w和n分别表示高分辨率图像的高度、宽度和批量大小。

27、优选的,渐进上采样深度先验网络包括基于残差连接的组卷积渐进上采样块和重建层,渐进上采样深度先验网络模型的公式如下:

28、isr=hre(hgcu(iin))

29、其中,iin表示渐进上采样先验网络的输入,hgcu(·)表示组卷积渐进上采样块的映射函数,hre(·)表示重建层的映射函数,重建层由一个卷积核大小为3×3的卷积层构成,isr为模型超分辨的结果。

30、优选的,组卷积渐进上采样块由两个组卷积渐进上采样模块构成,每个组卷积渐进上采样模块都采用了重叠分组的策略。当最后一组显示的波段比前一组少时,用高光谱图像中的初始波段进行补充。然后使用一组统一的操作来处理每组,利用参数共享来提高效率。在每组中,卷积层提取浅层特征fsf,每一组均包含n个有效波段和u个重叠波段,且每一组都包含m个级联的空间光谱注意力融合单元s2af、上采样模块和卷积层:

31、fgcu=hgcu(ilr)

32、其中,hgcu(·)表示gcu模块的映射函数,fgcu表示gcu网络的输出结果;

33、空间光谱注意力融合单元由空间注意力块sab和通道注意力块cab组成:

34、fspa=hspa(f0)

35、fspe=hspe(f0)

36、其中,f0是第一个s2af块的输入特征;hspa(·)表示sab的映射函数;fspa表示第一个s2af块中的第一个sab的输出;hspe(·)表示cab的映射函数,fspe表示第一个s2af块中的第一个cab的输出;然后将空间注意力和通道注意力进行级联,并通过卷积层处理融合后的数据,以导出空间光谱注意力融合得分。为保留原始特征,融合之后引入残差连接,为了防止空间或频谱注意力权重的衰减,在残差连接之后再次引入空间注意力块(sab)和通道注意力块(cab)。最后,使用dropout层来防止过度拟合现象。

37、s2af模块的整体操作可以表示为,

38、

39、其中,表示第一个s2af块的输出特征,是s2af块中的映射函数,经过m个s2af块的操作后,得到fdf:

40、

41、优选的,上采样模块由两个卷积层、pixelshuffle层、leakyrelu激活函数层和dropout层构成;

42、fup=hup(fdf)

43、其中,hup(·)表示上采样部分的特征映射函数,fup表示经过上采样部分得到的特征。

44、优选的,空间注意力块sab和通道注意力块cab构成如下:

45、空间注意力块sab,卷积层、leakyrelu激活函数层、卷积层、并联的跨通道平均池化和跨通道最大池化、卷积层,表示为:

46、fsab=hsab(fs)

47、其中,fs表示sab模块的输入特征,hsab(·)表示sab模块的映射函数,fsab表示sab模块的输出特征;

48、通道注意力块cab,卷积层、leakyrelu激活函数层、卷积层、自适应平均池化层、卷积层、relu激活函数层、卷积层、sigmoid激活函数层,表示为:

49、fcab=hcab(fc)

50、其中,fc表示cab模块的输入特征,hcab(·)表示cab模块的映射函数,fcab表示cab模的输出特征。

51、因此,本发明采用上述的基于渐进上采样深度先验网络的单高光谱图像超分辨方法,具备以下有益效果:

52、(1)通过空间-光谱注意融合模块(s2af)将空间注意力块和光谱注意力块进行融合,以有效利用高光谱图像在空间上的非局部自相似性和光谱间的高度相关性,根据消融实验验证了具有较好的空间和光谱恢复性能;

53、(2)考虑到高光谱图像超分辨方法往往需要高放大因子,而高光谱图像数据集通常较小,且数据维度高,使用高放大因子进行单步采样很难重建出图像精细的纹理细节,因此在网络中采用渐进式上采样策略,并通过消融实验验证其有效性。

54、下面通过附图和实施例,对本发明的技术方案做进一步的详细描述。


技术特征:

1.一种基于渐进上采样深度先验网络的单高光谱图像超分辨方法,其特征在于,包括如下步骤:

2.根据权利要求1所述的基于渐进上采样深度先验网络的单高光谱图像超分辨方法,其特征在于,s1的具体步骤如下:

3.根据权利要求1所述的基于渐进上采样深度先验网络的单高光谱图像超分辨方法,其特征在于,s2的具体步骤如下:

4.根据权利要求1所述的基于渐进上采样深度先验网络的单高光谱图像超分辨方法,其特征在于,s3的具体步骤如下:

5.根据权利要求4所述的基于渐进上采样深度先验网络的单高光谱图像超分辨方法,其特征在于:渐进上采样深度先验网络包括基于残差连接的组卷积渐进上采样块和重建层,渐进上采样深度先验网络模型的公式如下:

6.根据权利要求5所述的基于渐进上采样深度先验网络的单高光谱图像超分辨方法,其特征在于:组卷积渐进上采样块由两个组卷积渐进上采样模块构成,在每组中,卷积层提取浅层特征fsf,每一组均包含n个有效波段和u个重叠波段,且每一组均包含m个级联的空间光谱注意力融合单元s2af、上采样模块和卷积层:

7.根据权利要求6所述的基于渐进上采样深度先验网络的单高光谱图像超分辨方法,其特征在于:上采样模块由两个卷积层、pixelshuffle层、leakyre1u激活函数层和dropout层构成;

8.根据权利要求7所述的基于渐进上采样深度先验网络的单高光谱图像超分辨方法,其特征在于,空间注意力块sab和通道注意力块cab构成如下:


技术总结
本发明公开了一种基于渐进上采样深度先验网络的单高光谱图像超分辨方法,属于图像处理领域,包括对数据集内的图像进行预处理;将图像划分为训练集S<subgt;tr</subgt;和测试集S<subgt;te</subgt;;构建渐进上采样深度先验网络,得到渐进上采样深度先验模型,学习低分辨‑高分辨图像对之间的映射;计算损失函数的导数,将高分辨图像I<subgt;HR</subgt;和超分辨结果I<subgt;SR</subgt;之间的误差进行反向传播,更新渐进上采样深度先验网络的各个权重值。本发明采用上述的一种基于渐进上采样深度先验网络的单高光谱图像超分辨方法,以有效利用高光谱图像在空间上的非局部自相似性和光谱间的高度相关性,基于渐进上采样的分组卷积模型实现图像超分辨。

技术研发人员:王海军,郑文丽,王要威
受保护的技术使用者:河南科技大学
技术研发日:
技术公布日:2024/10/31
转载请注明原文地址: https://www.8miu.com/read-19540.html

最新回复(0)