1、第 卷第期 年月系统工程与电子技术 文章编号:()网址:收稿日期:;修回日期:;网络优先出版日期:。网络优先出版地址:通讯作者引用格式:曹鹏宇,杨承志,陈泽盛,等基于深度残差收缩注意力网络的雷达信号识别方法系统工程与电子技术,():,():基于深度残差收缩注意力网络的雷达信号识别方法曹鹏宇,杨承志,陈泽盛,王露,石礼盟(空军航空大学航空作战勤务学院,吉林 长春 ;空军航空大学航空基础学院,吉林 长春 ;中国人民解放军 部队,河南 南阳 )摘要:针对低信噪比条件下雷达信号识别率低,以及分类网络不具备识别样本库新添加信号类型的局限,提出了一种基于深度残差收缩注意力网络的雷达信号识别方法。通过网络将
2、一维雷达信号映射到 维向量空间。网络中的残差连接能有效强化特征的传播能力,解决网络过深无法训练的问题;注意力机制的引入,不仅构建掩码支路充当主干支路的特征选择器,还能够帮助网络自适应地选择合适的阈值进行软阈值化,从而减少网络中噪声或者冗余信息的影响,提高网络对噪声的鲁棒性。训练过程中排序表损失(,)和分类损失函数共同指导网络训练。能够有效克服传统度量学习损失函数忽略类内特征的问题,分类损失函数能够弥补度量损失优化下对样本整体分布不敏感的问题。实验表明,该方法在提高低信噪比雷达信号识别准确率的同时仍具有识别样本库新添加信号类型的能力。关键词:雷达信号识别;深层残差收缩注意力网络;软阈值化;注意力
3、机制;损失函数中图分类号:文献标志码:,(.,;.,;.,):,;,(),系统工程与电子技术第 卷 :;引言随着电磁环境日益复杂,雷达侦察感知敌方态势的能力也愈发凸显 。传统基于脉冲描述字的分选识别方法难以适应现代军事的发展,脉内数据包含的特征更为丰富,因此,以脉内数据作为研究对象是现如今雷达侦察领域研究的重点之一 。深度学习由数据驱动,不需要人工设计特征,具备强大的特征学习能力 。不少专家将其应用于雷达侦察领域,并取得了极大的成功。文献 针对低信噪比条件下特征提取困难的问题,提出一种基于时频分析和扩张残差网络的雷达信号识别方法。文献 首先采用稀疏自编码器提取特征进行离线训练,训练好的模型后将
4、特征输入到 分类器进行分类,实现低信噪比条件下雷达信号的分类识别。文献 提出了一种基于卷积神经网络和深度学习的雷达信号识别方法。在实际战场环境中,往往伴随着大量的噪声或者干扰信息,针对低信噪比环境下的雷达信号分类识别就显得格外重要,也对网络能否提取到鲁棒性好、可区分程度高的特征提出了更高的挑战。并且,以上研究都是在训练集与测试集是闭集的前提下开展的,也就是说,网络模型训练好之后所能识别的信号种类就已固定。当新信号扩充到样本库后,使用这些新信号对模型进行测试时,模型仍会将新信号错误识别成扩充前样本库中的某一种信号,不但不具备扩展性,反而提供错误的识别信息,这就促使研究人员寻找策略来解决这个问题。
5、经过本课题组的研究,应用于行人重识别、人脸识别等领域的度量学习可以解决上述的问题。文献 提出将人脸识别领域的三元组损失函数应用于雷达信号识别,使其具有一定的扩展性,但其网络提取信号特征的能力以及损失函数等方面仍具有很大的提升空间。近年来,借鉴人类接收处理信息的过程发展起来的注意力机制,能够作为一种通用的轻量级模块,可以集成到任何网络中实现端到端的训练。文献 将软阈值化与注意力机制相结合,构建深度残差收缩网络用于振动信号故障检测,对噪声具有一定的鲁棒性。文献 构建融合前馈扫描和反馈的掩码分支作为侧分支加入到主干中,充当主干分支的特征选择器,增强有用特征,抑制无用特征。文献 提出压缩 激励网络(,
6、)进行图 像 识别,获得每个特征通道的重要程度,据此对特征进行加权,对网络性能的提升有明显的效果。基于以上研究,本文提出了一种深度残差收缩注意力网络用于雷达信号识别方法,主要工作如下:()以深度残差网络为基础,构建掩码支路充当主干支路的“特征选择器”,同时为了消除过程中的冗余信息或者噪声,将软阈值化的操作融入其中。注意力机制不仅帮助调整特征的权重,同时也能自适应地为网络选取合适的阈值。除此之外,将主干支路以短连接的方式加入到网络中,既能够发挥出注意力机制的优势,也不会出现因网络特征响应值变弱而导致性能下降的问题。()将度量学习的排序表损失(,)引入雷达信号识别领域,使得识别方法具有扩展性,并且
7、 损失函数在最大程度保留了信号的类内特征的同时,弥补了其他度量损失函数只采用部分样本进行相似性度量的缺陷。()为了使不同类别信号的“分界面”更加明确,提高信号识别准确率,联合分类损失函数与 损失函数共同指导网络训练。相关知识 深度残差网络在深度学习中,为提高网络性能,往往通过增加网络层数来提高网络提取特征的能力。然而,当层数过多时,梯度消失、梯度爆炸等问题的出现会导致网络难以训练。等 在卷积层和后面对不上中引入跳跃连接搭建了深度残差网络,能够很好地解决层数过深与性能下降之间的矛盾。因此,残差网络的提出在深度学习领域产生深远的影响,不少专家学者以此为基础进行架构优化。注意力机制深度学习中的注意力
8、机制是通过借鉴人类接收处理信息的过程发展起来的。当人类接收信息时,不会同时处理所有信息,而是有倾向性地处理更感兴趣或者与当前任务关联程度更高的一些信息,滤除不重要或者冗余的特征,能够有效提高信号处理的准确率及速度。同理,在深度学习领域,通过对重要特征进行加权处理,能够获得更高的“注意力”,来近似人类接收处理信息的过程。软阈值化现实生活中,噪声信息或者与标签无关的信息的存在,严重降低了信号识别等工作的准确率。软阈值化,是很多信号去噪算法中的关键步骤。一般需要先将原始信号变换到某个域中,这个域需要满足特征值越接近代表特征越不重要的要求,之后“收缩”信号特征。“收缩”信号特征的具体操作是先设置一个阈
9、值,之后比较特征的绝对值与阈值的大小,低于阈值则将特征值设为,高于阈值则向方向调整。具体公式如下所示:(,),()式中:为信号特征;为阈值;(,)为软阈值化输出的结果。另外,阈值的设立需要满足以下个条件:必须为正值;设置需合理,阈值过大会导致有用特征被滤除掉,第期曹鹏宇等:基于深度残差收缩注意力网络的雷达信号识别方法 过小则难以消除噪声特征;每个样本所含噪声分量不同,需要分别设置不同的阈值。在经典的信号去噪算法中,阈值需要人工提前设置,要求具备信号处理领域的专业知识。即便如此,通常也很难找到合适的值,并且不同场景下的最优阈值一般不同。注意力机制的发展为阈值的设立提供了新的思路。度量学习度量学习
10、是对样本进行相似度度量,在分类、检索、认证等场景中应用广泛。度量学习重点关注样本类间与类内的样本分布,旨在设计一个合理有效的相似度度量方法,在训练过程中拉大不同类别样本之间的距离(降低相似度),减小相同类别下样本的距离(增大相似度),最终使得样本在类内紧密在类间分离。这与分类问题在本质上有所差别,差别示意图如图所示。图分类问题与度量学习差别示意图 每个图形代表不同的样本,形状不同代表样本的类别不同,图中共有两类不同的样本。度量学习旨在让样本类内相似度(橙色箭头所示)小于样本类间相似度(红色箭头所示)。而分类问题更关注样本的类别信息,旨在找到不同类别之间的分界面(绿色虚线所示)。从图中也能看出,
11、应用于分类场景下时,单纯采用度量学习对样本的类别间隔关注程度不够。更重要的是,当测试数据的类别在训练的样本库中并未出现时,传统的分类模型会从样本库中选择其中一种作为识别出的种类,此时传统分类模型失效。而度量学习衡量的是样本间的相似度,当测试数据与样本库数据相似度差异较大时,能够判别出测试数据的类别在样本库中没有存档,能够正确识别。在度量学习中,损失函数的选择决定网络优化的方向,是至关重要的环节。文献 提出三元组损失函数并将其应用于人脸识别领域。之后有学者又相继提出改进的三元组、四元组损失函数等。但上述所提损失函数都存在以下两个问题:第一,虽然都提出了通过增加负样本获取更多的信息,但使用的负样本
12、仅是其中一小部分;第二,都追求于将同一类样本集中到一个点上,忽略了样本的类内分布。损失函数对上述损失函数存在的局限性进行了改进。本文方法 方法概述本文网络以残差网络为基础,融合注意力机制、软阈值化的思想于其中,搭建了残差收缩注意力模块,以堆叠模块的形式实现特征提取。这些模块产生注意力感知特征。来自不同模块的注意力感知特征随着层的加深而适应性地改变。最终,将输入信号映射到一个 维的向量空间,得到一个特征向量。本文的识别方法在训练阶段和测试阶段有所差异,在训练阶段,将样本库中信号输入到深度残差收缩注意力网络中进行训练,在分类损失函数和度量学习中的 损失函数共同指导下控制网络优化的方向。使得网络模型
13、向着同种信号相似度增大异种信号相似度减小的方向调参。训练完成后在测试阶段,将样本库信号和待识别信号同时输入到网络得到各自的特征向量,通过对样本库信号与待识别信号的特征向量采用基于阈值的判断算法进行相似度识别,低于阈值的认为是原样本库中的已知信号,并输出其信号标签,高于阈值的则被认为是样本库中不存在的未知信号。网络结构深度残差收缩注意力网络由模块堆叠而成,每个模块主要由主干支路和掩码支路两部分组成。网络总体网络及模块中掩码分支的结构如图所示。图深度残差收缩注意力网络结构 系统工程与电子技术第 卷 残差收缩单元在实际战场环境下,噪声或者冗余信息大量存在,为了消除这些信息,构建残差收缩单元,融合恒等
14、映射、软阈值化和注意力机制的思想于其中。首先,利用注意力机制的思想搭建了一个子网络自适应地找到阈值,之后进行软阈值化的操作。网络结构如图所示。图残差收缩单元结构 由图可知,与残差单元相比,残差收缩单元增加了选取阈值的子网络和进行软阈值化的操作。两个卷积单元提取特征后,通过一个子网络自动选择合适的阈值。具体来说,子网络首先获得特征图绝对值的平均值,之后获得一个缩放系数,二者相乘的结果就是子网络选择出来的阈值,之后进行软阈值化的操作。取绝对值的操作保证找到的阈值为正数,缩放系数的获取保证值不会太大,同时每个阈值都是依据自己的特征图所得到的。这种获得阈值的方式既保证了阈值的唯一性和适用性,也满足阈值
15、设立的个条件。主干支路和掩码支路主干支路以残差收缩单元作为基本单元,实现对特征的提取和对过程中的噪声分量进行抑制。掩码支路采用聚焦式注意力与显著性注意力相结合的方式,包括了自下而上的前馈扫描和自上而下的反馈操作。前馈扫描用于快速收集输入信号的全局信息,反馈操作用于将原始特征图与全局信息相结合。同时,在前馈扫描和反馈操作中添加了跳跃连接,来捕获不同阶段不同比例的信息。在掩码支路中,首先通过残差收缩单元减少过程中的噪声,之后通过两个最大池化层操作快速增大感受野,获得全局信息。达到最低分辨率以后,通过对称的残差收缩单元和双线性插值操作将特征放大回去。其中,双线性插值的数量与最大池化层的数量一致,本文
16、是两个,以确保此时输出与掩码支路输入大小一致。之后,通过两个的卷积层之后,使用 层将输出进行归一化,作为主干支路的权重值。假设输入为,主干支路输出结果记为,()。掩码支路输出结果为,(),形状与,()相同。将掩码分支输出的结果,()作为主干支路输出特征图的权重,点乘后输出,(),()。如果直接将这个结果作为输出,会导致网络性能明显下降。原因是主干支路的权重经过了归一化,点乘后直接输出会导致网络整体的特征响应值变弱。因此,将主干支路作为短连接加入,输出变为,(,(),()。这样,既能保留了原有的特征提取的优势,经过多层传输之后,感兴趣的信号特征被增强,不重要的特征相对来说占比减少,又解决了输出特征值整体下降的问题。此外,也给了主干网络绕过掩码支路直接前进到顶层的能力,削弱了掩码支路特征选择的能力。同时,还具有优异的梯度回传特性。损失函数 给定一个锚点,对样本空间剩余的所有样本进行相似度排序后得到一个列表。理想状态下,所有的正样本都应在所有的负样本之前。优化的目标不仅要满足这个条件,在正负样本之间还至少要存在一个距离余量,同时为了避免像其他损失函数一样将锚点与正样本无限接近,严重破坏样本类