利用深度学习方法的相干源DOA估计

葛晓凯 胡显智 戴旭初

(中国科学技术大学电子工程与信息科学系,安徽合肥 230027)

摘 要: 基于子空间分解的相干信源DOA(Direction of arrival)估计算法对阵列有特殊的要求,且估计性能较差,在低信噪比时甚至失效;另外,基于压缩感知的DOA估计算法在高信噪比下可以实现相干源的DOA估计,但计算复杂度较高。针对这些不足,本文基于稀疏表示的阵列接收信号模型,提出一种基于深度学习的相干源DOA估计方法,该方法利用卷积网络和全连接网络构造了深度学习网络,并通过选择合适的训练策略,对网络进行了有效训练,利用训练好的深度学习网络能够对相干源进行有效的DOA估计。仿真实验表明,与现有的相干源DOA估计算法相比,本文提出的方法适合于任意阵列结构,在时间复杂度上有着明显的优势,在估计性能上优于平滑解相干和L1-SVD(Sigular Value Decomposition)算法,略差于OGSBI(Off-Grid Sparse Bayesian Inference)算法。

关键词:DOA估计;相干源;深度学习;压缩感知

1 引言

波达方向(DOA:direction of arrival)估计是阵列信号处理研究领域中重要的任务之一,经过几十年的发展,许多DOA估计方法被提出。尤其是以MUSIC[1]、ESPRIT[2]为代表的子空间分解类算法,突破了“瑞利限”,达到真正意义上的超分辨。然而,由于多径传播[3]等原因,现实中信号相干(信号间相关系数为1)的情况广泛存在,此时,由于信号协方差矩阵的秩亏,信号子空间和噪声子空间会相互渗透,直接使用子空间分解类算法不能对相干源DOA进行有效估计[4]

对于具有平移不变性的特殊空间几何结构的阵列,比如均匀线阵,空域平滑技术[5]可以对秩损协方差矩阵进行秩补偿,进而实现相干源的DOA估计,但其会造成阵列有效孔径的损失,分辨能力下降。对于圆阵及不规则阵列,无法应用空间平滑技术解相干。最大似然估计方法[6-7]基于信号的概率统计模型,对DOA参数进行最大似然估计,既可以处理非相干信号,又可以处理相干信号,且可以用于圆阵及不规则阵列,其缺点是涉及多维联合搜索,因而计算量巨大,且求解过程中存在局部最优的问题,实用性不佳。

近年来,压缩感知[8](CS:Compressive Sensing)理论的不断发展与完善,为DOA估计提供了新的思路。从能量分布的角度而言,到达阵列的信号在空间中的分布是稀疏的[9]。利用这一先验信息,CS理论能够被应用到DOA估计问题中,出现了许多基于稀疏信号重构的DOA估计方法。其中具有代表性的是Malioutov等人提出的L1-SVD算法[10],其通过对阵列接收数据进行稀疏重构表示,将DOA估计转化为稀疏信号重构的问题,并利用二阶锥规划进行求解。L1-SVD算法使用奇异值分解(SVD:Sigular Value Decomposition)降低了噪声的影响,减小了多快拍情况下数据矩阵的规模,但做SVD需要额外的计算量。另外一类基于稀疏信号重构的DOA估计方法则利用了贝叶斯估计的原理,如OGSBI算法,即把阵列的信号DOA估计问题看作是来波角度的后验概率分布估计的问题[11],其缺点是算法收敛所需要的迭代次数多、计算量较大。

本文提出一种基于深度学习的相干源DOA估计方法,利用卷积网络和全连接网络构造一个深度学习网络来进行DOA估计。该方法的主要思想是利用深度学习网络对信号源来波方向进行近最大似然估计[12],从而可以利用较低的计算复杂度实现相干源信号的DOA估计。

2 信号模型

考虑一个由M个全向天线组成的阵列[13],设有K个远场窄带信号入射至阵列,DOA参数分别为方位角和俯仰角t时刻阵列的接收信号矢量为:

(1)

其中分别为第m个阵元t时刻的接收数据和加性高斯白噪声。阵列流型M×K的矩阵,其第k列为第k个信号的导向矢量基于信号模型(1),在已知接收阵列的几何结构和y(t)的情况下,估计到达阵列信号的方位角和俯仰角

另外,应该注意到,信号到达的角度总是有限个,因此信号能量的空间分布具有稀疏性,因此阵列接收信号也可以用稀疏模型来表示[14]

将空域角度范围划分为离散角度集合,对于二维阵列,可以划分为(θ,φ)=(θi,φj)i=1,2,…,P;j=1,2,…,Q;对于一维阵列,可以划分为θ={θ1,θ2,…,θP},其中P,Q分别表示方位角和俯仰角的离散角度集合的大小,且P,QK,该离散角度集合代表的是整个空域范围。而每一组角度均对应一个导向矢量,这些导向矢量共同组成M×PQ的矩阵Α(θ,φ),那么阵列接收信号的稀疏表示模型为:

y(t)=Α(θ,φ)s(t)+n(t)

(2)

其中s(t)=[s1(t),s2(t),…,sPQ(t)]TPQ×1维的信号矢量,与PQ个空间角度划分相对应,当空间中某个方向有信号到达时,信号矢量中的对应元素非零。由于到达阵列的信号在空间具有稀疏性,所以该模型中的信号矢量满足稀疏信号的定义,即非零元素分量的个数远低于该矢量的维度,因此建立的稀疏表示模型是合理的。很明显,基于该稀疏模型,DOA估计问题等价于稀疏信号的恢复问题。

为了提高抗噪声性能,在阵列信号处理中,通常使用多快拍接收数据。基于式(2),多快拍下阵列接收数据的稀疏表示为:

Y=Α(θ,φ)S+N

(3)

其中Y=[y(1),y(2),…,y(T)]为T个快拍下的阵列接收数据矩阵,N=[n(1),n(2),…,n(T)]为噪声矩阵,S=[s(1),s(2),…,s(T)]为信号矩阵,扩展后的信号矩阵S是一个行稀疏矩阵。

3 现有基于稀疏表示的DOA估计算法

基于式(2)的阵列稀疏表示模型,可将信号DOA估计问题转化为一个稀疏信号重构问题(为简化表示,略去时间变量t):

(4)

其中参数η是允许的重构误差。由于L0范数优化属于NP-hard问题,常使用L1范数代替式(4)中的L0范数,从而将原始的稀疏优化问题松弛为:

(5)

上式的L1范数最优化问题属于凸问题,存在多项式时间内的算法可以解决该问题。利用Lagrangian乘子法,可将式(5)进一步转化为无约束的优化问题:

(6)

其中Lagrangian乘子λ称为正则化参数,控制着解的稀疏度与重构误差大小之间的权衡。

在多快拍的情况下,对阵列接收数据矩阵Y使用SVD分解:

Y=ULVH

(7)

DK=[IK 0T-K]T,IKK×K维单位阵,0T-KK×(T-K)维0矩阵;Ysv=YVDK,则有:

Ysv=ASVDK+NVDK=ASsv+Nsv

(8)

其中Ssv=SVDK。注意到,V表示了Y的行空间,故VDK实际上表示了Y行空间中的信号子空间,因此YsvM×KY在行信号子空间的投影,其主要作用是压缩时间维度以及降低噪声的影响。

表示Ssvi行的L2范数,很显然PQ×1维矢量是稀疏的。

基于式(8)的稀疏表示模型,稀疏恢复问题等价于下列的优化问题:

(9)

L1-SVD算法[10]将式(9)的求解转化为一个二阶锥规划问题:

min ε1+λε2

where ‖Ssv(i,:)‖Fri,i=1,2,…,PQ

and zk=Ysv(:,k)-ASsv(:,k),k=1,2,…,K

(10)

优化问题(10)可以直接使用凸优化工具进行求解。

OGSBI算法[11]则从贝叶斯估计的角度对式(9)的优化问题,通过设置超先验,将Ssv的求解转变为最大后验概率估计问题:

)

where μ=α0ΦHy

=(α0ΦHΦ+Λ)-1

(11)

式中的α0α为超参数,分别具有不同的先验分布;β是离格参数,代表了真实DOA值与空域离散角度点的偏差,ΦM×PQ的字典矩阵。通过迭代求解优化问题(11),可得到Ssvβ的估计,从而可得到DOA的估计值。

本文基于稀疏表示的阵列接收信号模型,使用深度学习网络来进行相干源DOA估计,即利用深度学习网络来求解式(8)的稀疏信号重构问题。深度学习网络用YSV作为网络输入,训练网络时,以信号矢量中非零元素的位置作为标签,记为L,通过训练,网络的输出越来越接近L;当网络训练完成后,可以用YSV作为该网络输入,获得网络的输出从而根据中非零信号(或较大的信号)的位置来得到到达信号的DOA估计。

4 网络模型

4.1 深度卷积网络

深度卷积网络(DCN)由n>1个典型层构成,每个典型层由三个主要功能模块组成:卷积模块、ReLU非线性模块和池化模块。卷积模块由一组可学习的滤波器组成,其主要功能是提取信号的局部或整体特征;ReLU非线性模块是为了使网络的决策功能具有非线性;池化模块是进行降采样处理,并提供平移不变性。深度卷积网络不同典型层之间的神经元稀疏连接,与全连接的网络相比,减少了参数,增加了学习速度,适用于稀疏恢复问题[15]

图1 深度卷积网络结构简图
Fig.1 The DCN structure diagram

图1给出了深度卷积网络的结构简图[16],与用于图像重构的卷积网络不同之处是,网络的输入是一维的向量而不是二维的图像。由图1可知,网络的输入为一维向量网络的每个典型层中的卷积模块都有不同数量和大小的卷积核,对于第一个典型层,这层的卷积模块中有k1个不同的卷积核,卷积核的大小为r1×1,网络的输入经过三个功能模块后,第一个典型层就会产生k1个特征向量。可以假设第一个典型层的第j个卷积核产生第j个特征向量,那么第j个特征向量可以表示为:

(12)

其中,x1, j表示第一个典型层的第j个特征向量,h1, j表示第j个卷积核,b1, j为第j个卷积核对应的偏移量,符号*表示卷积操作。ReLU为非线性模块,即:

ReLU(x)=max(0,x)

(13)

最后池化模块中的降采样操作作用到非线性模块的输出上。典型层中的池化模块不是必须的,如果为了保证特征向量和输入的维度一致,可以舍弃池化模块。

随后的典型层都以类似的方式产生特征向量,尽管每个典型层中的卷积核的数目、大小和参数以及偏移量都可能不相同,但是基本的规则是一致的:

(14)

其中,h2, j,b2, jh3, j,b3, jhn, j,bn, j分别是第二个典型层、第三个典型层和第n个典型层中的卷积核和偏移量。所以,假设ln是第n个典型层的卷积核数目,那么具有N个典型层的DCN的参数集为:

(15)

深度卷积网络的参数可以通过网络训练来调整。

4.2 全连接网络

全连接网络是一种最简单的神经网络,由多层并列的神经元组成[17]。图2给出了单层隐藏层的全连接网络结构简图。

图2 全连接网络结构简图
Fig.2 The FCN structure diagram

它由输入层、单个隐藏层和输出层组成,其输出表达式为:

y=f2(W2f1(W1x+b1)+b2)

(16)

其中W1b1为输入层到隐藏层的参数,W2b2为隐藏层到输出层的参数, f1f2为各层非线性激活函数。非线性激活函数的存在使得全连接网络具有非常强的非线性拟合能力。

当输出层的激活函数f2为softmax函数时,网络输出实际上是DOA的后验概率分布,概率较大处所对应的角度被认为是来波方向,故本质上深度学习网络等价于最大后验概率估计器。由于该深度学习网络在学习过程中没有对DOA的先验信息进行特定的假设,或者说隐含的假设是DOA的先验分布为均匀分布,所以DOA的最大后验概率估计近似为DOA的最大似然估计。

4.3 深度学习网络

将深度卷积网络和全连接网络级联起来构造一个深度学习网络,可用于相干源的DOA估计。

由图3可知,该深度学习网络将作为网络输入,网络输出一个信号矢量中非零元素的位置的估计其中M<N。为了实现维度增加,在DCN典型层中没有使用池化模块,且在FCN中实现维度从的扩张。

图3 深度学习网络的结构图
Fig.3 The structure diagram of deep learning network

需要指出的是,对于不同的阵列结构,用于DOA估计的深度学习网络应该有不同DCN和FCN。以均匀圆阵和均匀线阵为例,均匀圆阵为二维阵列,可以对来波信号的方位角θ和俯仰角φ进行估计;而均匀线阵为一维阵列,只能对来波信号的方位角θ进行估计;所以前者比后者的离散角度集合要大很多,所需要的网络规模更大,所使用的DCN的层数、卷积核的大小、数量等都不同。对于不同阵列结构的DOA估计,其深度学习网络的设计、参数优化等将在下文讨论。

4.4 深度学习网络的训练和测试

深度神经网络的训练和调优是深度学习中一个很重要的部分。对于图3所示的深度学习网络,在训练时,网络的训练集可以如下表示:

(17)

其中,l表示训练样本容量,为网络输入,{L(1),L(2),…,L(l)}为标签。下面以二维阵列结构为例,具体描述训练样本和标签的生成过程和方法。

在空域角度范围中,把空间角度均匀划分,形成离散角度集合。对于二维阵列,把方位角和俯仰角的空域角度范围均匀划分为离散的角度,角度间隔为一度,角度间隔划分过小会影响DOA估计的准确性,划分过大会降低精度[4];随机设置离散角度集合中的一个或几个位置非零,作为到达阵列的信号s(t)的到达角。对于阵列到达信号s(t),由式(2)可以得到阵列接收信号y(t),经过多快拍得到多快拍下阵列接收数据Y,对Y做奇异值分解得到网络输入YSV;对应于s(t)中非零元素的位置,在L中将此位置的值设为1(1表示此位置所代表的角度有信号到达且信号值非零),得到标签L,从而生成了用于训练网络的数据样本和相对应的标签。标签代表着信号的到达方向,在训练时已知;训练数据YSV经过深度学习网络得到网络输出此时中的非零值(或较大值)的位置代表着估计出的信号到达方向。对于一维阵列结构,其训练样本和标签的生成过程和方法与二维阵列结构类似,不同之处在于空域角度范围只有方位角。

网络训练过程中,用标签和网络输出的交叉熵作为损失函数,即:

(18)

其中,是深度学习网络的实际输出。使用反向传播算法[18]最小化损失函数来训练网络参数,通过训练,网络的实际输出越来越接近标签L

测试时,和训练过程生产训练样本的方式类似,测试样本也以YSV的形式输入到深度学习网络。

由于深度网络的参数多,优化问题复杂,故在网络训练过程中,随着迭代次数的增加,应逐步降低学习率,使网络参数逐渐地收敛到最优或近优。

5 仿真实验及分析

仿真实验中,用Tensorflow架构实现深度学习网络,在Python环境下实现平滑解相干算法[5]、L1-SVD[10]算法和OGSBI[11]算法。选取均匀线阵和均匀圆阵这两种典型的阵列结构,对比和分析不同方法在相同的数据集下的DOA估计性能。

5.1 均匀线阵下的仿真实验结果及分析

对于均匀线阵,阵元数M=10,阵元间隔为λ/2,λ为波长,角度间隔为一度。仿真实验表明,深度学习网络为4层DCN的典型层和具有单个隐藏层的FCN。基于图1,第一层典型层有k1=32个卷积核,每个卷积核大小为r1×1=6×1;第二层典型层有k2=64个卷积核,每个卷积核大小为r2×k1=6×32;第三层典型层有k3=32个卷积核,每个卷积核大小为r3×k2=5×64;第四层典型层有k4=1个卷积核,卷积核大小为r4×k3=5×32。基于图2,FCN的输入层有20个输入节点;隐藏层有100个神经元,激活函数f1为ReLU函数;输出层有180个输出节点,输出层的激活函数f2为softmax函数。

仿真实验中,信噪比SNR(接收信噪比)即接收信号和噪声功率比,由式(2)得,其中为信号A(θ,α)s(t)的功率,为噪声n(t)的功率。

DOA估计性能由角度估计的均方根误差来度量,其定义为:

(19)

式中I代表实验次数,J代表源信号个数,θij代表第i 个实验第j 个DOA的真实值和估计值。实验中,I设置为1000。

(1)快拍数对DOA估计性能的影响

信噪比设为10 dB,两个窄带相干源信号分别从方位角为62.3°和70.8°到达线阵。图4给出了角度估计的均方根误差与快拍数的关系曲线。对于平滑解相干算法,由于阵列孔径损失,相干源的DOA估计有着较大的均方根误差。深度学习方法的均方根误差比L1-SVD算法小0.04°左右。OGSBI算法的均方根误差比深度学习方法小0.015°左右。快拍数达到300时,四种方法角度估计的均方根误差基本都不会随着快拍数的增加而改变。

图4 不同快拍数下均方根误差曲线(均匀线阵)
Fig.4 Average error curves with different snapshots (Uniform line array)

(2)信噪比对DOA估计性能的影响

快拍数设为300,相干信号的到达角度同实验(1)。图5给出了角度估计的均方根误差与信噪比的关系。由图5可以看出,在信噪比高于12 dB时,四种方法的均方根误差几乎一致,信噪比低于12 dB时,深度学习的方法与L1-SVD算法、OGSBI算法的性能非常接近,且都优于平滑解相干算法。

图5 不同信噪比下均方根误差曲线(均匀线阵)
Fig.5 Average error curves with different SNR (Uniform line array)

(3)到达角度差对DOA估计性能的影响

快拍数为300、信噪比为5 dB时,两个相干源信号的到达角度差与角度估计的均方根误差的关系曲线如图6所示。由于阵列孔径损失,平滑解相干算法有着较低的分辨率;但是深度学习方法、L1-SVD算法和OGSBI算法的估计性能接近,且都优于平滑解相干算法。

图6 不同到达角度差下均方根误差曲线(均匀线阵)
Fig.6 Average error curves with different arrival angle difference (Uniform line array)

(4)独立源和相干源混合时的DOA估计性能

考虑3个源信号同时到达阵列,一个为独立源、两个为相干源,独立源的到达角为100.5°,两个相干源的到达角分别设为62.3°和70.8°。实验中,快拍数设为300。图7为角度估计的均方根误差与信噪比的关系曲线。可见,平滑解相干算法性能最差,深度学习的方法与L1-SVD算法、OGSBI算法的性能相当。

图7 独立源和相干源混合(均匀线阵)
Fig.7 Independent source and coherent source mix (Uniform line array)

(5)不同方法的运行时间比较

表1为快拍数为300时,不同DOA估计方法所消耗的运行时间的比较。实验的CPU处理器为Intel Core i7- 6700K,表1中的运行时间为1000次独立实验所消耗的CPU运行时间的平均值。由表1可知,深度学习方法的运行时间比平滑解相干算法低了一百倍左右,比L1-SVD算法低了两百多倍,比OGSBI算法低了四百倍左右。所以,在均匀线阵下,深度学习的方法对相干源DOA估计在运行时间上有着明显的优势。

表1 不同DOA估计方法的运行时间比较(均匀线阵)
Tab.1 Comparison of run time of different DOA estimation (Uniform line array)

方法运行时间/s平滑解相干0.1L1-SVD2.4深度学习0.015OGSBI4.9

5.2 均匀圆阵下的仿真实验结果及分析

对于均匀圆阵,阵元数M=10,圆阵半径为波长的两倍,角度间隔为一度。仿真实验表明,深度学习网络为6层DCN的典型层和具有两个隐藏层的FCN。基于图1,第一层典型层有k1=32个卷积核,每个卷积核大小为r1×1=7×1;第二层典型层有k2=64个卷积核,每个卷积核大小为r2×k1=7×32;第三层典型层有k3=128个卷积核,每个卷积核大小为r3×k2=5×64;第四层典型层有k4=64个卷积核,每个卷积核大小为r4×k3=5×128;第五层典型层有k5=32个卷积核,每个卷积核大小为r5×k4=5×64;第六层典型层有k6=1个卷积核,卷积核大小为r6×k5=5×32。基于图2,FCN的输入层有20个输入节点;第一个隐藏层有100个神经元,第二个隐藏层有1000个神经元,两个隐藏层的激活函数为ReLU函数;输出层有7200个输出节点,输出层的激活函数为softmax函数。信噪比和角度估计的均方根误差的定义同实验5.1。

由于圆阵不具有平移不变性,平滑解相干算法不再适用,所以下面的实验只将深度学习的方法与L1-SVD算法、OGSBI算法进行比较。

(1)信噪比对DOA估计性能的影响

快拍数设为300,两个相干信号分别从(72.3°,80.8°)和(80.8°,72.3°)到达圆阵。信噪比对角度估计的均方根误差的影响如图8所示。由图8可知,三种方法的性能接近,深度学习方法估计性能介于L1-SVD算法和OGSBI算法之间。

图8 不同信噪比下均方根误差曲线(均匀圆阵)
Fig.8 Average error curves with different SNR (Uniform circular array)

(2)到达角度差对DOA估计性能的影响

快拍数为300、信噪比为5 dB时,入射信号的到达角度差对角度估计的均方根误差的影响如图9所示。随着角度差的减小,估计的误差略有增加,深度学习方法的估计性能仍介于L1-SVD算法和OGSBI算法之间。

图9 不同到达角度差下均方根误差曲线(均匀圆阵)
Fig.9 Average error curves with different arrival angle difference (Uniform circular array)

(3)独立源和相干源混合时的DOA估计性能

一个独立源信号从(100.5°,100.5°)到达阵列,两个相干源信号分别从(72.3°,80.8°)和(80.8°,72.3°)入射阵列。图10给出了快拍数为300时角度估计的均方根误差与信噪比的关系曲线。在信噪比高于12 dB时,三种方法的估计性能几乎不变、且相差很小,信噪比低于12 dB时,它们的性能都逐渐降低。

图10 独立源和相干源混合(均匀圆阵)
Fig.10 Independent source and coherent source mix (Uniform circular array)

(4)不同方法的运行时间比较

表2为均匀圆阵下快拍数为300时,不同DOA估计方法所消耗的运行时间的比较。仿真实验的条件与图5的实验条件相同。由于空域角度范围从一维扩展到二维,离散角度集合增大,L1-SVD算法和OGSBI算法的运行时间大幅度升高,但是深度学习方法的运行时间并没有明显升高。深度学习方法的运行时间比L1-SVD算法低了一千倍左右,比OGSBI算法低了两千倍左右。

表2 单个DOA估计运行时间比较(均匀圆阵)
Tab.2 Comparison of run time of single DOA estimation(Uniform circular array)

方法运行时间/sL1-SVD29.1深度学习0.027OGSBI60.1

由上述仿真实验可以看出,在估计性能上,基于深度学习方法的相干源DOA估计优于平滑解相干和L1-SVD算法,略差于OGSBI算法;在时间复杂度上,基于深度学习方法的相干源DOA估计明显优于现有的其他方法。

6 结论

在实际应用环境中,相干源信号广泛存在,因此对相干源进行 DOA 估计具有很高的实用价值。本文基于稀疏信号重构的思想,提出了一种卷积网络和全连接网络相结合的深度学习网络,实现了相干源的DOA估计。本质上讲,本文提出的用于DOA估计的深度学习网络,实现了对DOA的近最大似然估计。仿真实验表明,同现有的其他方法相比,本文提出的方法估计性能与基于贝叶斯的估计方法接近,但运行时间具有明显的优势。本文提出的基于深度学习的方法的运行时间,在均匀线阵下比OGSBI算法低了两个量级,在均匀圆阵下比OGSBI算法低了三个量级。由于窄带信号和宽带信号的阵列信号模型不同,所以本文的方法难以直接用于宽带相干源的DOA估计,因此将深度学习的方法用于宽带相干源的DOA估计是值得深入研究的一个课题。

参考文献

[1] Schmidt R O. A Signal Subspace Approach to Multiple Emitter Location Spectral Estimation[J]. Phd. Thesis Stanford University, 1981: 4525- 4525.

[2] Roy R, Kailath T. ESPRIT-estimation of signal parameters via rotational invariance techniques[J]. IEEE Transactions on Acoustics, Speech, and Signal Processing, 1989, 37(7): 984-995.

[3] Kumar A A, Zhang D, Lin Z, et al. Direction finding and multipath mitigation using single antenna[C]∥Circuits and Systems (ISCAS), 2018 IEEE International Symposium on. IEEE, 2018: 1-5.

[4] 王永良, 陈辉, 彭应宁, 等. 空间谱估计理论与算法[M]. 北京: 清华大学出版社, 2004: 32-36.

Wang Yongliang, Chen Hui, Peng Yingning, et al. Spatial spectrum estimation theory and algorithm[M]. Beijing: Tsinghua University Press, 2004: 32-36.(in Chinese)

[5] Wen J, Liao B, Guo C. Spatial smoothing based methods for direction-of-arrival estimation of coherent signals in non-uniform noise[J]. Digital Signal Processing, 2017, 67: 116-122.

[6] Bohme J. Estimation of source parameters by maximum likelihood and nonlinear regression[C]∥Acoustics, Speech, and Signal Processing, IEEE International Conference on ICASSP’84. IEEE, 1984, 9: 271-274.

[7] Jaffer A G. Maximum likelihood direction finding of stochastic sources: A separable solution[C]∥Acoustics, Speech, and Signal Processing, 1988. ICASSP- 88., 1988 International Conference on. IEEE, 1988: 2893-2896.

[8] Massa A, Rocca P, Oliveri G. Compressive sensing in electromagnetics-a review[J]. IEEE Antennas and Propagation Magazine, 2015, 57(1): 224-238.

[9] Gurbuz A C, Cevher V, Mcclellan J H. Bearing estimation via spatial sparsity using compressive sensing[J]. IEEE Transactions on Aerospace and Electronic Systems, 2012, 48(2): 1358-1369.

[10] Malioutov D, Cetin M, Willsky A S. A sparse signal reconstruction perspective for source localization with sensor arrays[J]. IEEE Transactions on Signal Processing, 2005, 53(8): 3010-3022.

[11] Yang Z, Xie L, Zhang C. Off-grid direction of arrival estimation using sparse Bayesian inference[J]. IEEE Transactions on Signal Processing, 2013, 61(1): 38- 43.

[12] 叶中付. 统计信号处理[M]. 合肥: 中国科学技术大学出版社, 2013: 227-251.

Ye Zhongfu. Statistical Signal Processing[M]. Hefei: University of Science and Technology of China Press, 2013: 227-251. (in Chinese)

[13] 张小飞, 汪飞, 徐大专. 阵列信号处理的理论和应用[M]. 北京: 国防工业出版社, 2010.

Zhang Xiaofei, Wang Fei, Xu Dazhuan. Theory and application of array signal processing[M]. Beijing: National Defense Industry Press, 2010. (in Chinese)

[14] Bilik I. Spatial compressive sensing for direction of arrival estimation of multiple sources using dynamic sensor arrays[J]. Aerospace and Electronic Systems, IEEE Transactions on 2011, 47(3): 1754-1769.

[15] Mousavi A, Baraniuk R G. Learning to invert: Signal recovery via deep convolutional networks[C]∥2017 IEEE International Conference, 2017: 2272-2276.

[16] Liang F, Shen C, Wu F. An iterative BP-CNN architecture for channel decoding[J]. IEEE Journal of Selected Topics in Signal Processing, 2018, 12(1): 144-159.

[17] Haykin S S. Neural Networks and Learning Machines[M]. China Machine Press, 2009.

[18] Goodfellow I, Bengio Y, Courville A. Deep learning[M]. Cambridge: MIT Press, 2016.

DOA Estimation for Coherent Sources Using Deep Learning Method

Ge Xiaokai Hu Xianzhi Dai Xuchu

(Department of Electrical Engineering and Information Science, University of Science and Technology of China, Hefei, Anhui 230027, China)

Abstract: The subspace decomposing based DOA estimation algorithms for coherent sources required the special array structure, and the estimation performance was poor or even broken. In addition, the compressed sensing (CS) based DOA estimation algorithms were able to achieve coherent sources DOA estimation under high SNR with excessive computational complexity. Aiming at above-mentioned drawbacks, a new DOA estimation method for coherent sources was proposed by using the deep learning approach, which was based on sparse representation of the array received signals. The deep learning network for the coherent sources DOA estimation was composed of deep convolutional network and fully connected network. Moreover, the strategies for training the deep learning network were also presented. Therefore, the DOA of coherent sources could be effectively estimated by using the trained deep learning network. The simulation experiments show that compared with the existing coherent sources DOA estimation algorithms, the proposed method is suit for any array structure with much lower time complexity, and the estimation error is superior to smooth de-coherent and L1-SVD algorithm, slightly worse than the OGSBI algorithm.

Key words DOA estimation; coherent sources; deep learning; compressed sensing

文章编号:1003-0530( 2019) 08-1376-09

收稿日期:2018-11-21;修回日期:2019-03-24

中图分类号:TN911.7

文献标识码:A

DOI: 10.16798/j.issn.1003- 0530.2019.08.012

引用格式: 葛晓凯, 胡显智, 戴旭初. 利用深度学习方法的相干源DOA估计[J]. 信号处理, 2019, 35(8): 1376-1384. DOI: 10.16798/j.issn.1003- 0530.2019.08.012.

Reference format: Ge Xiaokai, Hu Xianzhi, Dai Xuchu. DOA Estimation for Coherent Sources Using Deep Learning Method[J]. Journal of Signal Processing, 2019, 35(8): 1376-1384. DOI: 10.16798/j.issn.1003- 0530.2019.08.012.

作者简介

葛晓凯 男, 1996年生, 河南周口人。中国科学技术大学电子工程与信息科学系硕士研究生。主要研究方向为深度学习。

E-mail: gxk1225@mail.ustc.edu.cn

胡显智 男, 1994年生, 安徽六安人。中国科学技术大学电子工程与信息科学系硕士研究生。主要研究方向为通信信号处理。

E-mail: hxz123@mail.ustc.edu.cn

戴旭初 男, 1963年生, 安徽庐江人。中国科学技术大学教授, 博士生导师。主要研究方向为宽带无线通信、智能信号处理等。

E-mail: daixc@ustc.edu.cn