在现代通信技术中,语音实时通信技术占据重要地位。如何在复杂的网络环境下高质量的传输语音一直是人们的研究热点。随着网络技术的迅猛发展,基于IP的语音传输[1]技术已经广泛使用在多媒体通信和实时传输中。VoIP采用用户数据报协议(User Datagram Protocol, UDP)快速地、一次性地传输语音数据,由于UDP不能保证数据包能有序并全部到达接收端,当网络临时拥塞出现时,就会发生数据包无法实时到达接收端(即发生丢包)的情况。当丢包率超过10%,语音通信质量就会明显下降。
目前,VoIP的抗丢包技术按照应用位置分主要有两类:解码端、信道。现有音频编码器内置的抗丢包技术大多是在解码端加入一定的丢包处理措施,例如ITU G.711附录一[2]采用带有基音周期检测的波形替代法,通过在丢包帧插入时间上最近的基因周期信号来替代丢包帧的信号,并通过重叠相加法(OverLap Add, OLA)来保证帧间的平滑过渡。ITU G.723.1[3]、G.729[4]、3GPP AMR[5]采用传输状态插值法,通过对丢包帧两端的线性预测系数进行插值,使用原先帧的周期激励,最终重构出丢包帧的音频信号。解码端抗丢包处理的补偿能力有限,仅对丢包率5%以下的情况有效。相对于解码端被动的处理,为进一步提高抗丢包能力,可在编码端使用信道编码技术增加冗余来主动应对丢包状况。一种方法是将相同的包发送两遍,这种方法缺点是浪费带宽,并且在同时接收到两个包时造成信息的冗余,可通过解码端反馈信道状态信息给编码端来决定是否需要重复发送相同的包,但反馈回来的包也可能丢失,并且造成较大延时;另一种方法[6]是在编码端编码两个包,但编码副本包时使用低码率的编码技术,这种方法减小一定带宽浪费,但存在的问题在于丢包时的音频质量会下降。
为了更好地解决上述丢包问题,人们提出了分布式语音编码。分布式语音编码又称多描述语音编码,它通常对同一帧语音信号采用两种或多种编码,每种编码结果独立传输,接收端,在接收到任一码流时,可独立解码;在接收到两种或多种码流时,进行联合解码获得更好的语音质量[7]。
G.722.1[8]是一种常用的语音宽带编码器,可对带宽为7 kHz的语音或音乐进行低复杂度的编解码,其速率为32 kbit/s或24 kbit/s,多应用于视频会议系统中,但其抗丢包措施很弱,导致音频通信质量下降。
针对上述问题,本文提出了一种基于G.722.1的分布式语音编码方法。该方法在G.722.1编码器(记为编码器1)的基础上,构建一个互补编码器(记为编码器2)。在编码端,对同一帧语音分别用G.722.1编码器和其互补编码器进行编码,并发送编码结果;在解码端,在接收到其中任一语音码流时,用G.722.1解码器进行解码,其语音质量不低于G.722.1编码器的解码结果,而在接收到两个语音码流时,用G.722.1解码器分别对两个语音码流进行解码,然后对解码结果进行联合处理,其最终的语音质量有明显提升,即有一定编码增益。该方法抗丢包能力强,语音质量良好。仿真实验验证了本文方法的有效性。
G.722.1编码器的有效编码带宽为7 kHz,输入信号采样率16 kHz,帧长为20 ms (320个采样点),连续两帧(640个采样点)进行一次重叠调制变换(Modulated Lapped Transform, MLT),每次变换产生320个MLT系数的帧。设当前要进行MLT的640个语音样本为x(n),MLT系数为
(1)
其中m=0,1,...,319为MLT系数的索引。
MLT是一个严格抽样、无损的线性变换过程,它可以分解为一次加窗、重叠和加法运算,然后进行320点的IV型离散余弦变换(Discrete Cosine Transform, DCT)[7]。所以,式(1)得到的320个MLT系数对应频率范围0到8 kHz。因编码器支持的有效带宽为7 kHz,故后1/8的MLT系数(共40个)不参与编码,只编码前7/8的MLT系数(共280个)。将这280个MLT系数等分为14个频带,即每个频带包括20个MLT系数,频带宽度为500 Hz。
编码按频带进行。为提高编码效率,分别对MLT频带均值和MLT系数进行编码。因为改进的分布式编码器主要涉及编码频带均值的部分,下面对该部分进行详细说明,对编码MLT系数部分简要阐述,最后简要介绍G.722.1的解码部分。
MLT频带均值编码包括频带均值的计算、量化和编码。待编码的280个MLT系数分成20个一组的R个频带,即R=14,设r为频带索引,0≤r<R,则频带r包括20r至20r+19个MLT系数。MLT系数的均方根(Root Mean Square, RMS)值rms(r)定义为
(2)
其中n表示频带r中第n个MLT系数,0≤n<20。然后,将rms(r)量化。量化器输出指数rms_index (r)为
rms_index(r)=floor(2log2(rms(r))-1.5)
(3)
其中floor(·)表示向下取整。量化指数的集合为
(4)
例如,若rms(r)=310,则rms_index(r)=15。
在量化完成后,对指数rms_index(r)进行编码。rms_index(0)使用5个比特直接编码,rms_index(0)=0值保留,不使用。其余13个频带的指数逐个与前一个频带做差,使用霍夫曼编码[9]算法对差值进行编码,以便传输。
下面简要介绍编码MLT系数部分。G.722.1的编码速率固定,所以一帧语音编码出的比特数目也需固定。用总比特数目减去编码频带均值已使用的比特数目和一些固定占用的比特数目可以得到编码MLT系数的可用比特数目。在编码MLT系数时,首先经过一个分类模块,它的输入是量化后的频带均值rms_index(r)和当前帧的可用比特数目,输出是16组分类。每组分类对应一组对R个频带的类别赋值,共有8种类别,每种类别规定了一组用于一个频带预定的量化和编码参数。每个频带使用对应的类别参数进行MLT系数的编码。MLT系数的符号和幅度分开编码,符号的编码紧跟幅度编码后,使用0或1表示。编码幅度时,首先用rms(r)的量化值将MLT系数幅度归一化,然后将归一化后的标量组合成矢量,并使用霍夫曼编码进行矢量量化。对分类模块产生的16组分类都进行编码,选择编码后比特数目与当前帧剩余可用比特最接近的一组分类用于传输。整个编码比特流的组成如图1所示,它分为频带均值比特、分类控制比特和MLT系数比特三部分,由于霍夫曼编码的编码长度与输入信号有关,其中第一和第三部分的比特数目可变,但要保证总的编码速率是定值。
图1 G.722.1编码比特流组成
Fig.1 G.722.1 bitstream structure
G.722.1的解码是编码的逆过程。对每一帧,首先解码出rms_index(0)(解码前5个比特)。然后,对其余频带进行霍夫曼解码和重建。接着,对4比特的分类控制进行解码,确定编码器所使用的分类(16组分类中的一组)。帧内其余比特表示量化的MLT系数,按每一频带的类别信息进行解码即可。为获得与编码器相同的类别赋值,解码器中的分类模块与编码器完全一致。解码器若获知某一帧码流受损,则重复前一帧解码出的MLT系数;若前一帧码流也已受损,则解码器把所有当前帧的MLT系数置为零。最后,对解码出的280个MLT系数补上40个零,并进行320点的重叠调制反变换(Inverse Modulated Lapped Transform, IMLT),以产生320个语音时域样值。IMLT过程是先进行IV型DCT变换,然后进行加窗、重叠处理。
IV型 DCT为
0≤m,n<320
(5)
其中,u(n)表示当前帧IV型DCT,mlt(m)表示解码出的280个MLT系数补上40个零的结果。
加窗、重叠处理的具体方法为
(6)
其中u_old表示前一帧DCT输出的一半,窗函数
(7)
u(n)中未使用的后一半存储为u_old,供下一帧使用,即
u_old(n)=u(n+160), 0≤n<160
(8)
基于G.722.1的分布式编码器如图2所示,它包括位于发送端的编码器1、编码器2模块和位于接收端的解码器模块。在发送端,对原始信号使用两个编码器进行编码,编码器1为G.722.1的ITU-T提供的原始编码器,编码器2为新构建的编码器,称为互补编码器。将两个编码器编码后的语音码流数据分别打包为packet1和packet2,并通过网络上的不同路由进行传送。在接收端,根据实际网络拥塞导致的丢包情况,分情况处理,这仅在G.722.1的原始解码器基础上进行少量修改即可。
图2 分布式语音编码器
Fig.2 Distributed speech encoder
图2中编码器2的内部框图如图3所示,它分为编码参数调节、部分解码、感知误差计算三个模块。执行流程为:首先,原始信号在初始参数下进行编码,然后将编码后的信号进行部分解码;将当前部分解码结果与编码器1的部分解码结果共同输入到感知误差计算模块进行感知误差的计算;将计算得到的误差反馈给编码器用于参数调节。如此操作,进行多次反馈,得到最优参数;最后,使用这组最优参数作为编码器2的编码参数进行编码,得到编码器2的最终输出。下面对编码器2的各模块进行说明,并阐述不同情况下的解码处理方式。
图3 编码器2的内部框图
Fig.3 Internal block diagram of encoder 2
为保证编码器2的编码结果可用G.722.1原始解码器进行解码,编码器2应在原始编码器1的基础上,进行参数调节。由式(1)、(5)、(6)、(7)可知,MLT变换是无损变换,Huffman编解码是无损压缩,若没有量化误差且信道没有误码,则可以将前280个MLT系数无损地传输到解码端,可以完成0~7 kHz频带信号的无损恢复。对于G.722.1编码器的任何改进,最终都会反映在使解码出的280个MLT系数更准确。由第2节的编码器原理可知,对MLT系数的频带均值进行量化时,量化重建值集合如式(3)、(4)所示,其量化间隔大,量化精度低,因此编码器2需要对编码器1的量化结果进行调整,使编码器1和编码器2联合解码的MLT系数更准确,且单独解码的编码器2的MLT系数的误差小于编码器1。本文用反馈结构确定最优的调整方法来保证量化调整的有效性。
编码参数调节模块的具体调整方法如下:原始编码器的频带均值量化结果为rms_index(r),0≤r<R。设集合C={rms_index(r)-1, rms_index(r)+1},用集合C中任一元素替代rms_index(r)来完成调整操作。编码器共有R个频带,每一频带r有两种可能取值。一次调整为对R个频带,将每个频带r初步量化的rms_index(r)替换为集合C中的任一元素。对全部R个频带进行调整,共有约为2R-1种调整方法。对于的任一频带r,有-8≤rms_index(r)≤31,r≠0,因此对于rms_index(r)=-8(对于频带0,rms_index(0)=0),不选取集合C的第一个元素,对于rms_index(r)=31,不选取集合C的第二个元素。设初始调整方法为P0,P0为2R-1种调整方法中的随机一种,最优调整方法为Pm。
原始信号x(n)在经过编码参数调节模块后,进入部分解码模块。部分解码模块完成G.722.1解码器的部分操作,具体操作与第2节相同,MLT为无损变换,只需解码出MLT系数即可用于后续误差的计算。需要指出的是,G.722.1编解码器除了IMLT时需要上一帧的部分信息之外,帧与帧之间没有编解码状态的耦合,这是反馈结构的实现基础。
图3中编码器2部分解码模块的输出与编码器1的部分解码结果一起输入到感知误差计算模块进行误差的计算。信噪比(Signal to Noise Ratio, SNR)、总谐波失真(Total Harmonic Distortion, THD)等指标只反映了信号本身数值上的差异,不能反映主观感受。研究表明[10-11],人耳对不同频率的信号有不同的敏感度,对不同频率段所能忍耐的误差也不同。此外,人耳的主观感受与信号幅值的对数成比例,对信号的相位不敏感。为此,本文采用感知误差来作为编码参数调节模块的反馈量。
下面阐述感知误差的计算方法。设当前部分解码模块输出的MLT系数为enc2_mlt(n),编码器1的部分解码输出的MLT系数为enc1_mlt(n),当前联合解码的结果记为com_mlt(n),其计算公式为
0≤n<280
(9)
相对误差定义为
(10)
感知误差为
(11)
其中0≤n<280,mlt(n)为编码信号经过MLT变换的理想值,w(n)为感知加权权重,它是频率的函数。将式(10)中的com_mlt(n)替换为enc1_mlt(n)和enc2_mlt(n),对应的误差记为eenc1和eenc2。
用等响度曲线可计算出w(n)为
(12)
其中E是等响度曲线[12]中听阈曲线上对应25n Hz频率的dB值,如表1所示。
于是,在约2R-1次的调整方法解空间中,寻找最优调整方法Pm,整个编码流程转化为如下优化问题
(13)
具体求解过程可通过在解空间中优化搜索实现。
表1 等响度表
Tab.1 Table of equal loudness
E[s]/dB对应频率范围/kHz45.00.024~0.04730.00.048~0.07025.00.071~0.09320.00.094~0.117
续表1
E[s]/dB对应频率范围/kHz15.00.118~0.14113.00.142~0.16412.00.165~0.18811.50.189~0.21110.00.212~0.23410.00.235~0.25810.00.259~0.2819.00.282~0.3059.00.306~0.3288.00.329~0.3528.00.353~0.3758.00.399~0.4228.00.423~0.4457.00.446~0.4696.00.470~0.4926.00.493~0.5165.00.517~0.5394.00.540~0.5634.00.564~0.5863.00.587~0.6092.00.610~0.6332.00.634~0.6562.00.657~0.6801.00.681~0.9841.50.985~1.5000.51.501~2.016-3.02.017~3.023-6.03.024~4.031-2.04.032~5.0392.05.040~6.0476.06.048~7.055
分布式编码完成后,解码端需要根据实际丢包情况进行解码。对每一帧数据,编码端编码的两个包记为packet1和packet2,解码时,根据数据包的丢失情况,存在4种情形:(1)packet1、packet2都不丢;(2)packet1不丢而packet2丢;(3)packet1丢而packet2不丢;(4)packet1、packet2都丢。设改进的分布式编解码最终输出的280个MLT系数记为newmlt(n),对于上述每种情况的处理方法如表2所示。
表2 MLT系数的替换公式
Tab.2 Substitution formula of MLT coefficients
接收状态解码端MLT系数替换公式(1)newmlt(n)=12mlt1(n)+12mlt2(n)(2)newmlt(n)=mlt1(n)(3)newmlt(n)=mlt2(n)(4)newmlt(n)=newmlt_his(n)
无论丢包情况如何,两组码流都按已有的规则正常解码。对于00,这种情况利用与编码端合成com_mlt(n)一样的加权原则,合成一组新的MLT系数;对于01,使用未丢包的编码器1对应的MLT系数mlt1(n);对于10,使用未丢包的编码器2对应的MLT系数mlt2(n);对于11,使用与原始解码器相同的规则,丢弃一帧使用前一帧的MLT系数代替,连续丢两帧或以上将MLT系数置零。这样就可组合出一组新的MLT系数,以用于下一步的重叠调制反变换(IMLT),得到重构的信号。
为验证本文方法的有效性,对分布式编码器解码出的语音质量进行主观评价和客观评价,并与原始编码器、相同包发送两遍的抗丢包方法进行比较(下文称对比方法)。
在进行语音主观评价实验时,使用三种方法对同一段语音进行编码,然后选取12位试听者对解码出的语音进行试听评分,语音质量主观评价采用MOS评分法,评分标准如表3所示。语音客观评价采用感知语音质量评估PESQ (Perceptual Evaluation of Speech Quality)[13]、短时客观可懂度STOI (Short-Time Objective Intelligibility)[14]和信号失真比SDR (Source to Distortion Ratio)[15]三个指标。在进行客观评价时,对于宽带PESQ的测量,用12个人的48段8~10 s的语音作为输入,使用三种方法进行编解码,对输出结果进行宽带PESQ测试取均值。对于STOI和SDR的测量,用8段8~10 s的语音作为输入信号,以编码前的语音作为参考,对三种方法的解码结果计算STOI和SDR值,并对结果取平均。所有主观和客观实验均分别在32 kbps和24 kbps两种码率下进行,丢包率分别设定为0%、1%、3%、5%、10%、20%、30%,丢包方式为随机丢包。实验中,ORG表示原始方法;OTR表示对比方法;OUR表示本文提出的方法。
表3 MOS语音评分标准
Tab.3 Standard of Mean Opinion Score
得分质量级别失真级别5优不察觉4良刚有察觉3中有察觉且稍有厌恶2差明显察觉且可厌但是可以接受1劣不可忍受
主观实验结果如表4所示。从表4可以看出,在不同码率和丢包率下,本文方法在三种方法中MOS评分最高,即语音的质量最好。与原始方法相比,本文方法明显改善语音质量;与对比方法相比,在丢包率≤5%时,本文方法语音质量略有提升,在丢包率为10%、20%和30%时,本文方法语音质量的改善较大。在码率为24 kbps和32 kbps下,呈现类似的实验结果。
客观实验结果如表5、表6和表7所示。从表5可以看出,与原始方法相比,本文方法PESQ值明显提高,在不丢包时,改善值>0.1;在丢包率为10%和20%时,改善值>1。与对比方法相比,本文方法在丢包率≤5%时,改善值>0.1,随着丢包率的提高,改善值下降,在丢包率为30%时,与对比方法接近一致。三种方法的STOI值如表6所示,与原始方法相比,本文方法的STOI值在不同的码率和丢包率下提升明显。与对比方法相比,在丢包率≤10%时,本文方法STOI值更高;在丢包率为20%和30%时,本文方法STOI值未必优于对比方法,两种方法彼此接近,STOI值都保持在0.950以上。表7给出三种方法SDR值的测试结果。与原始方法相比,本文方法的SDR值在不同的码率和丢包率下提升明显。与对比方法相比,在丢包率≤5%时,本文方法SDR值更高;在丢包率为10%、20%和30%时,本文方法SDR值未必优于对比方法,两种方法彼此接近。在实际网络环境中,绝大部分情况下丢包率≤10%,因此本文方法较对比方法有更好的实际表现。
表4 三种方法的MOS评分结果
Tab.4 MOS score results for three methods
丢包率/%24 kbpsORGOTROUR32 kbpsORGOTROUR04.784.784.834.824.824.8314.354.724.794.574.754.8334.184.624.704.184.624.6753.724.384.473.774.224.30102.913.703.823.323.783.99202.433.023.262.733.203.44302.012.803.012.052.522.65
表5 PESQ测试结果
Tab.5 PESQ test results
丢包率/%24 kbpsORGOTROUR32 kbpsORGOTROUR0 3.6073.607 3.789 3.6793.679 3.8531 3.3933.608 3.784 3.4323.68 3.8683 3.0173.598 3.766 3.0763.65 3.8225 2.7743.563 3.698 2.7953.627 3.75410 2.3483.387 3.471 2.3653.425 3.57220 1.7532.892 2.942 1.7772.898 2.96430 1.4612.382 2.393 1.4642.414 2.404
表6 STOI测试结果
Tab.6 STOI test results
丢包率/%24 kbpsORGOTROUR32 kbpsORGOTROUR00.9890.9890.9910.9920.9920.99410.9870.9890.9910.9880.9910.99330.9790.9890.9910.9880.9920.99450.9710.9890.9900.9740.9900.992100.9530.9860.9870.9560.9880.989200.8980.9770.9730.9140.9800.976300.8640.9550.9580.8480.9630.959
表7 SDR测试结果
Tab.7 SDR test results
丢包率/%24 kbpsORGOTROUR32 kbpsORGOTROUR019.59919.60320.82619.95219.95221.177116.20619.40220.78616.72219.95221.107311.29419.00419.83912.61019.76720.259510.46419.06119.6169.26618.27419.737106.44816.02215.1316.96115.05115.449204.06810.9679.9193.72510.96610.101302.3287.5867.6481.7198.8857.500
最后,分析本文方法的延时与计算复杂度。实际上,本文基于G.722.1的分布式语音编码器没有引入算法上的额外延时,但增加了编码器的计算复杂度。本文方法计算复杂度的增加取决于解式(13)的优化方法的选取及解空间的大小。由于语音能量主要集中在300 Hz~3400 Hz,因此仅用频带数R=7对语音频带进行调整,以减少计算复杂度。在本文实验中,采用线性搜索,当R=7时,所需运算次数小于710 WMOPS,可实现实时编解码,此时,其语音PESQ值相比于R=14时仅下降小于2%,但计算量却明显减少。
本文基于ITU G.722.1编码器,提出一种分布式的抗丢包语音编码方法。该方法在原有编码器基础上,构建一个互补编码器,它通过反馈的方式保证语音编码的感知质量;编码端对一帧语音编码出两个包,每个包都可单独解码,解码端在接收到任何一个包时,解码的语音质量不低于G.722.1编码器,在同时接收到两个包时语音质量明显提升。主观和客观的实验结果表明,相对于原始编码器,本文的分布式编码器在不丢包时,一定程度上改善原有编码器的语音质量;在丢包时,仍能保持较好的语音质量。本文工作对于改进网络通信中的语音传输质量具有一定参考意义。
[1] Martin O, Gustavo C A, Ciro L B, et al. Comparison between the real and theoretical values of the technical parameters of the VoIP codecs[C]∥IEEE Conference on Communications and Computing. Barranquilla, Colombia, Colombia: IEEE, 2019: 1- 6.
[2] ITU-T Recommendation G.711, Appendix I: A high quality low-complexity algorithm for packet loss concealment with G.711[S]. 1999, 09.
[3] ITU-T Recommendation G.723.1, Dual rate speech coder for multimedia communications transmitting at 5.3 and 6.3 kbit/s[S]. 2006, 05.
[4] ITU-T Recommendation G.729, Coding of speech at 8 kbit/s using conjugate structrue algebraic-code-excited linear prediction(CS-ACELP)[S]. 2012, 06.
[5] 3GPP (3rd Generation Partnership Project) TS 26.090, AMR speech codec; Transcoding functions[S]. 1999, 12.
[6] Tarek G, Fatiha M. An enhanced interleaving frame loss concealment method for voice over IP network services[C]∥European Signal Processing Conference (EUSIPCO). Rome, Italy: IEEE, 2018: 1302-1306.
[7] Hocine C, Fatiha M, Philippe M. Multiple description coding technique to improve the robustness of ACELP based coders AMR-WB[J]. Speech Communication, 2019, 108: 33- 40.
[8] ITU-T Recommendation G.722.1, Low-complexity coding at 24 and 32 kbit/s for hands-free operations in systems with low frame loss[S]. 2005, 05.
[9] 鲍长春. 数字语音编码原理[M]. 西安: 西安电子科技大学出版社, 2007.
Bao Changchun. Digital speech coding principle[M]. Xi’an: Xidian University Press, 2007.(in Chinese)
[10] 梁瑞宇, 赵力, 王青云. 语音信号处理[M]. 北京: 机械工业出版社, 2018.
Liang Ruiyu, Zhao Li, Wang Qingyun. Speech signal processing[M]. Beijing: Machinery Industry Press, 2018.(in Chinese)
[11] Colm S, Naomi H, Damien K, et al. Objective assessment of perceptual audio quality using ViSQOLAudio[J]. IEEE Transactions on Broadcasting, 2017, 63(4): 693-705.
[12] 呼德, 陈喆, 殷福亮. 一种自动等响度数字混音算法[J]. 信号处理, 2017, 33(3): 437- 443.
Hu De, Chen Zhe, Yin Fuliang. A digital audio mixing algorithm with equal-loudness[J]. Journal of Signal Processing, 2017, 33(3): 437- 443.(in Chinese)
[13] ITU-T Recommendation P.862, Perceptual evaluation of speech quality(PESQ): An objective method for end-to-end speech quality assessment of narrow-band telephone networks and speech codecs[S]. 2005, 11.
[14] Cees H T, Richard C H, Richard H, et al. An algorithm for intelligibility prediction of time-frequency weighted noisy speech[J]. IEEE Transactions on Audio, Speech, and Language Processing, 2011, 19(7): 2125-2136.
[15] Emmanuel V, Remi G, Cedric F. Performance measurement in blind audio source separation[J]. IEEE Transactions on Audio, Speech, and Language Processing, 2006, 14(4): 1462-1469.
Reference format: He Yingnan, Chen Zhe, Yin Fuliang. Distributed Speech Coding Based on G.722.1 Codec[J]. Journal of Signal Processing, 2020, 36(6): 894-901. DOI: 10.16798/j.issn.1003- 0530.2020.06.011.
何莹男 男, 1995年生, 辽宁阜新人。大连理工大学信息与通信工程专业研究生, 主要研究方向为语音信号处理。
E-mail: 824655412@qq.com
陈 喆 男, 1975年生, 大连理工大学教授, 博士生导师, IEEE高级会员, 研究方向为语音处理、阵列信号处理和宽带无线通信术。
E-mail: zhechen@dlut.edu.cn
殷福亮 男, 1962年生, 大连理工大学教授, 博士生导师, 研究方向为语音处理、图像处理、阵列信号处理和宽带无线通信术。
E-mail: flyin@dlut.edu.cn