摘要:針對傳統的波達方向(DOA) 估計方法存在著低信噪比、小快拍環境下的性能下降問題,提出了一種基于稀疏貝葉斯學習和降維 LU 分解相結合的 DOA 估計算法,實驗表明該算法在低信噪比及小快拍環境下具有較好的效果,同時大幅提高了算法的運算速度。該算法首先利用稀疏貝葉斯學習獲取 DOA 的初始估計。為解決壓縮感知中因目標偏離預設柵格點而產生的離格問題,算法進一步結合了降維 LU 分解與多項式求根技術,通過迭代更新參數來逐步優化 DOA 估計值。
關鍵詞:陣列信號處理;波達方向估計;稀疏貝葉斯學習;壓縮感知;LU 分解;離格估計
中圖分類號:TP311" " " 文獻標識碼:A
文章編號:1009-3044(2025)23-0081-03
開放科學(資源服務) 標識碼(OSID)
0 引言
陣列信號處理是近幾十年來信號處理的重要分支之一,而波達方向(DOA) 估計也是陣列信號處理中的核心問題,在軍事和民用雷達等領域具有廣泛的應用價值[1]。傳統的 DOA 估計方法屬于空間譜估計類,代表算法有多重信號分類(MUSIC) 算法 [2] 以及旋轉不變子空間(ESPRIT) 算法。然而,當面臨信噪比和快拍數過低的情況時,這類算法的性能會急劇下降[3]。
近年來,壓縮感知理論的提出促進了與DOA估計相關技術的飛速發展。基于壓縮感知理論的 DOA 估計算法通常將角度空間離散化為有限個柵格點,并通過估計這些柵格點上的信號能量來確定信源方向。該理論下的DOA估計算法大致可分為兩大類:[Lp]范數和稀疏貝葉斯學習。[Lp]范數的代表算法為[L1]范數奇異值分解法([L1 ]norm singular value decomposition,[L1]-SVD) ,該算法采用[L1]范數構造稀疏模型,通過奇異值分解對接收信號降維,從而降低計算復雜度。文獻指出,相對于[Lp]范數類算法,基于稀疏貝葉斯學習(Sparse Bayesian Learning,SBL) 的方法通常表現出更好的收斂性能”。SBL 類算法通過設置先驗概率構造稀疏概率模型,在貝葉斯概率框架下求解,從而有望獲得更精確的估計結果。然而,基于壓縮感知理論的方法需要假設目標準確地落在預設的柵格點上,若信號偏離柵格點,則會造成系統誤差,該問題被稱為離格 (off-grid) 問題。為了減小系統誤差,解決離格問題,廣大學者開展了諸多積極研究。文獻提出了一種稀疏貝葉斯離格 DOA 估計算法(Off-grid direction of arrival estimation using sparse bayesian inference, OGSBI) ,將由偏離柵格點所造成的離格誤差用一階泰勒展開近似表示,但該算法依然無法徹底消除離格誤差。文獻[4]提出的 RootSBL 算法,通過構建與 DOA 相關的多項式并求解其根,直接估計離格 DOA,但其性能仍受限于參數選擇和計算負擔。在實際應用中,若相關參數選擇不當,會導致估計精度降低以及算法收斂速度慢的問題;并且,計算過程中的運算量也會隨著問題規模的增加而顯著增大。
為解決傳統 DOA 估計算法在低信噪比下性能不佳的問題,并針對標準 SBL 算法迭代過程中高維矩陣求逆運算帶來的高計算復雜度,本文提出了一種基于稀疏貝葉斯學習和降維 LU 分解相結合的 DOA 估計算法。首先通過SBL求得DOA的粗略估計值,隨后通過降維手段以及LU分解對DOA的估計值進行優化。仿真結果表明,本文方法具有更好的噪聲魯棒性,同時也降低了運算時間。
1 陣列信號模型
假設有[K]個遠場窄帶信號表示為[skt,k=1,...,K],入射至陣元數為[M]的均勻線性陣上,陣元間距設置為半波長,則陣列的接收信號可以表示為
[[yt=A(θ)st+nt,t=1, 2,..., T] [(1)] ]
式中[T]為快拍數,陣列接收信號表示為[yt=y1t,y2t,...,yMtT],陣列流型矩陣表示為[A(θ)=aθ1,aθ2,...,aθK],入射方向的DOA表示為[θ=θ1,θ2,...,θKT],[aθk=1,e-jπsinθk,...,e-jπ(M-1)sinθkT]為第[k]個目標的導向矢量,入射信號表示為[st=s1t, s2t, ..., sKtT],[nt=n1t,n2t,...,nMtT]為噪聲。定義多快拍形式下[Y=y1,y2,...,yT],[S=s1,s2,...,sT]以及[N=n1,n2,...,nT],則多快拍形式下的陣列接收信號可以表示為
[[Y=A(θ)S+N] [(2)] ]
DOA估計的目標即是從陣列接收信號[Y]中恢復得到入射信號的角度信息[θ]。基于壓縮感知理論可以在角度域預先設立[N]個柵格點[θ=θ1,θ2,...,θNT],對整個空域進行稀疏化,并假設目標準確地落在這些柵格點上,則DOA估計的問題可以轉化為壓縮感知框架下稀疏信號的恢復問題,即
[[Y=D(θ)S+N] [(3)] ]
式中[D=aθ1,aθ2,...,aθN]為字典矩陣,[aθn]為柵格點[θn]所對應的導向矢量。[S=s1,s2,...,sT]為列稀疏的入射信號矩陣,且第[i]行表示在柵格點[θi]中的信號源。因為[N?K],所以在[st]中只有[K]個非零值,對應著[K]個真實目標。
2 基于降維LU分解的DOA估計算法
現實情況下目標基本不可能準確地落在預設的柵格點上,如何解決離格誤差是壓縮感知框架下DOA估計的核心問題。本節首先通過引入傳統 SBL 的方法對 DOA 進行粗略估計,即初始估計值對應于預設的柵格點上,隨后通過降維操作降低計算復雜度。在低維度下,利用LU分解得到信號的更新值,隨后基于更新的信號幅值,采用多項式求根法進一步優化DOA估計,直至算法收斂。
2.1 基于稀疏貝葉斯學習的DOA初始估計
根據稀疏貝葉斯學習的框架,假設稀疏信號[st]服從均值為0,協方差矩陣為[Δ=diag(γ-1)]的復高斯分布,即
[[pS|γ=t=1TCNst;0,Δ] [(4)] ]
式中信號精度表示為[γ=[γ1,γ2,...,γN]T],服從伽馬分布,即
[[pγ=n=1NΓγn;1,ρ] [(5)] ]
假設噪聲為復高斯白噪聲,即服從均值為0,方差為[λ-1]的復高斯分布,即
[[pN|λ=t=1TCNnt;0,λ-1I] [(6)] ]
則陣列接收信號的似然函數可以表示為
[[pY|S,γ,λ=t=1TCNyt;D(θ)st,λ-1I] [(7)] ]
因此,根據貝葉斯定理,相關隨機變量的聯合后驗分布可以表示為
[[pS,γ,λ|Y=pY|S,γ,λpS|γpγp(λ)p(Y)] [(8)] ]
然而[(8)]中準確的后驗分布難以直接進行計算,所以通過貝葉斯推斷和相關向量機可知,稀疏信號[st]的后驗分布同樣為復高斯分布,其均值和協方差矩陣分別為[μt]和[Σ],即
[[pS|Y,γ,λ=t=1TCNst;μt,Σ] [(9)] ]
式中
[[μt=λΣDH(θ)yt] [(10)] [Σ=Δ+λDH(θ)D(θ)-1] [(11)] ]
則DOA的初始估計可以通過[10-(11)]逐步迭代得到。
2.2 基于降維LU分解的信號優化
根據2.1中SBL算法迭代后的結果,可以得到稀疏信號初始估計值以及對應的DOA初始估計值。為了解決離格問題和減小計算復雜度,考慮到[μt]大部分元素趨近于零,僅有有限個大值,所以本文根據其大值,通過降維的手段,得到如下模型,即
[[yt=Φxt+n(t)] [(12)] ]
式中[Φ]的維度為[M×K],[xt]的維度為[K×1],分別由[D(θ)]和[μt]降維得到。為了降低離格誤差,本文采用雙層更新的手段,即[X=[x1,x2,...,xT]]和[Φ]分別逐步迭代優化,在本小節通過多項式LU分解的方法對[X]進行更新。
首先使當前[Φ]的估計值保持不變,則[xt]的最小二乘解可以表示為
[[qt=Wxt+ΦHn(t)] [(13)] ]
式中[qt=ΦHyt],[W=ΦHΦ]。對矩陣[W]進行LU分解可得[W=LU],經過LU分解可得,式[(13)]可以轉化為兩個三角形方程組,分別為[qt=LΞ(t)]和[Ξt=Uxt],其中[Ξ(t)]表示未知的中間向量。信號的更新優化值[xt]可以通過閉式解快速求得。
2.3 基于多項式求根法的DOA估計優化
根據2.2小節輸出的信號更新優化值[xt],在本小節固定其不變,可以通過求最小代價函數的方法,逐步逼近真實接收信號,從而對DOA估計值[θ]進行更新優化,隨后從[θ]中通過計算得到[Φ]。
DOA估計優化的代價函數可以表示為
[[R=12×t=1Tyt-Φxt22] [(14)] ]
參考文獻[5]的方法,求導為零時,代價函數R最小,因此可以得到關于hk?的多項式方程。考慮到該多項式在復平面上有M?1個根,且未知變量hk?的模值為1,需選取模值最接近1的根作為最優解。因此 DOA 的估計更新值為
[[θk=arcsin-anglehkπ] [(15)] ]
隨后通過[θk]更新得到[Φ],固定[Φ]回到2.2小節更新信號估計值[xt],如此循環往復,直至算法收斂。
需要指出的是,本文提出的基于降維LU分解的信號優化方法并不依賴于在2.1小節中稀疏貝葉斯學習所提供的初始值的估計精度,也就是稀疏貝葉斯學習算法的終止準則可以設置相對寬松的參數。只需要經過一定數量次的迭代,便可作為初始估計值進入隨后的2.2和2.3的迭代循環,這是由于LU分解是多項式閉式解更新算法,并不像多項式迭代算法中需要對初始值有一定要求,通過迭代從而加快算法收斂。相比傳統的稀疏貝葉斯學習方法,本文提出的方法在2.1中可以減小迭代次數,進而減小每次迭代所涉及的高維度矩陣求逆運算,其計算復雜度可達[ON3],從而降低整個算法的運算時間。
3 結束語
本文提出了一種新穎的離格 DOA 估計算法,該算法有機融合了稀疏貝葉斯學習(SBL) 、降維處理、LU 分解以及多項式求根技術。首先,借助 SBL 獲取 DOA 的初步格點估計,此步驟為后續精確估計奠定基礎。然后,針對傳統算法在高維度計算上的難題,通過精心選取關鍵信號分量進行降維處理,大幅降低計算復雜度,同時保留信號關鍵特征。接著,利用 LU 分解高效更新信號幅值,進一步優化信號估計。最后,采用多項式求根法精準估計離格 DOA,有效提升估計精度。
這種分階段優化的策略,旨在解決基于壓縮感知框架下 DOA 估計面臨的離格問題,同時提升算法性能。從實驗結果來看,該算法在低信噪比和小快拍條件下展現出良好的魯棒性,能夠有效處理離格目標,相比傳統算法,在估計精度上有顯著提升。此外,通過減少 SBL 迭代次數以及在降維空間進行優化,算法的計算效率也得到了極大提高,為實際應用中的實時處理提供了有力支持 。
參考文獻:
[1] KRIM H,VIBERG M.Two decades of array signal processing research:the parametric approach[J].IEEE Signal Processing Magazine,1996,13(4):67-94.
[2] SCHMIDT R.Multiple emitter location and signal parameter estimation[J].IEEE Transactions on Antennas and Propagation,1986,34(3):276-280.
[3] STOICA P,NEHORAI A.MUSIC,maximum likelihood,and Cramer-Rao bound[J].IEEE Transactions on Acoustics,Speech,and Signal Processing,1989,37(5):720-741.
[4] MALIOUTOV D,CETIN M,WILLSKY A S.A sparse signal reconstruction perspective for source localization with sensor arrays[J].IEEE Transactions on Signal Processing,2005,53(8):3010-3022.
[5] DAI J S,BAO X,XU W C,et al.Root sparse Bayesian learning for off-grid DOA estimation[J].IEEE Signal Processing Letters,2017,24(1):46-50.
【通聯編輯:光文玲】