賈興華,劉鵬,齊望東,4,劉升恒,4,黃永明,4,李佳璐,徐佳
(1.網絡通信與安全紫金山實驗室,江蘇 南京 211111;2.南京航空航天大學,江蘇 南京 211106;3.中國人民解放軍陸軍工程大學,江蘇 南京 210023;4.東南大學,江蘇 南京 211134)
位置服務首先隨著移動互聯網的普及進入發展快車道,2019年,高德、谷歌、百度等主流導航應用的日均服務請求均超過千億次。工業互聯網、車聯網等新興數字應用的不斷涌現,使得對智能網聯終端提供實時高精度定位服務成了新一代信息基礎設施的關鍵服務能力。伴隨工業領域數字化轉型進程,定位基礎設施帶來的經濟收益預計在2025年達到近130億美元[1]。為推進我國數字經濟發展,國家“十四五”規劃和2035年遠景目標綱要已將高精度定位技術作為數字經濟重點發展的產業,建設以北斗系統為核心的定位、導航、授時(positioning,navigation,timing,PNT)體系。北斗等衛星導航系統只能在室外開闊區域提供精確導航定位,而在垂直行業中常見的室內環境(如工廠、樓宇、隧道、地下空間等)如何提供普適高精度位置服務仍然是亟待解決的重大技術難題[2]。盡管 Wi-Fi、藍牙、超寬帶(ultra wideband,UWB)等多種技術手段都可用于室內定位并有成功應用案例[3],但是額外部署定位專用基礎設施帶來的高昂建設成本以及技術碎片化導致的維護成本阻礙了上述定位技術的規模化應用。根據美國技術情報機構(Allied BusinessIntelligence Inc.,ABI Research)的調查,在定位垂直行業中,有超過 87%的用戶雖然對室內定位有迫切需求,但目前仍未部署定位系統[1]。
利用泛在的 5G網絡為智能終端提供通導融合的高精度位置服務可避免基礎設施重復建設,充分發揮5G新基建賦能垂直行業的作用,而5G網絡的大帶寬、多天線、密集部署等新特征也為實現高精度定位帶來新契機。同時,增強高精度定位能力是 5G國際標準演進中持續關注的新特性,5G定位標準演進如圖1所示。2020年7月凍結的Release 16(Rel-16)標準引入了兩個專門用于定位增強的信號,即下行的定位參考信號(positioning reference signal,PRS)和上行的定位探測參考信號(sounding reference signal for positioning,SRS-Pos),將室內定位精度目標設定為3 m[4]。Rel-17標準則進一步將室內定位精度目標提升至1 m[5]。2021年年底,第三代合作伙伴計劃(3rd Generation Partnership Project,3GPP)將人工智能/機器學習定位增強、直連鏈路定位等新技術列為Rel-18標準的研究立項,以持續改進定位精度和效率[6]。未來,6G也將致力于為車聯網(vehicle to everything,V2X)等物聯網應用提供三維厘米級精度的位置服務[7]。

圖1 5G定位標準演進
從技術手段看,5G經典定位方法主要通過測量信號傳播時間測距進而定位,包括到達時間差(time difference of arrival,TDOA)測距、往返時間(round-trip time,RTT)測距等[8]。受限于時間同步精度1例如,GPS的同步精度通常為10~30 ns,北斗系統的同步精度通常為20~50 ns,測距誤差通常大于米級,這使得定位精度很難突破米級,在室內環境中尤其如此。在學術界,很多機構致力于提高測距定位的精度。例如,北京郵電大學鄧中亮團隊[9]開展的基于5G共頻帶信號的理論與實測研究,武漢大學陳亮團隊[10]應用載波相位技術實現高精度測距,美國紐約大學無線中心以及德國萊布尼茨創新研究所[11-12]開展毫米波頻段測距定位技術研究,最高定位精度達到厘米級。然而相關研究仍未成熟,當前5G設施以及商用部署條件不能滿足高精度測距的基本需求。在產業界,華為聯合中國移動等在蘇州地鐵部署了首個 5G室內定位系統,采用 TDOA定位方法達到了90%概率的3~5 m的定位精度,這是當前 5G定位在實際商用部署中所報告的最佳性能[1]。
除了傳統的測距定位方法,Rel-16 5G標準中首次引入測向定位方法,包括上行到達角(uplink angle-of-arrival,UL-AOA)與下行離開角(downlink angle-of-departure,DL-AOD)方法。測向定位方法不依賴基站間的精準時間同步,且得益于5G信號帶寬大、天線數量多、布設密度大等優勢,具備實現更高定位精度的潛力。目前,對5G測向定位方法的研究工作主要包括以下幾個。
? 2019年,華為芬蘭研發中心[13]利用軟件無線電平臺開展基于到達角(angle-of-arrival,AOA)的定位研究,在室外開放環境的實驗結果表明AOA定位方法在超密集部署的5G網絡中有望達到亞米級定位精度。
? 2021年,上海交通大學何迪課題組[14]首次報告了基于商用5G基站進行測向定位的實驗結果,利用4個密集部署的5G宏基站聯合定位,在室內環境下達到了亞米級精度。
? 2021年,中興、高通聯合中國移動[15]開展UL-AOA與多基站RTT(multi-RTT)測距聯合定位技術驗證,利用宏基站在室外無遮擋環境下達到了單基站2.1 m、多基站1 m的定位精度。
由于測向定位方法要求基站天線數量較多、基站位置和陣列天線的方位需要精準標定,施工要求嚴格,通常被認為只適用于室外的宏基站定位[16]。目前尚未見到基于室內部署的5G微(皮)基站和標準通信信號實現測向定位的研究報道。除了微(皮)基站天線數量受限、部署標定代價高,在室內環境中普遍存在的多徑、非視距(non-line-of-sight,NLOS)傳播效應對測向精度的影響也比測距定位方法更為顯著[17]。
另一方面,5G行業應用中室內定位需求強烈,亟須完整的定位解決方案,因此突破現有限制因素,探索基于室內基站的高精度定位方法勢在必行。雖然目前已有先進的面向 5G/B5G的試驗測試平臺[18],但由于室內定位精度受部署環境、設備硬件損傷、基站位置和密度等多種因素影響,這些物理層面的限制并不能在現有試驗平臺上得到有效分析。為實現亞米級定位能力,5G定位技術仍存在諸多關鍵技術挑戰。
5G標準在Rel-16進行了定位增強,除了保留4G原有的7種定位方法,為了支持更高定位精度,引入了6種新的定位參數測量方法[19]。其中,上行 TDOA(UL-TDOA)、下行 TDOA(DL-TDOA)、multi-RTT 3種方法同屬基于測距的定位方法,而UL-AOA和DL-AOD兩種方法屬于基于測向的定位方法,新空口(new radio,NR)E-CID(enhanced cell-identity)方法則是結合測距和測向的定位方法。雖然這些方法理論上具有高精度測量的潛力,但5G設備的硬件非線性、有限多徑分辨能力以及基站部署與施工帶來的基線校準誤差等問題,嚴重改變了接收信號模型,使得上述定位技術難以直接獲得高精度結果。而各種定位技術又依賴不同的測量方法,誤差模型也相應改變,因而面臨著不同方面的技術挑戰,本節將具體分析這些測量方法面臨的技術挑戰。
DL-TDOA是4G/5G常用的測距定位方法,算法簡單且運算量小,也因此在5G標準中特別增加了專用的定位參考信號(PRS)。該定位方法中,終端測量從多個發射/接收點(transmit/receive point,TRP)發送下行 PRS的相對信號時間差(relative signal time difference measurement,RSTD),再利用雙曲線交叉的數學模型來實現三邊或者多邊定位,DL-TDOA定位原理如圖2所示。特別的是,PRS的靜音模式可有效規避不同TRP發送的PRS之間的干擾問題。此外,相比4G的定位方法,5G定位增加了波束成形設計,可尋找到最佳發送接收波束對,并以此增加定位精度。

圖2 DL-TDOA定位原理
DL-TDOA定位方法的具體描述如下:首先假設ti(i= 1,… ,N)表示從基站i到終端的達到時間,bi表示基站i坐標,xUE表示終端坐標,ω表示公共時間偏差。假定每個 服從獨立高斯分布,且方差為σi2、均值為ω+ | |bi?xUE||,則概率密度函數為:

式(1)的最大似然估計等價于最小二乘估計(least squares estimation,LS),該終端位置xUE為:

假定iΔ是基站i相對于TRP1的時間差,其中TRP1是參考小區,iΔ定義為:

結合式(2)與式(3),最終可得到:

此時,可以利用泰勒擴展或者加權最小二乘解計算終端位置。
UL-TDOA是5G Rel-16新增的上行測距定位方法,該方法類似于DL-TDOA,不同點在于終端發送上行探測參考信號(sounding reference signal,SRS),基站多個TRP同時接收該信號并測量相對到達時間(relative time of arrival,RTOA),最終由核心網位置管理功能(location management function,LMF)計算終端位置。該方法因終端發送功率受限,基站側可監聽性會受到影響。
在實際應用中,由于 5G系統的非理想性,TDOA測距精度會明顯受制于同步、時鐘漂移、系統帶寬、器件延遲等硬件因素。具體來說,基站間的同步誤差是限制TDOA精度的首要因素,任意兩個基站測量的TDOA都包含這兩個基站間的同步誤差,而4G/5G通信網絡的實際站間同步精度要求為±1.5 μs,對應的測距誤差可達上百米。雖然在同一基站的多 TRP站間或者直連多 TRP站間的同步誤差相對低,但對TDOA測距精度影響依然明顯,與此同時,基站本身的晶振漂移同樣會影響TDOA精度,例如一般基站的晶振漂移約為±20 ppb,即每秒存在20 ns的時鐘誤差,而這對應了6 m的測距誤差。
除了時鐘同步問題,5G收發機鏈路中各硬件模塊的延遲補償精度也會影響TDOA測量精度。以接收機鏈路為例,主要的時延誤差體現在接收陣列天線端時延、射頻處理時延與數字前端時延3個部分,接收機鏈路時延誤差示例如圖3所示。雖然 5G系統會對鏈路各模塊時延有相應的補償機制,但當前時延抖動問題嚴重,仍難以滿足亞米級測量精度的需要。另外,環境溫度也是不可忽視的因素,晶振抖動與硬件時延變化都會受到環境溫度影響。
由于5G網絡處于無線多徑環境中,存在相對時延很短的強反射徑,這需要系統具備較高的路徑分辨率,然而5G系統sub-6 GHz頻段的最大信號帶寬為100 MHz,對應的時間分辨率為10 ns,這意味著反射徑與直達徑時延差在10 ns以內時,無法區分兩者,因而無法準確測量直達徑的到達時間差。
RTT定位方法同時利用了下行 PRS和上行SRS,終端與基站分別測量天線端口收發參考信號時間,進而計算二者之間的TDOA,RTT測量值誤差分析原理如圖4所示。與TDOA測量方法不同的是,RTT方法可以有效消除基站間的同步誤差,但代價是需要對參考信號往返時間進行精確測量。理想情況下終端在接收PRS的同時立刻發送 SRS,以避免晶振漂移帶來的影響,其測距精度主要取決于終端或基站設備中基帶到天線端口鏈路的時延測量精度,可通過降低鏈路延遲抖動,對時延補償以進一步提高測量精度。然而實際系統中不可避免存在等待間隔,所以RTT測量精度仍受時鐘漂移影響。在多站差分RTT方法中,對用戶到不同基站的RTT進行差分處理,可以消除終端發送和接收的時延誤差影響。
綜上,測距定位方法的測量精度影響因素見表1。

表1 測距定位方法的測量精度影響因素
UL-AOA方法是利用終端發送SRS,基站測量信號達到陣列天線的到達角,再通過多基站的角度交叉計算進行定位的一種方法。在僅有AOA定位方法的情況下,兩個基站即可完成終端定位。常用的 AOA角度估計算法有數字波束成形(digital beam forming,DBF)算法和多重信號分類(multiple signal classification,MUSIC)算法。
波束成形算法需要計算方向矢量和信道系數矩陣之間的相關性,需要遍歷所有到達角獲取最大的相關值,即:

其中,H為二維M×D矩陣,D是沖擊響應樣點數量,M是接收天線數量。a()θ是M維方向矢量,如式(6)所示。

超分辨算法是利用噪聲子空間和方向矢量的非相關性獲取最小相關值的算法,最優角度可通過譜峰搜索獲得,如式(7)所示。該算法計算量較大,需要進行奇異值分解矩陣分解。為了減少遍歷角度帶來的運算量問題,可以利用快速傅里葉變換等方法降低搜索復雜度。

其中,UL是相關矩陣R=E{HHH}中L維的噪聲子空間。
在實際應用中,測向算法對器件非線性、無線環境、基站部署等因素非常敏感,必須對各類誤差進行有效補償,并設計高分辨測向算法等以提高測向精度。
5G系統的硬件損傷是影響測向精度的首要因素。AOA估計算法是利用陣列天線接收信號的相位差信息,而該相位差極容易受到陣元方向圖與位置誤差、陣元間互耦效應以及射頻通道的相位偏移等硬件損傷因素影響。特別地,陣列天線間的相位偏移隨入射角度明顯變化,且在大角度時尤為明顯。雖然已有大量相關文獻致力于不同硬件損傷下的相位偏差建模與補償技術研究,陣列天線相位偏移等因素仍然是制約測向定位精度的棘手難題。另外,測向方法對基站部署密度、位置、基線精度等因素要求也非常高,需要基站天線精確部署,這將帶來巨大的部署與維護成本。毫米波頻段的系統是基于波束的通信鏈路,通過多天線信號的加權合并形成模擬波束,這使得陣元間的特殊相位偏移關系不再滿足。
無線多徑效應是制約角度估計分辨率的關鍵因素。在實際環境中,特別是城市、室內環境中的多徑效應會對AOA的估計造成嚴重的影響。例如,對于僅有4陣元的小孔徑陣列天線而言,當陣列為陣元間距半波長的等距線陣時,其法向的半功率波束寬度約為25°,這時與直達信號方向同屬于 25°內的短時延多徑信號分量容易與直達信號混疊,導致較大的AOA估計偏差。此外,當終端與基站之間的直達徑完全被遮擋,即呈現NLOS場景時,測向算法將無法估計直達徑的AOA值,因此需要應用有效的NLOS識別算法剔除連續定位過程中的NLOS點,以消除NLOS點對AOA定位的不利影響。
高計算復雜度阻礙了超分辨率測向算法的應用。超分辨角度估計算法需要利用接收信號協方差矩陣做特征分解等復雜矩陣運算,其計算復雜度非常大。當陣元數較少,對實際環境中的多徑分辨能力不足時,常需要結合信號的頻域信息進行角度-時延域二維超分辨解算,這使得參數估計的運算量進一步增加。此外,對于多基站、多終端定位場景,多終端需要實時角度估計,此時超分辨算法的運算量更難以估計。
DL-AOD技術主要是利用基站發送帶有波束的下行 PRS,終端遍歷各個波束的參考信號接收功率(reference signal receiving power,RSRP)值以確定最優波束,再利用多基站的波束角融合解算位置的方法。當基站陣元數有限時,波束寬度大,且波束存在一定的抖動誤差與步進精度限制,這時基于波束的定位精度很差。在 5G系統演進中,基站支持大規模陣列將是一個重要的新特性,其實現的極窄波束寬度具有很強的方向性,可實現高精度定位。與UL-AOA技術類似,DL-AOD技術的定位精度同樣受系統硬件損傷、無線多徑環境以及基站部署等因素影響。
為了突破5G定位的亞米級定位精度,亟須解決上述5G定位的技術挑戰。由于5G的首要目標是無線通信服務,其射頻接入技術的設計與更新主要考慮通信性能與成本的權衡,雖然高精度定位得到了3GPP的關注,但當前5G商業設備不會因為增強定位能力而做出重大調整。因此設計針對各類影響因素的補償方法是更可行的途徑。目前在相關的文獻中已有一些針對上述制約因素的補償方法設計,并且已經通過仿真器、軟件無線電以及Wi-Fi等設備驗證了有效性。5G設備的損傷行為與非標準或非5G設備不同,一些關鍵硬件損傷問題至今也沒能有效解決方案。盡管目前有一些先進的5G測試平臺可以用于驗證5G先進技術,但這些平臺仍然忽略了物理層面的限制問題。例如,不同的基站部署方式、應用場景以及收發機硬件損傷等問題。5G標準與系統研發仍在演進中,為了驗證多種 5G應用場景下的定位方法性能,使用5G仿真器來設計與驗證定位算法是更合理的選擇。
為了支持與推進5G技術的研發,在學術界或產業界已有大量公開的5G仿真器軟件,然而并沒有針對5G設備硬件損傷細節與5G定位信號模型細節的鏈路仿真器,而這些細節又是制約 5G定位精度的關鍵。為此,本文提出了針對上述影響因素的5G定位鏈路仿真平臺框架,如圖5所示。該平臺主要由參數配置、物理層仿真、無線信道模型組成。

圖5 5G定位鏈路仿真平臺框架
鏈路仿真平臺的基本目標是針對 5G實際應用場景,通過物理層傳輸過程的細粒度建模,有效模擬接收到的信道估計系數矩陣。進而可根據得到的信道估計系數矩陣以及相應的細粒度建模參數,設計與分析5G定位參數估計算法。具體可分為如下關鍵技術點。
(1)分析5G設備的天線相位偏移、波束成形誤差等物理損傷行為,應用經典統計方法建模或者對受損傷影響的信號相位與幅度進行測量與建模,從而構建相應的硬件損傷模型,使接收端的信道估計系數中包含各類硬件損傷行為帶來的誤差,以解決5G設備的各類硬件損傷對參數估計算法帶來的影響問題。
(2)設置支持細粒度的系統布局參數,以分析陣列天線構型與數量、基站部署密度以及基線誤差等系統部署因素對算法的影響。
(3)定位參數估計算法對無線多徑環境尤其敏感,傳統鏈路仿真使用的抽頭延遲線或者簇延遲線信道模型不足以模擬復雜的多徑效應,針對5G系統的復雜無線多徑環境,應用最新NR物理層規范中的幾何統計信道模型作為仿真平臺無線信道的輸入。
(4)對于5G各類典型室內外環境,可選取其已確定的信道建模參數,也可針對額外應用場景(如地下車庫),通過信道探測過程對該場景進行細致信道測量,再經過超分辨算法處理得到該場景下的信道建模參數,該參數可調入平臺信道模型中用于仿真評估。
(5)為了支持毫米波頻段測向功能并遵循NR波束管理標準,通過分析模擬波束掃描與測向機制,設計模擬波束掃描與測向框架,用以支持各類基于波束算法的設計與分析。
與用于物理層通信算法分析的仿真器不同,5G定位仿真平臺新增如下仿真能力。
(1)相比已有的鏈路級算法仿真器,增加了支持多基站/多用戶傳輸、毫米波傳輸與大規模陣列、多場景與空間一致性以及上下行雙向傳輸等能力。
(2)在通信物理層算法仿真時,通常使用單鏈路單向傳輸的鏈路級仿真器,而對于定位參數估計算法,需要通過支持多基站、多用戶傳輸來分析多站定位算法、分布式定位、用戶協同定位等算法性能。
(3)5G體制引入了毫米波頻段,該頻段基于波束成形的測向方法亦是支持高精度定位的富有潛力的方法,因此仿真平臺需要支持毫米波頻段傳輸以及大規模陣列,通過設計的模擬波束成形框架可進行毫米波頻段的測向算法分析。
(4)動態定位方法依賴無線信道的空間連續性,建模無線信道環境時需要考慮動態仿真中移動軌跡鄰近點的空間一致性以及鄰近用戶間的信道相似性。
(5)為了能分析所有5G定位方法,需要對支持這些上下行定位方法的所有定位參考信號進行細粒度建模,可通過配置資源集的方式區分不同傳輸鏈路,在信號解調時可通過參考信號ID與資源集的時頻圖案識別,因此仿真平臺具體需要支持SRS、PRS、信道狀態信息參考信號(channel-stateinformation-reference-signal,CSIRS)、同步信號塊(synchronization signal block,SSB)這4類定位信號的傳輸,在建模時信令機制嚴格兼容NR時間幀格式,以滿足上下行定位仿真需要。
(6)建模的硬件損傷模型也可支持 NR系統的載波頻率范圍,如對于毫米波頻段可應用基于該頻段的硬件損傷模型。
(1)參數配置設計
參數配置部分是仿真平臺的重要組成部分。仿真器需要具備靈活配置、模塊化等特征,并且支持多場景下多基站、多用戶的復雜系統布局,以及細粒度的建模需求,仿真平臺需要極其復雜的參數配置過程,依據仿真平臺功能需求具體可分為系統參數、載波參數、參考信號參數、信道參數、硬件損傷參數、波束成形參數等6個初始化參數配置模塊。這些參數需要既存在默認的參數配置,又可依據不同仿真需求對各類參數進行定制化配置,因此各模塊參數配置以面向對象的編程方式實現。
(2)物理層傳輸建模
該部分旨在模擬定位用信號從信號生成到信道參數估計的物理層傳輸過程。為了模擬真實的物理行為并兼容最新的 NR標準,可將這部分劃分為5個主要功能模塊,即定位信號生成、基帶調制、接收信號生成、基帶解調和信道參數估計。特別地,下采樣和上下行鏈路載波轉換都無法在數值軟件中進行有效模擬,通常在鏈路仿真器中不被建模,但在載波頻段的一些物理效應如相位噪聲仍可以在基帶傳輸中有效模擬。
(3)無線信道模型
無線信道建模研究已有20多年的歷史,至今已有很多綜合性的建模方法如幾何統計信道模型、射線追蹤信道模型等。仿真平臺使用支持NR標準技術規范(technical specification,TS)38.901中的幾何統計信道模型,該模型更為有效地模擬了5G典型應用的無線信道環境。仿真平臺需要針對定位算法的輕量化無線信道模型,因此主要考慮對參數估計算法更為敏感的信道建模功能。此外為了便于算法分析,可定制化輸出詳細的多徑建模參數信息。
為了分析5G系統硬件損傷與無線環境的特征及其對參數估計的影響,本節使用構建的 5G定位仿真平臺對5G UL-AOA定位算法進行性能分析。在系統布局設置中,多個基站等間距部署在室內開闊空間,終端位置生成則服從均勻隨機分布。另假設基站均配置垂直極化的方向性均勻線陣(uniform linear array,ULA)并統一朝向,終端則配置全向單天線。UL-AOA定位仿真參數設置見表2。

表2 UL-AOA定位仿真參數設置
天線相位偏移是影響測向算法精度的首要因素,這里首先給出針對天線相位偏移的測試結果。天線相位偏移測試與仿真結果如圖6所示。圖6(a)為基站某兩個天線間的相位偏移誤差,可見在隨著入射角變化時,相位偏移呈現不規律波動,這種誤差對于陣元數受限下的測向精度影響非常大。圖6(b)是通過實測與仿真分析天線相位偏移誤差對角度估計精度的影響,可見在天線相位偏移誤差的影響下,角度估計誤差明顯增大,入射角在大角度區間時角度估計誤差已達10°。

圖6 天線相位偏移測試與仿真結果
存在強反射徑且直達徑入射角為0°時的角度估計譜如圖7所示,強反射徑與直達徑時延過近,無法應用超分辨算法區分,進而和信號改變了直達徑的相位關系,形成了角度偏移以及緩峰現象。

圖7 存在強反射徑且直達徑入射角為0°時的角度估計譜
不同損傷模型下定位誤差曲線對比如圖8所示,存在損傷模型時,定位CDF曲線明顯向下偏離,定位精度也明顯變差,而無典型損傷模型下的定位精度可達 67%亞米級,該現象表明如果能夠對這些損傷進行有效補償,則UL-AOA定位技術是具備高精度定位部署潛力的。圖8中CDF曲線最終穩定在 80%左右且無損傷時并沒有穩定的高精度定位結果,是因為基站配置了方向性天線陣列,在當前的部署場景下存在一定的覆蓋盲區;另算法假設基站與終端同高,入射角被近似為方位角,則必定存在位置解算誤差,且當終端靠近基站時,誤差更為明顯。這種現象則可通過優化基站布局、基站天線陣列選型以及定位算法來有效提升定位精度。

圖8 不同損傷模型下定位誤差曲線對比
本文在梳理5G標準定位技術演進路線的基礎上分析了各類定位方法實現室內亞米級定位精度所面臨的挑戰,盡管終端定位服務一直是移動通信網的基本功能,但是相比于4G及之前的定位服務,5G網絡不但引入了全新的定位方法,而且定位精度指標提升了 1~2個數量級。從確立標準到產業化落地,需要經歷技術研究、設備研發、部署測試、示范應用等多個階段,尤其是新引入的測向定位方法在5G網絡中能否實現更高的定位精度還有待進一步驗證。針對5G系統實現亞米級定位的強烈需求,本文重點分析了當前5G定位技術實現高精度定位的潛力與面臨的關鍵挑戰。另外,為了有效支持分析與設計 5G定位算法,提出了5G定位專用仿真平臺框架,基于該平臺可模擬5G系統硬件損傷、無線環境等因素對參數估計算法的影響,并可以此設計有效的補償方法,加速5G定位算法突破亞米級定位精度。