





摘要:傳統可見光室內定位方法在動態環境中定位精度和穩定性不足,單純依賴慣性測量單元(Inertial Measurement Unit, IMU)IMU定位存在累積誤差問題。文章提出一種基于交叉注意力機制TCN-BIGRU的可見光與IMU融合定位方法。該方法融合了IMU傳感器數據與可見光通信的接收信號強度特征,以可見光測量值和IMU傳感器數據的時刻差值作為主要和輔助特征,有效彌補了單一傳感器的局限性,通過自適應門控機制充分發揮兩者優勢實現互補。實驗結果證實了該算法的有效性,平均定位誤差僅為2.35 cm,相比僅使用可見光信號強度的定位,精度提升了15.77%。
關鍵詞:室內定位;可見光通信;慣性測量單元;交叉注意力機制
中圖分類號:TN929.12 文獻標志碼: "A
0 引言
在過去10年里,室內定位技術成為日常生活不可或缺的一部分,廣泛應用于機器人和行人導航等領域。常見的定位方式包括慣性導航或小型信標,如Wi-Fi、藍牙、UWB。盡管Wi-Fi和藍牙易于部署,但難以實現厘米級精度;UWB雖精度高,但成本較高。隨著光通信技術的發展,可見光定位(Visible Light Positioning, VLP)技術逐漸展現出較好的應用潛力[1],但其存在遮擋和多徑效應等問題。與之相關的慣性導航系統也會隨時間累積產生誤差,影響長期定位精度。為此,本文提出一種基于深度學習的可見光與IMU傳感器融合方案,采用時分多址技術對LED燈進行調制[2],以提高信號穩定性。實驗結果表明,該方法平均定位誤差為2.35 cm,相比單一源定位精度提升了15.77%。
1 室內定位系統的建立
1.1 定位模型
1.2 可見光信號信道原理
1.3 基于可見光和IMU融合定位系統
可見光和IMU融合定位系統結構如圖2所示,可見光通信和IMU融合定位系統中包括離線數據集建立和在線定位測試階段,其中包括2個接收模塊、融合特征數據的建立、神經網絡的搭建和優化以及利用訓練好的網絡模型進行定位預測。
室內定位系統中,可見光通信信號強度是指接收端PD的實際接收功率。慣性測量單元通過慣性定律獲取載體運動信息,主要包括加速度計、陀螺儀和磁力計3個傳感器。理想情況下這3個傳感器構成正交三軸直角坐標系,但實際因制造工藝問題會產生誤差,如零偏和標度因子等[3],導致3個傳感器的九軸難以達到完全正交。
2 準備階段
2.1 數據集的建立
2.2 模型框架
基于TCN-BIGRU的可見光通信和IMU融合定位模型在進行室內定位預測時,其模型結構包括可見光、IMU和位置特征的輸入層、時間卷積網絡層[4]、雙向循環控制單元層[5]、自適應融合層、交叉注意力機制層[6]、全連接層和輸出層。融合定位模型預測結構如圖4所示。
步驟1:讀取并劃分數據,劃分為訓練集、驗證集和測試集。可見光特征數據輸入時間卷積網絡、IMU特征數據輸入雙向循環控制單元網絡,位置特征輸入交叉注意力機制中。步驟2:處理VLC信號與IMU數據,提取特征。步驟3:通過自適應融合層融合特征。步驟4:拼接融合特征與位置特征,計算注意力分數。步驟5:輸出預測結果。
3 實驗結果與分析
3.1 實驗環境搭建
為了驗證算法模型的可行性和定位效果,構建了2 m×2 m×2.8 m的實際場景,安裝了4個功率均為3 W的LED燈作為可見光錨節點,其具體坐標分別為:LED1(0.6 m, 0.6 m, 2.8 m)、LED2(0.6 m, 1.4 m, 2.8 m)、LED3(1.4 m, 1.4 m, 2.8 m)、LED4(1.4 m, 0.6 m, 2.8 m)。接收端采用S1123-01型硅光電二極管作為光電檢測器和WT9011DCL作為IMU器件。在2 m×2 m的地面區域內,以10 cm×10 cm的間隔進行采集點的劃分。接收端在實驗場中按照預定軌跡,分別以0.1 m/s和0.25 m/s的速度移動。
在每個網格交叉點,記錄可見光通信信號強度和IMU九軸數據,通過時間戳和接收端速度確保數據的時空一致性。接收端在移動平面上的移動軌跡大致如圖5所示。
3.2 實驗結果與分析
對采集到的數據進行預處理后,按照8∶1∶1的比例劃分為訓練集、驗證集和測試集。利用融合定位模型對采集到的融合特征差值數據進行訓練和測試,以獲取接收端在各采集點的定位預測位置(x′tn,y′tn)。測試集采用與訓練集不同的數據以驗證定位預測的準確性。實驗結果的定位誤差空間分布情況如圖6(a)所示。
從圖6(a)可以看出,絕大多數點的定位誤差控制在10cm以內。經多次實驗,如圖6(b)所示,TBs-F為自注意力機制TCN-BIGRU模型[7],由于其利用位置特征指導特征提取的能力不如交叉注意力機制,因此平均定位誤差為2.67 cm。TBC-r代表本文算法僅在單源可見光差值數據上的效果,因缺乏其他傳感器的數據支持,誤差相對較大,平均定位誤差為2.79 cm。而對于CNN-GRU模型,其定位平均誤差為7cm。TBC-F為本文提出的交叉注意力機制的TCN-BIGRU算法,其平均定位誤差為2.35 cm,其中90%的定位誤差都在5 cm以內。表1為不同算法的誤差對比。
3.3 定位性能對比實驗
在神經網絡訓練和優化完成后,對系統在二維平面的定位效果進行實際測試,接收端以0.2 m/s的速度移動,記錄2條測試路徑的數據。將融合差值數據預測結果與僅基于可見光通信信號強度的差值數據預測結果進行對比。實驗結果如圖7—8所示。
從圖7—8可以看出,融合定位的估計位置更接近真實位置,且定位誤差普遍低于單一源的定位誤差。具體而言,路徑1的融合定位平均誤差為4.9 cm,單一源定位平均誤差為5.8 cm;路徑2的融合定位平均誤差為6.0 cm,單一源定位平均誤差為6.9 cm。2個測試路徑的最大定位誤差均未超過20 cm。綜上所述,采用交叉注意力機制的TCN-BIGRU融合定位算法相比其他算法,定位精度有較為明顯提升,且優于單一源的定位精度。
4 結語
本文提出了一種基于交叉注意力機制TCN-BIGRU的可見光通信和IMU融合定位算法,該算法結合了可見光通信信號強度和慣性測量單元傳感器的數據。實驗使用了4個LED作為錨節點,在接收端安裝有光電二極管以捕獲可見光的通信信號強度和利用IMU來捕捉接收端的姿態信息。研究結果表明,在一個尺寸為2 m×2 m×2.8 m的實驗空間內,該模型定位誤差平均為2.3 cm,與僅使用可見光和其他模型相比,定位精度有了一定提高,符合大多數室內應用場景的定位服務要求。
參考文獻
[1]陳靜, 劉旋, 鄭杰.可見光室內定位技術研究進展[J].電訊技術,2024(3):478-487.
[2]JIE L, MAIT B P. Adaptive M-PAM for multiuser MISO indoor VLC systems[EB/OL].(2017-02-06)[2025-01-15]. https://ieeexplore.ieee.org/document/7841567.
[3]黃鳳榮, 劉慶璘, 高敏, 等.基于PRCNN-Attention魯棒零速檢測的行人慣性導航方法[J].中國慣性技術學報,2023(6):547-554.
[4]COLIN L, REN V, AUSTIN R, et al. Temporal convolutional networks: a unified approach to action segmentation[EB/OL].(2016-08-29)[2025-01-15]. https://arxiv.org/abs/1608.08242v1.
[5]CHAO L, YUAN H, XINYU L, et al. BiGRU network for human activity recognition in high resolution range profile[EB/OL].(2019-09-23)[2025-01-15].http://zcgw.jskjwx.org/web/Detail.html?_id=AXLbBsUQjs8_ycCHAXsr.
[6]牛國臣, 王曉楠.基于交叉注意力的多任務交通場景檢測模型[J].北京航空航天大學學報,2024(5):1491-1499.
[7]李加笑.基于誤差修正的RF-TCN-SA超短期風電功率預測模型[D].西安:西安理工大學,2023.
(編輯 沈 強編輯)
Fusion indoor localization method for visible light communications and IMU based on TCN-BIGRU
LIANG Wangyang, JIA Ziyan JIANG Yuyao
(Jiangsu University of Technology, Changzhou 213001, China)
Abstract: Traditional visible light indoor localization methods are insufficient in terms of localization accuracy and stability in dynamic environments, and there is also the problem of cumulative error when relying solely on IMU localization. This study proposes a visible light and IMU fusion localization method based on the cross-attention mechanism TCN-BIGRU. The method fuses the IMU sensor data with the received signal strength characteristics of visible light communication, takes the moment difference between the visible light measurements and the IMU sensor data as the main and auxiliary characteristics, effectively compensates for the limitations of a single sensor, and realizes complementarity by giving full play to the advantages of both through the adaptive gating mechanism. The experimental results confirm the effectiveness of the algorithm, and the average positioning error is only 2.35 cm, which improves the accuracy by 15.77% compared with the positioning using only visible light signal strength.
Key words: indoor localization; visible light communications; inertial measurement units; cross-attention mechanisms