999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于TCN-BIGRU的可見光通信和IMU融合室內定位方法

2025-04-20 00:00:00梁汪洋賈子彥姜煜堯
無線互聯科技 2025年6期

摘要:傳統可見光室內定位方法在動態環境中定位精度和穩定性不足,單純依賴慣性測量單元(Inertial Measurement Unit, IMU)IMU定位存在累積誤差問題。文章提出一種基于交叉注意力機制TCN-BIGRU的可見光與IMU融合定位方法。該方法融合了IMU傳感器數據與可見光通信的接收信號強度特征,以可見光測量值和IMU傳感器數據的時刻差值作為主要和輔助特征,有效彌補了單一傳感器的局限性,通過自適應門控機制充分發揮兩者優勢實現互補。實驗結果證實了該算法的有效性,平均定位誤差僅為2.35 cm,相比僅使用可見光信號強度的定位,精度提升了15.77%。

關鍵詞:室內定位;可見光通信;慣性測量單元;交叉注意力機制

中圖分類號:TN929.12 文獻標志碼: "A

0 引言

在過去10年里,室內定位技術成為日常生活不可或缺的一部分,廣泛應用于機器人和行人導航等領域。常見的定位方式包括慣性導航或小型信標,如Wi-Fi、藍牙、UWB。盡管Wi-Fi和藍牙易于部署,但難以實現厘米級精度;UWB雖精度高,但成本較高。隨著光通信技術的發展,可見光定位(Visible Light Positioning, VLP)技術逐漸展現出較好的應用潛力[1],但其存在遮擋和多徑效應等問題。與之相關的慣性導航系統也會隨時間累積產生誤差,影響長期定位精度。為此,本文提出一種基于深度學習的可見光與IMU傳感器融合方案,采用時分多址技術對LED燈進行調制[2],以提高信號穩定性。實驗結果表明,該方法平均定位誤差為2.35 cm,相比單一源定位精度提升了15.77%。

1 室內定位系統的建立

1.1 定位模型

1.2 可見光信號信道原理

1.3 基于可見光和IMU融合定位系統

可見光和IMU融合定位系統結構如圖2所示,可見光通信和IMU融合定位系統中包括離線數據集建立和在線定位測試階段,其中包括2個接收模塊、融合特征數據的建立、神經網絡的搭建和優化以及利用訓練好的網絡模型進行定位預測。

室內定位系統中,可見光通信信號強度是指接收端PD的實際接收功率。慣性測量單元通過慣性定律獲取載體運動信息,主要包括加速度計、陀螺儀和磁力計3個傳感器。理想情況下這3個傳感器構成正交三軸直角坐標系,但實際因制造工藝問題會產生誤差,如零偏和標度因子等[3],導致3個傳感器的九軸難以達到完全正交。

2 準備階段

2.1 數據集的建立

2.2 模型框架

基于TCN-BIGRU的可見光通信和IMU融合定位模型在進行室內定位預測時,其模型結構包括可見光、IMU和位置特征的輸入層、時間卷積網絡層[4]、雙向循環控制單元層[5]、自適應融合層、交叉注意力機制層[6]、全連接層和輸出層。融合定位模型預測結構如圖4所示。

步驟1:讀取并劃分數據,劃分為訓練集、驗證集和測試集。可見光特征數據輸入時間卷積網絡、IMU特征數據輸入雙向循環控制單元網絡,位置特征輸入交叉注意力機制中。步驟2:處理VLC信號與IMU數據,提取特征。步驟3:通過自適應融合層融合特征。步驟4:拼接融合特征與位置特征,計算注意力分數。步驟5:輸出預測結果。

3 實驗結果與分析

3.1 實驗環境搭建

為了驗證算法模型的可行性和定位效果,構建了2 m×2 m×2.8 m的實際場景,安裝了4個功率均為3 W的LED燈作為可見光錨節點,其具體坐標分別為:LED1(0.6 m, 0.6 m, 2.8 m)、LED2(0.6 m, 1.4 m, 2.8 m)、LED3(1.4 m, 1.4 m, 2.8 m)、LED4(1.4 m, 0.6 m, 2.8 m)。接收端采用S1123-01型硅光電二極管作為光電檢測器和WT9011DCL作為IMU器件。在2 m×2 m的地面區域內,以10 cm×10 cm的間隔進行采集點的劃分。接收端在實驗場中按照預定軌跡,分別以0.1 m/s和0.25 m/s的速度移動。

在每個網格交叉點,記錄可見光通信信號強度和IMU九軸數據,通過時間戳和接收端速度確保數據的時空一致性。接收端在移動平面上的移動軌跡大致如圖5所示。

3.2 實驗結果與分析

對采集到的數據進行預處理后,按照8∶1∶1的比例劃分為訓練集、驗證集和測試集。利用融合定位模型對采集到的融合特征差值數據進行訓練和測試,以獲取接收端在各采集點的定位預測位置(x′tn,y′tn)。測試集采用與訓練集不同的數據以驗證定位預測的準確性。實驗結果的定位誤差空間分布情況如圖6(a)所示。

從圖6(a)可以看出,絕大多數點的定位誤差控制在10cm以內。經多次實驗,如圖6(b)所示,TBs-F為自注意力機制TCN-BIGRU模型[7],由于其利用位置特征指導特征提取的能力不如交叉注意力機制,因此平均定位誤差為2.67 cm。TBC-r代表本文算法僅在單源可見光差值數據上的效果,因缺乏其他傳感器的數據支持,誤差相對較大,平均定位誤差為2.79 cm。而對于CNN-GRU模型,其定位平均誤差為7cm。TBC-F為本文提出的交叉注意力機制的TCN-BIGRU算法,其平均定位誤差為2.35 cm,其中90%的定位誤差都在5 cm以內。表1為不同算法的誤差對比。

3.3 定位性能對比實驗

在神經網絡訓練和優化完成后,對系統在二維平面的定位效果進行實際測試,接收端以0.2 m/s的速度移動,記錄2條測試路徑的數據。將融合差值數據預測結果與僅基于可見光通信信號強度的差值數據預測結果進行對比。實驗結果如圖7—8所示。

從圖7—8可以看出,融合定位的估計位置更接近真實位置,且定位誤差普遍低于單一源的定位誤差。具體而言,路徑1的融合定位平均誤差為4.9 cm,單一源定位平均誤差為5.8 cm;路徑2的融合定位平均誤差為6.0 cm,單一源定位平均誤差為6.9 cm。2個測試路徑的最大定位誤差均未超過20 cm。綜上所述,采用交叉注意力機制的TCN-BIGRU融合定位算法相比其他算法,定位精度有較為明顯提升,且優于單一源的定位精度。

4 結語

本文提出了一種基于交叉注意力機制TCN-BIGRU的可見光通信和IMU融合定位算法,該算法結合了可見光通信信號強度和慣性測量單元傳感器的數據。實驗使用了4個LED作為錨節點,在接收端安裝有光電二極管以捕獲可見光的通信信號強度和利用IMU來捕捉接收端的姿態信息。研究結果表明,在一個尺寸為2 m×2 m×2.8 m的實驗空間內,該模型定位誤差平均為2.3 cm,與僅使用可見光和其他模型相比,定位精度有了一定提高,符合大多數室內應用場景的定位服務要求。

參考文獻

[1]陳靜, 劉旋, 鄭杰.可見光室內定位技術研究進展[J].電訊技術,2024(3):478-487.

[2]JIE L, MAIT B P. Adaptive M-PAM for multiuser MISO indoor VLC systems[EB/OL].(2017-02-06)[2025-01-15]. https://ieeexplore.ieee.org/document/7841567.

[3]黃鳳榮, 劉慶璘, 高敏, 等.基于PRCNN-Attention魯棒零速檢測的行人慣性導航方法[J].中國慣性技術學報,2023(6):547-554.

[4]COLIN L, REN V, AUSTIN R, et al. Temporal convolutional networks: a unified approach to action segmentation[EB/OL].(2016-08-29)[2025-01-15]. https://arxiv.org/abs/1608.08242v1.

[5]CHAO L, YUAN H, XINYU L, et al. BiGRU network for human activity recognition in high resolution range profile[EB/OL].(2019-09-23)[2025-01-15].http://zcgw.jskjwx.org/web/Detail.html?_id=AXLbBsUQjs8_ycCHAXsr.

[6]牛國臣, 王曉楠.基于交叉注意力的多任務交通場景檢測模型[J].北京航空航天大學學報,2024(5):1491-1499.

[7]李加笑.基于誤差修正的RF-TCN-SA超短期風電功率預測模型[D].西安:西安理工大學,2023.

(編輯 沈 強編輯)

Fusion indoor localization method for visible light communications and IMU based on TCN-BIGRU

LIANG Wangyang, JIA Ziyan JIANG Yuyao

(Jiangsu University of Technology, Changzhou 213001, China)

Abstract: Traditional visible light indoor localization methods are insufficient in terms of localization accuracy and stability in dynamic environments, and there is also the problem of cumulative error when relying solely on IMU localization. This study proposes a visible light and IMU fusion localization method based on the cross-attention mechanism TCN-BIGRU. The method fuses the IMU sensor data with the received signal strength characteristics of visible light communication, takes the moment difference between the visible light measurements and the IMU sensor data as the main and auxiliary characteristics, effectively compensates for the limitations of a single sensor, and realizes complementarity by giving full play to the advantages of both through the adaptive gating mechanism. The experimental results confirm the effectiveness of the algorithm, and the average positioning error is only 2.35 cm, which improves the accuracy by 15.77% compared with the positioning using only visible light signal strength.

Key words: indoor localization; visible light communications; inertial measurement units; cross-attention mechanisms

主站蜘蛛池模板: 中文字幕亚洲专区第19页| 国产成人乱无码视频| 一本久道热中字伊人| 欧美激情视频二区三区| 青草娱乐极品免费视频| 熟妇人妻无乱码中文字幕真矢织江 | 亚洲欧美在线综合一区二区三区 | 国产福利一区在线| 黄色成年视频| 2021精品国产自在现线看| 香蕉久久国产超碰青草| 欧美乱妇高清无乱码免费| 扒开粉嫩的小缝隙喷白浆视频| 日韩精品免费一线在线观看| 白丝美女办公室高潮喷水视频| 久久中文字幕av不卡一区二区| 亚瑟天堂久久一区二区影院| 亚洲精品福利网站| 国产乱人伦AV在线A| 亚洲一区二区日韩欧美gif| 97青草最新免费精品视频| 成人亚洲天堂| 综合五月天网| 99久久精品国产自免费| 久久精品只有这里有| 午夜国产小视频| 国产真实乱人视频| 97se亚洲综合在线天天| 国产主播喷水| 亚洲综合九九| 国产一区二区三区视频| 久久永久免费人妻精品| 不卡视频国产| 精品无码一区二区三区电影| 国产区在线看| 六月婷婷综合| 国产福利拍拍拍| 欧美中出一区二区| 在线国产91| 麻豆AV网站免费进入| 免费国产小视频在线观看| 欧美狠狠干| 国产91九色在线播放| 久青草网站| 日韩高清中文字幕| 国产一二三区视频| 四虎影院国产| 91免费观看视频| 韩日免费小视频| 国产69囗曝护士吞精在线视频| 国产呦精品一区二区三区下载 | 美女无遮挡被啪啪到高潮免费| 成人在线欧美| 亚洲AⅤ综合在线欧美一区| 无码日韩精品91超碰| 69国产精品视频免费| 在线综合亚洲欧美网站| 亚洲欧美激情小说另类| 日韩高清一区 | 一区二区在线视频免费观看| 美女扒开下面流白浆在线试听| 精品一区二区三区自慰喷水| 久视频免费精品6| 中文字幕av一区二区三区欲色| 精品无码日韩国产不卡av| 国产精品13页| 亚洲精品国产综合99久久夜夜嗨| 国产亚洲精品va在线| 久久青草热| 日韩a在线观看免费观看| 中文字幕无码av专区久久| 亚洲女同一区二区| 国产H片无码不卡在线视频| 国产女人18水真多毛片18精品| 午夜精品影院| 欧美日韩精品一区二区视频| 青青国产视频| 无码一区中文字幕| 99在线视频免费| 91成人试看福利体验区| 国产精品私拍在线爆乳| 欧美成人怡春院在线激情|