摘要:為緩解真實航拍數據獲取成本高、空域受限等難題,文章提出了一種基于MATLAB的航拍圖像仿真與目標識別方法。首先,通過MATLAB的Simulink場景建模工具搭建城市交通場景,規劃無人機飛行路徑,生成多視角航拍圖像。其次,采集多角度可見光航拍圖像,構建多角度航拍圖像仿真數據集。最后,采用深度學習模型YOLO11進行目標檢測,驗證仿真圖像的有效性。實驗表明,在仿真圖像測試中,YOLO11模型的mAP@0.5指標比YOLOv5高0.9個百分點,達到95.1%,為無人機視覺任務提供了一種低成本解決方案。
關鍵詞:航拍圖像仿真;目標識別;MATLAB;深度學習
中圖分類號:TP391" " " 文獻標識碼:A
文章編號:1009-3044(2025)23-0017-04
開放科學(資源服務) 標識碼(OSID)
0 引言
隨著無人機技術的快速發展,航拍圖像在眾多領域展現出了巨大的應用潛力。航拍圖像憑借其獲取范圍廣、信息豐富等特點,已成為軍事偵察、災害監測、智慧城市等領域的關鍵信息來源。其中,基于計算機視覺的目標識別技術是航拍數據處理的核心環節。然而,傳統的航拍圖像目標識別方法面臨數據獲取成本高昂、場景泛化性不足以及須申請空域許可等挑戰。
針對上述問題,近年來研究者提出通過圖像仿真技術生成虛擬航拍數據,以彌補真實數據的不足。仿真方法能夠靈活控制場景參數(如光照、視角、目標密度) ,并自動生成精確標注,顯著降低數據采集與標注成本。
國內外眾多科研人員圍繞圖像仿真開展了相關研究。梁吉超等人[1]以MATLAB軟件為開發平臺,利用其仿真工具及Simulink模塊庫搭建了汽輪機發電機組模型,并研究了該模型的穩態調壓特性和穩態調速特性,驗證其是否符合船舶汽輪機發電機運行標準。王珊等人[2]借助MATLAB軟件對被測零件圖像進行去噪、二值化、圖像分割,并對分割后的圖像進行再優化;然后,采用Canny算子對邊緣像素進行定位;最后,通過圖像數據提取與擬合,實現了密封墊圈參數的測量。李煒[3]利用MATLAB中的Simulink模塊,成功模擬了自整定模糊PID控制器,并展示了其在MATLAB中的實現方法。鄧成等人[4]提出了一個基于MATLAB的車牌識別系統,該系統包含車牌定位、車牌字符切分與識別功能,通過測試平臺對采集到的圖像進行車牌識別與系統性能的測試。結果表明,該車牌識別系統能夠有效地實現車牌識別,識別準確率達93.97%。趙義善等人[5]設計了基于MATLAB虛擬仿真平臺的電力變壓器絕緣紙圖像特征識別與提取平臺,對其總體布局及圖形用戶界面進行了設計,規劃了平臺功能,并開展了特征提取實驗,通過實驗驗證了其平臺利用紋理特征表征絕緣紙老化程度的有效性。
綜上所述,盡管上述方法提出了基于MATLAB的圖像仿真方案并取得一定成果,但在無人機航拍圖像仿真技術方面仍未給出有效解決方案。因此,本文旨在利用MATLAB平臺,開展航拍圖像仿真與目標識別的研究。首先,通過分析航拍圖像的特點和形成機制,建立合適的圖像仿真模型,生成具有代表性的航拍圖像仿真數據,并構建數據集;然后,研究適用于航拍圖像的目標檢測算法,以提高目標識別的準確性和魯棒性;最后,通過實驗驗證所提出方法的有效性和可行性,為航拍圖像在實際應用中的推廣和發展提供技術支持。
1 方法介紹
在本研究中,仿真算法的設計過程將決定圖像質量。航拍圖像本身具有復雜的特性,如多變的光照條件、豐富的背景信息以及目標的多樣性等,使得對其進行準確的仿真面臨巨大挑戰。下文將從仿真建模、數據集構建及檢測算法介紹等方面展開說明。
1.1 基于Simulink的無人機交通監控場景建模
本文利用MATLAB的Simulink平臺搭建無人機交通監控場景,通過改變Simulink無人機模塊的坐標和姿態參數對無人機視角進行精確控制,得到不同視角下的無人機交通監控目標圖像。使用Simulink進行無人機圖像仿真的流程如下:首先,搭建無人機飛行的場景環境模型,設定行人和車輛等場景動態目標;然后,模擬無人機的飛行姿態、軌跡等運動特征,設置場景內行人和車輛的位置和姿態參數;隨后,創建圖像傳感器模型,定義相機分辨率、焦距等參數;將上述模型進行合理連接與配置,設置仿真時間,形成完整的仿真系統;最后,運行仿真并輸出模擬的無人機航拍仿真圖像。在Simulink平臺上搭建的無人機交通監控場景各模塊連接如圖1所示。圖1展示的航拍圖像仿真環境搭建過程主要由場景模塊設置、無人機控制模塊設置、相機模塊設置和地面目標設置等四部分組成。
1) 場景模塊設置。在場景模塊中,Simulink專注于系統建模與控制,而Unreal Engine負責場景創建。在Simulink無人機航拍圖像仿真中,Simulink可借助特定的接口與Unreal Engine集成。其中,Simulink主要用于對無人機的動力學模型、控制算法等進行建模和仿真,而Unreal Engine是一款強大的實時3D創作平臺,擁有豐富的圖形渲染能力和大量高質量的3D模型資源,能創建出高度逼真、細節豐富的虛擬場景。本文在Simulink場景模塊中選取Unreal Engine城市場景作為仿真環境,開展無人機圖像仿真研究。
2) 無人機控制模塊。在Simulink無人機航拍圖像仿真中,該控制模塊提供了無人機的位置和姿態控制接口。通過位置控制接口(Translation) ,能夠準確地設定無人機在三維空間中的具體坐標,精確規劃其飛行路徑,使無人機按照預設的航線飛行,如沿著特定的矩形區域或者按照復雜的曲線軌跡移動。而姿態控制接口(Rotation) 則允許對無人機的俯仰、橫滾和偏航等姿態進行精細調節。本文的無人機圍繞地面車輛和行人旋轉飛行的過程中,其偏航角變化曲線如圖2所示。
3) 相機模塊的設置。在相機模塊中,主要需要設置可見光圖像傳感器的分辨率,本文將其設置為1 000×559像素。為實時查看圖像傳感器輸出的數據,將其數據輸出端口與視頻顯示模塊的輸入端口相連接,從而保障航拍仿真數據的質量。
4) 車輛和行人模塊。在場景模塊的Unreal Engine城市環境中,僅有建筑物、紅綠燈等固定設施,不包含行人、車輛等動態目標。因此,本文從Simulink庫中選取車輛、行人等移動目標的3D控制模塊,并將其放置于城市環境的指定位置。為防止行人和車輛等目標在場景內位置混亂,對不同目標的位置信息進行了設置,將車輛放置于道路中央,而行人放置于道路一側。在此基礎上運行仿真模型,獲取無人機航拍仿真圖像。
1.2 數據集構建
在無人機航拍圖像仿真的基礎上,為檢驗仿真圖像在目標檢測上的應用效果,須通過制作標簽來構建航拍圖像仿真數據集。本文使用MATLAB生成的仿真圖像(分辨率為1 000×559) ,對車輛、行人等目標進行標注(YOLO格式) ,并將其按6∶2∶2的比例分割為訓練集(train) 、驗證集(val) 和測試集(test) 三個部分,構建無人機航拍仿真圖像數據集(Simulated Aerial Dataset, SAD) 。為更好地說明SAD數據集的特性,對其進行了實例數量和尺度分布分析,結果如圖3所示。
由圖3(a) 可知,該數據集包含轎車和人兩種不同的地面目標,其中轎車實例約800個,而人的實例數量較多,約1 500個。圖3(b) 給出了不同目標實例的面積占比分布。本研究的目標實例面積占比是指目標實例的總像素在整幅圖像的總像素中所占的比例,具體計算公式如下:
[y=w×hW×H] (1)
式中:[y]是目標實例面積占比,[w,h]是目標實例的寬、高,[W,H]是整幅圖像的寬、高。從目標實例面積占比的計算公式可知,其值越大,對應實例在圖像內呈現的尺寸越大;值越小,對應的實例尺寸越小。由圖3(b) 可知,在數據集SAD中,轎車和人兩種不同目標的實例面積占比平均值約為25%。此指標反映出數據集SAD中不同實例的尺寸較為適中,適用于目標檢測任務。
1.3 目標檢測模型YOLO11
YOLO11(官方版本) 作為單階段檢測算法的先進代表,通過輕量化架構與端到端設計,實現了檢測速度與精度的平衡。它既能快速處理高分辨率圖像,又借助優化的特征提取融合機制和全局注意力模塊,精準捕捉大小目標特征,從而降低漏檢與誤判。同時,其對復雜條件的魯棒性和多尺度適應性,使其在不同分辨率的圖像中均表現穩定。YOLO11憑借快速響應和精準識別的優勢,在虛擬監控、自動駕駛仿真測試等場景中能高效完成任務。因此,本文利用YOLO11模型對基于MATLAB的航拍仿真圖像進行目標檢測。
在基于MATLAB仿真圖像的目標檢測過程中,圖像進入YOLO11的骨干網絡后,通過卷積與池化操作逐步提取圖像的紋理、形狀等基礎特征,并生成多尺度特征圖,其中小尺度特征圖聚焦細節,大尺度特征圖把握全局。這些特征圖傳輸至頸部網絡后,利用特征金字塔等結構進行融合,以增強對不同尺寸目標的特征表達能力。接著,頭部網絡基于融合后的特征圖,通過回歸與分類操作,預測目標的邊界框坐標、類別置信度等信息。最后,運用非極大值抑制等后處理手段,篩選并保留最優檢測框,過濾掉重疊度高的冗余框,從而輸出精準的目標檢測結果,實現對仿真圖像內目標的有效識別與定位。
2 試驗結果與分析
2.1 實驗平臺
開展基于MATLAB的航拍圖像仿真與目標識別研究,須基于穩定且高效的實驗平臺。本文MATLAB仿真平臺的軟件環境為Windows 11專業版操作系統、MATLAB R2024a平臺,使用其Simulink無人機仿真工具包對無人機姿態進行控制,并通過可見光相機仿真模塊獲取不同視角的航拍圖像。仿真平臺的硬件環境為CPU Intel(R) Core(TM) i5-13400,內存32 GB,顯卡NVIDIA GeForce RTX 3060。
2.2 性能指標
在目標檢測任務中,通常通過AP、mAP和mAP50等常用指標,評估目標檢測算法在數據集內的目標檢測性能表現。
1) AP。AP(Average Precision) 是目標檢測中用于評估單個類別檢測性能的指標。它通過綜合考量模型在不同預測置信度閾值下的準確度表現,反映了模型對該類別目標檢測的綜合能力。AP值越高,說明模型在該類別上的檢測越精準可靠。
2) mAP。mAP(mean Average Precision) 則用于評估模型在多類別目標檢測任務中的綜合表現。它通過計算所有類別AP值的平均值,全面考量模型對不同類別目標的檢測能力。相較于AP聚焦單一類別,mAP能從整體層面反映模型在復雜多類別場景下的性能。mAP值越高,表明模型對各類目標的檢測能力越均衡、越優異。
3) mAP@0.5。mAP@0.5是mAP在特定交并比(IoU) 閾值下的一種表現形式,特指IoU閾值設定為0.5時的平均精度均值。相較于常規mAP的計算,mAP@0.5以更寬松的匹配標準來衡量模型性能,重點關注模型在快速檢測場景下的表現。在對檢測實時性要求較高、對精度容忍度相對寬松的應用場景中,mAP@0.5能直觀地展現模型的實際效能,為模型的適用性評估提供重要參考。
2.3 算法對比試驗
為驗證不同算法在仿真數據集SAD上的表現,本研究選取了YOLOv3、YOLOv5、YOLOv6、YOLOv8、YOLO11等算法進行對比試驗。以上不同算法在仿真數據集SAD上的對比試驗結果如表1所示。
根據表1可知,在仿真數據集SAD上,YOLOv5的目標檢測精度指標mAP50最低,而YOLOv11不僅目標檢測精度指標mAP50最高,且其計算復雜度(GFLOPS) 指標最低。YOLOv11相比YOLOv8,在mAP@0.5上提升了0.3個百分點。因此,通過不同算法的性能對比試驗可以推斷,在仿真數據集SAD上,YOLO11模型的目標檢測性能相對最佳。
2.4 可視化結果
為更直觀地呈現YOLO11模型在仿真數據集SAD上的目標檢測性能,本研究對該算法在SAD測試集上的目標檢測結果進行了可視化處理。部分檢測結果的可視化如圖4所示,其中置信度為0.5,深色框代表轎車,淺色框代表人。
3 結論與展望
本研究圍繞基于MATLAB的航拍圖像仿真與目標識別展開,提出了一種航拍圖像仿真方法。通過MATLAB的Simulink場景建模工具搭建了城市交通場景,規劃了無人機飛行路徑,生成了多視角航拍圖像,并成功構建了包含轎車和行人兩種目標的仿真航拍圖像數據集SAD。該數據集含有超過2 000個目標實例,實例的尺寸分布較為適中。為驗證仿真圖像的有效性,選取了YOLOv8、YOLO11等多種目標檢測模型,在數據集SAD上進行了算法對比試驗。實驗結果表明,所構建的數據集能夠有效支持航拍圖像目標識別任務,基于該數據集訓練的模型在測試集上展現出良好的檢測精度與魯棒性,驗證了仿真數據集構建方法及實驗方案的可行性與有效性。同時,研究過程充分發揮了MATLAB在圖像處理與深度學習方面的功能優勢,為航拍圖像相關研究提供了可靠的技術路徑。
盡管本研究取得了一定成果,但仍存在優化與拓展空間。在仿真圖像生成方面,未來可進一步引入更先進的物理渲染技術,模擬更復雜、更真實的航拍場景,如極端天氣、動態光影變化等,以提升仿真圖像的逼真度與多樣性。在目標識別模型方面,隨著深度學習算法的不斷發展,可探索應用最新的模型架構,如Transformer變體、輕量化網絡等,以提高模型的識別效率與準確率。
參考文獻:
[1] 梁吉超,朱發源,朱發新.基于MATLAB的船舶汽輪發電機的建模與仿真[J].珠江水運,2025(5):53-55.
[2] 支珊,陳佳賀,楊海明.基于Matlab飛機零件機器視覺測量方法[J].遼寧科技學院學報,2025,27(1):1-4.
[3] 李煒.MATLAB環境下控制系統仿真設計與實現[J].微處理機,2025,46(1):38-41.
[4] 鄧成,王錦謨.基于MATLAB的車牌識別系統設計與實現[J].太原學院學報(自然科學版),2023,41(3):65-69.
[5] 趙義善,潘建偉,侯永平.基于MATLAB虛擬仿真的電力變壓器絕緣紙圖像特征識別與提取平臺設計[J].光源與照明,2024(12):156-158.
【通聯編輯:謝媛媛】