999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

機場能見度預測模型研究

2024-10-01 00:00:00劉晴潘子宇李銀潔魏萊陳丹妮
無線互聯科技 2024年18期

摘要:在霧霾天氣下,基于圖像處理的能見度檢測方法仍然在不斷研究中,對能見度估算值的精度依然具有提升空間。文章以大數據為基礎,改進VGG卷積神經網絡提取視頻數據的特征并利用Adam進行算法優化,充分挖掘監控視頻數據信息,以達到提高精度及降低設備成本的目的。相比于ResNet,這一方法充分利用了視頻數據的時空信息,在預測過程中表現出較高的精度和準確性。這項研究對提升機場能見度預測的效果提供了借鑒。

關鍵詞:能見度預測;卷積神經網絡;機場監控視頻

中圖分類號:TP183 文獻標志碼:A

0 引言

根據飛行安全統計,機場能見度低是造成飛行事故的原因之一。目前,許多學者將機器視覺和深度學習應用于能見度預測中。周開鵬等[1]對比神經網絡模型和多元逐步回歸法的預報準確率,表明神經網絡對低能見度的預測更接近實際變化。千月欣等[2]對比了基于Squeezenet的遷移學習模型和15層深度卷積神經網絡,表明搭建的15層深度卷積神經網絡模型更適用于機場能見度預測。徐悅等[3]提出了一種基于U-Ne深度學習的霧天夜間機場能見度預測方法。祁媛等[4]選用ResNet卷積神經網絡提取機場視頻數據的特征向量進行預測,模型精度達80.3%。黃晉等[5]探討了視頻數據與能見度估計的VGG卷積神經網絡深度學習模型,模型精度則達到了88.3%。

因此,本文選用VGG卷積神經網絡對視頻數據進行深度學習,充分挖掘視頻中的時空信息,并在對圖像進行分類前,對圖像進行有針對性的增強和降噪,以達到使模型具有更好魯棒性的效果。

1 視頻數據預處理

1.1 數據預處理

在大霧條件下,本文獲取了攝像頭拍攝的視頻,并同時收集了同一時間段的機場能見度數據,包括RVR、MOR、VIS、光照強度、風、溫度和濕度等信息。為了便于分析,將視頻按幀截取圖像,設定間隔為22幀,獲得了2020年3月13日0時—7時59分00秒的27941幅影像。然后從每一分鐘內的15 s、30 s、45 s和00 s提取圖像,生成了1860張圖像,構成了機場能見度預測數據集。視頻中的數據與收集的能見度數據形成了一一對應的關系。能見度有氣象光學視程(MOR)[6-7]、主導能見度(VIS)[8]、跑道視程(RVR)[9]3種。綜合比較MOR、VIS、RVR,本文在后續的研究中將會使用MOR值作為參考項進行分析。

對本文所需的視頻圖像數據進行必要的預處理,根據得到的能見度數據,結合能見度等級表,使用等級分析法對能見度進行分級,粗略地劃分為4個等級:MOR≤50 m;50 m<MOR≤200 m;200 m<MOR≤500 m;500 m<MOR 。將這4個等級作為4種類別,建立基于視頻數據的能見度估計深度學習模型。

1.2 數據增強

考慮到數據集中各個能見度等級樣本數量的不平衡,本文對MID和HIGH等級的樣本進行重點增強。通過應用各種圖像變換技術,如旋轉、縮放、裁剪等,本文生成了額外的樣本,如表1所示,以平衡數據集中各類別的樣本數量。

同時,為了進一步提高模型的魯棒性和泛化性能,本文還對圖像進行了降噪處理。經過實驗比對后,選取了Retinex方法進行圖像增強,并選擇中值濾波作為圖像降噪技術。增強后的圖像降噪可以顯著改善圖像質量,消除或減輕圖像中的噪聲,提高圖像的視覺效果。

2 VGG卷積神經網絡

卷積神經網絡是一種新興的具有深度學習能力的人工神經網絡系統,并且得到了廣泛的關注。卷積神經網絡具有適應性強、善于挖掘數據局部特征、全局訓練特征抽取器和分類器等優點,因此,被應用到模式識別中的各個領域并取得了很好的成果。與傳統的圖像分類方法相比,卷積神經網絡能夠直接將圖像數據作為輸入,不需要人工的預處理及特征提取等操作,通過局部感受野、權值共享、池化層下采樣減少了很多參數,盡可能保留了重要參數,同時具有一定程度的平移、旋轉、尺度和非線性形變穩定性,可以保留鄰域的聯系和空間的局部特點。因此,本文選取VGG卷積神經網絡,該模型可以在保證整個網絡結構簡潔的前提下,在保持相同感受野的同時能夠減少參數量,達到不錯的效果。

3 基于卷積神經網絡的能見度預測

機場能見度的高低與大霧的形成消散過程密切相關。通過計算機圖像處理和判斷可以避免主觀和任意性,能夠在連續的時間范圍內描述大霧的整個變化過程,具有成本低、連續性強、操作簡便和覆蓋范圍廣的優點。本文利用機場視頻數據結合地面氣象觀測數據分析得到能見度的大小,根據視頻中的特征信息將其與能見度數據建立對應的關系,建立深度學習模型,分析得到能見度也就是霧的濃厚程度,評估能見度并進行精度驗證。

3.1 建立深度學習模型

在基于VGG16特征提取網絡的基礎上,本文對全連接層進行了優化。在深度學習中,全連接層是神經網絡中最基本的組成部分,負責連接2個節點,實現數據的傳遞和計算。全連接層的優化是深度學習性能提升的關鍵。原網絡中的全連接層使用4096個神經元,不僅增加了算法的復雜度和參數量,還會致使訓練時不易收斂。由于本文僅須要對4類圖像進行分類,所需參數相對較少,本文采取參數減少的策略,將2個全連接層的神經元數量從4096個分別減少至256個和128個,顯著降低了參數量,使模型的速度和精度均獲得了提升。

同時,為了充分利用已訓練好的大型網絡的特征提取能力,本文采用了遷移學習的思想。這使得模型能夠迅速適應新的任務,同時保持較高的性能。VGG16的主干特征提取部分經過大量數據的訓練,已經具備了良好的魯棒性和特征提取效果。因此,本文直接使用VGG16特征提取網絡的預訓練權重和參數,并在訓練過程中僅對全連接層進行微調。具體步驟如圖1所示。

激活函數在深度神經網絡模型中占據著核心地位,其特性通常表現為非線性,這一性質使得神經網絡能夠有效地對實際問題中非線性分布的數據進行建模[10]。同時激活函數的選擇也會直接影響到整個模型是否能夠成功收斂及其收斂效果[11]。其中Sigmoid、Tanh、ReLU都是常用的激活函數,但是有不同的函數特性。

Sigmoid函數的輸出范圍為0~1,導致其在輸入很大或很小時梯度接近于0,這會導致反向傳播過程中的梯度消失或飽和問題。Tanh函數雖然相對于Sigmoid函數在輸出范圍上有所改進,但仍然存在類似的問題。相比之下,ReLU函數在輸入大于0時不存在梯度飽和,如圖2所示,幾乎不會造成梯度彌散[12]。且神經元的稀疏性有助于減少過擬合的發生。

綜合以上ReLU函數的優點,故本文在全連接層選用ReLU函數作為激活函數。

3.2 模型優化

模型訓練過程采用了學習率調整器、早停機制和Adam優化算法。學習率調整器根據驗證集性能動態調整學習率,加速訓練并提高驗證集性能。早停機制監控驗證集損失,避免過擬合。Adam算法自適應估計低階矩,為每個參數設置不同的學習率,提升預測速度和準確性。

在實際應用中,Adam算法往往展現出卓越的性能,相較于其他自適應學習率算法,其收斂速度更快,學習效果更佳。算法的有效性在很大程度上取決于數據特點是否與算法特性相匹配[13]。Adam將隨機梯度下降法2種擴展的優勢結合在一起,其在梯度下降中的優化過程如下。

(1)初始化參數:初始化模型的參數。

(2)計算梯度:使用隨機梯度下降(SGD)計算當前批次樣本的梯度。

(3)更新一階矩估計變量mt和二階矩估計變量vt:

mt=β1mt-1+(1-β1)gt(1)

vt=β2vt-1+(1-β2)g2t(2)

式中,gt表示當前梯度;β1和β2是可調節的指數衰減率,一般取值分別為0.900和0.999。

(4)mt和vt的初始均為零向量,因此衰減率在初始時間可能會偏向零向量,故需要進行偏差校正,公式如下:

的梯度帶權有偏方差。

(5)更新模型參數θt。

式中,θt表示模型的參數;ε是一個很小的數,用于避免除零錯誤;η為學習率。

4 網絡訓練及預測

4.1 評價指標

本文主要采用損失函數、混淆矩陣來對模型進行評價。其中,損失函數為交叉熵,損失函數模型學習的過程就是模型的權重不斷更新的過程,直到損失函數值趨于穩定[14]。其計算公式為:

式中,n是樣本數;yi是第i個樣本的真實標簽;pi是樣本i預測的概率。

從混淆矩陣當中可以得到更高級的分類指標。

(1)Accuracy(精確率)。用來表示模型分類正確的樣本占總樣本的比例,即:

(2)Precision(正確率或者準確率)。表示預測為正類的樣本中真正為正類的樣本所占的比例,即:

(3)Recall(召回率)。表示在實際正樣本中,分類器能預測出多少正樣本,即:

4.2 實驗結果分析

本文的實驗基于一個包含5251個樣本的數據集,其中90%被用作訓練集,剩余的樣本被用作測試集。模型的實現基于Tensorflow框架,在訓練期間,單次傳遞給模型用以訓練的數據(樣本)個數為16個,使用Adam優化器進行訓練,學習率設置為0.001。

運行出的結果如圖2所示,展示了損失函數值和準確率隨訓練次數的變化情況。損失函數值隨訓練次數的增加而不斷下降,趨于收斂。損失函數的橫坐標是訓練的迭代次數(Epochs),縱坐標表示模型在每個訓練迭代的損失值。精度圖的橫坐標表示訓練的迭代次數(Epochs),與損失函數圖的橫坐標相同,縱坐標表示模型在每個訓練迭代上的預測精度。

實驗發現,設置Epoch為50個進行訓練時,模型的效果最好。在50個Epoch內,模型共進行了36次迭代訓練,當損失函數值趨于穩定時,停止訓練。

通過繪制混淆矩陣,如圖3所示,驗證VGG16模型在能見度變化規律的量化分析與預測中的有效性和可行性[15]。混淆矩陣的行表示真實標簽(True Label),列表示預測標簽(Predicted Label)。根據混淆矩陣的分析,可以觀察到優化后的模型在區分LOW和HIGH 2種類別上表現較為優越。這2種類別在圖像特征上具有顯著區別,因此模型相對容易做出正確分類。相比之下,MID和VERY_HIGH 2種類別則更容易被混淆,可能導致錯誤分類的情況發生。以此可得出模型評估參數,如表2所示。

由表2可知,在本次基于視頻數據估計能見度的研究中,VGG16能夠獲得較好的預測精度。

5 結語

本文使用VGG16卷積神經網絡深度學習模型來評估機場能見度,并對模型算法做出改進,使模型精度跟效率都得到提升,最后利用損失函數和混淆矩陣對能見度估計效果進行精度分析評價。本文所采用基于卷積神經網絡和遷移學習的深度學習模型,能夠獲得較好的預測精度,訓練準確率最高達到了90%。后續選取測試集對模型效果進行評估,精度達到89.7%,證明了模型估計能見度的準確性。

參考文獻

[1]周開鵬,黃萌,樊旭,等.基于逐步回歸和神經網絡的北京市能見度預報對比[J].蘭州大學學報(自然科學版),2020(4):522-526.

[2]千月欣,王永忠,李佳駿,等.基于深度學習的機場能見度預測研究[J].云南民族大學學報(自然科學版),2021(6):615-620.

[3]徐悅,袁寶璽,米辰,等.基于深度學習的霧天夜間機場能見度預測方法[J].電子制作,2021(23):60-62.

[4]祁媛,樊輝,張瑞華,等.基于ResNet卷積神經網絡的機場能見度預測[J].自動化應用,2023(24):206-209.

[5]黃晉,李保強,呂明燕,等.基于VGG卷積神經網絡的機場能見度預測[J].集成電路應用,2022(3):58-59.

[6]黃儀方.航空氣象[M].西安:西安交通大學出版社,2011.

[7]劉敏,趙普洋.氣象光學視程(MOR)在民用航空地面氣象觀測中的應用[J].氣象水文海洋儀器,2012(1):78-80.

[8]張高杰,強曉西,董愛民,等.西安機場低能見度天氣下RVR與VIS替代關系研究[J].科技創新導報,2020(14):117-118.

[9]楊帆.一次雪后跑道視程(RVR)數值偏低原因分析[J].成都航空職業技術學院學報,2021(1):46-48.

[10]李玥辰,趙曉,王若男,等.基于改進卷積神經網絡的中藥飲片圖像識別[J].科學技術與工程,2024(9):3596-3604.

[11]牟晉娟.深度神經網絡中激活函數的研究[J].電腦編程技巧與維護,2019(12):21.

[12]劉宇晴.一種新型自適應神經網絡激活函數用于深度學習研究[D].吉林:吉林大學,2020.

[13]張益.基于卷積神經網絡算法的海水循環冷卻污損生物分類模型[EB/OL].(2024-04-01)[2024-05-03].https://doi.org/10.19965/j.cnki.iwt.2023-1122.

[14]劉峰.融合神經網絡和優化算法的網絡安全態勢評估及預測模型研究[J].微型電腦應用,2024(3):19-22.

[15]梁旭,王玲,趙書涵.基于殘差神經網絡的雞蛋分類識別研究[J].河南農業大學學報,2024(3):456-466.

Research on airport visibility prediction model

Abstract: In hazy weather, visibility detection methods based on image processing are still under continuous research, and the accuracy of visibility estimation is dependent on the accuracy of visibility estimation There is room for improvement. Based on big data, this paper improves VGG convolutional neural network to extract features of video data and uses Adam for algorithm optimization to fully mine surveillance video data information, so as to achieve the purpose of improving accuracy and reducing equipment cost. Compared with ResNet, this method makes full use of the spatio-temporal information of video data, and shows higher precision and accuracy in the prediction process. This study provides a reference for improving the effectiveness of airport visibility prediction.

Key words: visibility forecast; convolutional neural network; airport surveillance video

主站蜘蛛池模板: h视频在线观看网站| 久久亚洲高清国产| 亚洲欧美日韩久久精品| 欧美中文字幕在线视频| 国产精品3p视频| 强乱中文字幕在线播放不卡| 亚洲精品无码AV电影在线播放| 在线观看国产精品一区| 国产菊爆视频在线观看| 激情六月丁香婷婷| av午夜福利一片免费看| 极品性荡少妇一区二区色欲| 欧美成人免费午夜全| 国产乱人视频免费观看| …亚洲 欧洲 另类 春色| 中文无码影院| 国产麻豆另类AV| 成人免费视频一区二区三区| 亚洲大尺度在线| 国产精品视频久| 亚洲综合香蕉| 亚洲高清在线天堂精品| 伊人狠狠丁香婷婷综合色| a级毛片毛片免费观看久潮| 毛片基地视频| 国产精品综合久久久| 在线观看免费人成视频色快速| 亚洲欧美在线综合一区二区三区| 欧美成人日韩| 这里只有精品国产| 国产精品一区在线麻豆| 国产精品30p| 青青国产在线| 久青草免费在线视频| 亚洲日韩精品伊甸| 日本精品影院| 97se亚洲综合在线| 无码一区18禁| 欧美全免费aaaaaa特黄在线| 国产精品久久久久久久久| 欧美精品亚洲精品日韩专区| 日韩在线欧美在线| 国国产a国产片免费麻豆| 欧美亚洲另类在线观看| 日本a∨在线观看| 久久综合伊人 六十路| 免费三A级毛片视频| 国产精品成人观看视频国产 | 92精品国产自产在线观看| 中文字幕亚洲电影| 97国产精品视频自在拍| 成年人视频一区二区| 国产高清色视频免费看的网址| www中文字幕在线观看| 大陆精大陆国产国语精品1024| 国产欧美日韩在线在线不卡视频| 欧美人与性动交a欧美精品| 国产在线精品香蕉麻豆| 伊人久久婷婷| 久久永久视频| 国产在线专区| 欧美日韩国产成人在线观看| 国产精品第| 亚洲中文字幕在线观看| 中文字幕免费播放| 亚洲欧洲美色一区二区三区| 欧美日韩成人在线观看| 精品天海翼一区二区| 日韩在线成年视频人网站观看| 免费国产黄线在线观看| 一区二区自拍| 亚洲欧洲一区二区三区| 国产精品香蕉| 欧美亚洲另类在线观看| 无码网站免费观看| 色综合中文| 综合色亚洲| 亚洲天堂精品视频| 国产91在线免费视频| 亚洲无码视频图片| 国产香蕉97碰碰视频VA碰碰看| 亚洲另类国产欧美一区二区|