999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于圖像感興趣區域融合特征的PM2.5濃度預測方法

2022-09-02 12:25:20張雨琪焦瑞莉陶益凡王立志
中國環境監測 2022年4期
關鍵詞:特征區域方法

張雨琪,焦瑞莉,薄 宇,陶益凡,王立志

1.北京信息科技大學信息與通信工程學院,北京 100101 2.中國科學院大氣物理研究所 a.中國科學院東亞區域氣候-環境重點實驗室;b.公共技術服務中心,北京 100029

PM2.5作為主要的大氣污染物之一,粒徑小且含帶有毒物質,因而可直接進入人體肺部,對人體健康造成損害[1]。同時,由于PM2.5對光線具有吸收、散射作用,當其在空氣中的濃度較高時,會導致大氣能見度下降,進而影響人類的生產和生活。由此可見,實時監測PM2.5濃度十分必要。現有PM2.5濃度監測大多依賴于分布相對稀疏的空氣質量監測站及高精度的專業設備,導致監測數據獲取成本高且覆范圍相對有限[2]。考慮到PM2.5濃度變化能夠影響圖像的成像質量,因此,可以通過建立圖像與PM2.5濃度間的關系模型,來實現基于圖像的PM2.5濃度預測。該方法能夠利用當前便捷高效的圖像采集技術,隨時隨地通過拍攝圖像獲取PM2.5濃度數據,為PM2.5濃度實時監測提供一種低成本的解決方案。

現有基于圖像的PM2.5濃度預測研究大致可分為兩類:傳統圖像處理方法和深度學習方法[3]。

傳統圖像處理方法通常是由人工提取圖像特征并輸入回歸模型,以實現對PM2.5濃度的預測。李曉理等[4]將由圖像質量分析模型提取到的與PM2.5質量濃度相關的特征向量作為輸入數據,構建了基于粒子群優化算法的支持向量回歸機(PSO-SVR)預測模型,來預測PM2.5濃度。LIU等[5]使用透射率、圖像對比度、圖像熵、天空藍色分量、天空區域梯度、太陽位置、濕度等特征參數,結合特征降維算法,對SVR模型進行訓練,從而用來預測PM2.5濃度。李帥[6]提出了使用眾包感知平臺獲取圖像,通過滑動窗口提取圖像亮度方差、飽和度梯度、透射率特征,再利用基于核函數的貝葉斯參數估計方法推斷PM2.5濃度的方法。

深度學習方法則往往利用計算機的大規模運算能力,直接由神經網絡自動提取出合適的圖像特征,從而預測PM2.5濃度。CHAKMA等[7]提出了使用遷移學習算法訓練深度神經網絡,從而根據自然圖像預測PM2.5濃度等級的方法,解決了圖像數據集較小的問題。ZHANG等[8]利用ReLU激活函數來抑制梯度消失,使用負對數-對數分類器代替Softmax分類器對空氣質量進行分級,使網絡能夠更加充分地考慮不同PM2.5濃度等級間的序數關系。楊雯雯[3]提出了一種基于層增強的淺層殘差卷積神經網絡,用來預測PM2.5濃度。該神經網絡使用淺層殘差的結構來保證圖像淺層特征不會隨網絡的加深而丟失,使用層增強的方式來增大有效特征的權重,同時在圖像特征的基礎上添加了氣象特征,從而進一步提高了自身的預測性能。

以上兩類方法均能在一定程度上實現基于圖像的PM2.5濃度預測,但兩者各有利弊。傳統圖像處理方法根據相關領域長時間積累的理論知識,手動設計并提取有效特征,屬于知識驅動的方法。該類特征通常被賦予了具體的物理意義,更加符合人類的經驗認知,針對性較強[9]。但是受人類認知的局限,傳統圖像處理方法不能窮盡所有與研究相關的有效特征,所提取的特征較為片面,多數停留在圖像顏色、紋理等淺表視覺特征層面[10-11]。深度學習方法利用計算機的大規模運算能力,通過大量試驗來確定模型參數,從而自動提取圖像特征,屬于數據驅動的方法。該類特征通常具有深層的語義信息,能夠很好地捕捉所輸入圖像的內部隱性特征,便于理解圖像在復雜層次的含義[12]。但是深度學習方法對數據集規模的要求較高,所提取的特征屬于試驗結果,缺乏理論支撐,可解釋性較差,可信度較低[13],且隨著神經網絡層數的增加,容易失去顏色、紋理等低層信息。

為使兩類方法相互補足,從而豐富對圖像特征的表達,并兼顧其全面性與可解釋性,本文提出了一種基于圖像感興趣區域融合特征的PM2.5濃度預測方法。該方法將圖像傳統特征與深度特征充分融合,并交由卷積神經網絡的全連接層實現對PM2.5濃度的回歸預測,從而進一步提高PM2.5濃度預測的準確性,提升模型的預測性能。

1 數據來源與算法設計

1.1 數據集

本研究采用的數據集包括圖像集、污染物濃度數據集和氣象數據集。

圖像集取自由中國科學院大氣物理研究所氣象觀測塔相機拍攝的奧運區俯瞰實時圖像集。拍攝時間為2015年3月—2019年6月,拍攝頻次為每半小時一張,共58 830張,圖像尺寸為4 406×3 264像素點。由于圖像對應的PM2.5濃度標簽數據取自北京奧體中心空氣質量監測站監測到的逐小時PM2.5濃度數據,為使圖像與PM2.5濃度標簽在時間上具有一致性,并避免夜間燈光等對實驗的影響,本文選取圖像集中每天08:00—17:00的整點時刻圖像(共8 330張)進行研究。圖1為氣象觀測塔相機拍攝的奧運區俯瞰高清圖像。

圖1 氣象觀測塔相機拍攝的圖像Fig.1 Image taken by the weatherobservation tower camera

污染物濃度數據集由北京奧體中心空氣質量監測站監測到的2015—2019年逐小時污染物濃度數據構成。針對圖像集中的每張圖像,該污染物濃度數據集提取圖像拍攝時刻之前3 h的歷史PM2.5、PM10、SO2、NO2、CO、O3濃度數據,作為與其對應的污染物濃度特征。

氣象數據集由北京奧林匹克森林公園氣象監測站監測到的2015—2019年逐小時氣象數據構成。針對圖像集中的每張圖像,該氣象數據集提取圖像拍攝時刻之前3 h的歷史溫度、濕度、壓強、平均風速、最大風速數據,作為與其對應的氣象因素特征。

此外,本文將圖像拍攝時刻,即08:00—17:00,作為又一個模型特征,用于考察拍攝時間與陽光照射方向對模型性能的影響。

1.2 圖像感興趣區域

由于圖像集所含圖像的尺寸較大,在圖像處理過程中需要進行大量計算,會降低特征提取效率和模型運算速率。特別是對于深度學習模型,由于其要求輸入層神經元個數與圖像像素點數一致,通常需要縮小所輸入圖像的尺寸,從而減少模型所需參數數量。然而直接縮小圖像可能會造成圖像變形或模糊,導致模型性能下降。

考慮到圖像具有局部差異性,并非所有部分都與研究內容密切相關[14],本文通過提取圖像感興趣區域,將研究對象由整體聚焦至局部關鍵位置。

1.2.1 圖像預處理

由于圖像拍攝角度存在小幅度變化,不同圖像中的同一主體建筑物的位置往往會發生一定偏移。為了選取適用于圖像集中的全體圖像的感興趣區域,需要對圖像進行預處理。

首先,使用SIFT算法對圖像進行配準。在配準過程中,考慮到相機位置較為固定,拍攝時間較為連續,當出現圖像模糊導致配準失敗時,可以使用相鄰時刻成功配準的圖像的變換矩陣來代替,以實現對圖像的配準。

其次,獲取交集圖像集。由于不同圖像中的主體建筑物的位置存在一定偏差,配準后的圖像通常帶有黑色邊框,因此,需要對其取交集。通過遍歷圖像各像素點,保存每張圖像4個頂點的位置,然后對頂點位置分別向內取極值,即可確定交集圖像所在區域,從而在原圖像集中裁剪出交集圖像集,以用于后續處理。圖像預處理過程如圖2所示。

圖2 圖像預處理過程Fig.2 Image preprocessing process

1.2.2 圖像感興趣區域選取

觀察在不同PM2.5濃度下拍攝的圖像,發現其最直觀的區別在于低濃度下的圖像中的建筑物的邊緣紋理清晰,而高濃度下的圖像中的建筑物的邊緣紋理模糊。使用Sobel算子和OSTU算法分別對高、低PM2.5濃度下的圖像進行邊緣提取,結果見圖3。由圖3可知,兩種情況下提取到的邊緣存在明顯差異,可據此選擇圖像感興趣區域。

圖3 高低濃度下的圖像邊緣Fig.3 Image edges under highand low concentration

為了使選取的感興趣區域更具代表性,用于對比的圖像對(由高、低濃度圖像兩兩組成)需按比例覆蓋圖像全集。首先,將圖像集按照《環境空氣質量指數(AQI)技術規定(試行)》(HJ 633—2012)中的PM2.5濃度分級標準劃分為6個部分。其次,以PM2.5濃度標簽數據集的上下四分位數為閾值,按比例從這6個部分隨機抽取高濃度圖像和低濃度圖像。然后,將高濃度圖像和低濃度圖像兩兩組合,計算每對圖像的邊緣差值并疊加求平均。最后,使用Two-Pass算法獲取平均差值圖像的最大連通區域,即邊緣紋理最集中區域,作為圖像感興趣區域。流程如圖4所示。

圖4 圖像感興趣區域選取流程Fig.4 Image region of interestselection process

1.3 基于圖像感興趣區域融合特征的PM2.5濃度預測模型

針對選定的圖像感興趣區域,使用傳統圖像處理方法提取圖像傳統特征,使用卷積神經網絡模型提取深度特征。將兩種特征融合后,輸入到卷積神經網絡的全連接層,進行回歸預測,從而實現基于圖像感興趣區域的融合特征預測PM2.5濃度。模型結構如圖5所示。

注:BN層即批量歸一化層。圖5 基于圖像感興趣區域融合特征的預測模型的結構Fig.5 Model structure based onfusion features of region of interest

1.3.1 傳統特征提取

空氣中的顆粒物能夠對光線進行吸收和散射,特別是PM2.5。由于其粒徑與可見光波長相近,當PM2.5濃度較大時,空氣中主要發生米氏散射,會導致從拍攝目標傳往相機的光線發生衰減,從而造成所拍攝圖像模糊不清。因此,本文選擇提取與大氣散射模型相關的平均透射率特征,以及與圖像清晰度相關的平均梯度、信息熵、對比度特征,來實現對PM2.5濃度的預測。

1.3.1.1 與大氣散射模型相關的特征

朗伯-比爾定律描述了介質濃度與其對光的吸收能力之間的關系,表達式如公式(1)所示。

(1)

式中:t為透射率,是出射光強與入射光強的比值;β為介質消光系數,L/(mol·cm);C為介質濃度,mol/L;L為介質層光路長度,cm。由此可知,PM2.5濃度與透射率t相關。

大氣散射模型解釋了霧霾天氣圖像的成像過程,根據該模型可以實現由圖像估測透射率。大氣散射模型的表達式如公式(2)所示。

I(x)=J(x)t(x)+A[1-t(x)]

(2)

式中:x為圖像像素點;I(x)為有霧霾圖像,即在霧霾天氣拍攝的圖像;J(x)為無霧霾圖像,即清晰圖像;t(x)為x處的透射率;A為大氣光值。

基于大氣散射模型,引入HE等[15]提出的暗通道先驗原理,即:對于戶外圖像,在大多數非天空區域,至少存在一個彩色通道的像素值很低,甚至為0。其表達式如公式(3)所示。

(3)

式中:Jdark(x)為暗通道圖像中的像素點x的像素值;Ω(x)為中心點為x的局部區域;y為該局部區域中的各個像素點;c為r、g、b中的某個通道;Jc為y在c通道的像素值。

(4)

根據公式(4),可由原圖像獲得對應的透射率圖像,并使用引導濾波器優化后求其均值,作為預測PM2.5濃度的一項特征。相關圖像如圖6所示。

1.3.1.2 與圖像清晰度相關的特征

圖像信息熵反映了圖像所傳遞信息量的多少,量化了圖像中紋理細節的豐富程度[16]。當PM2.5濃度較高時,圖像畫面單調,紋理細節模糊,因此,其對應的信息熵較小。當PM2.5濃度較低時,圖像畫面豐富,紋理細節清晰,因此,其對應的信息熵較大。圖像信息熵H的計算公式如公式(5)所示。

(5)

式中:pi為圖像中某像素點的像素值等于i的概率。

圖像梯度是表征圖像中灰度變化劇烈程度的指標,常用Sobel算子進行計算。在圖像內容的邊緣、輪廓處,由于灰度值變化快速,其所對應的梯度值較大。當空氣中的PM2.5濃度較高時,所拍攝的圖像內容的邊緣、輪廓較為模糊,對應的圖像平均梯度也普遍偏低。圖像平均梯度G的計算公式如公式(6)所示。

(6)

式中:M為圖像總像素數;N為圖像各像素點;GSobel(x,y)為(x,y)位置像素的梯度,即Sobel算子的計算結果。

圖像對比度是衡量圖像清晰度的又一重要指標,反映了一幅圖像灰度反差的大小。隨著PM2.5濃度的增加,由顆粒物的光散射作用傳入相機的環境光成分增大。這部分光成分不包含主體建筑物信息,會使得圖像整體偏灰,對比度下降。圖像對比度有多種描述方法,其中,均方根對比度C的定義為圖像像素值的標準偏差[5],計算公式如公式(7)所示。

(7)

式中:M、N為二維圖像的尺寸;Iij為圖像在(i,j)位置的像素值; avg(I)為圖像中所有像素的平均像素值。

圖6 計算透射率過程中的相關圖像Fig.6 Correlation image duringcalculation of transmittance

1.3.2 深度特征提取

深度學習模型通常由復雜、多層的神經網絡構成。卷積神經網絡作為深度學習算法的一種,具有局部連接和權值共享的優點,大幅減少了模型所需參數的數量,被廣泛應用于圖像處理領域。本文利用卷積神經網絡實現從圖像感興趣區域自動提取有效特征。

感興趣區域圖像作為卷積神經網絡模型的輸入數據,各像素點的灰度值分布在0~255之間。為了提高模型訓練的收斂速率,首先需要對感興趣區域圖像進行歸一化和標準化。經過預處理后,即可將感興趣區域圖像直接輸入到搭建好的卷積神經網絡模型中,提取有效特征。卷積神經網絡模型的具體結構如圖7所示。

圖7 卷積神經網絡結構Fig.7 Convolutional neural network structure

該卷積神經網絡模型由卷積層、BN層、池化層、全連接層組成,采用最大池化策略和ReLU激活函數。其中,卷積層用于提取圖像特征圖譜。卷積核過少可能導致特征提取不足,卷積核過多可能導致模型過擬合,因此,在網絡低層使用5×5×32的卷積核提取圖像淺表視覺特征,在網絡高層使用5×5×48的卷積核對低層視覺特征充分組合,從而提取圖像高層語義特征。此外,為減少模型參數,便于后續特征提取與融合,在第一個卷積層和最后一個卷積層設置Stride參數為2。池化層用于特征降維,使用3×3的池化核實現在保留主要特征的基礎上減少模型參數,與BN層一起防止模型過擬合。

將卷積神經網絡最后一個卷積層輸出的特征圖譜視為圖像的深度特征。由于輸入圖像尺寸為531×259×3,經過卷積神經網絡處理后,最終提取到的深度圖像特征的大小為27×10×48。圖8為卷積神經網絡提取到的某樣本的特征圖譜。

圖8 卷積神經網絡提取到的某樣本的特征圖譜Fig.8 The feature map of a sample extractedby the convolutional neural networks

1.3.3 特征融合與回歸預測

為了充分發揮圖像傳統特征與深度特征的互補性[17],本文將以上兩種特征融合。首先,將手動設計并提取的圖像特征組成一個一維向量,同時將卷積神經網絡提取的圖像特征展平為另一個一維向量。然后,通過向量拼接實現兩種特征的融合。最后,將融合特征輸入卷積神經網絡的全連接層,完成對PM2.5濃度的回歸預測。

2 實驗設計與結果分析

2.1 實驗設計

2.1.1 按比例選取高低濃度圖像對

本文根據PM2.5濃度分級標準,將圖像集劃分為6個等級,如表1所示。

表1 PM2.5濃度分級標準Table 1 PM2.5 concentration classification standard

由統計結果可知,圖像對應的PM2.5濃度標簽數據集的下四分位數為15,上四分位數為76。將PM2.5濃度標簽小于下四分位數的圖像視為低濃度圖像,共有1 949張,全部屬于A級圖像。將PM2.5濃度標簽大于上四分位數的圖像視為高濃度圖像,共2 070張,其中,有965張C級圖像,462張D級圖像,482張E級圖像和161張F級圖像。按比例從中隨機抽取高、低PM2.5濃度圖像(圖9),并兩兩組成圖像對,用于感興趣區域的提取。

注:PM2.5是指濃度,單位為μg/m3。高、低濃度圖像所含A、C、D、E、F級圖像的數量比為12.1∶5.9∶2.8∶2.9∶1.0。圖9 圖像分布及抽取情況Fig.9 Image distribution and extraction

2.1.2 利用圖像預測PM2.5濃度

針對圖像感興趣區域,使用傳統圖像處理方法、深度學習方法及融合特征方法對PM2.5濃度進行預測,并以均方根誤差(RMSE)作為評價標準,對比3種方法的實驗結果。RMSE計算公式如公式(8)所示。

(8)

2.1.2.1 利用傳統圖像處理方法預測PM2.5濃度

將圖像傳統特征、3 h歷史氣象數據、3 h歷史污染物濃度數據作為模型的輸入特征,使用基于徑向基核函數的支撐向量機回歸模型(SVR)實現對PM2.5濃度的預測,并通過網格搜索法經5次交叉驗證來確定SVR模型的懲罰系數C和核參數gamma的值。SVR模型的原理是通過使用核函數,將低維非線性問題轉化為高維線性問題,從而找到一個超平面,使所有樣本點到該超平面的總偏差最小。

此外,本文還探討了僅以圖像傳統特征作為輸入數據時的模型預測性能,從而檢驗所提取的圖像傳統特征的有效性。使用序列后項特征選擇算法(SBFS)從氣象特征(3 h歷史溫度、濕度、壓強、平均風速、最大風速)、污染物濃度特征(3 h歷史PM2.5、PM10、SO2、NO2、CO、O3濃度)、拍攝時刻特征等12維特征中選取最優特征子集,定量給出氣象及污染物數據的冗余情況。

2.1.2.2 利用深度學習方法預測PM2.5濃度

使用搭建好的卷積神經網絡(圖7)將感興趣區域圖像進行歸一化和標準化后,直接輸入到卷積神經網絡中進行處理和計算。由于每張圖像含有531×259個像素值,將其與對應的氣象及污染物濃度數據共同輸入到卷積神經網絡的輸入層時,可能導致氣象及污染物濃度數據因占比較小而無法在模型訓練過程中充分發揮作用,因此,選擇在全連接層引入氣象及污染物濃度數據,此時輸入全連接層的圖像數據已經經過卷積層、池化層等的處理,維度大幅下降。模型采用批處理的方式,每批輸入256張圖像,將學習率設置為0.003,使用Adam優化算法,共進行200輪迭代。

本文還通過對比以感興趣區域圖像作為輸入,以及以相同尺寸的縮小圖像(圖10)作為輸入的模型的預測性能,驗證圖像感興趣區域的有效性。

圖10 與感興趣區域圖像尺寸相同的縮小圖像Fig.10 A reduced image of the samesize as the image region of interest

2.1.2.3 利用融合特征方法預測PM2.5濃度

對比在深度學習方法中使用氣象及污染物濃度數據集與使用SBFS最優特征子集的模型的預測性能,選擇RMSE最低的卷積神經網絡模型提取實驗所用到的深度特征。將該深度特征展平,并與圖像傳統特征拼接為一維向量,從而實現兩者在特征級的融合。隨后,將融合特征輸入卷積神經網絡的全連接層,完成對PM2.5濃度的預測。

本文通過比較基于傳統圖像處理方法、深度學習方法、融合特征方法的模型的預測誤差,檢驗基于圖像感興趣區域融合特征預測PM2.5濃度的有效性。

2.2 結果分析

按照1.2節所述方法選取的圖像感興趣區域如圖11所示。

圖11 圖像感興趣區域Fig.11 Image region of interest

基于SVR模型,使用SBFS算法從12維氣象及污染物濃度特征集合中挑選出各維最優特征子集,結果如表2所示。其中,5維最優特征子集對應的預測結果RMSE最小,因此,將其作為模型最終的特征集合。該集合通過SBFS算法去除了PM10濃度、拍攝時刻及全部氣象特征,僅保留了歷史PM2.5、SO2、NO2、CO、O3濃度共5維特征。

表2 SBFS算法挑選出的各維最優特征子集Table 2 The optimal feature subset of eachdimension selected by the SBFS algorithm

分析SBFS算法所得結果,認為歷史溫度、濕度、壓強、平均風速、最大風速特征,歷史PM10濃度特征,拍攝時刻特征被排除在5維最優特征子集之外的原因,是圖像特征、氣象特征、污染物特征、拍攝時刻特征之間存在重疊情況,并非相互獨立。PM10等粗顆粒物濃度、拍攝時刻與陽光照射方向對模型性能的影響可能已反映在圖像特征中。濕度、風速等氣象因素對模型性能的影響可能已反映在污染物特征中。SBFS算法在一定程度上避免了特征冗余,從而挑選出最有效的特征子集。

根據2.1.2節提出的實驗設計進行相關實驗,結果如表3所示。

表3 利用圖像預測PM2.5濃度的實驗結果Table 3 Experimental results of using images to predict PM2.5 concentration

基于SVR模型,使用手動設計并提取的圖像傳統特征集進行訓練的結果如圖12所示。模型預測結果的RMSE為25.54,測試集樣本點大致分布在對角線附近,說明將所提取的圖像傳統特征用于預測PM2.5濃度具有一定的有效性。

圖12 以圖像傳統特征為輸入的SVR模型的訓練結果Fig.12 The result of SVR trained byimage traditional features

比較使用感興趣區域圖像集與使用縮小圖像集作為輸入的卷積神經網絡模型的預測結果RMSE發現,使用感興趣區域圖像集訓練的模型的性能明顯更優,這就驗證了使用感興趣區域圖像集作為輸入能夠在減少模型參數數量的同時,保有較好的預測性能。

在深度學習方法中,使用SBFS最優特征子集的模型的預測結果RMSE為11.27,使用氣象及污染物數據集的模型的預測結果RMSE為12.46。相比之下,將SBFS最優特征子集作為輸入的模型的預測性能更佳,因此,使用該模型提取圖像的深度特征,并將其與圖像傳統特征相融合,以實現基于融合特征的PM2.5濃度預測。

基于圖像感興趣區域融合特征預測PM2.5濃度的結果如圖13所示。各樣本點高度收斂于對角線附近,預測結果RMSE為10.45,顯著低于采用傳統圖像處理方法預測PM2.5濃度的最低RMSE(11.34),以及采用深度學習方法預測PM2.5濃度的最低RMSE(11.27),說明基于圖像感興趣區域融合特征的PM2.5濃度預測方法在預測性能上得到了有效提高。

圖13 基于圖像感興趣區域融合特征的預測模型的訓練結果Fig.13 Training results based on thefusion feature prediction model of theimage region of interest

由于部分時刻的圖像、氣象、污染物數據缺失,因此,樣本點在時間軸上的分布存在不連續情況。基于圖像感興趣區域融合特征的PM2.5濃度預測模型在2017年1—8月的預測結果如圖14所示。圖14顯示,預測值曲線與真實值曲線能夠較好地擬合,但模型對高濃度圖像的預測性能相對較差。

圖14 2017年1—8月預測值與真實值對比Fig.14 Comparison of predicted and true values from January to August 2017

統計各PM2.5濃度等級下的圖像預測結果RMSE及占比情況,結果如圖15所示。圖15顯示,兩者隨濃度等級的增大呈現相反的變化趨勢。PM2.5濃度標簽小于35 μg/m3的圖像的數目占比最大,為圖像總數的47.1%,而該部分圖像的預測結果RMSE最小,為6.92。PM2.5濃度標簽大于等于250 μg/m3的圖像的數目占比最小,為圖像總數的0.5%,而該部分圖像的預測結果RMSE最大,為35.51。分析模型對高濃度圖像的預測效果較差的原因:首先,可能是由于高濃度圖像的樣本數目較少,模型無法在訓練過程中充分學習其內在規律;其次,可能是由于高濃度圖像普遍較為模糊,色彩單一,偏向灰白,圖像間的相似度較高,導致模型對其的區分能力較差。

圖15 不同PM2.5濃度等級下的圖像預測結果RMSE及占比情況Fig.15 The predicted RMSE and proportionof images under each PM2.5concentration level

3 結論

本文提出了一種通過圖像預測PM2.5濃度的方法。為了提高圖像處理效率,減少模型所需參數,首先根據不同PM2.5濃度水平下的成像差異,選取了圖像感興趣區域,將研究的注意力聚焦在圖像局部區域;然后通過傳統圖像處理方法手動設計并提取圖像感興趣區域有效特征,通過卷積神經網絡自動提取圖像感興趣區域特征,將兩者在特征級層面進行融合,并加入氣象及污染物數據的最優特征子集,輸入到卷積神經網絡的全連接層進行回歸訓練,實現對PM2.5濃度的預測。該方法實現了傳統圖像處理方法與深度學習方法的融合,利用通過神經網絡提取的高層語義圖像特征對通過傳統圖像處理方法手動設計并提取的淺表視覺特征進行了補足,同時利用傳統圖像處理方法的理論基礎彌補了深度學習方法可解釋性差、可信度低的缺陷。實驗證明,該方法能在一定程度上提升模型的預測性能。但由于缺少圖像拍攝時刻和拍攝地點的天氣現象記錄,如晴、多云、陰、降雨等,因此,難以分析不同天氣現象下的模型的預測性能。在未來的工作中,將通過記錄某段圖像拍攝時刻的局地天氣狀況,來驗證本模型在不同天氣現象下的普適性。此外,本文所述方法也可拓展應用至非環境領域。

猜你喜歡
特征區域方法
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
關于四色猜想
分區域
用對方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
捕魚
基于嚴重區域的多PCC點暫降頻次估計
電測與儀表(2015年5期)2015-04-09 11:30:52
線性代數的應用特征
河南科技(2014年23期)2014-02-27 14:19:15
主站蜘蛛池模板: 久久久久九九精品影院| 国产真实乱子伦视频播放| 婷婷五月在线| 亚洲成a人片7777| 激情六月丁香婷婷| 日韩欧美在线观看| 在线免费看片a| 四虎国产在线观看| 欧美一区二区人人喊爽| 日本三级欧美三级| 国产精品自拍合集| 亚洲国产无码有码| 国内熟女少妇一线天| 天堂岛国av无码免费无禁网站| 亚洲人成色77777在线观看| 国产精品尤物铁牛tv| 无码啪啪精品天堂浪潮av| 试看120秒男女啪啪免费| 国产第二十一页| 亚洲综合二区| 午夜小视频在线| 原味小视频在线www国产| 亚洲无码高清免费视频亚洲| 国产精品亚洲αv天堂无码| 国产亚洲精品资源在线26u| 找国产毛片看| 亚洲男人的天堂在线观看| 91麻豆精品国产高清在线| 性色一区| 91青草视频| 国产精品成人一区二区不卡 | 国产午夜无码片在线观看网站| 国产成人亚洲精品蜜芽影院| 国产色图在线观看| 欧美翘臀一区二区三区| 国产成人超碰无码| 久久香蕉国产线看观看式| 色婷婷天天综合在线| 中文无码日韩精品| 成人免费黄色小视频| 国产簧片免费在线播放| 亚洲欧美一区二区三区蜜芽| 在线日韩日本国产亚洲| 伊人欧美在线| 九九热精品视频在线| 91精品国产综合久久香蕉922 | 久久久久国产精品嫩草影院| 精品一区二区三区自慰喷水| 色吊丝av中文字幕| 欧美激情二区三区| 四虎免费视频网站| 久久99国产综合精品女同| 日本在线视频免费| 国产麻豆永久视频| 久久男人资源站| 91在线日韩在线播放| 日韩免费无码人妻系列| 亚洲不卡影院| 2021国产精品自产拍在线| 国产成人av一区二区三区| 欧美日韩专区| 91麻豆国产视频| 视频二区中文无码| 婷婷丁香色| 亚洲综合专区| 午夜精品区| 亚洲精品在线观看91| 日韩AV无码免费一二三区| 无码网站免费观看| 国产一级特黄aa级特黄裸毛片| 热re99久久精品国99热| 亚洲精品福利网站| 亚洲日本在线免费观看| 天天色天天操综合网| 99er精品视频| 欧美啪啪精品| 国产在线高清一级毛片| 欧美精品成人一区二区在线观看| 国产杨幂丝袜av在线播放| 国产精品无码制服丝袜| 日本不卡在线播放| 亚洲高清资源|