999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

融合SIFT和級聯分類器的特種車輛自動檢測識別

2023-09-14 09:52:28唐海濤吳果林范廣義陳迪三
計算機技術與發展 2023年9期
關鍵詞:特征檢測模型

唐海濤,吳果林,范廣義,陳迪三

(1.桂林航天工業學院 理學院,廣西 桂林 541004;2.桂航大數據技術應用研究中心,廣西 桂林 541004;3.南京高精齒輪集團有限公司,江蘇 南京 210000)

0 引 言

據公安部統計,截至2022年3月底,全國機動車保有量已突破4億輛[1],全國各地車輛的快速增長和普及使得當地交通監管部門面臨更加嚴峻的管控和安全維護等問題;同時,全國各地區的車輛終端監測設備實時不間斷的數據監測采集使得后端積累了海量、不確定、多樣化的交通數據。傳統人工或簡單交通信息化系統在現有的數據規模面前已面臨巨大壓力。因此,智能交通系統應時而生且至關重要,其依托人工智能技術的發展,使得車輛自動化檢測及識別成為智能交通系統中的重要一環,因而在公共突發事件預警、災害救援以及軍事等領域具有較好的應用前景;而其中特別是針對特種車輛[2](即裝置有特殊設備、具備特殊功能,用于承擔特殊運輸任務或執行特種作業任務的車輛)的自動化檢測識別與管理,相較于其他類型車輛檢測識別的研究更具有迫切性和現實性。

當前,國內外許多研究機構和學者對如何提高車輛自動化檢測識別的準確性、實時性等方面已進行了大量的探索與研究。傳統的車輛識別檢測方法主要聚焦于圖像淺層特征描述子,比如:方向梯度直方圖(Histogram of Oriented Gradients,HOG)、尺度不變特征變換(SIFT)、梅爾倒譜系數(Mel-Frequency Cepstral Coefficient,MFCC)、Gabor小波變換以及顏色邊緣特征等[3-5];在此基礎上,進一步結合各分類器實現車輛的自動化識別,其常見的分類器包括貝葉斯(Baye-Sian)分類器、支持向量機(Support Vector Machine,SVM)、隨機森林(Random Forest,RF)、高斯混合模型(Gaussian Mixture Model,GMM)以及自適應增強算法(Adaptive Boosting,AdaBoost)分類器等[6-8]。上述多種研究方法的實驗結果也都驗證了其模型可降低車輛自動化檢測識別的算力依賴,同時也能進一步提高檢測識別的準確性以及實時性;但對于多領域特定場景(如高速出入口檢查站、防疫檢查點等)下部分數據不均衡、高維稀疏特征空間等現實問題,傳統模型方法普遍存在泛化能力、抗噪能力以及目標識別準確率普遍弱化的趨勢。如Iqbal U等人[9]結合SIFT和Sobel特征實現65%的rank-1車輛類型識別準確率,但方法的特征維度高,運算量大;李成娟等[10]提出一種加權的基頻自適應梅爾倒譜系數特征提取算法,較傳統MFCC算法提升了識別準確率,但該算法受噪聲(包括旋轉、光照亮度、拍攝視角、復雜背景等)影響較大,算法穩定性降低;黃應清等[11]在裝甲車輛識別場景中結合使用小波矩和支持向量機獲得了較高的實驗識別率。綜合上述方法,主要是通過提取一般普通車輛(即非特種車輛)圖像的低層次特征進行訓練并學習,但這對于特種車輛圖像的抽象表示其可適應性和拓展性都不強;同時,近幾年得益于分布式計算和存儲技術的快速發展,計算機算力和協同性得以大幅提升,使得深度學習模型在計算機視覺領域的應用得到極大推動,尤其是面向深層圖像特征的有效提取;其中,Chen Y等[12]提出一種基于深度遷移學習方法并將其應用于特種車輛的識別場景中,該方法借助遷移學習使得深度學習訓練樣本需求減少且獲得較好的識別率,但該方法實際訓練過程中存在一定程度的過擬合,弱化了算法魯棒性和泛化能力;張陳晨等[13]結合一種改進的YOLOv3-Tiny目標檢測算法實現對車輛檢測,通過將部分卷積層替換池化層思路提高了車輛識別率;但算法針對一般普通車輛數據集且同時需要較高的人工圖像標注成本;王斌等[14]在航空圖像車輛檢測中提出一種基于特征金字塔網絡(Feature Pyram id Network,FPN)的改進Faster RCNN(Faster Regions With CNN Features)算法,在VEDAI數據集測試中的平均檢測精度(Mean Average Precision,mAP)為77.2%,該方法具有較好的圖像檢測精度,但同樣針對特種車輛的檢測識別場景下的性能表現有待進一步實驗數據的支撐和驗證。

上述多種研究方法為車輛有效的檢測識別打下了基礎,但總體上都集中于對一般普通車輛的識別檢測研究,對于特種車輛的檢測識別研究較少;同時,當下較熱門的深度學習模型在各類圖像復雜檢測任務中均獲得了較好的檢測識別效果,但由于深度學習模型往往包含一定規模量的參數,通常需要大量有監督的數據進行模型訓練才能獲得較好的效果,而真實應用場景下特種類型車輛出現的頻率較低,市場保有量也遠低于其他類型車輛且存在分布不均衡等現實特點,從而使得深度學習模型在極少量受監督的樣本下其泛化性能難以獲得較高的提升,這也進一步說明了特種車輛的檢測識別難度也普遍高于一般普通車輛。但同時特種車輛的用途、價值以及所代表的形象等受損往往又會帶來更大的社會生命財產安全警示和隱患,而歷史的公共自然災害警示人們,特種車輛在特定時間點以及多樣化場景下的識別、管理以及深層次應用研究非常重要,它能為軍事、特種專業作業等領域提供強大的工具力支撐。基于此,針對救護車、消防車、警車、校車四大類特種車輛在小樣本數據集下的自動檢測識別,該文提出一種融合SIFT和級聯分類器的特種車輛自動檢測及識別方法。該方法主要結合傳統的SIFT圖像特征,同時通過引入基于密度調整的優化算法實現目標車輛較優檢測,最后通過引入KMeans聚類算法獲得目標檢測框中SIFT特征描述子的中心聚類點,并輸入級聯RF-RBF分類器實現特種車輛有效的自動化識別預測。

具體工作如下:

(1)結合SIFT圖像特征,提出一種基于特征點密度優化的目標檢測方法,有效提高了無監督下的圖像檢測精度。

(2)針對復雜背景下的特種車輛數據集,引入KMeans聚類算法,實現特征描述符中心點聚類及數據降維,增強圖像檢測區域有效信息的表達及無用特征信息的擯棄。

(3)提出一種針對特種車輛識別預測的RF-RBF級聯分類器模型,提高了模型識別準確率。

1 相關工作

1.1 SIFT特征點檢測及描述

高質量的特征點是特種車輛圖像檢測識別的重要基礎依賴,完成局部圖像特征的提取與描述可以更好地輔助后續物體檢測、識別以及比對等復合型應用。尺度不變特征變換(Scale-Invariant Feature Transform,SIFT)通過引入尺度參數模擬人在由近到遠時目標在人眼視網膜上的成像過程,最終在不同的尺度空間序列中查找并獲得極值點(即特征點)以及相關信息,并依此融合成特征向量描述符。因尺度空間需滿足一定的不變性(包括灰度不變性、對比度不變性等),使得SIFT特征具備旋轉、尺度縮放、亮度變化等不變性特點,與此同時,特征相對于視角變換、仿射變化、噪聲也保持著良好的魯棒性,是一種優秀的局部特征描述算法。融合SIFT圖像處理算法首先通過引入尺度參數,構建連續變化的尺度參數以獲取不同尺度下的空間序列表示,圖像的尺度空間L(x,y,σ)可定義為輸入圖像I(x,y)與變化的高斯函數G(x,y,σ)進行卷積,即:

L(x,y,σ)=G(x,y,σ)*I(x,y)

(1)

其中,

(2)

式中,I(x,y)表示圖像灰度值,G(x,y,σ)為高斯核函數,(x,y)為像素坐標,*表示卷積運算,σ為尺度變化因子,亦可稱為模糊參數,其值的大小決定圖像的平滑程度,值越小圖像模糊程度越輕,反之模糊程度越重。接下來,為了更高效地在尺度空間檢測穩定的關鍵點,需要將每組內相鄰尺度兩組圖像進行兩兩“相減”操作(即下一層減去上一層),從而生成高斯差分(Difference Of Gaussian,DOG)金字塔,具體用D(x,y,σ)表示,其公式為:

D(x,y,σ)=(G(x,y,kσ)-G(x,y,σ))*I(x,y)

=L(x,y,kσ)-L(x,y,σ)

(3)

式中,k為兩個相鄰尺度空間的比例因子,關鍵點的提取則轉化為在DOG尺度空間中進一步尋找局部極值點,具體需要將每一個檢測點與其同尺度的8個鄰域像素點以及相鄰上下兩層鄰域9×2個像素點共計26個點一一進行比較,若像素點在26鄰域中取得最大或最小值,則生成了圖像在該尺度下的一個極值點(即特征點)。

在 DOG 尺度空間提取到的極值點是離散的,并非真正的極值點,需要進一步通過擬合三維二次函數來精確計算關鍵點的位置和尺度,提高關鍵點的健壯性,具體需要對DOG函數在尺度空間D(x,y,σ)上進行Taylor式展開,其矢量形式為:

(4)

上式對Δx求導數,并令其等于0,則可以計算極值點的偏移量:

(5)

當Δx偏移量大于閾值(設定為0.5)時,需要重新定位,并在新的位置上進行差值計算,反復操作直至收斂從而實現關鍵點的準確計算,若迭代次數超過上限迭代值仍未收斂,則刪除該極值點。

其次,為了使特征描述子具有旋轉不變性,還需要確定關鍵點的指定方向參數,具體通過計算極值點鄰近高斯金字塔圖像的3σ鄰域窗口內的梯度值,并使用直方圖統計鄰域內像素的梯度和方向,其中直方圖的峰值所在的方向即表示為該關鍵點的主方向。

最后,經上述計算,獲得各關鍵點的三個核心信息:即尺度、位置以及方向。考慮到將上述三維度信息融合為表征關鍵點的統一描述符,故用一組向量將關鍵點特征描述出來,具體向量生成方法是通過對關鍵點周圍圖像進行區域4×4窗口分塊,并計算塊內8個方向的梯度直方圖,最終生成一個4×4×8=128維的表示向量,上述向量即為關鍵點特征描述符。

1.2 基于特征點密度優化的目標檢測

經SIFT檢測獲得圖像所有特征點后,主體目標區域的檢測可以通過統計全部特征點坐標值進行標定。設二維隨機遍歷(X,Y)表示所有特征點坐標,則目標檢測框左上角坐標Plu(X=xmin,Y=ymax),右下角坐標Prd(X=xmax,Y=ymin)計算方式如下:

?xi∈X,?xmin∈X&xi≠xmin,st.xmin

?xi∈X,?xmax∈X&xi≠xmax,st.xmax>xi

那么xmin、xmax分別是X隨機變量嚴格的全局最小點、最大點;同理,ymin、ymax分別是Y隨機變量嚴格的全局最小點、最大點。

?yi∈Y,?ymin∈Y&yi≠ymin,st.ymin

?yi∈Y,?ymax∈Y&yi≠ymax,st.ymax>yi

但考慮到實際目標圖片中背景特征的復雜性,導致一小部分特征點的坐標值偏離車輛主體覆蓋區域,從而為后續實現準確、有效的特種車輛目標檢測及識別帶來極大干擾:即存在多個非主體特征點。基于此,采用基于特征點密度優化的目標檢測算法,具體算法流程如下:

Step1:以xspilt=xmin+2為分割線起點,步長為2 Pixel向右進行移動切割;

Step2:每次切割,分別統計分割線左邊區域LArea以及右邊區域RArea的所有特征點個數nums(LArea)和nums(RArea);其中Larea和Rarea具體表示如下:

LArea={(xi,yi)|xmin≤xi≤xspilt,ymin≤yi≤ymax}

RArea={(xi,yi)|xspilt≤xi≤xmax,ymin≤yi≤ymax}

Step3:當nums(LArea)計算出來時,則nums(RArea)=Total- nums(LArea),Total表示SIFT檢測的所有特征點總數;并將其nums(LArea)值追加寫入NH數值列表中;

Step4:向右不斷移動分割線,直到xspilt≥xmax則停止橫向移動,并生成最終的NH;

Step5:在等間距情況下計算NH數值列表的一階向前差分,獲得特征點數量的增量值ΔNHi,其中i∈(0,size(NH)),步長為1;

Step7:根據索引值j,反推計算新的xmin=xmin+(j+1)*2;

Step9:綜上,完成了新的xmin、xmax計算,同理,以yspilt=ymin+2為分割線起點,步長為2 Pixel向上進行移動切割;反推計算完成了新的ymin、ymax計算;

Step10:至此,完成了基于特征點密度優化的目標檢測全部算法流程。

1.3 基于RF-RBF級聯分類器

考慮到特種車輛數據集占總體數據規模僅約11%(特種車輛430張圖像,非特種車輛3 420張),為了弱化正負樣本數據集不平衡帶來的后續識別影響,采用基于RF-RBF級聯分類器的設計結構,可使得降低算力依賴的同時可極大程度地避免過擬合以及提高分類識別的準確率和效率。因此,在獲得圖像SIFT特征描述符后,繼續將其輸入兩層級聯分類器RF-RBF模型。其中第一層RF分類器是一個二分類器,主要將圖像Label識別為特種車輛和非特種車輛;第二層RBF分類器是一個多分類器,在第一層獲得特種車輛的標簽后繼續輸入第二層RBF分類器[15],實現消防車(XiaoFangChe,XFC)、警車(JingChe,JC)、郵政車(YouZhengChe,YZC)以及校車(XiaoChe,XC)四大特種車輛類型識別。同時第二層RBF分類器識別到的非特種車輛類型可逆向校正第一層RF分類器的識別準確率,進而相互之間形成反饋機制以提高整體模型的綜合預測準確率。

2 融合SIFT和級聯分類器的特種車輛檢測識別建模

該文融合SIFT和級聯分類器的特種車輛自動識別檢測模型主要包括SIFT特征點提取、基于特征點密度優化的目標檢測、SIFT特征描述向量生成、RF-RBF級聯分類模型,其中SIFT特征點提取實現圖像主體區域分布大致標定;接著,結合特征點密度優化算法實現主體區域(即車輛區域)的準確檢測;其次,生成主體區域特征描述向量,完成主體區域數字化特征表示;最后,輸入級聯分類器RF-RBF學習訓練后實現特種車輛的識別,且RBF可逆向校正RF模型的識別準確率。綜合上述檢測識別預測,最終獲得不同類型的特種車輛劃分。具體融合SIFT和級聯分類器的特種車輛自動識別檢測算法流程如下:

Step1:輸入原始圖像數據;

Step2:圖像預處理,具體包括去噪、尺寸統一;

Step3:將數據集分為訓練集和測試集,其二者占比為8∶2;

Step4:圖像的SIFT特征提取,包括極值點(即特征點)和關鍵點特征向量;

Step5:將Step4中提取的所有特征點坐標,結合基于特征點密度優化的目標檢測算法,實現目標車輛檢測;

Step6:在目標檢測內,提取訓練集SIFT特征描述符,并采用KMeans聚類算法,對一張圖像中N個關鍵點的特征描述符進行中心點聚類,并最終獲得一張表征圖像的128維特征描述符向量;

Step7:經Step6獲得圖像的數字表征向量后,并將數據集標簽劃分為特種車輛和非特種車輛,繼續將其輸入RF分類器進行二分類識別;

Step8:將RF分類器輸出結果為特種車輛數據集接著輸入RBF分類器,而RF判定為非特種車輛數據集則會直接判別為非特種車輛標簽;

Step9:完成RBF模型對特種車輛類別的判定,若判定為某一類型特種車輛,則獲得車輛類別標簽;若不屬于特種車輛類型,則逆向校正RF模型的識別準確率,進而通過反饋機制提高RF分類器識別預測準確率。

具體檢測識別流程參見圖1。

圖1 融合SIFT和級聯分類器的特種車輛預測模型流程

3 實驗及結果分析

3.1 圖像數據集及預處理

實驗數據均來源于網絡采集,共四類特種車輛以及非特種車輛類型數據(特種車輛圖片數據已脫敏),特種車輛分別是消防車(XiaoFangChe,XFC)、警車(JingChe,JC)、郵政車(YouZhengChe,YZC)以及校車(XiaoChe,XC),共計430張圖像;其中非特種車輛類型數據(Other,OH)則包括諸多類型車輛,如家用小轎車、皮卡、面包車等,共計3 420張,整體數據分布均與真實場景基本一致。

在圖像數據預處理階段,考慮網絡圖像采集多源化以及環境復雜化,導致原始圖片數據集存在尺寸大小不一、清晰度低、成像模糊等問題。因此,為提高圖像真實信息表達,增強檢測和識別的準確性和可靠性,該文首先對圖像尺寸做歸一化處理,將所有圖片尺寸大小調整為300X250 dpi(參考了一般圖像的長寬比例,即4∶3);其次考慮到檢測識別物體時,關鍵真實信息在于圖像邊緣(即梯度信息),所以進一步將RGB彩色圖像做灰度化處理,可實現算力成本低依賴且能最大程度降低圖像失真所帶來的負影響,同時綜合考慮到人眼對綠色信息的敏感性最高,且對藍色敏感則最低的這一特性,進一步采用RGB三分量加權平均獲得到灰度圖像;具體計算公式如下:

Gray(i,j)= 0.299*R(i,j)+0.578*G(i,j)+0.114*B(i,j)

(6)

最后,通過引入典型的低通濾波器——中值濾波[16](3×3),統計圖像中以某點(i,j)為中心的小窗口內(3×3)的所有像素的灰度值,按從大到小順序排列,并將中間值作為該點的新灰度值。從而實現圖像邊緣的保護且能去除突變的噪聲,以此提升圖片的清晰度。

在圖像數據檢測識別階段,為更客觀評價目標檢測模型,使用了Label Studio工具對車輛圖像進行人工標注,針對每個特種車輛類別(共計4類)標注50張,同時其他類型車輛也標注50張,共計250張人工預標定圖像。其中Label Studio人工標注后返回的標記區域由四個參數x、y、width以及 height確定,它們依次表示:起始點x軸坐標值、起始點y軸坐標值、標記區域的寬度和標記區域的高度(其中實際圖像的寬度和高度分別用W和H表示)。但考慮到后端返回的標簽值需與前端設置的標簽值保持一致,還需要進一步通過換算公式生成實際圖像標記區域,具體左上角坐標(xmin,ymin)以及右下角坐標(xmax,ymax)換算公式如下(round表示對浮點數進行四舍五入取值):

xmin=round(x*W/100)

ymin=round(y*H/100)

xmax=round((x+width)*W/100)

ymin=round((y+weight)*H/100)

3.2 實驗參數與評估指標

文中模型與算法的實現主要以Python編程語言為主(版本3.8.8),并結合開源的跨平臺計算機視覺庫OpenCV為框架(基于Python),編程的集成開發環境為Pycharm2021.2 Community Edition。實驗采用了圖像處理領域常用的局部特征檢測算法SIFT作為后續特種車輛目標檢測識別的基礎依賴,為了使得算法能夠更好地實現特種車輛局部特征的提取,采用了cv2.SIFT_create().detect做特征點檢測,其中特征點個數設置為100,同時設置特征點角點的程度(即特征點的強度)閾值大于等于0.03;同時,在多分類器學習時,采用K交叉驗證方法(選取k=5)對訓練集和測試集按4∶1比例分拆并輪詢互換,且分類器模型設置每次迭代次數上限為10 000,正則化系數為1e-3。

為了驗證檢測和識別模型算法的有效性,采用了圖像檢測識別常用的衡量指標:交并比IOU(Intersection Over Union)、平均交并比MIOU(Mean Intersection Over Union)、準確率(Accuracy)、精確率(Precision)、召回率(Recall)、F1-score值以及每秒傳輸幀數FPS(Frames Per Second,FPS)。其中,用以衡量兩區域之間的重疊程度IOU和MIOU,其具體計算公式如下:

(7)

(8)

其中,S(A∩B)表示圖像物體實際區域(A)與模型檢測區域(B)的重合面積;S(A∪B)表示兩個區域整體所占有的面積;k表示車輛的類別;Sk表第k類別的面積。

(9)

(10)

(11)

(12)

式中,TP、FP、TN以及FN分別表示真陽性(True Positive)、假陽性(False Positive)、真陰性(True Negative)和假陰性(False Negative)。

3.3 結果與分析

3.3.1 主流目標檢測方法比較

為了進一步和目前主流的目標檢測方法進行實驗對比分析,該文引入了YOLOv5s算法和兩類目標檢測算法對不同類型車輛圖像進行目標檢測(其中LineStyle為·表示人為標注,--表示覆蓋全部特征點的目標檢測,以及-表示基于特征點密度優化的目標檢測)以及進行IOU、MIOU指標統計,其中單個類別的IOU值以該類別多張圖像的平均值作為最后評估的IOU值,而MIOU是多個類別的平均IOU指標統計值,具體統計結果如表1所示。

表1 與主流目標檢測方法在5類車輛檢測圖像的IOU統計結果

由表1可知,YOLOv5s(You Only Look Once: Unified, Real-Time Object Detection,YOLO)在各類別車輛的IOU指標統計中均取得了更優異的結果,整體的平均交并比MIOU達到0.769 1,而基于特征點密度優化的目標檢測算法的MIOU值為0.754 7,但由于YOLOv5s模型是建立在大量有監督標注數據集的基礎之上,而基于特征點密度優化的目標檢測算法是一種無監督自動檢測算法,二者在MIOU值相當的情況下,該文提出的圖像檢測算法在目標檢測階段的優越性主要表現在三方面:無需人為設置滑動窗口比例、無需大量人工標注、低算力成本依賴,且模型表現出較好的泛化能力。于傳統下IOU≥0.5即可認為目標檢測模型獲得了一個正確的預測結果,顯然該文的于特定場景下基于特征點密度優化的車輛圖像目標提取算法是適用的。

3.3.2 不同級聯分類器比較

在目標檢測基礎上,選取目標檢測框中的特征點生成對應的128維關鍵點特征描述符,而因優化后的目標檢測主體區域包含的關鍵點數量N(0

文中特種車輛識別采用級聯分類器進行結果預測,分類器第一層設計首先將所有圖像數據集分為兩類:特種車輛和非特種車輛;然后分別使用常見的邏輯回歸(Logistic Regression,LR)、決策樹(Decision Tree,DT)、支持向量機(Support Vector Machine,SVM)、隨機森林(Random Forest,RF)以及徑向基神經網絡(RBF)進行二分類訓練預測,其中RBF網絡參數選擇識別準確率較優的453個(實驗從128至500進行訓練后挑選綜合準確率較高的徑向基神經元個數)徑向基神經元以及基函數的拓展常數δ=1.0;最后結合準確率、精確率、召回率和F1值4方面綜合比較各算法的性能,實驗采用K折交叉驗證(選取k=5)進行算法測試,實驗結果如表2所示。

表2 級聯分類器(一層)各項性能指標對照

由表2可知,綜合對比各類分類識別性能指標,其中隨機森林分類模型的識別準確率、F1值分別為0.888 1和0.940 2,在綜合對比各分類器中其性能表現最佳。

圖像經過級聯分類器第一層后,模型已對是否為特種車輛類型進行了識別,接下來將判別為特種車輛類型的圖像繼續輸入級聯分類器的第二層進行多特種類型識別細分預測分類。為了驗證多分類模型在多特種類型識別預測中的性能表現,繼續沿用表2中的前四類算法進行綜合實驗測試,具體特種車輛多分類識別預測結果參數見表3。

由表3可知,在多類型特種車輛識別預測中綜合性能最優的仍舊是隨機森林模型,但是其最高的準確率僅僅為0.656 0,遠遠達不到實際場景對特種車輛類型識別所要求的一般準確率,故繼續結合RBF模型對多特種類型識別進行預測。理論上,Poggio和Girosi已證明RBF網絡是連續函數的最佳逼近[17],相較于傳統分類識別算法,其對于多類型預測具有較大優勢。因考慮到不同的RBF神經元個數會影響模型的預測效果,所以將神經元個數作為優化輸入參數(其中基函數的拓展常數固定為1.0),將數據集按8∶2的比例分為訓練集和測試集,并以測試集F1值達到最大化作為優化目標,并引入了神經元參數NP(Neuron Parameters)從128(即數據的輸入維度)到500的RBF模型對測試集F1值的收斂曲線,隨著參數的增加,收斂曲線的波動在降低,實驗結果最終確定NP=282后,總體趨于收斂于1。

當確定RBF模型參數后,采用K折交叉驗證重新對特種類型圖像數據進行特種車輛多類別預測,詳細識別預測統計結果可參考表4。

表4 RBF特種車輛多類別預測統計

綜合分析表3和表4,K折交叉驗證下RBF模型在多類識別預測中的準確率、精確率、召回率以及F1值分別為0.983 6、0.992 5、0.974 3以及0.982 6,相較于傳統較優的分類模型(隨機森林)算法在總體上準確率、精確率、召回率和F1值分別提高了32.76百分點、35.85百分點、35.51百分點和36.73百分點。故RBF在特種車輛多類型識別預測中具有較好的準確率和可靠性;同時,側面也驗證了RBF網絡在連續多類型預測應用場景中具有較好的優勢。

3.3.3 可視化展示

SIFT特征點提取、基于特征點分布的目標檢測以及基于特征點密度優化的目標檢測識別算法預測部分可視化效果細節展示可參考圖2(a)~(d),其中+表示特征點,--表示基于特征點最大最小坐標點檢測框,·表示基于密度優化的特征檢測框,-表示人工標注檢測框。從結果來看,調整角點閾值的SIFT局部特征提取算法可以很好地檢測車輛主體區域,具有較強的特征點敏感性;同時基于覆蓋全部特征點的目標檢測策略在實際圖像中能很好地保證覆蓋車輛主體區域,但由于該方法過于放大檢測區域,導致交集區域的增長速度低于并集的增長速度,反而會給優化目標IOU帶來負影響,一定程度上影響了模型的目標檢測效果;而基于特征點密度優化的目標檢測算法相較于上述特征點分布的目標檢測算法在檢測精度方面帶來更好的提升作用,圖3為實際圖像目標檢測效果圖。

圖3 基于特征點密度優化的不同特種車輛類型目標檢測效果圖

為了進一步驗證分析RF-RBF級聯分類器的識別性能,特引入當前主流的圖像檢測識別算法YOLOv5s進行橫向對比分析,結果如表5所示。

表5 特種車輛多類別綜合識別結果對比

通過表5中的實驗測試指標數據可知,RF-RBF級聯分類器在小樣本數據集上僅實時識別速度性能低于YOLOv5s,其余多個識別性能指標均高于YOLOv5s算法,且文中模型的訓練時間遠遠低于對比的檢測識別算法;進一步分析各指標值,級聯分類器其召回率相較于識別準確率高出近10百分點,這也使得模型大大降低了類型誤識別的風險,增強了模型的穩定性,同時由于RBF特種車輛識別準確率已達0.983 6,測試集中僅有兩個預測值為負數(即無法識別的特種車輛類型,認定為非特種車輛類型),所以逆向校正效果并不明顯,倘若在RBF網絡模型識別率不高的情況下,其逆向修正的效果才會更加突出。故在目標識別分類階段,提出的識別模型相較于YOLOv5s的優勢在于更少的訓練時間成本以及較好的分類綜合性能。

4 結束語

提出了一種融合尺度不變特征變換和級聯分類器的特種車輛自動檢測及識別預測方法,一方面,通過優化圖像檢測算法提高檢測精度;另一方面,通過改進級聯分類器設計以提高識別準確率和穩定性。仿真實驗表明,融合SIFT特征和級聯分類器實現了特定場景下特種車輛高效準確的檢測識別,特種車輛綜合目標檢測MIOU為75.47%,識別準確率達到了87.35%,基本能滿足特定場景下特種車輛的實時自動化檢測識別需求。該體系框架后續可進一步拓展至針對特定需求和部門的車輛類型檢測識別應用領域。但是,由于方法聚焦于單一特定的檢測識別場景,使得復雜場景下同一時間刻度多目標檢測識別存在誤檢、漏檢的問題。下一步工作重點將在SIFT特征點的基礎上,引入拓撲數據分析技術[18](Topological Data Analysis,TDA),利用復形捕捉特種車輛主體區域數據空間的拓撲s特征,實現多領域復雜場景下多目標的檢測識別。

猜你喜歡
特征檢測模型
一半模型
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
3D打印中的模型分割與打包
主站蜘蛛池模板: 日韩福利视频导航| 国产成人精品免费av| 香港一级毛片免费看| 99热这里只有免费国产精品| 国产亚卅精品无码| 中文天堂在线视频| 国产h视频免费观看| 无码粉嫩虎白一线天在线观看| 国产乱视频网站| 中文字幕乱码二三区免费| 婷婷开心中文字幕| 亚洲精品制服丝袜二区| 免费在线不卡视频| 国产成人精品亚洲日本对白优播| 中文字幕乱码二三区免费| 日韩中文无码av超清| 一级毛片高清| 国产成人凹凸视频在线| 成人午夜亚洲影视在线观看| 91亚瑟视频| 亚洲水蜜桃久久综合网站| 先锋资源久久| 亚洲欧美日韩综合二区三区| 在线视频亚洲色图| av一区二区三区在线观看| 国产成人91精品| 欧美www在线观看| 成人一级黄色毛片| 精品国产成人三级在线观看| 午夜高清国产拍精品| 夜夜操国产| 91探花在线观看国产最新| 欧美不卡二区| 又粗又大又爽又紧免费视频| 国产三级国产精品国产普男人| 国产亚洲欧美在线视频| 青青网在线国产| 国产麻豆福利av在线播放| 国产第四页| 国产在线视频二区| 露脸真实国语乱在线观看| …亚洲 欧洲 另类 春色| 亚洲一区无码在线| 99热这里只有免费国产精品| 国产91丝袜在线播放动漫| 亚洲成人高清无码| 啪啪免费视频一区二区| 国产成人一区免费观看| 国产精品第一区| 日本欧美精品| 国产一级妓女av网站| 精品国产电影久久九九| 国产草草影院18成年视频| 99re这里只有国产中文精品国产精品| 二级毛片免费观看全程| 欧美在线视频不卡第一页| 亚洲国产日韩视频观看| 亚洲人网站| 国产97视频在线观看| 欧美色综合久久| 中文字幕无线码一区| 亚洲h视频在线| 色综合狠狠操| 中国国产一级毛片| 久久99精品久久久久久不卡| 亚洲欧美精品日韩欧美| 色亚洲成人| 精品国产美女福到在线不卡f| 日韩福利在线观看| 久久香蕉国产线看观看式| 99热在线只有精品| 久久精品人人做人人爽电影蜜月| 久久99精品国产麻豆宅宅| 欧美性久久久久| 亚洲第一黄色网址| 亚洲av无码成人专区| 丰满人妻中出白浆| 99精品这里只有精品高清视频| 欧美日韩国产系列在线观看| 好紧太爽了视频免费无码| 国产福利不卡视频| 精品人妻无码中字系列|