999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于混合信息的運動目標檢測優化研究

2021-04-29 09:18:00徐武郭興文聰唐文權孔玲玲
應用科技 2021年1期
關鍵詞:背景檢測信息

徐武,郭興,文聰,唐文權,孔玲玲

云南民族大學 電氣信息工程學院,云南 昆明 650500

近些年,運動目標檢測被廣泛用于視頻檢測及工業檢測等方面。運動目標檢測主要功能是快速、準確地將視頻中的運動目標提取出來[1]。

部分學者提出,利用顏色圖像信息或者是深度圖像信息進行目標檢測[2]。文獻[3]利用深度圖像信息進行目標檢測,再利用“與運算”進行特征信息融合,改善了目標與背景模型距離較近的問題,但是沒有考慮到光照突變對實驗本身的影響。文獻[4]采用顏色信息進行前景目標的檢測,但是當背景模型是復雜多變的情況時,該種方法難以解決問題。文獻[5]分別利用彩色圖像特征與深度圖像特征進行目標檢測,通過邏輯運算將特征信息進行融合處理,但當邊緣存在噪聲點時,檢測效果明顯降低,且存在漏檢現象[6]。

針對以上存在的問題,本文在RGB色彩空間模型的基礎上,采用SOFM模型改善色彩空間顏色的真實性;再根據像素值的邊緣特性以及上一幀圖像的檢測信息,為分類器分配合適的權重值,解決彩色視頻檢測存在的問題。

1 顏色空間建模

由于大部分視頻都為彩色視頻,因此視頻圖像的特征信息可以作為運動目標檢測判斷依據[7]。不同彩色圖像對應不同的顏色特征信息,導致顏色空間的選擇成為影響前景檢測性能的重要因素。

本文采用SOFM模型空間模型完成運動目標檢測,如圖1所示。

圖1 目標檢測流程

SOFM模型通過已有背景模型進行訓練,像素值認為是樣本,對前景模型目標進行判斷[8]。若視頻任意位置Y處的顏色值記為S,公式如下:

式中:α表示背景模型;β表示移動對象;θ表示約束參數。式(1)表示S與Y的概率關系,式(2)則是對相關參數進行定義。

此背景模型主要利用混合概率表示每一類像素對應的特征信息,完成任何顏色前景背景模型的創建,構建模型如式(3)及式(4)所示:

式中:L表示顏色總空間;g(L)表示L的三維卷積。從式(4)中可以看出,由于每一個神經元對應一組輸入數據集,并且任意位置點的背景像素值與場景特征有關聯。因此,利用概率自組織映射模型可以解決任意像素的背景顏色分布[9]:

式中M代表SOFM模型的神經元個數。

假設神經元分布在一個矩陣空間里,則任何兩個神經元K、G的歐氏距離記為

式中:l(K,G)代表神經元K、G之間的拓撲距離;TK、TG表示K、G在矩形空間里所處位置信息。

為減小算法的冗余度,可以把映射中的神經元作為一個高斯概率密度分布模型[10],如式(5)所示:

式中:σ2代表方差;σ1表示σ的上邊界;σ2表示σ的下邊界。式(6)的約束條件能夠保證SOFM模型準確地描述輸入像素的分布。

2 基于混合信息的運動目標檢測

2.1 距離圖像與彩色圖像的配準

當獲取視頻場景的視頻序列以后,得到視頻序列的內外部參數,再對視頻序列的距離圖像信息和彩色圖像信息進行融合配準處理,最終距離圖像獲取的分辨率與彩色圖像獲取的分辨率一致[11]。

2.2 運動目標檢測

本文優化算法的流程圖,如圖2所示。

圖2 基于混合信息的優化流程

在RGB色彩空間處理基礎上,首先利用經配準融合處理的距離圖像和彩圖圖像,構建像素級分類器CLC和CLD;其次,輸入圖像的像素c,將深度圖像信息CA送至CLD分類器進行處理,顏色圖像信息CB送至CLC分類器進行處理,二者輸出的結果形成一個新的矩陣QC[3],如式(7)所示:

式中:q(wnc)|CA、q(wmc)|CA表示CLD分類器得到的像素c是背景模型q(wnc)、q(wmc) 的概率值;q(wnc)|CB、q(wmc)|CB表示CLC分類器得到的像素c是背景模型q(wnc)、q(wmc)的概率值[12]。由于圖像每個區域間存在差異,因此,各個區域的顏色信息和深度信息對檢測結果有著不同程度的影響[4]。故需要對分類器的輸出值設定權重值Wj(j∈{A,B})。此時,像素c的概率值為q(wj|c),見式(8):

式中:q(wj|c)表示分類器像素c處的概率值;q(wj|cA)表示距離圖像A對應的概率值;q(wj|cB)表示彩色圖像B對應的概率值;wA、wB代表權重值。wA+wB=1,像素c屬于較大q(wj|c)與之對應的wj類。

2.3 權重選取方案

配準融合處理的距離圖像存在如下問題:1)由于視頻中的場景信息不相同,導致配準融合處理過后的距離圖像,出現信息缺失[13];2)由于圖像自身存在較大的邊緣噪聲,進而導致邊緣的信息誤差值大[14]。針對以上存在的問題,結合顏色信息和深度信息對區域的差異影響,故選擇一種權重值選取方案,操作流程如下所示:

1)對第g幀的像素c進行深度信息判斷[15],當像素c獲得深度信息時,執行步驟2);否則,采用顏色圖像信息對運動目標進行檢測,公式為

式中:wA(c,g)表示g時刻像素c獲取的CLD分類器的圖像信息值;wB(c,g)表示g時刻像素c獲取的CLC分類器的圖像信息值。此時,像素c未獲取到深度信息。

2)選擇Prewitt算子對像素c進行邊緣區塊檢測處理,當像素c的梯度值F(s)大于閾值H時,則認為是邊緣區域,跳轉3);當像素c的梯度值F(s)小于閾值H時,則判定為中間區域;當像素c被判定為邊緣區域時,跳轉執行步驟4);

3)當深度信息受邊緣噪聲較大影響時,需要對權重值進行調整,以此減小邊緣噪聲影響,權重調整公式為

4)當運動目標逐漸向背景模型移動時,會導致CLD分類器出現漏檢現象。故本文加入了視頻上一幀的檢測結果L(c,g-1)對權重值重新進行分配。

①當L(c,g-1)被判定為背景模型時,按照式(12)進行權重值選擇:

②當L(c,g-1)被判定為運動目標時,則需要對第g-1幀的像素c存在的深度圖像信息與CLD分類器的距離關系進行計算,公式為

式中:κ代表深度圖像信息與CLD分類器的距離關系。若 κ(c,g?1)的值越大,代表像素c運動目標與背景模型的距離值越大;反之,若 κ(c,g?1)的值越小,代表像素c運動目標與背景模型的距離值越小。為防止運動目標靠近背景模型時出現漏檢情況,需對wA的 值進行動態調整[15],即:wA伴 隨 κ的增大而增大。本文利用廣義邏輯函數對權重wA的值進行分配,權重wA的分配公式為

式中:B為常量,通常取值為0.5;Yc為樣本值。

2.4 分類器設定

文章利用CLC分類器、CLD分類器,得到每一種分類器像素c的概率值q(wj|c)。假定運動目標概率值和背景模型概率值相同,依據貝葉斯公式[16],可將式(8)重新定義為

式 中,q(cA|wnc)、q(cA|wmc)表 示CLD分 類器 得到 的像 素c為 背 景 模 型R(wnc) 的 后 驗 概 率 值;q(cB|wnc)、q(cB|wmc)表示CLC分類器得到的像素c為背景模型R(wmc)的后驗概率值。

3 實驗仿真的對比分析

本文實驗采用TOF相機進行視頻采集,分辨率為1 800×1 080。為驗證本文改進算法的有效性,本文對運動目標與背景模型顏色類似、背景模型運動和光照突變3種不同類型的室內視頻幀序列進行仿真。本文所有實驗均采用MATLAB 2018b軟件進行仿真分析。

3.1 實驗參數的設定

本文算法受到諸多參數的限制影響,這些參數的設定值將會對算法產生影響,為保證算法在整體上獲得良好性能優勢,在結合大量實驗數據的基礎上對表1的參數值進行設定。

表1 算法參數的設定

3.2 運動目標與背景模型顏色類似

當運動目標與背景模型顏色相同時,序列1背景模型見圖3(a)所示,圖3(b)選擇的盒子顏色與背景模型顏色相同。為保證實驗結果的準確性,只保留圖3(b)中的盒子部分,如圖3(c)所示。在圖4(a)中,采用CLC分類器進行目標檢測,從圖中明顯看出,檢測結果存在嚴重缺失;在圖4(b)中,利用CLD分類器融合特征信息進行目標檢測,檢測的目標基本完整,但由于噪聲點的影響,導致檢測出的目標邊緣不清晰;圖4(c)采用本文改進算法進行目標檢測,該算法檢測效果最佳。與圖4(d)手工檢測結果對比,兩者檢測結果相近。

圖3 序列1第342幀圖像

圖4 序列1檢測結果

3.3 背景模型運動

若背景模型快速移動時,序列2的背景模型如圖5(a)所示,在圖5(b)中,第165幀圖像背景模型開始運動,圖5(c)為第342幀信息融合后的距離圖像。圖6(a)是采用CLC分類器對背景模型進行更新,此時,檢測圖中出現“鬼影”;圖6(b)是采用CLD分類器依據本文提出的背景更新策略,對背景中移動物體進行判斷,且有效克制了“鬼影”現象,但由于噪聲點的影響,導致檢測出的目標邊緣不清晰;圖6(c)采用改進算法進行目標檢測,本文改進算法可以對運動的背景模型進行快速、準確判斷,且有效消除了“鬼影”區域,檢測效果最佳,與圖6(d)手工檢測結果基本相同。

圖5 序列2第165幀圖像

圖6 序列2檢測結果

3.4 光照突變

序列3為光照突變的視頻序列,第769幀時光照突變。為保證實驗結果的準確性,仍然對檢測目標進行截取處理;為確保實驗檢測結果的一般性,在進行圖像截取時,截取部分未進行特征信息融合處理。在圖7的檢測結果圖中,圖7(a)采用CLC分類器不能適應光照快速突變;圖7(b)利用CLD分類器融合特征信息進行目標檢測,檢測的目標基本完整,但由于噪聲點的影響,導致檢測出的目標邊緣不清晰;圖7(c)采取的本文算法雖無法獲取距離圖像的完整信息,但受到光照突變的影響較小,與圖7(d)的手工檢測結果相對比,存在些許差異,但從整體來講,本文算法可以有效抑制“鬼影”以及光照突變的情況。

圖7 序列3第769幀檢測結果

3.5 實驗結果的定量分析

為了更加準確地對3種算法進行評估分析,選定多個評價指標對其進行評估,評估參數主要包括召回率(Re)、精度(Pr)、F數,其中,召回率、F數、精度的值越大,說明算法的性能越好;計算公式為

式中:TP表示被成功檢測為運動目標時的像素值;TN表示被成功檢測為背景模型時的像素值;FN表示被錯判為背景模型時的像素值;FP表示被錯判為運動目標時的像素值;F數表示對Pr和Re兩項指標進行綜合評價,F數可以更加全面地對算法的性能進行綜合評估。表2為幾種算法的評估對比。

從表2數據可以看出,采用本文算法所得到的精度、召回率以及F數均為最優,驗證了本文改進算法的可行性。

表2 3種算法的綜合評估指標

4 結論

1)采用SOFM模型有效改善了色彩空間模型的真實性;

2)在SOFM模型基礎上,利用CLC和CLD分類器進行檢測,有效避免了光照突變、背景模型顏色相似、背景模型運動等問題;

3)通過對召回率、精度、F數的綜合考評分析。本文采用算法的評價指標均為最優,進而驗證了本文算法的可行性。

猜你喜歡
背景檢測信息
“新四化”背景下汽車NVH的發展趨勢
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
《論持久戰》的寫作背景
當代陜西(2020年14期)2021-01-08 09:30:42
訂閱信息
中華手工(2017年2期)2017-06-06 23:00:31
晚清外語翻譯人才培養的背景
小波變換在PCB缺陷檢測中的應用
展會信息
中外會展(2014年4期)2014-11-27 07:46:46
健康信息
祝您健康(1987年3期)1987-12-30 09:52:32
主站蜘蛛池模板: 自拍偷拍一区| 国产 在线视频无码| 精品国产三级在线观看| 国产第四页| 国产精品美女自慰喷水| 国产亚洲精品在天天在线麻豆| 3344在线观看无码| 国产精品网址在线观看你懂的| 在线观看国产精美视频| 日本黄色不卡视频| 日韩a在线观看免费观看| 亚洲美女久久| 在线观看国产网址你懂的| 5388国产亚洲欧美在线观看| 国产精品无码制服丝袜| 亚洲AⅤ波多系列中文字幕| 日韩av电影一区二区三区四区| av大片在线无码免费| 亚洲国产天堂久久综合226114| 久久精品无码国产一区二区三区| 福利视频一区| 在线va视频| 亚洲三级影院| 亚洲国产成人精品无码区性色| 久久综合九九亚洲一区| 国产一区亚洲一区| 国产在线自揄拍揄视频网站| 日本爱爱精品一区二区| 国产91麻豆视频| 欧美五月婷婷| 日韩麻豆小视频| 国产美女精品人人做人人爽| 亚洲成人免费看| 99久久精品国产麻豆婷婷| 久久一日本道色综合久久| 精品视频一区二区观看| 日本一区二区不卡视频| 国产丰满成熟女性性满足视频 | 亚洲欧美成人影院| 欧美人人干| 国产精品美女自慰喷水| P尤物久久99国产综合精品| 色天天综合| 无码视频国产精品一区二区| 日韩无码视频专区| 夜夜高潮夜夜爽国产伦精品| 久热这里只有精品6| 日本欧美精品| 国产精品xxx| 国产H片无码不卡在线视频| 91口爆吞精国产对白第三集| 欧美日韩在线观看一区二区三区| 97色婷婷成人综合在线观看| 国产成人久久综合777777麻豆| 999国内精品视频免费| 国产无人区一区二区三区| 亚洲欧美日韩久久精品| 九色在线观看视频| 日韩成人在线视频| 婷婷午夜影院| 欧美日韩在线国产| 五月激情综合网| 久久精品一品道久久精品| 国产欧美在线视频免费| 亚洲精品图区| 韩国自拍偷自拍亚洲精品| 粗大猛烈进出高潮视频无码| 亚洲精品动漫| 欧美色亚洲| 久久这里只精品国产99热8| 亚洲va视频| 国产尤物在线播放| 久久亚洲国产视频| 日韩欧美中文字幕在线韩免费| 88av在线看| 国产亚洲日韩av在线| 亚洲欧美一级一级a| 欧美a在线视频| 亚洲一级毛片在线播放| 91精品情国产情侣高潮对白蜜| 国产日韩精品欧美一区灰| 亚洲欧美一区二区三区麻豆|