999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

遠距離探測條件下紅外序列中弱特征目標檢測

2023-12-12 12:00:12胡銘原樊建鵬林再平高金艷
激光與紅外 2023年11期
關鍵詞:背景特征檢測

李 淼,胡銘原,樊建鵬,林再平,高金艷,安 瑋

(1.國防科技大學電子科學學院,湖南 長沙 410073;2.中國空間技術研究院北京空間飛行器總體設計部,北京 100094)

1 引 言

紅外探測技術被廣泛應用于軍事和民用領域,例如空中交通管制、小型無人機探測、戰場監視、機載紅外搜索與跟蹤、天基光學監視系統等[1-3],具有覆蓋范圍廣、受天氣影響小、可全天候工作、不主動輻射信號、抗干擾性高等優點。在遠距離探測情況下,目標檢測存在如下挑戰[4-6]:

(1)目標在像平面上往往無紋理、幾何、顏色等特征,可用信息少。

(2)遠距離條件下成像分辨率低,主要呈現為斑點狀,例如5像素,當觀測距離較近時可達300像素,甚至更大,目標尺度變化范圍大,形狀不規則。

(3)紅外探測機制主要感知熱輻射,難以直觀反映目標本體形態,且不同相機的分辨率、靈敏度等各不相同,目標和背景的差異性建模難度大。

(4)熱輻射信號受大氣衰減作用影響,目標被大量相機噪聲、背景雜波等淹沒,特別是容易被云層、樹木、建筑物等干擾。

具備上述特點的目標可稱之為弱特征目標。弱特征目標檢測是遠距離紅外感知系統(圖1)的首要環節,直接影響系統級性能,在傳感器性能難以提升條件下,研究自適應不同場景的弱特征目標檢測技術對增強遠距離探測系統的整體效能十分重要。

(a)天基廣域監視系統

目前,目標檢測一般包括兩類方法:基于經驗驅動的傳統檢測方法、基于數據驅動的智能檢測方法。

基于經驗驅動的傳統檢測方法,一般包括背景抑制、閾值分割等步驟,對人的經驗依賴程度高,以不同濾波器的形式設置多種規則,例如頂帽(Top-hat)濾波[7]、LCM[8]、RLCM[9]等,濾波器的尺度和權重是預先設定的。此類方法的優點是可解釋性好,數學模型清晰;缺點是主要適用于線性特征建模,對復雜非線性特征的建模能力弱,當目標形態與濾波器假設不同時,檢測性能退化明顯,難以在不同場景中自適應調整。

基于數據驅動的智能檢測方法,模仿生物神經網絡,建立深層人工神經網絡,從海量數據中自動挖掘目標和背景的差異特征,目前主要以深度學習方法為代表。此類方法的優點是自動學習能力強,在學習過程中對人工干預需求少,通過多層神經網絡級聯可更好建模深層模糊特征;缺點是可解釋性弱,針對性的神經網絡架構設計是核心難點。

目前人工智能技術,在計算機視覺領域發展迅速,但所針對的目標主要是近景成像中的有形態物體(人臉、車輛、動物等),以輸出合理的目標框為目的,例如FasterRCNN[10]、YOLO[11]、SSD[12]。由于紅外監視的特殊用途,對弱特征目標(圖2)檢測的研究較少,上述方法難以直接應用于尺度較小的弱特征目標檢測。

圖2 弱特征目標和有形態物體示例

針對遠距離探測條件下紅外序列中弱特征目標檢測問題,本文將目標檢測視為逐像素分割問題,提出基于注意力全卷積的弱特征目標分割方法,采用自注意力學習等方式強化不同層級特征、不同相關性特征的自主融合學習,提升復雜條件下多尺度目標檢測性能。

2 基于注意力全卷積的弱特征目標分割

2.1 整體算法架構

在計算機視覺中,目標檢測指的是用邊界框(Boundingbox)將目標大概位置框出,不追求精確到每個像素;語義分割指的是判決每個像素的屬性,屬于逐像素處理。考慮到弱特征目標的尺度相對較小,邊界框過大則喪失檢測意義,邊界框過小則難以保證性能。因此,本文將弱特征目標檢測問題直接建模為二分類圖像分割問題,每個像素的屬性包括兩類(目標或背景),更好實現遠距離探測下動態多尺度目標提取。

考慮到對弱特征目標分割的任務需求,受UNet啟發[13],建立多尺度特征學習網絡,更好適應動態多尺度目標。主要思想是采用多卷積層和池化層進行多次下采樣,每進行一次下采樣感知野就擴大一次。通過多次感知野擴大,可學習不同尺度中的圖像特征,有利于背景中較大范圍內的結構特征學習(例如較大的云層、建筑物等),更好抑制連續性背景成分。

但與有形態物體不同,在弱特征目標檢測中,每個像素的判決結果都十分有意義,因此需要通過連續反卷積實現上采樣,更好的保留連續像素細節信息,如圖3。

圖3 本文算法整體架構

在網絡框架中,主要步驟包括以下幾點:

(1)圖像配準:利用SIFT算法[14],從當前幀和參考圖像中提取特征點,生成特征向量并進行匹配,根據匹配結果計算幀間幾何變化,從而降低相機運動的影響。

(2)時域顯著圖構建:通過多幀差分預處理剔除明顯背景成分,使網絡集中學習較難區分的目標和雜波。實驗表明,通過多幀差分大部分背景得到抑制,且多幀差分法相較于深度學習方法處理算法簡單,能夠提高整體算法的處理時效,一定程度上也強化了時域信息利用。

(3)雙模數據特征學習:將原始圖像和時域顯著圖分別進行卷積和下采樣,基于時域顯著圖的學習突出時域變化成分之間的相關性,基于原始圖像的學習突出空域相關性,二者結合更好學習背景和目標之間的時空差異。

(4)通過跳層連接進行特征融合:在多次下采樣過程形成了多尺度淺層特征,在多次上采樣過程中形成了多尺度深層特征。淺層特征更接近原始信息,細節豐富,但感知野小,非線性化表征程度低;深層特征感知野大,且非線性化表征程度高,但容易缺失細節特征。在多個網絡層級設計跳層連接,將淺層特征與深層特征拼接,進行一體學習,實現更豐富維度特征融合。

(5)通過注意力機制進行自適應權重學習:為加快網絡收斂速度,在融合原始圖像和時域顯著圖學習結果的基礎上,重點突出目標局部區域,設計自注意力機制,對于目標相關的疑似區域加強學習關注度,以有限參數聚焦目標區域。

(6)目標分割后處理:對網絡輸出預測結果進行二值化分割,并對疑似目標像素進行形態學濾波,獲得完成目標像素。

2.2 時域顯著圖構建

為將不同相機生成的圖像進行解耦,將多模態數據解耦至相近屬性空間。本文通過預處理構建時域顯著圖,本質上是通過當前幀與序列中歷史多幀分別進行差分預處理,突出所關注的目標運動或目標輻射強度變化的像素。紅外圖像中背景雜波起伏大,弱特征目標尺度較小且與背景界限不明顯,傳統單幀差分方法可能會出現目標重疊區域被抵消,背景未對齊被增強的情況。為了利用序列信息來降低上述誤差,本算法進行多幀差分并對相應像素按位與疊加。

將與當前幀的前后間隔為τ的多幀做配準和差分,將疊加幀差圖灰度化作為當前幀的背景抑制,流程圖如圖4所示。具體流程如下:

圖4 時域顯著圖構建流程圖

(1)對于當前幀圖像Ic,尋找在同序列中有步進τ的多幀圖像Ii。對于所用紅外小目標序列數據集,如果取較遠幀做差分,時間間隔過長,背景內部相對運動,造成無法抑制的背景雜波,引發虛警,降低檢測準確率;如果取相鄰幀做幀差,由于無人機等目標距離航拍設備遠,常態運動速度較慢,目標會產生重疊,幀間相減會導致目標重疊部分被抵消,檢測率降低。選取多幀Ii,使其與Ic有步進間隔τ,能減少重復特征并減少目標重疊情況,且多幀圖疊加能增加目標的能量。因此,為了減少檢測誤差,提升檢測準確率,本文采用多幀幀差進行背景抑制。

(2)對選取的Ii,以當前幀為參考配準。由于采集序列圖像時相機晃動等因素影響,實測數據的相鄰幀間的背景可能會有旋轉、位移、拉伸。直接幀差背景抑制的背景難以匹配。對幀差對象Ii以當前幀做參考配準,再進行差分,降低相機運動的影響。

(3)對配準后的多Ii與當前幀分別做截0處理。與可見光圖像相比,紅外圖像測量的是物體的熱輻射信號,在圖像中目標和背景等屬于正疊加效應。因此,相減為負的被減方為背景,將這部分的灰度值截斷為0。

(4)將幀差后的序列疊加得到當前幀差分圖像。灰度圖的像素數據范圍是0-255間的整數,多個像素疊加的結果可能會大于最大范圍,為了防止疊加后像素值溢出,本文沒有直接將圖像像素的相應位置相加,而是對圖像像素進行按位與操作。

對序列中的每一幀重復步驟(1)~(4)實現背景抑制。

不同場景下構建的時域顯著圖如圖5所示,可見針對不同的地物背景,目標并未丟失,且大部分背景得到抑制。且預處理相較于神經網絡方法時延消耗非常小,能夠提高算法整體處理時效。此外,通過幀間差分,構建的時域顯著圖,抑制了不同相機、不同場景的數據差異,提高網絡魯棒性。

圖5 時域顯著成分示意圖

2.3 基于注意力機制的雙模態特征學習

神經網絡中的注意力機制與神經網絡均為仿生技術。注意力機制以人體視覺選擇注意力為藍本,借鑒人體通過掃視聚焦關鍵區域信息的能力。由于注意力機制形式簡便,通常不會提高模型的復雜度,被廣泛應用于深度學習領域[15]。

注意力的計算公式如下:

(1)

Q是目標中的某個元素;S是輸入序列;Ls是S的長度;K是S的一個元素;V是對應元素的值;R(Q,K)代表輸入元素對輸出元素的相關性或相似性,作為輸入的權重影響注意力的聚焦程度;A(Q,S)代表輸入序列對輸出元素的注意力多少。

通過注意力門,網絡將注意力聚焦在與目標相關性高的輸入上。相關性高的輸入,其R大,對Q的權重高。如果R的取值范圍為[0,1],被認為是soft attention;如果R的取值為0或1,被認為是hard attention。soft attention被用于分類、分割、檢測、生成模型、視頻處理等,本文采用該方式。

通常情況下,目標檢測僅需要考慮與目標相關性強的區域,聚焦目標區域能夠節省計算資源,且提升目標特征提取準確性。在原始UNet等網絡中需要在反卷積層重新對目標區域定位,浪費網絡訓練資源,收斂變慢。

針對小目標檢測需求,本文在網絡的跳層連接處加裝注意力門模塊,如圖6所示,對不同層次的空域特征進行自適應權重調整。

圖6 注意力全卷積神經網絡結構

為了更好實現時空信息融合,本文對雙模態數據同步進行學習,基于原始圖像的學習和基于時域顯著圖的學習,分別利用了時域運動信息和空域相關信息。本文中,注意力機制的輸入是雙模態學習的綜合結果。

注意力門的具體作用流程如下:

(1)對Xl下采樣使Xl和g尺寸相同。

(4)對步驟3的輸出做1×1×1卷積,再經過sigmoid函數激活。

3 實驗設置及評估

3.1 紅外弱特征目標數據集特點

紅外弱特征目標序列數據集較少,檢測物體一般為飛機、艦船等,紅外弱特征目標數據集與物體檢測領域的可見光數據集相比存在多個差異。下面針對紅外弱特征目標數據集的特點進行介紹。

3.1.1 紅外目標數據集為灰度圖

紅外小目標數據集用紅外相機拍攝,一般呈現灰度圖。灰度圖中的像素只有單通道,用灰度表示,位深一般為8。比較而言,可見光拍攝的圖片有RGB三原色,要用三通道24位深表示,信息更為豐富。

3.1.2 紅外目標數據集的目標特征少

紅外圖像的灰度值由溫度決定,目標核心部分的溫度高,外圍溫度低,呈現灰度梯度同心圓。相對而言,可見光目標往往有顏色差異,具有紋理特征。如圖7,紅外無人機檢測圖所示,發動機部分往往溫度高,灰度值大,在目標中所占像素有限,但機翼部分的溫度較低,與背景對比度低,難以準確提取目標。只有機身1/6的部分灰度值大于周圍背景,且該部分灰度值大于200的像素有6個,大于180的也僅有22個,周圍的平均灰度為150。且紅外圖像往往成像距離長,目標所占像素少,無法提供足夠的紋理及形狀信息。

圖7 無人機探測紅外圖像

3.1.3 紅外目標數據集的分辨率低

紅外手段測量的是物體向外輻射的熱量,熱量輻射后雜波干擾嚴重,相對而言,分辨率、信噪比均比可見光圖像低,且目標與背景邊界模糊,檢測難度更高。

3.2 真實數據集設計及分析

本文的真實數據集采用空天杯的紅外序列數據集[16]。拍攝由無人機航拍完成,拍攝目標為無人機。數據集所用背景包括天空、山、森林、地物等。

其中真實數據集從原數據集中剔除了模糊圖片,最終選定了22段共352幀航拍紅外無人機序列作為本文數據集,每段序列截取16幀,每幀圖像大小256×256像素,在Labelme上對數據集進行了標注。

真實數據集中的小目標在全圖中的像素及占比如表1所示。在真實數據集中大部分目標尺寸小于15×15像素,與原圖尺寸的相對占比小于5.86 %。如圖8所示,目標最小像素數約5個,最大像素數約295個,相差50倍以上,屬于大動態多尺度目標。

表1 真實數據集中不同尺度目標占比

圖8 最小和最大尺度目標

3.3 仿真數據集設計及分析

真實數據集的數據量少,且目標運動、尺度等種類少,為了充分訓練網絡,本文制作了紅外弱特征目標序列仿真數據集,在數據集中仿真了不同目標尺寸、灰度、運動及相機運動情況。

仿真數據集的背景圖像源自真實紅外數據集,其圖像從數百個不同場景中選擇,背景具有代表性和真實性。選取330個不同圖像背景,設計成13200段仿真紅外小目標序列。仿真數據集用每個真實圖像制作出40段隨機背景,并在仿真背景上各模擬一段紅外小目標序列的運動,每段序列有5幀圖像,每幀圖像大小均為128×128。

3.3.1 仿真數據集背景設計

仿真數據集的背景由真實背景剪切、旋轉、翻轉、拼接而成。首先在單幀真實紅外圖像中隨機剪切多個大小為128×128的不含目標的背景作為仿真數據集的背景源,然后將這些背景源旋轉、翻轉,從這里面選取9個來自同一幀圖像的背景源緊湊拼接為大小為384×384的仿真背景。

每張真實紅外圖像的背景用隨機算法組合得到40段仿真背景,背景源相同的仿真背景會被一起分配,以保證對算法泛化能力的準確評估。序列按照7:2:2的比例分配到訓練集、測試集、驗證集內。訓練集共有210個背景,測試集共有60個背景,驗證集共有60個背景。

3.3.2 仿真數據集目標設計

目標尺度動態變化,例如5×5、10×10、15×15,代表不同大小的目標。目標灰度為動態變化,代表不同強度的目標。目標設定為隨機向上下左右四個方向做勻速直線運動,目標運動速度動態變化,以模擬目標在短時間內的運動。目標各種參數的出現權重均相同,以設置對照。

3.3.3 仿真數據集運動設計

仿真數據集在已有目標和背景的基礎上,仿真了多段連續運動目標。為更好的模擬動態背景和靜態背景,相機也設置了運動和抖動,每次選取一定區域的背景,模擬相機保持原地或在上下左右四個方向做勻速直線運動。相機運動速度動態變化,并且相機在每幀會有50 %的概率向隨機方向2個像素內抖動。最后在圖像上加標準差為20的高斯噪聲,模擬各種各樣干擾和噪聲。

制作仿真數據集有兩個目的:其一為擴充數據,增加訓練樣本,避免欠擬合;其二為制作各類數據集,對比算法在不同條件下的檢測效果。

3.4 評價指標

本文用準確率、召回率、F1值和交并比(IoU,Intersection over Union)評價模型的優劣。首先對中間變量進行介紹,虛警(False Positives,FP)代表將背景誤判為目標,漏警(False Negatives,FN)代表將目標誤判為背景。真陽率(True Positives,TP)代表將目標正確預測目標。

準確率(Precision)與檢測率同義,表示在預測為目標的情況中,有多少是正確的真正目標。準確率低代表虛警多,理想狀況下的準確率為1,這時所有預測出的目標均為實際目標。準確率計算公式如下。

(2)

召回率(Recall)表示在實際樣本中,有多少是正確預測的。召回率與漏警相關。理想狀況下的召回率為1,這時所有目標均被正確預測。召回率低代表漏檢多。召回率計算公式如下。

(3)

F1值為準確率和召回率的調和平均數,用于測量不均衡數據的精度。準確率和召回率越高,F1值越高,檢測的總體性能越好。F1值計算公式如下。

(4)

IoU交并比是實際樣本與預測樣本的交集面積/并集面積,同樣是準確率和召回率的變形,IoU比F1指數更小,但可以與圖形直觀對應,理想狀況下交并比為1,這時預測樣本與實際目標重合。交并比計算公式如下。

(5)

4 實驗結果及分析

本節用仿真實驗分析所提檢測算法的性能,進行了不同算法性能對比分析、多類型場景性能分析、注意力門影響對比分析、時域顯著圖預處理影響對比分析。

運行算法的GPU為NVIDIA GEFORCE RTX1650,顯存4G,網絡采用4層卷積,初始學習率0.01,采用Adagrad優化器以及DICE損失函數。下面分別對上述對比實驗進行詳細介紹。

4.1 不同算法性能對比

對傳統序列小目標檢測方法(幀差法)[17]、UNet網絡方法[13]和本文設計方法在4段航拍真實紅外序列數據集上進行性能對比分析,測試結果分別如表2所示。

表2 不同方法測試結果

從表2可知,檢測性能上本文算法>UNet算法>傳統幀差法。下面選取典型目標序列進行分析,結果如圖10所示。

圖10 不同算法的結果比較

從準確率情況分析,當目標與背景的灰度相近時,傳統幀差法要權衡閾值控制虛警率和漏警率平衡,在二值化分割時保留了較多的背景高灰度點,且對幀差法來說,無法將目標無人機外圍低溫低灰度部分正確分類,正確檢測率和提取目標像素完整性偏低。而深度學習算法能學習到目標的空間分布特征,且所提算法由于添加注意力機制,對目標空間特征學習更強,能夠準確提取目標的邊緣部分,分割更準確,正確檢測率更高。

從虛警情況分析,傳統幀差法的虛警背景中存在較多空間高頻雜波,特別是建筑物邊緣,深度學習方法能夠感知整體背景分布,虛警較少,其中所提方法的虛警最少,對背景的抑制最強。

實驗證明,所提算法運用目標提取更準確,運用空間注意力,對空間特征提取更精準。比較而言,實現了對檢測交并比、F1值、準確率和召回率的綜合提高。

4.2 多類型場景性能分析

對不同類型場景的仿真數據集進行對照實驗,采用的為同一個訓練集、測試集、訓練模型,并在不同條件下驗證檢測效果。為不同的目標強度、目標大小、目標運動速度、相機運動速度、相機抖動序列數據分別設置驗證集,評估算法的泛化能力和魯棒性。

驗證集包含60個共同背景,每一個驗證集在一個背景下有4段序列,共計240段序列。動態背景實驗組的灰度為223,目標大小5×5像元,目標運動速度3像素/幀,相機運動速度1像素/幀,相機無抖動。靜態背景為第4組,既為實驗組又為對照組,對照組除一項不同外與實驗組無其他差異。網絡在不同場景的交并比、準確率、召回率、F1值如表3所示。其中,第1-1組的目標灰度為191,第1-2組的目標灰度為255,第2-1組目標運動速度為5像素/幀,第2-2組目標運動速度為7像素/幀,第3-1組目標大小為15×15像素,第3-2組目標大小為10×10像素,第4組相機靜止拍攝,第5組相機帶有3像元抖動。

表3 所提算法在不同場景的測試結果

下面對比實驗組與各情形下檢測性能,分析虛警和漏警原因:

(1)從實驗組與第1組的對比中可見,隨目標灰度的升高,交并比、準確率、召回率、F1值均有提高,且提高幅度較均勻。召回率的提升比準確率提升更大,灰度上升32時,召回率平均上升5 %,準確率平均上升7 %。

(2)從實驗組與第2組的對比中可見,隨目標運動速度提高,檢測性能均有提高。這時準確率的提升比召回率提升更大,且速度越快,提升越快,準確率的提升比召回率更明顯。

初步分析,背景運動速度慢或靜止,而目標運動明顯,通過目標位移規律可以將目標和噪聲區分。目標運動速度變快,提高了目標的檢測率,同時降低噪聲的虛警率,召回率也有所上升。

(3)從實驗組與第3組的對比中可見,目標尺寸從5到10,檢測性能均有提高,尺寸從10到15各項檢測指標的變化不大。

初步分析,三種尺寸的圖片數量一致,不存在數據集中某種尺寸出現多,而導致精度更高的問題。因此,可能有兩方面的原因導致5×5的小目標檢測性能下降:一是小目標與雜波尺寸相近,小目標被分類為雜波或雜波被分類為小目標;二是小目標在特征提取的過程中能被提取的特征更少,這些都不利于小目標檢測。

(4)從實驗組與第4組的對比中可見,相機靜止的檢測性能均比實驗組高,其中準確率升高2 %,召回率升高1 %。

對序列背景運動變化的影響進行分析,根據仿真數據集的設計,目標和相機會隨機在上下左右四個方向運動,有1/4的可能性運動方向相同,1/4的可能性運動方向相反。運動目標檢測的背景按相機是否運動可分為靜態背景和動態背景,相機為了保持穩定避免運動模糊,往往運動速度不會太快,仿真數據集中背景的最大運動速度為2像素/幀,小于目標的最小運動速度3像素/幀,在動態背景下,區分背景與目標的難度增大。

(5)在第4組的靜止拍攝基礎上加入隨機抖動得到第5組,從第4、5組的對比中可看出,相機抖動會降低檢測召回率,導致交并比與F1值下降。相機抖動的序列中,部分目標的運動速度降低,可能會被誤判為背景雜波,造成漏警,召回率下降。

上述分析了目標強度、目標大小、目標運動速度、相機運動速度、相機抖動因素對檢測性能的影響,總體而言本文算法對不同場景下的弱特征目標的魯棒性較好。

4.3 注意力機制影響分析

為了分析注意力機制的影響,在訓練序列仿真數據的基礎上,對跳層連接輸入的淺層特征加入空間注意力門。二者損失函數和F1值隨訓練迭代次數變化如圖11所示。

圖11 對比注意力門的F1值和損失迭代圖

與原始UNet網絡相比,加入注意力門后網絡的損失更早收斂,且收斂后的損失相差不大。從F1的變化來看,加入注意力后的F1值更大,檢測效果比未加注意力的時候更優。

結合損失和F1值的變化圖可知,加入注意力機制后能節省計算資源,收斂更快,加快網絡訓練和收斂速度,加注意力門的訓練時間為原網絡的70 %左右。且網絡在目標區域的注意力權重增加,在背景區域的注意力權重減少,對目標分割更精準。

4.4 時域顯著圖預處理影響分析

本實驗首先對原圖進行時域顯著圖預處理,再將預處理的輸出送入神經網絡訓練。為了分析預處理的影響,將該算法的在訓練過程中的F1值和損失變化情況與未做預處理時對比,評估二者各方面檢測性能的差異。

在圖12中,圓形點線為不做時域顯著圖預處理的訓練F1值和損失,三角形點線代表預處理后的訓練F1值和損失。從F1值的變化對比可知,加入時域顯著圖預處理后收斂加快,訓練所需時長是不做預處理的60 %。從損失的變化情況可見,沒有預處理的損失曲線的損失較大,在20次迭代后就一直在75 %到85 %區間波動。而預處理后的損失曲線的中值一直在下降,在100次迭代時的中值與不預處理的500次左右的損失相當,在270次迭代附近收斂。

圖12 時域顯著圖對F1值和損失迭代影響圖

仿真結果證實,采用時域顯著圖預處理,一方面可以實現背景抑制并增強目標,對提升檢測率與召回率均有幫助;另一方面強化對運動特征的關注,特征更加稀疏,減少了網絡需要學習的特征量,使損失下降更快,模型更早達到收斂。

5 結 論

遠距離探測條件下紅外序列中目標屬于弱特征目標,為檢測此類目標,提出了基于注意力全卷積的弱特征目標分割方法,首先采用多幀差分疊加構建時域顯著圖,將不同相機中的變化成分在同一域中表征,強化對運動特征的學習,繼而構建深度學習網絡從時域顯著圖和原始圖像中同步學習時空特征,并通過注意力機制從綜合多維特征中自適應學習目標相關信息。通過真實數據和仿真數據測試表明,在真實多類型場景中,本文方法對大小相差50倍以上的目標平均檢測準確率優于93 %。

猜你喜歡
背景特征檢測
“新四化”背景下汽車NVH的發展趨勢
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
《論持久戰》的寫作背景
當代陜西(2020年14期)2021-01-08 09:30:42
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
晚清外語翻譯人才培養的背景
小波變換在PCB缺陷檢測中的應用
主站蜘蛛池模板: 亚洲综合色婷婷| 58av国产精品| 在线不卡免费视频| 手机在线免费不卡一区二| 2020国产免费久久精品99| 91在线播放免费不卡无毒| 欧美人与牲动交a欧美精品 | 青草娱乐极品免费视频| 国产亚洲精品va在线| 91精品视频播放| 亚洲区第一页| 91精选国产大片| 欧美成人看片一区二区三区| 老熟妇喷水一区二区三区| 国产69精品久久久久孕妇大杂乱| 亚洲精品国产首次亮相| 极品国产一区二区三区| 成人第一页| 亚洲永久色| 伊人精品视频免费在线| 四虎永久在线精品影院| 色综合a怡红院怡红院首页| 91国内视频在线观看| 亚洲国产中文精品va在线播放 | 国产内射一区亚洲| 国产精品香蕉| 免费jjzz在在线播放国产| 欧美乱妇高清无乱码免费| 99久久亚洲综合精品TS| 色丁丁毛片在线观看| 欧美午夜理伦三级在线观看| 国产性生大片免费观看性欧美| 国产综合欧美| 日韩午夜片| 美女啪啪无遮挡| 色婷婷在线影院| 2021亚洲精品不卡a| AV色爱天堂网| 青青久久91| 东京热av无码电影一区二区| 欧美精品导航| 四虎成人精品| 国产精品亚洲五月天高清| 人妻丰满熟妇av五码区| 色婷婷丁香| 中文字幕人成人乱码亚洲电影| 国产免费福利网站| 亚洲精品制服丝袜二区| 9啪在线视频| 视频二区欧美| 99激情网| 国产亚洲欧美在线人成aaaa| 精品国产免费观看| 97久久超碰极品视觉盛宴| 最新国语自产精品视频在| aa级毛片毛片免费观看久| 国产精品漂亮美女在线观看| www.亚洲一区| av一区二区三区在线观看| 国产99视频精品免费视频7| 国产女主播一区| 精品亚洲麻豆1区2区3区| 亚洲人成人无码www| 日韩欧美国产成人| 高清国产va日韩亚洲免费午夜电影| 欧美亚洲另类在线观看| 嫩草国产在线| 精品国产免费第一区二区三区日韩| 日韩在线欧美在线| 国产午夜一级毛片| 992tv国产人成在线观看| 91精品aⅴ无码中文字字幕蜜桃 | 日本人又色又爽的视频| 九九热视频精品在线| 波多野结衣久久精品| 亚洲国产精品无码久久一线| av在线手机播放| 日韩专区欧美| 欧美日韩中文国产va另类| 999国产精品永久免费视频精品久久| 欧美高清国产| 四虎精品免费久久|