999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于改進(jìn)HOG特征的空間非合作目標(biāo)檢測

2016-02-24 07:01:04陳路黃攀峰蔡佳
航空學(xué)報(bào) 2016年2期
關(guān)鍵詞:支架特征區(qū)域

陳路, 黃攀峰, *, 蔡佳

1. 西北工業(yè)大學(xué) 航天飛行動(dòng)力學(xué)技術(shù)重點(diǎn)實(shí)驗(yàn)室, 西安 710072 2. 西北工業(yè)大學(xué) 航天學(xué)院智能機(jī)器人研究中心, 西安 710072

基于改進(jìn)HOG特征的空間非合作目標(biāo)檢測

陳路1, 2, 黃攀峰1, 2, *, 蔡佳1, 2

1. 西北工業(yè)大學(xué) 航天飛行動(dòng)力學(xué)技術(shù)重點(diǎn)實(shí)驗(yàn)室, 西安 710072 2. 西北工業(yè)大學(xué) 航天學(xué)院智能機(jī)器人研究中心, 西安 710072

傳統(tǒng)的非合作目標(biāo)檢測方法大都基于一定的匹配模板,這不僅需要預(yù)先指定先驗(yàn)信息,進(jìn)而設(shè)計(jì)合適的檢測模板,而且同一模板只能對(duì)具有相似形狀的目標(biāo)進(jìn)行檢測,不易直接用于檢測形狀未知的非合作目標(biāo)。為降低檢測過程中對(duì)目標(biāo)形狀等先驗(yàn)信息的要求,借鑒基于規(guī)范化梯度的物體區(qū)域估計(jì)方法,提出一種基于改進(jìn)方向梯度直方圖特征的目標(biāo)檢測方法,首先構(gòu)建包含有自然圖像和目標(biāo)圖像的訓(xùn)練數(shù)據(jù)集;然后提取標(biāo)記區(qū)域的改進(jìn)方向梯度直方圖特征,以更好地保持局部特征的結(jié)構(gòu)性,并根據(jù)級(jí)聯(lián)支持向量機(jī)訓(xùn)練模型,從數(shù)據(jù)集中自動(dòng)學(xué)習(xí)目標(biāo)物體的判別特征;最后,將訓(xùn)練后的模型用于檢測測試集圖像中的目標(biāo)。實(shí)驗(yàn)結(jié)果表明,算法在由4 953幅和100幅圖像構(gòu)成的測試集中分別取得94.5% 和94.2%的檢測率,平均每幅圖像的檢測時(shí)間約為0.031 s,具有較低的時(shí)間開銷,且對(duì)目標(biāo)的旋轉(zhuǎn)及光照變化具有一定的魯棒性。

非合作目標(biāo); 目標(biāo)識(shí)別; 規(guī)范化梯度; 方向梯度直方圖; 局部特征

隨著航天技術(shù)的不斷發(fā)展,各國對(duì)于故障衛(wèi)星維修、近距離目標(biāo)捕獲、軌道垃圾清理等新型在軌服務(wù)技術(shù)的需求日益迫切。傳統(tǒng)空間機(jī)器人的機(jī)械臂幾乎屬于全剛體系統(tǒng),加上其作用范圍受到機(jī)械臂長度和剛體靈活性的限制,因此空間機(jī)械臂主要用于合作目標(biāo)的抓捕和操作,不能很好地適應(yīng)未來的空間碎片清理等任務(wù)。空間繩系機(jī)器人系統(tǒng)利用柔性系繩代替多自由度剛性機(jī)械臂,在任務(wù)安全性和可靠性等方面有了顯著提高。系繩結(jié)構(gòu)的應(yīng)用不僅減少了平臺(tái)向目標(biāo)移動(dòng)過程中的能量消耗,而且避免了平臺(tái)與目標(biāo)的直接接觸,從而消除了與目標(biāo)直接碰撞的可能,因而在未來的空間操作中有著廣泛的應(yīng)用前景。

空間繩系機(jī)器人由空間機(jī)動(dòng)平臺(tái)、空間系繩和捕獲裝置3部分構(gòu)成,如圖1所示。在軌捕獲過程分為3個(gè)階段:①空間平臺(tái)的繞飛階段,即空間機(jī)動(dòng)平臺(tái)進(jìn)行的遠(yuǎn)程、中近距離的目標(biāo)搜索和監(jiān)測過程;②空間繩系機(jī)器人捕獲目標(biāo)階段,即空間機(jī)動(dòng)平臺(tái)到達(dá)作用距離內(nèi)時(shí)(約200 m),操作機(jī)器人被平臺(tái)釋放,自主完成目標(biāo)追蹤、識(shí)別和抓捕的過程;③空間機(jī)動(dòng)平臺(tái)把目標(biāo)拖入墳?zāi)管壍赖倪^程,即空間繩系機(jī)器人抓住目標(biāo)衛(wèi)星后,空間機(jī)動(dòng)平臺(tái)將目標(biāo)衛(wèi)星由原軌道拖入墳?zāi)管壍赖倪^程[1]。

圖1 空間繩系機(jī)器人系統(tǒng)示意圖

Fig. 1 Diagram of tethered space robot system

目標(biāo)特征提取是非合作目標(biāo)位姿測量的基礎(chǔ),在逼近非合作目標(biāo)的過程中,機(jī)器人需要對(duì)目標(biāo)進(jìn)行識(shí)別、跟蹤并測量目標(biāo)的結(jié)構(gòu)、運(yùn)動(dòng)軌跡、空間位置和三維姿態(tài)等信息。基于視覺系統(tǒng)的空間目標(biāo)檢測/識(shí)別是獲取這些信息的重要手段。

因此本文的出發(fā)點(diǎn)是根據(jù)目標(biāo)檢測/識(shí)別算法確定目標(biāo)的待抓捕區(qū)域,縮減感興趣區(qū)域的尺寸,從而為后續(xù)目標(biāo)特征點(diǎn)等特征的提取排除背景信息的干擾。研究表明,盡管非合作目標(biāo)的結(jié)構(gòu)各不相同,但它們有諸多相似的部件,如用于星箭相連的分離螺栓、對(duì)接環(huán),用于連接太陽帆板與衛(wèi)星本體的太陽帆板支架等,這些非合作目標(biāo)星共有的特征是機(jī)器人抓捕操作的理想部位。不失一般性,本文選取目標(biāo)星本體與帆板連接處的三角形或多邊形支架作為待識(shí)別區(qū)域。

傳統(tǒng)的衛(wèi)星帆板檢測算法往往基于一定的先驗(yàn)信息,并針對(duì)具有相似形狀特征的識(shí)別目標(biāo)。徐文福等[2]針對(duì)三角形類衛(wèi)星帆板支架,提出基于立體視覺的目標(biāo)識(shí)別算法;Wong[3]指出與空間域相比,頻率域的非合作目標(biāo)識(shí)別具有更大的優(yōu)勢,更易區(qū)分不同的飛行器類別;Ramirez等[4]將遺傳算法應(yīng)用于圖像中四邊形的檢測,算法對(duì)高斯噪聲污染和形變具有一定的魯棒性。文獻(xiàn)[5]提出一種基于彈性網(wǎng)稀疏編碼的特征袋模型,能夠較好地識(shí)別目標(biāo);文獻(xiàn)[6]借鑒FAST算法的空心圓環(huán)結(jié)構(gòu)提出一種具有旋轉(zhuǎn)不變性的模板匹配算法,有較強(qiáng)的抗噪聲和抑制光照變化的能力。文獻(xiàn)[7]通過提出一種光照模糊相似融合不變矩,有效解決了不同位姿和光照條件的航天器目標(biāo)識(shí)別問題;文獻(xiàn)[8]通過網(wǎng)絡(luò)參數(shù)的不斷調(diào)整,將目標(biāo)的特征反映到網(wǎng)絡(luò)結(jié)構(gòu)中,以實(shí)現(xiàn)對(duì)圖像目標(biāo)的識(shí)別,但算法僅突出了目標(biāo)特征,并未對(duì)目標(biāo)的位置信息進(jìn)行預(yù)測。

上述方法在所假設(shè)的目標(biāo)形狀特征下,具有較好的檢測效果,但在實(shí)際中,帆板支架的結(jié)構(gòu)各不相同,且帆板的旋轉(zhuǎn)角度也會(huì)隨時(shí)變化,很難找到不同條件下都能得到滿意結(jié)果的檢測模板。

本文提出一種基于改進(jìn)方向梯度直方圖(Histogram of Oriented Gradient, HOG)特征的目標(biāo)定位算法,首先建立含有標(biāo)記信息的帆板圖像訓(xùn)練集,分別提取帆板目標(biāo)區(qū)域和非目標(biāo)區(qū)域的特征,然后采用級(jí)聯(lián)支持向量機(jī)(Cascaded Support Vector Machine, Cascaded SVM)框架訓(xùn)練特征模型,最后通過訓(xùn)練模型檢測測試集圖像中的帆板支架區(qū)域。實(shí)驗(yàn)結(jié)果表明,在不同視角、不同帆板旋轉(zhuǎn)角度下,文中所提算法均能夠以較低的時(shí)間開銷,高準(zhǔn)確度定位帆板支架。

1 區(qū)域提取方法

現(xiàn)有識(shí)別算法的檢測器大都依賴于圖像的種類,即一種檢測器只能識(shí)別一類或多類相似的物體,這導(dǎo)致在目標(biāo)檢測/識(shí)別過程中,需用不同的檢測器對(duì)同一物體進(jìn)行檢測,以確定物體是否屬于特定類中的實(shí)例[9],并且采用滑窗的方式定位物體需要在不同尺度和位置下進(jìn)行檢測,搜索區(qū)域較大,因此上述算法的時(shí)間復(fù)雜度較高。為降低待分類區(qū)域的數(shù)目,研究人員提出不依賴于目標(biāo)種類的物體測量方法。物體度定義為圖像窗口包含有某種物體的概率,而不考慮物體的具體分類,概率越大意味著當(dāng)前窗口中包含有完整物體的可能性越大。

由文獻(xiàn)[10-11],物體可看作圖像中具有閉合邊界的孤立元素,其與周圍背景元素的相關(guān)性較弱。傳統(tǒng)基于空間的理論認(rèn)為人在觀察圖像時(shí),注意力會(huì)從一個(gè)空間位置轉(zhuǎn)移到另一個(gè)空間位置[12],而認(rèn)知學(xué)的研究表明,人類視覺更傾向于首先識(shí)別圖像中的物體,通過簡單的選擇機(jī)制初步確定潛在的物體區(qū)域,這也驗(yàn)證了通過物體度確定潛在物體區(qū)域的可行性。文獻(xiàn)[13]提出結(jié)合圖像的形狀、顏色和紋理等特征,對(duì)物體的潛在區(qū)域進(jìn)行測量,從而得到潛在區(qū)域中包含有物體的概率;文獻(xiàn)[14]引入級(jí)聯(lián)形式,提高了潛在區(qū)域評(píng)價(jià)的速度和精度;文獻(xiàn)[15]基于圖像的梯度信息,提出一種非常快速的潛在區(qū)域評(píng)價(jià)算法。

文獻(xiàn)[15]將標(biāo)記圖像目標(biāo)區(qū)域的規(guī)范化梯度(Normed Gradient, NG)作為區(qū)分物體區(qū)域和非物體區(qū)域的特征。首先選取不同尺度和方向比下的窗口{(W0,H0)},其中W0和H0分別表示窗口的尺寸,且W0,H0∈{10,20,40,80,160,320},計(jì)算其NG特征。然后采用線性模型w評(píng)價(jià)當(dāng)前窗口:

(1)

式中:hl為窗口l所表示的NG特征;fl為w濾波后特征的評(píng)價(jià)值;i和(x,y)分別代表窗口l的尺寸和位置。對(duì)于尺寸i下的潛在區(qū)域,通過非極大值抑制(Non-MaximalSuppression,NMS)保留局部區(qū)域的最大響應(yīng),以達(dá)到減小搜索區(qū)域的目的。

基于以下事實(shí):相比于由長寬方向比值較大的矩形包圍的區(qū)域,長寬比接近于1的區(qū)域中包含有物體的可能性更大,窗口區(qū)域的評(píng)價(jià)指標(biāo)進(jìn)一步修正為

sl=aifl+bi

(2)

式中:ai和bi分別為尺寸i下的訓(xùn)練系數(shù)和偏置項(xiàng);sl為窗口的最終評(píng)價(jià)值,即窗口中包含有物體的概率。

為得到圖像窗口包含物體的概率值,采用文獻(xiàn)[16]的級(jí)聯(lián)SVM方法訓(xùn)練參數(shù):

1) 將標(biāo)記區(qū)域的NG特征看作正樣本,隨機(jī)采樣非標(biāo)記區(qū)域,其特征作為負(fù)樣本,利用線性SVM訓(xùn)練模型w。

2) 采用線性SVM訓(xùn)練參數(shù)ai、bi。對(duì)訓(xùn)練集的已標(biāo)記圖像,利用式(1)和式(2)生成非極大值抑制后的潛在物體區(qū)域,通過與真實(shí)標(biāo)記的對(duì)比達(dá)到訓(xùn)練參數(shù)的目的。

上述訓(xùn)練方法具有較小的訓(xùn)練時(shí)間開銷,并在PASCALVOC2007[17]數(shù)據(jù)集上取得了很好的物體定位效果,但上述算法將圖像梯度值的歐氏距離作為判別特征,如式(3)所示:

hl=min(|Gx|+|Gy|,255)

(3)

式中:Gx和Gy為窗口l對(duì)應(yīng)圖像塊的梯度值。雖然梯度特征具有計(jì)算簡單、運(yùn)行速度快的優(yōu)點(diǎn),但卻沒有考慮圖像中廣泛存在的紋理信息,用梯度作為特征忽視了像素間及局部區(qū)域中所包含的方向信息,因此不能很好地作為目標(biāo)區(qū)域的判別特征。

2 基于改進(jìn)HOG特征的特征提取方法

NG特征用于VOC 2007數(shù)據(jù)集取得了較好的目標(biāo)定位效果,但在實(shí)際中,尤其是對(duì)于不包含在數(shù)據(jù)集中的物體類,人工采集的圖像易受光照、噪聲等因素的影響,往往不能夠直接使用,通常要對(duì)其進(jìn)行預(yù)處理,以增強(qiáng)圖像中的顯著特征。實(shí)驗(yàn)表明,NG特征直接應(yīng)用于預(yù)處理圖像其效果并不理想。

為減小衛(wèi)星載荷,衛(wèi)星帆板支架大都具有骨架型結(jié)構(gòu),支架上像素點(diǎn)的梯度變化方向類似,而支架與背景交界處的梯度值波動(dòng)較大,其方向同支架上的梯度變化方向正交,因此在規(guī)范化梯度的基礎(chǔ)上,引入方向信息,不僅可以包含局部區(qū)域中的方向響應(yīng),減小因離散化梯度造成的能量丟失,而且能夠表示物體的基本形狀,從而作為一種較好地判別目標(biāo)區(qū)域的特征。

2.1 方向梯度直方圖

基于如下假設(shè):雖然無法精確地估計(jì)圖像中局部灰度值的梯度分布,但其中物體的局部外觀和形狀通常可以由對(duì)應(yīng)梯度和邊緣信息很好地表征和描述,文獻(xiàn)[18]提出用于特征提取的方向梯度直方圖算子;文獻(xiàn)[19]將方向梯度直方圖算子應(yīng)用于圖像/視頻行人檢測,只需行人大致保持直立狀態(tài)便可取得較好的檢測效果;文獻(xiàn)[20]指出HOG算子特別適合于剛體特征的表示。HOG特征是一種梯度方向的直方圖表示,與SIFT特征[21]相比,雖然HOG特征不具備尺度不變性,但其運(yùn)算復(fù)雜度要低得多。首先全局歸一化圖像,減少光照等因素對(duì)物體識(shí)別的影響;然后計(jì)算圖像的梯度信息,捕獲物體的輪廓、紋理等特征,并進(jìn)一步降低光照因素變化的影響;進(jìn)一步,根據(jù)梯度的方向和幅值,得到各連通區(qū)域區(qū)域內(nèi)(稱為細(xì)胞)不同方向下像素分布的一維向量,為增強(qiáng)算子的魯棒性,對(duì)相鄰細(xì)胞組成的集合塊中的特征向量進(jìn)行局部歸一化;最后,將所有集合塊的向量首尾相連,形成對(duì)當(dāng)前圖像的HOG特征表示,特征提取過程如圖2所示,其中輸入圖像由數(shù)據(jù)集中圖像的標(biāo)記信息獲得。

圖2 HOG特征提取流程

Fig. 2 Flowchart of extracting HOG feature

為表示輸入圖像,HOG算子需提取高維特征表示向量,其維度為

(4)

式中:w、b、c分別為檢測窗口、塊區(qū)域和細(xì)胞區(qū)域的尺寸;s為塊區(qū)域移動(dòng)的步長;p為細(xì)胞內(nèi)梯度方向的數(shù)目。由于不同圖像塊之間有一定的重疊,導(dǎo)致特征表達(dá)向量存在一定的冗余度,定義r為生成特征表達(dá)向量中重疊部分所占比例,則有

r=

若相鄰塊之間沒有重疊部分,則定義冗余度為0。以w、b、c、s、p分別取72、16、8、8、9時(shí)為例,特征表示維度和冗余度分別為2 304和0.19,高維的特征表示給分類、檢測等問題帶來計(jì)算上的壓力,并且冗余度的存在一定程度上降低了算法的執(zhí)行效率。值得注意的是,文獻(xiàn)[19]中指出這種冗余特性能夠提升行人目標(biāo)檢測效果,但本文試圖通過對(duì)HOG特征的改進(jìn)提取具有更低維數(shù)和更適合目標(biāo)和非目標(biāo)區(qū)域判別的特征,因此,有必要進(jìn)一步降低維數(shù)及冗余度。

2.2 改進(jìn)的局部特征

HOG特征將圖像塊內(nèi)多個(gè)細(xì)胞區(qū)域的不同方向的梯度響應(yīng)展開為向量,作為當(dāng)前圖像塊特征的表達(dá),不同圖像塊之間有一定的重疊,導(dǎo)致特征表達(dá)向量存在一定的冗余,且維數(shù)較高,這使得HOG特征應(yīng)用于較大規(guī)模的數(shù)據(jù)集時(shí)不適合直接作為目標(biāo)區(qū)域和非目標(biāo)區(qū)域的判別特征。

本節(jié)首先以梯度方向?yàn)闃?biāo)準(zhǔn),將圖像塊內(nèi)多個(gè)細(xì)胞區(qū)域的梯度響應(yīng)集中于單個(gè)細(xì)胞區(qū)域,從而獲得局部區(qū)域具有最大響應(yīng)的方向,并作為當(dāng)前區(qū)域的主方向;然后,對(duì)其進(jìn)行極大值池化,使得子采樣后的特征具有一定的平移、旋轉(zhuǎn)不變性,進(jìn)而提出一種改進(jìn)的HOG特征P-HOG(Pooling-HOG)。

如圖3所示,對(duì)于輸入圖像x,首先將其放縮至72×72大小,若x的寬度和高度不相等,則改變其長寬比;然后計(jì)算每個(gè)細(xì)胞內(nèi)方向梯度的分布,如圖3(b)所示,梯度方向的分布大致刻畫了物體的形狀邊緣;為獲得更好的空間不變性,將連通區(qū)域內(nèi)的多個(gè)細(xì)胞合并,以形成更強(qiáng)的局部方向響應(yīng)(見圖3(c));最后下采樣提取塊區(qū)域中的最大響應(yīng)值,生成對(duì)應(yīng)于原圖像的魯棒特征表達(dá)(見圖3(d))。此時(shí),原圖像x由一個(gè)抽象后的8×8 的判別特征表達(dá),特征的表示維度為64,通過下采樣操作,特征的冗余度同樣得到降低。

由于圖像的灰度值統(tǒng)計(jì)特性不同,加之容易受亮度、噪聲等外界因素的干擾,因此在對(duì)圖像進(jìn)行特征提取前,通常需要對(duì)其進(jìn)行預(yù)處理。文獻(xiàn)[18]中采用圖像元素求平方根或取對(duì)數(shù)的方法進(jìn)行全局歸一化,雖然降低了光照等因素對(duì)物體識(shí)別的影響,但同時(shí)也降低了物體與背景的對(duì)比度,并且單純采用平方根法或?qū)?shù)法沒有消除圖像中存在的相關(guān)性,因此本文考慮在不影響物體主要形狀邊緣的基礎(chǔ)上,盡可能抑制背景區(qū)域的光照、對(duì)比度等變化,同時(shí)消除圖像元素間的相關(guān)性。

圖3 不同階段下輸入圖像的特征表示

Fig. 3 Feature representations of input image at different stages

為降低輸入圖像特征間的相關(guān)性,并在增強(qiáng)圖像顯著性特征的同時(shí),有效抑制其他特征,按照如下步驟[22]對(duì)圖像進(jìn)行預(yù)處理。

步驟 1RGB圖像轉(zhuǎn)為灰度圖像,并放縮至固定尺寸。

步驟 2 全局歸一化,使圖像具有均值為0、方差為1的統(tǒng)計(jì)特性:

步驟3 局部歸一化,減弱非顯著性特征的影響:

式中:xi為輸入的圖像塊;mi為高斯濾波器;f(xi,mi)表示用mi對(duì)xi進(jìn)行卷積濾波;yi為局部歸一化后的圖像塊。由于實(shí)際采集到的圖像不可避免地存在一定程度的噪聲,為在圖像的預(yù)處理階段減少噪聲信息的干擾,文中應(yīng)用維納濾波器于局部歸一化過程,結(jié)果如圖4所示。

圖4 不同預(yù)處理方式下圖像的輸出對(duì)比

Fig. 4 Output comparison of input image with different pre-processing procedures

同只采用全局歸一化的預(yù)處理結(jié)果相比,局部歸一化后的圖像更能突出物體的特征輪廓,并可抑制背景等無關(guān)信息的干擾;應(yīng)用維納濾波表現(xiàn)為對(duì)原圖像細(xì)節(jié)的模糊,尤其是當(dāng)圖像中噪聲較少時(shí),同時(shí)對(duì)圖像中邊緣等具有局部顯著性的特征加以增強(qiáng)。

2.3 算法流程

在基于二元規(guī)范化梯度的物體區(qū)域估計(jì)框架基礎(chǔ)上,引入改進(jìn)的方向梯度直方圖特征描述算子,能夠保留局部區(qū)域的方向性信息,其中的池化操作為算子提供了一定的空間、旋轉(zhuǎn)不變性。此外,在提取特征之前,對(duì)圖像進(jìn)行預(yù)處理操作以突出其中的顯著性元素同樣有助于提高算法的識(shí)別效果,算法流程如圖5所示。

圖5 基于P-HOG的目標(biāo)識(shí)別算法流程圖

Fig. 5 Flowchart of object detection algorithm based on P-HOG

3 實(shí)驗(yàn)條件及結(jié)果分析

本文方法主要應(yīng)用于繩系抓捕裝置接近非合作目標(biāo)后的視覺測量階段,空間平臺(tái)在繞飛階段對(duì)目標(biāo)的跟蹤過程并不涉及本文的討論范圍,因此圖像目標(biāo)因觀測距離變化引起的差異并不大,圖像差異主要集中于目標(biāo)本身,如圖6所示。

3.1 實(shí)驗(yàn)條件

訓(xùn)練衛(wèi)星帆板支架的識(shí)別模型依賴于大量的標(biāo)記數(shù)據(jù),由于人工標(biāo)記上千幅圖像的工作量較大,同時(shí)注意到Zitnick和Dollr[10]將物體定義為具有閉合邊界的孤立元素,這和帆板支架的結(jié)構(gòu)形態(tài)相吻合,因此在測試集中整合其他圖像庫(如PASCALVOC2007),利用其中的自然圖像學(xué)習(xí)包括帆板支架在內(nèi)的物體基本形態(tài),利用手動(dòng)采集的少量帆板支架圖像提取支架的對(duì)應(yīng)特征。

為驗(yàn)證算法有效性,手動(dòng)采集共126幅不同形狀、角度和光照條件下的衛(wèi)星帆板圖像(見圖6(b)),并進(jìn)行了人工標(biāo)記。

圖6 訓(xùn)練圖像集

Fig. 6 Training image set

處理單元采用CPU為IntelCorei3 3.40GHz,內(nèi)存為2G的主機(jī),操作系統(tǒng)為WindowsXPSP3,開發(fā)工具為VS2010IDE。

3.2 結(jié)果分析

物體度被用于預(yù)先選取可能包含有物體的區(qū)域,通過增加特定目標(biāo)的樣本數(shù),選取更加符合局部結(jié)構(gòu)性的特征算子,將算法直接應(yīng)用于目標(biāo)的檢測中,其中訓(xùn)練圖像集的大小為1 421,其中1 331幅自然圖像由VOC2007中隨機(jī)選取,90幅衛(wèi)星帆板圖像由手動(dòng)采集得到,能夠使算法學(xué)習(xí)更多關(guān)于衛(wèi)星帆板的特征信息,有效防止欠擬合的發(fā)生。測試圖像集分成3個(gè)子測試集,測試集1由4 953幅VOC2007圖像組成,以驗(yàn)證本文算法的有效性;測試集2由100幅圖像構(gòu)成,包括90幅自然圖像和10幅衛(wèi)星帆板圖像;測試集3只含有10幅衛(wèi)星帆板圖像,用以驗(yàn)證模型直接用于目標(biāo)檢測的效果,不同測試集下的訓(xùn)練結(jié)果見表1。

表1 NG特征和P-HOG特征在不同測試集下目標(biāo)檢測效果的對(duì)比

Table 1 Comparison of object detection performance under different testing sets between features NG and P-HOG

TypeDetectionrate/%Testingset1Testingset2Testingset3NG92.991.680P-HOG94.594.290

可以看出,相比于規(guī)范化梯度特征,P-HOG特征的檢測效果更好,因?yàn)轭A(yù)處理操作在增強(qiáng)圖像顯著性特征的同時(shí),也改變了圖像中原有梯度值的分布,破壞了視覺連續(xù)性,單純采用梯度特征會(huì)產(chǎn)生更多的誤判,而P-HOG特征則能很好地保持局部區(qū)域的特性,因此其檢測效果更好。

其中,目標(biāo)的檢測效果用檢測率衡量,定義為測試集中被正確檢測的圖像占測試集中圖像總數(shù)的比例,檢測率越大表示算法的檢測效果越好。如果算法對(duì)目標(biāo)的預(yù)測區(qū)域與已標(biāo)記的實(shí)際區(qū)域之間的交集部分超過其并集的50%,圖像可以被認(rèn)為是正確檢測的。圖7(a)所示的衛(wèi)星帆板支架得到正確檢測,而圖7(b)中由于預(yù)測窗口與實(shí)際區(qū)域未相交(NG)或重疊區(qū)域比例過低(P-HOG),故判定為檢測錯(cuò)誤。

圖7 NG特征和P-HOG特征對(duì)衛(wèi)星帆板支架的正確及錯(cuò)誤檢測結(jié)果

Fig. 7 Correct and incorrect detection results by features NG and P-HOG of satellite panels stents

進(jìn)一步,表2給出了不同特征下每幅圖像的平均訓(xùn)練和測試時(shí)間對(duì)比,由于規(guī)范化梯度的判別特征計(jì)算簡單,因此其時(shí)間開銷很低。而P-HOG特征雖然能夠有效地保持局部信息,但不可避免地提高了計(jì)算復(fù)雜度,其平均訓(xùn)練時(shí)間為0.046 s(為NG特征的2.421倍),預(yù)測時(shí)間為0.031 s(為NG特征的2.385倍)。雖然算法運(yùn)行時(shí)間低于NG特征,但相對(duì)于基于模板匹配的檢測算法仍然具有優(yōu)勢。

表2 NG特征和P-HOG特征下每幅圖像的平均訓(xùn)練、預(yù)測時(shí)間開銷對(duì)比

Table 2 Comparison of average training and testing time per image between features NG and P-HOG

TypeTotaltrainingtime/sTrainingtimeperimage/sTestingtimeperimage/sNG27.0160.0190.013P-HOG65.7340.0460.031

圖8給出了規(guī)范化梯度特征和P-HOG特征對(duì)衛(wèi)星帆板支架的檢測結(jié)果對(duì)比,不難看出兩種方法都能夠正確檢測大部分的圖像,但后者由于利用了更多的結(jié)構(gòu)性信息,因此其預(yù)測窗口更接近于實(shí)際的標(biāo)記區(qū)域。

特別地,圖8反映了本文算法能夠適應(yīng)一定視角差異下的目標(biāo)檢測任務(wù)。算法將帆板支架看作具有閉合邊界的元素,這一性質(zhì)是不隨著視角的改變而變化的,因此算法可以適應(yīng)目標(biāo)視角的變化。此外,構(gòu)建的訓(xùn)練集中已經(jīng)包含目標(biāo)在不同視角下的圖像,進(jìn)一步保證了訓(xùn)練后的模型能夠?qū)W習(xí)到不同角度下目標(biāo)的判別特征。

圖9給出了算法在不同光照條件下對(duì)目標(biāo)的檢測結(jié)果,結(jié)果表明算法在不同光照條件下均能正確檢測目標(biāo),對(duì)光照影響有一定的魯棒性。

值得注意的是,雖然檢測算法能夠適應(yīng)不同的光照環(huán)境,但實(shí)際的在軌服務(wù),尤其是交會(huì)對(duì)接任務(wù)一般都在太陽入射角恒定的情況下開展。因此檢測過程中因光照引起的圖像差異并不大。

圖8 NG特征和P-HOG特征對(duì)衛(wèi)星帆板支架的檢測結(jié)果對(duì)比

Fig. 8 Detection results comparison of bracket images by features NG and P-HOG of satellite panels stents

圖9 本文算法在不同光照條件下的檢測結(jié)果

Fig. 9 Detection performances of the proposed method under different luminance

從局部來看,除灰度值較大外,圖像中的光亮部分與其余部分并無實(shí)質(zhì)的不同,局部歸一化后僅有部分亮光邊緣得以保留,大部分的光亮部分作為非顯著性特征被抑制。而保留的邊緣一般非閉合,且形態(tài)特征與目標(biāo)支架差異較大,因此并不會(huì)對(duì)目標(biāo)的檢測造成過多干擾。

4 結(jié) 論

1) 利用局部歸一化方法在突出圖像局部顯著性特征上的優(yōu)勢,結(jié)合維納濾波,對(duì)數(shù)據(jù)集圖像進(jìn)行預(yù)處理,減弱了圖像中光照、噪聲等外界因素對(duì)檢測過程的影響,并進(jìn)一步增強(qiáng)物體的邊緣。

2) 利用級(jí)聯(lián)SVM能夠從數(shù)據(jù)集中學(xué)習(xí)目標(biāo)判別特征和HOG特征適用于剛性物體檢測的特點(diǎn),提出一種改進(jìn)的HOG特征算子,可以有效地保持圖像的局部信息,從而保證目標(biāo)檢測的精度。

3) 通過對(duì)標(biāo)準(zhǔn)圖像集的檢測實(shí)驗(yàn),驗(yàn)證了算法對(duì)物體檢測精度的提升;通過對(duì)包含衛(wèi)星帆板支架的圖像應(yīng)用模型,驗(yàn)證了算法能夠適應(yīng)目標(biāo)形狀和尺度的變化,并對(duì)光照條件和旋轉(zhuǎn)具有一定的魯棒性。相比于NG特征,算法的檢測結(jié)果更接近于實(shí)際標(biāo)記;同基于模板的檢測方法比,算法的時(shí)間效率更高。

4) 進(jìn)一步,本文算法假定測試圖像中一定含有目標(biāo)物體,因此模型只考慮目標(biāo)的檢測定位問題,但實(shí)際的場景更為復(fù)雜,測試圖像中可能并不包含所檢測的目標(biāo)物體,此時(shí)對(duì)圖像進(jìn)行目標(biāo)檢測是沒有意義的。因此未來工作考慮引入圖像物體的分類過程,通過分類模型首先判斷圖像中是否包含待檢測的目標(biāo)類型,以提高模型的自適應(yīng)性。

[1] HUANG P F, CAI J, MENG Z J, et al. Novel method of monocular real-time feature point tracking for tethered space robots[J]. Journal of Aerospace Engineering, 2014, 27(6): 04014039.

[2] 徐文福, 梁斌, 李成, 等. 空間機(jī)器人捕獲非合作目標(biāo)的測量與規(guī)劃方法[J]. 機(jī)器人, 2010, 32(1): 61-69. XU W F, LIANG B, LI C, et al. Measurement and planning approach of space robot for capturing non-cooperative target[J]. Robot, 2010, 32(1): 61-69 (in Chinese).

[3] WONG S K. Non-cooperative target recognition in the frequency domain[J]. IEE Proceedings-Radar, Sonar and Navigation, 2004, 151(2): 77-84.

[4] RAMIREZ V A, GUTIERREZ S A M, YANEZ R E S. Quadrilateral detection using genetic algorithms[J]. Computacióny Sistemas, 2011, 15(2): 181-193 .

[5] 史駿, 姜志國, 馮昊, 等. 基于彈性網(wǎng)稀疏編碼的空間目標(biāo)識(shí)別[J]. 航空學(xué)報(bào), 2013, 34(5): 1129-1139. SHI J, JIANG Z G, FENG H, et al. Elastic net sparse coding-based space object recognition[J]. Acta Aeronautica et Astronautica Sinica, 2013, 34(5): 1129-1139 (in Chinese).

[6] CAI J, HUANG P F, WANG D K. Novel dynamic template matching of visual servoing for tethered space robot[C]//2014 4th IEEE International Conference on Information Science and Technology (ICIST). Piscataway, NJ: IEEE Press, 2014: 389-392.

[7] 徐貴力, 徐靜, 王彪, 等. 基于光照模糊相似融合不變矩的航天器目標(biāo)識(shí)別[J]. 航空學(xué)報(bào), 2014, 35(3): 857-867. XU G L, XU J, WANG B, et al. CIBA moment invariants and their use in spacecraft recognition algorithm[J]. Acta Aeronautica et Astronautica Sinica, 2014, 35(3): 857-867 (in Chinese).

[8] 李予蜀, 余農(nóng), 吳常泳, 等. 紅外航空?qǐng)D像自動(dòng)目標(biāo)識(shí)別的形態(tài)濾波神經(jīng)網(wǎng)絡(luò)算法[J]. 航空學(xué)報(bào), 2002, 23(4): 368-372. LI Y S, YU N, WU C Y, et al. Morphological neural networks with applications to automatic target recognition in aeronautics infrared image[J]. Acta Aeronautica et Astronautica Sinica, 2002, 23(4): 368-372 (in Chinese).

[9] 黃凱奇, 任偉強(qiáng), 譚鐵牛. 圖像物體分類與檢測算法綜述[J]. 計(jì)算機(jī)學(xué)報(bào), 2014, 36(6): 1225-1240. HUANG K Q, REN W Q, TAN T N. A review on image classification and detection[J]. Chines Journal of Computers, 2014, 36(6): 1225-1240 (in Chinese).

[10] ZITNICK C L, DOLLR P. Edgebox: Locating object proposals from edges[C]//Computer vision-ECCV 2014. Zurich: Springer International Publishing, 2014: 391-405.

[11] HEITZ G, KOLLER D. Learning spatial context: Using stuff to find things[C]//Computer vision-ECCV 2008. Marseille: Springer, 2008: 30-43.

[12] YANULEVSKAYA V, UIJLINGS J, GEUSEBROEK J M. Salient object detection: From pixels to segments[J]. Image and Vision Computing, 2013, 31(1): 31-42.

[13] ALEXE B, DESELAERS T, FERRARI V. Measuring the objectness of image windows[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2012, 34(11): 2189-2202.

[14] RAHTU E, KANNALA J, BLASCHKO M. Learning a category independent object detection cascade[C]//2011 IEEE International Conference on Computer Vision (ICCV). Piscataway, NJ: IEEE Press, 2011: 1052-1059.

[15] CHENG M M, ZHANG Z M, LIN W Y, et al. BING: Binarized normed gradients for objectness estimation at 300fps[C]//2011 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Piscataway, NJ: IEEE Press, 2014.

[16] ZHANG Z, WARRELL J, TORR P H S. Proposal generation for object detection using cascaded ranking SVMs[C]//2011 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Piscataway, NJ: IEEE Press, 2011: 1497-1504.

[17] EVERINGHAM M, GOOL L V, WILLIAMS C K I, et al. The pascal visual object classes (VOC) challenge[J]. International Journal of Computer Vision, 2010, 88(2): 303-338.

[18] DALAL N, TRIGGS B. Histograms of oriented gradients for human detection[C]//IEEE Computer Society Conference on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE Press, 2005, 1: 886-893.

[19] DALAL N. Finding people in images and videos[D]. Grenoble: Institut National Polytechnique de Grenoble-INPG, 2006: 33-50.

[20] UIJLINGS J, VAN DE SANDE K E A, GEVERS T, et al. Selective search for object recognition[J]. International Journal of Computer Vision, 2013, 104(2): 154-171.

[21] LOWE D G. Object recognition from local scale-invariant features[C]//Proceedings of the Seventh IEEE International Conference on Computer Vision. Piscataway, NJ: IEEE Press, 1999, 2: 1150-1157.

[22] JARRETT K, KAVUKCUOGLU K, RANZATO M, et al. What is the best multi-stage architecture for object recognition?[C]//2009 IEEE 12th International Conference on Computer Vision. Piscataway, NJ: IEEE Press, 2009: 2146-2153.

陳路 男, 博士研究生。主要研究方向: 目標(biāo)檢測與識(shí)別, 計(jì)算機(jī)視覺, 機(jī)器學(xué)習(xí)。

Tel: 029-88460366-803

E-mail: chenlu11@mail.nwpu.edu.cn

黃攀峰 男, 博士, 教授, 博士生導(dǎo)師。主要研究方向: 空間機(jī)器人學(xué), 空間遙操作, 導(dǎo)航、制導(dǎo)與控制。

Tel: 029-88460366-801

E-mail: pfhuang@nwpu.edu.cn

蔡佳 男, 博士研究生。主要研究方向: 非合作目標(biāo)檢測, 跟蹤與相對(duì)位姿測量, 視覺導(dǎo)航。

Tel: 029-88460366-803

E-mail: caijia@mail.nwpu.edu.cn

Received: 2015-01-04; Revised: 2015-02-07; Accepted: 2015-03-11; Published online: 2015-03-18 14:16

URL: www.cnki.net/kcms/detail/11.1929.V.20150318.1416.002.html

Foundation items: National Natural Science Foundation of China (11272256, 61005062)

*Corresponding author. Tel.: 029-88460366-801 E-mail: pfhuang@nwpu.edu.cn

Space non-cooperative target detection based on improved features of histogram of oriented gradient

CHEN Lu1, 2, HUANG Panfeng1, 2, *, CAI Jia1, 2

1.NationalKeyLaboratoryofAerospaceFlightDynamics,NorthwesternPolytechnicalUniversity,Xi′an710072,China2.ResearchCenterforIntelligentRobotics,NorthwesternPolytechnicalUniversity,Xi′an710072,China

Traditional non-cooperative target detection methods are mostly based on different matching templates which are well-designed with additional prior information. Moreover, one single template can be merely used to detect objects with similar shapes and structures, causing low applicability in detecting non-cooperative targets whose prior information are usually unknown. In order to solve those problems and inspired by the object estimation technique based on normed gradient, an object detection algorithm using improved features of histogram of oriented gradient is proposed. A training data set composed of natural images and target images is first built manually. Secondly, we extract the modified HOG information in the labeled regions to preserve detailed structures of the local features. Then, the cascaded support vector machine is used to train the model autonomously, which does not require prior information. Finally, we design several tests using the trained model to detect targets from the testing images. Numerous experiments demonstrate that the detection rates of the proposed method are 94.5% and 94.2% respectively when applied to testing sets with 4 953 and 100 images. The time consumption of extracting one image is about 0.031 s while it is robust to object rotation and illumination under certain condition.

non-cooperative target; object detection; normed gradient; histogram of oriented gradient; local feature

2015-01-04; 退修日期: 2015-02-07; 錄用日期: 2015-03-11; < class="emphasis_bold">網(wǎng)絡(luò)出版時(shí)間:

時(shí)間: 2015-03-18 14:16

www.cnki.net/kcms/detail/11.1929.V.20150318.1416.002.html

國家自然科學(xué)基金 (11272256, 61005062)

.Tel.: 029-88460366-801 E-mail: pfhuang@nwpu.edu.cn

陳路, 黃攀峰, 蔡佳. 基于改進(jìn)HOG特征的空間非合作目標(biāo)檢測[J]. 航空學(xué)報(bào), 2016, 37(2): 717-726. CHEN L, HUANG P F, CAI J. Space non-cooperative target detection based on improved features of histogram of oriented gradient[J]. Acta Aeronautica et Astronautica Sinica, 2016, 37(2): 717-726.

http://hkxb.buaa.edu.cn hkxb@buaa.edu.cn

10.7527/S1000-6893.2015.0072

V412.4+1; TP301.6

: A

: 1000-6893(2016)02-0717-10

*

猜你喜歡
支架特征區(qū)域
支架≠治愈,隨意停藥危害大
給支架念個(gè)懸浮咒
如何表達(dá)“特征”
前門外拉手支架注射模設(shè)計(jì)與制造
模具制造(2019年3期)2019-06-06 02:10:54
不忠誠的四個(gè)特征
抓住特征巧觀察
關(guān)于四色猜想
分區(qū)域
基于嚴(yán)重區(qū)域的多PCC點(diǎn)暫降頻次估計(jì)
電測與儀表(2015年5期)2015-04-09 11:30:52
星敏感器支架的改進(jìn)設(shè)計(jì)
航天器工程(2014年5期)2014-03-11 16:35:55
主站蜘蛛池模板: 国产亚洲精品资源在线26u| 欧美亚洲国产精品久久蜜芽| 精品成人一区二区| 狠狠v日韩v欧美v| 亚洲国产欧美目韩成人综合| 美女无遮挡免费网站| 国产福利免费视频| 亚洲区第一页| 在线免费a视频| 国产专区综合另类日韩一区| 欧美日韩综合网| 五月激情综合网| 中文字幕无线码一区| 国产在线无码av完整版在线观看| 欧美成a人片在线观看| av在线无码浏览| 免费在线视频a| 欧美在线精品怡红院| 91精品国产丝袜| 毛片一级在线| 亚洲一级毛片| 亚洲色图欧美一区| 亚洲欧美国产视频| 亚亚洲乱码一二三四区| 亚洲乱码视频| 色呦呦手机在线精品| 亚洲狼网站狼狼鲁亚洲下载| 亚洲经典在线中文字幕| 五月婷婷丁香综合| 九九热精品在线视频| 亚洲成人高清无码| www.精品国产| 99久久99这里只有免费的精品| 亚洲美女AV免费一区| 中文字幕在线观看日本| 久久精品无码中文字幕| 色噜噜在线观看| 99视频国产精品| a级毛片网| 国产精品蜜臀| 国产精品天干天干在线观看| 国内精品视频在线| aa级毛片毛片免费观看久| AV在线麻免费观看网站 | 亚洲欧美在线精品一区二区| 天堂av高清一区二区三区| 国产激爽大片在线播放| 亚洲欧洲日韩久久狠狠爱| 亚洲精品国产精品乱码不卞| 国产精品污视频| 国产成人福利在线| a毛片免费看| 亚洲一区二区视频在线观看| 91精品啪在线观看国产91| 无码 在线 在线| 国内精品一区二区在线观看| 最新精品久久精品| 免费 国产 无码久久久| 欧美性久久久久| 亚洲成人福利网站| 日本www在线视频| 超清无码一区二区三区| 国产三级视频网站| 十八禁美女裸体网站| 97成人在线视频| 91精品免费久久久| 免费国产高清视频| 激情综合婷婷丁香五月尤物| 欧美一级视频免费| 亚洲国产成人综合精品2020| 激情无码字幕综合| 国产毛片不卡| 欧美一级黄色影院| 欧美日本在线一区二区三区| 国产手机在线ΑⅤ片无码观看| 综合人妻久久一区二区精品| 亚洲男人的天堂视频| 永久天堂网Av| 欧美成人二区| 国产黄在线观看| 日韩成人在线视频| 国产微拍一区|