999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

農(nóng)機(jī)障礙物目標(biāo)識(shí)別與預(yù)警SIFT算法改進(jìn)研究

2018-05-30 04:53:08于冬雪張建敏
江蘇農(nóng)業(yè)科學(xué) 2018年9期
關(guān)鍵詞:特征

于冬雪, 張建敏

(貴州大學(xué)機(jī)械工程學(xué)院,貴州貴陽 550025)

農(nóng)機(jī)使用者通常都是長時(shí)間操作農(nóng)機(jī),在疲勞和其他環(huán)境因素的干擾下,可能會(huì)導(dǎo)致勞作時(shí),沒有注意到石頭等障礙物,從而打斷刀頭,或者刺破輪胎。最危險(xiǎn)的是農(nóng)機(jī)碰到障礙物,比如手扶旋耕機(jī)碰到石頭脫手翻轉(zhuǎn),導(dǎo)致人員傷亡。本研究在農(nóng)機(jī)上安裝1個(gè)高清攝像頭,每秒自動(dòng)拍攝多張圖片傳輸進(jìn)系統(tǒng)中,系統(tǒng)利用改進(jìn)的尺度不變特征變換(scale invariant feature transform,簡(jiǎn)稱SIFT)算法對(duì)搜集到的多張圖片進(jìn)行識(shí)別,將圖片特征點(diǎn)與石頭等障礙物的特征點(diǎn)進(jìn)行匹配。匹配點(diǎn)小于閾值時(shí)則不匹配,表明作業(yè)環(huán)境比較安全,不發(fā)出報(bào)警信息。而當(dāng)匹配點(diǎn)大于閾值的則匹配,表明農(nóng)機(jī)發(fā)現(xiàn)較大障礙物,向使用者發(fā)出預(yù)警信號(hào)。

以前的農(nóng)機(jī)目標(biāo)識(shí)別方法大多是以識(shí)別目標(biāo)全部的局域特征(如灰度統(tǒng)計(jì)分布特征、幾何形態(tài)、矩陣分布等)為基礎(chǔ)。Lowe研發(fā)出1種提取部分特征的SIFT算法[1],該算法將尺度空間的極值點(diǎn)當(dāng)作特征點(diǎn),并且經(jīng)過統(tǒng)計(jì)特征點(diǎn)鄰階區(qū)域內(nèi)的梯度方向的直方圖,來建立特征描述符。經(jīng)過測(cè)試顯示,SIFT算法在農(nóng)機(jī)障礙物目標(biāo)進(jìn)行平移、縮放、旋轉(zhuǎn)、部分遮住、亮度變動(dòng)、視覺變化的時(shí)候都可以獲得很好的識(shí)別成效。但算法中每個(gè)特征點(diǎn)都用了128維向量來描寫,數(shù)據(jù)運(yùn)算量非常龐大,因?yàn)樘卣鼽c(diǎn)很多,故特征匹配時(shí)間長。

由于Lowe的SIFT算法對(duì)于農(nóng)機(jī)識(shí)別障礙物需要適時(shí)快速處理圖像來說,速度比較慢,有一定的不足之處。本研究在原來的SIFT算法基礎(chǔ)上,對(duì)農(nóng)機(jī)拍攝到的圖片特征點(diǎn)描述符進(jìn)行簡(jiǎn)化處理,目的是使算法的計(jì)算時(shí)間有效減少,提高計(jì)算機(jī)處理的速度,提高農(nóng)機(jī)在比對(duì)石頭等障礙物算法上的時(shí)效性。本研究改進(jìn)的SIFT算法在農(nóng)機(jī)中的應(yīng)用如圖1所示。

1 農(nóng)機(jī)目標(biāo)識(shí)別的傳統(tǒng)SIFT算法

1.1 農(nóng)機(jī)攝像頭捕捉到圖像的尺度空間

農(nóng)機(jī)目標(biāo)識(shí)別算法圖片多數(shù)是用尺度來表示的,是經(jīng)過平滑濾波與亞采樣來建立多級(jí)金字塔。Lindeberg等將尺度空間表達(dá)法運(yùn)用在多尺度圖像表示中[2],經(jīng)過在每級(jí)金字塔的圖片中運(yùn)用持續(xù)的平滑濾波,從而形成多級(jí)多層金字塔這種構(gòu)造。Lindeberg的研究佐證了高斯核是完成變換尺度僅有的一種線性變換核[3]。比如對(duì)于1張農(nóng)機(jī)拍攝到的圖片I(x,y,σ) 來說,在不一樣的尺度下的尺度空間L(x,y,σ)可以用此圖片與高斯核G(x,y,σ)的卷積來完成,即:

L(x,y,σ)=G(x,y,σ)×I(x,y);

(1)

(2)

式中:σ為尺度空間1個(gè)變量元素,其值越大表示圖像被平滑度越大。

大尺度對(duì)應(yīng)圖片的大概樣貌特性,小尺度對(duì)應(yīng)圖片的細(xì)微特征。圖2給出了原始的高斯金字塔與多級(jí)多層的高斯金字塔的示意圖。如圖2所示,原始的金字塔中第n層高斯圖片是由第n-1層的高斯圖片通過高斯平滑濾波和亞采樣取得的,然而采取的尺度空間建立的金字塔中,每級(jí)有很多層,每層間的σ值差k倍。

1.2 改進(jìn)的農(nóng)機(jī)目標(biāo)識(shí)別SIFT特征匹配算法

將Lowe提出的SIFT算法應(yīng)用于農(nóng)機(jī)目標(biāo)識(shí)別算法中,其算法主要有4個(gè)步驟:

1.2.1 尺度空間極點(diǎn)檢測(cè) 先將農(nóng)機(jī)拍攝到的圖片同高斯核作卷積,對(duì)相互鄰近的尺度空間構(gòu)建高期差分(difference of Gaussian,簡(jiǎn)稱DoG)金字塔,在DoG空間中檢驗(yàn)其極值點(diǎn)。檢驗(yàn)極值點(diǎn)是看該點(diǎn)均大于或者小于其26個(gè)鄰階區(qū)域點(diǎn)(包含該點(diǎn)一樣尺度的8個(gè)鄰階區(qū)域點(diǎn))與否,還有大于該尺度的9個(gè)鄰階區(qū)域點(diǎn)和小于該尺度的9個(gè)鄰階區(qū)域點(diǎn))。

D(x,y,σ)=[G(x,y,σ)-G(x,y,σ)×I(x,y)-L(x,y,kσ)-L(x,y,σ)]。

(3)

為了取得農(nóng)機(jī)拍攝到的圖片匹配和抗噪聲能力相對(duì)比較強(qiáng)的特征點(diǎn),在取得極值點(diǎn)以后,還應(yīng)該去除低對(duì)比度的極值點(diǎn)和不固定的邊沿響應(yīng)點(diǎn)。

1.2.2 特征點(diǎn)主方向的確定 采取梯度直方圖來確認(rèn)特征點(diǎn)的主方向來使特征描述符有旋轉(zhuǎn)不變的特性。特征點(diǎn)的梯度模值坐標(biāo)與方向?yàn)?/p>

(4)

θ(x,y)=arctan[L(x,y+1)-L(x)]。

(5)

對(duì)每個(gè)農(nóng)機(jī)拍攝到的圖片特征點(diǎn)來說,在以特征點(diǎn)為中央點(diǎn)的鄰階區(qū)域窗口內(nèi)隨機(jī)取樣,使用直方圖來統(tǒng)計(jì)鄰階區(qū)域像素的梯度方向。梯度直方圖的界限是0°~360°,每0~10°為1個(gè)柱,共36個(gè)柱,梯度直方圖的頂點(diǎn)相應(yīng)的度數(shù)表示特征點(diǎn)的主方向。

1.2.3 生成特征描述符 先將坐標(biāo)軸扭轉(zhuǎn)到特征點(diǎn)主方向,以保證其旋轉(zhuǎn)不變的特性。之后以特征點(diǎn)為中央點(diǎn),選擇 8×8 尺度的鄰階區(qū)域,將此鄰階區(qū)域平均分割成4×4的子域。在每個(gè)子區(qū)域計(jì)算8個(gè)方向(0°、45°、90°、13°、180°、225°、270°、315°)的梯度累加和,獲得梯度直方圖,這對(duì)于每個(gè)特征點(diǎn)來說將會(huì)生成4×4×8=128維度的特征描述符[4],如圖3所示。

1.2.4 特征匹配 生成農(nóng)機(jī)目標(biāo)識(shí)別算法2個(gè)圖片的SIFT特征描述符以后,運(yùn)用歐氏距離測(cè)量2個(gè)圖片特征點(diǎn)的相同性[5],即當(dāng)圖片1中某一個(gè)特征點(diǎn)m1與圖片2中歐氏距離差最短的特征點(diǎn)m2和歐式距離差次短的特征點(diǎn)m3的比值小于某一個(gè)值時(shí),就認(rèn)定m1與m2相匹配。匹配以后還需要用RANSAC方法去除誤匹配。

測(cè)試證明,在農(nóng)機(jī)目標(biāo)識(shí)別算法中創(chuàng)建尺度空間和形成特征描述符消耗了很長的時(shí)間,同一時(shí)間內(nèi)如果圖片尺度變大,特征點(diǎn)數(shù)目增多,特征匹配時(shí)間顯著增長。因此,本研究對(duì)傳統(tǒng)的SIFT算法作了改進(jìn)。

2 改進(jìn)的農(nóng)機(jī)目標(biāo)識(shí)別SIFT算法

改進(jìn)的SIFT算法是為了提高農(nóng)機(jī)在田野工作中發(fā)現(xiàn)石頭等障礙物時(shí),能夠迅速處理并向使用者反饋預(yù)警信息的能力。

2.1 具體步驟如下

2.2 試驗(yàn)結(jié)果及分析

農(nóng)機(jī)目標(biāo)識(shí)別圖像檢索仿真試驗(yàn)是以Windows10操作系統(tǒng)作為仿真平臺(tái),開發(fā)工具是Matlab2014a。按“1.2”節(jié)SIFT特征匹配算法中的步驟,將改進(jìn)的算法直接應(yīng)用到圖5至圖8中的特征匹配(包括對(duì)標(biāo)準(zhǔn)庫中的圖像的旋轉(zhuǎn)、縮放、光照等情況)。

采用改進(jìn)的SIFT算法進(jìn)行目標(biāo)識(shí)別[6]試驗(yàn),圖5為在圖像旋轉(zhuǎn)的條件下,a圖杯子匹配20對(duì)特征點(diǎn),b圖松樹匹配7對(duì)特征點(diǎn);圖6為在圖像曝光條件下,章魚匹配18對(duì)特征點(diǎn);圖7為在圖像縮小的條件下,蘋果匹配40對(duì)特征點(diǎn);圖8為在圖像相似的條件下,鈴鐺匹配16對(duì)特征點(diǎn),國旗匹配7對(duì)特征點(diǎn)。

分析表1的試驗(yàn)數(shù)據(jù)可以發(fā)現(xiàn),無論是在幾何還是光學(xué)畸變的條件下,改進(jìn)的SIFT算法用于農(nóng)機(jī)檢測(cè)目標(biāo)對(duì)象的特征點(diǎn)檢測(cè)時(shí)間都比原算法要短,比較試驗(yàn)數(shù)據(jù)中2種算法的特征點(diǎn)檢測(cè)時(shí)間可得知,改進(jìn)的農(nóng)機(jī)目標(biāo)識(shí)別算法總的運(yùn)算時(shí)間低于原算法,由此可見改進(jìn)的算法計(jì)算復(fù)雜度低于原算法,這樣有利于提高農(nóng)機(jī)對(duì)所拍攝大量圖片的處理速率,實(shí)時(shí)性更好。研究發(fā)現(xiàn),改進(jìn)算法的正確匹配率與原算法基本相同;改進(jìn)算法對(duì)障礙物圖片匹配點(diǎn)數(shù)少于原算法。

可見,改進(jìn)的SIFT算法可以大幅縮減農(nóng)機(jī)在檢測(cè)到石頭等障礙物時(shí)的運(yùn)算時(shí)間,提高對(duì)使用者報(bào)警信息反饋的時(shí)效性。

表1 改進(jìn)的SIFT特征匹配算法與原算法性能比較(以圖5為例)

3 討論與結(jié)論

農(nóng)業(yè)現(xiàn)代化和安全生產(chǎn)是時(shí)代的需求,王愛新等研究了基于計(jì)算機(jī)視覺的農(nóng)業(yè)圖像害蟲定位檢測(cè)算法[7],成敦杰研究了農(nóng)產(chǎn)品檢測(cè)圖像智能化預(yù)處理方法[8],王富春等將基于模糊聚類算法應(yīng)用到番茄果實(shí)目標(biāo)識(shí)別中[9],而潘雷等則研究了基于模式識(shí)別的大蒜瓣尖識(shí)別[10]。

本研究對(duì)農(nóng)機(jī)目標(biāo)識(shí)別算法SIFT特征描述符和特征點(diǎn)匹配方法作了改進(jìn),獲取1種新的SIFT算法,并將該算法應(yīng)用到農(nóng)機(jī)識(shí)別目標(biāo)對(duì)象中,該算法以特征點(diǎn)的方形鄰階區(qū)域內(nèi)灰度累積值及關(guān)鍵點(diǎn)矢量和當(dāng)作描述特征,構(gòu)造出64維度的特征描述符,試驗(yàn)證明了該描述符對(duì)農(nóng)機(jī)識(shí)別石頭等障礙物圖像的縮放、旋轉(zhuǎn)、光照等變化有不變的特性。在匹配方法中,運(yùn)用金字塔的構(gòu)造來作特征點(diǎn)的匹配。測(cè)試證明,在大多數(shù)變化情形下,改進(jìn)的SIFT描述符比原來的SIFT描述符的計(jì)算時(shí)間大幅縮短。而且改進(jìn)的匹配方法能更有效地減少農(nóng)機(jī)拍攝到圖片的特征匹配點(diǎn)數(shù),使農(nóng)機(jī)目標(biāo)識(shí)別時(shí)間大幅縮短,從而顯著提高農(nóng)機(jī)目標(biāo)識(shí)別算法的實(shí)時(shí)性,這種方法給農(nóng)業(yè)及其他行業(yè)帶來了很大的便利,對(duì)今后的研究有很好的意義。

[1]Lowe D G. Distinctive image features from scale-invariant keypoints[J]. International Journal of Computer Vision,2004,60(2):91-110.

[2]Lindeberg T,Bretzner L. Real-time scale selection in hybrid multi-scale representations[C]//International Conference on Scale Space Methods in Computer Vision. Springer-Verlag,2003:148-163.

[3]Lindeberg T. Scale-space theory: a basic tool for analyzing structures at different scales[J]. Journal of Applied Statistics,2011,21(1/2):225-270.

[4]白 豐,張明路,張小俊,等. 局部二進(jìn)制特征描述算法綜述[J]. 電子測(cè)量與儀器學(xué)報(bào),2016,30(2):165-178.

[5]趙小強(qiáng),岳宗達(dá). 一種面向圖像拼接的快速匹配算法[J]. 南京理工大學(xué)學(xué)報(bào),2016,40(2):165-171.

[6]張書真,宋海龍,向曉燕,等. 采用快速SIFT算法實(shí)現(xiàn)目標(biāo)識(shí)別[J]. 計(jì)算機(jī)系統(tǒng)應(yīng)用,2010,19(6):82-85.

[7]王愛新,李春友,張 喆. 基于計(jì)算機(jī)視覺的農(nóng)業(yè)圖像害蟲定位檢測(cè)算法[J]. 江蘇農(nóng)業(yè)科學(xué),2016,44(7):361-364.

[8]成敦杰. 農(nóng)產(chǎn)品檢測(cè)圖像智能化預(yù)處理方法研究[J]. 江蘇農(nóng)業(yè)科學(xué),2014,42(6):384-387.

[9]王富春,徐 越,宋懷波. 西紅柿果實(shí)目標(biāo)識(shí)別方法研究——基于模糊聚類算法[J]. 農(nóng)機(jī)化研究,2015(10):24-28.

[10]潘 雷,鄧世建,劉榮華. 基于模式識(shí)別的大蒜瓣尖識(shí)別研究[J]. 農(nóng)機(jī)化研究,2010,32(5):51-54.

猜你喜歡
特征
抓住特征巧觀察
離散型隨機(jī)變量的分布列與數(shù)字特征
具有兩個(gè)P’維非線性不可約特征標(biāo)的非可解群
月震特征及與地震的對(duì)比
如何表達(dá)“特征”
被k(2≤k≤16)整除的正整數(shù)的特征
不忠誠的四個(gè)特征
詈語的文化蘊(yùn)含與現(xiàn)代特征
新聞傳播(2018年11期)2018-08-29 08:15:24
抓住特征巧觀察
基于特征篩選的模型選擇
主站蜘蛛池模板: 999国内精品视频免费| 亚洲AV成人一区二区三区AV| 最新国语自产精品视频在| 国产精鲁鲁网在线视频| 亚洲美女一区| 国产男女免费完整版视频| 亚洲第一成年人网站| 91久久大香线蕉| 亚洲成aⅴ人片在线影院八| 久久中文字幕2021精品| 亚洲天堂免费观看| 色老头综合网| 亚洲一级毛片| 亚洲高清日韩heyzo| 欧美成人免费| 在线观看91精品国产剧情免费| a级毛片免费播放| 制服丝袜在线视频香蕉| 1024你懂的国产精品| 欧美曰批视频免费播放免费| 精品一区二区三区自慰喷水| 国产亚洲精品资源在线26u| 国产成人毛片| 欧美日韩中文国产va另类| 国产精品福利尤物youwu| AV天堂资源福利在线观看| 欧美激情二区三区| 农村乱人伦一区二区| 国产成人精品高清不卡在线| 在线观看免费人成视频色快速| 国产成人精品亚洲77美色| 丁香综合在线| 91福利片| 999福利激情视频| 国产资源免费观看| 欧美中文字幕在线视频| 日韩人妻精品一区| 午夜国产精品视频黄| 中文字幕天无码久久精品视频免费 | 亚洲国产天堂久久九九九| 婷婷综合缴情亚洲五月伊| 又爽又大又黄a级毛片在线视频 | 亚洲第一综合天堂另类专| 久久五月视频| 国产精品污污在线观看网站 | 免费国产高清视频| 精品無碼一區在線觀看 | 99热这里只有精品在线观看| 尤物特级无码毛片免费| 久久久久免费看成人影片| 日韩av资源在线| 日韩性网站| 亚洲欧美不卡视频| 欧美一区精品| 国产毛片高清一级国语| 亚洲最大在线观看| 在线观看国产精品日本不卡网| 色欲不卡无码一区二区| 狠狠色噜噜狠狠狠狠色综合久| 99久久精品免费视频| 99r在线精品视频在线播放| 婷婷午夜影院| 久久久久九九精品影院| 五月激情综合网| 久青草网站| 欧美中文字幕在线播放| 天天爽免费视频| 亚洲有无码中文网| 欧美精品综合视频一区二区| 亚洲人精品亚洲人成在线| 无码日韩视频| 久久无码免费束人妻| 全部免费特黄特色大片视频| 亚洲欧美综合在线观看| 成AV人片一区二区三区久久| 国产成人精品一区二区| 日本一区二区三区精品AⅤ| 亚洲午夜国产片在线观看| 国产白浆在线| 美女无遮挡被啪啪到高潮免费| 亚洲国产成人久久77| 日韩黄色大片免费看|