999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于邊緣重心模板的水中機(jī)器魚(yú)閾值分割算法研究

2018-06-28 09:28:18,,2,,,,2
機(jī)械與電子 2018年6期

, ,2, ,,,2

(1.江蘇科技大學(xué)張家港校區(qū)機(jī)電與動(dòng)力工程學(xué)院,江蘇 張家港 215600;2.中科探海(蘇州)海洋科技有限責(zé)任公司,江蘇 張家港 215600)

0 引言

機(jī)器魚(yú)作為仿生機(jī)器人的研究熱點(diǎn),在污染物監(jiān)測(cè)、水下資源勘探等方面扮演著關(guān)鍵性角色[1-2]。

2004年8月,北航機(jī)器人研究所利用自研制的SPC II機(jī)器魚(yú),通過(guò)對(duì)攝像頭獲得的圖像進(jìn)行目標(biāo)提取,進(jìn)而實(shí)現(xiàn)機(jī)器魚(yú)控制來(lái)協(xié)助考古學(xué)家完成了冬古灣古沉船的考古發(fā)掘。其中視覺(jué)目標(biāo)檢測(cè)是重點(diǎn),為此,國(guó)內(nèi)外很多學(xué)者進(jìn)行了相關(guān)研究[3-5]。巨志勇等[6]基于灰度化圖像,利用插值法和Otsu算法實(shí)現(xiàn)對(duì)目標(biāo)的分割。此方法能有效抑制光照強(qiáng)度分配不均的問(wèn)題,但無(wú)法處理圖像光照條件發(fā)生變化的情況。楊康葉等[7]綜合分析圖像各像素RGB分量,通過(guò)對(duì)像素的聚類(lèi)實(shí)現(xiàn)目標(biāo)提取,該方法直觀便捷,但在適應(yīng)光照條件變化的方面還是差強(qiáng)人意。沈志忠等[8]基于YCrCb顏色空間,利用邊緣提取實(shí)現(xiàn)了適應(yīng)光照條件變化的機(jī)器魚(yú)視覺(jué)分割。但由于YCrCb顏色空間的限制,執(zhí)行算法所需參數(shù)較多,不利于實(shí)時(shí)檢測(cè)。鑒于此,提出了一種新的基于邊緣重心模板閾值分割算法。

1 機(jī)器魚(yú)像素H分量值的極差確定

1.1 顏色空間的選擇

攝像頭默認(rèn)使用RGB顏色空間來(lái)表述圖像顏色,但RGB顏色空間存在受光照條件影響較大的不足,而HSV顏色空間具有獨(dú)立顏色亮度、提高顏色聚類(lèi)效果的優(yōu)點(diǎn)[9],為此以HSV顏色空間作為進(jìn)行機(jī)器魚(yú)視覺(jué)分割的顏色空間。令k,m分別為RGB分量的最大和最小值,即k=max(R,G,B),m=min(R,G,B),則從RGB顏色空間到HSV顏色空間的映射過(guò)程如式(1)~式(3)所示:

V=k/255

(1)

(2)

H=

(3)

H,S,V為HSV顏色空間的分量,分別對(duì)應(yīng)顏色的色調(diào)信息、飽和度信息和亮度信息。圖1a為機(jī)器魚(yú)的原始RGB圖像,利用式(1)~式(3)轉(zhuǎn)換后,可得如圖1b所示的HSV顏色空間圖像和如圖1c所示的僅H分量圖像。由圖1可知,盡管魚(yú)頭部、身部、尾部的RGB值分布離散,但整條魚(yú)的H分量值卻是連續(xù)相近的,這為利用H分量進(jìn)行機(jī)器魚(yú)的視覺(jué)分割提供了保障。

圖1 機(jī)器魚(yú)的顏色空間轉(zhuǎn)換

1.2 機(jī)器魚(yú)像素H分量的極差求取方法

機(jī)器魚(yú)像素H分量值的極差(以下簡(jiǎn)稱(chēng)為極差,用L表示)是H分量值的上極限與下極限之差。設(shè)機(jī)器魚(yú)像素H分量的上極限值和下極限值分別用Hstm和Hstn表示,則極差L為:

L=Hstm-Hstn

(4)

以圖1a的機(jī)器人原始RGB圖像為例,在進(jìn)行平滑去噪等圖像預(yù)處理后,遍歷圖像像素得到H分量直方圖,如圖2所示。在H分量直方圖中,一般至少存在兩個(gè)波峰,一個(gè)是反映機(jī)器魚(yú)H分量值的波峰,稱(chēng)為數(shù)據(jù)峰,另一個(gè)則是反映背景色H分量值的波峰,稱(chēng)為背景峰。兩個(gè)峰一般有明顯的分界,如果分界不明顯,可以重復(fù)遍歷各個(gè)像素的H分量,將對(duì)應(yīng)像素的H分量值進(jìn)行疊加從而獲得多次遍歷后的H分量直方圖,得到理想的兩峰分界效果。

圖2 H分量直方圖

2 基于邊緣重心模板的閾值分割算法

在RGB顏色空間下,當(dāng)光照條件發(fā)生變化時(shí),各像素的RGB值會(huì)發(fā)生變化,通過(guò)式(3)轉(zhuǎn)化的機(jī)器魚(yú)像素的H分量也隨之變化,影響機(jī)器魚(yú)的視覺(jué)分割。由HSV顏色空間的定義可判斷,機(jī)器魚(yú)像素H分量值的極差是由機(jī)器魚(yú)本身的物理性質(zhì)決定的,不會(huì)因?yàn)楣庹諚l件的變化而產(chǎn)生較大的改變。故可以尋求一個(gè)以H分量為變量的動(dòng)態(tài)閾值來(lái)適應(yīng)光照條件的變化。文中將機(jī)器魚(yú)H分量的極差L定義為閾值長(zhǎng)度。基于Sobel算子進(jìn)行邊緣提取獲得邊緣重心坐標(biāo),將以邊緣重心為中心的n×n模板稱(chēng)為邊緣重心模板,計(jì)算邊緣重心模板囊括的n2個(gè)像素的H分量平均值,這個(gè)值是在實(shí)時(shí)光照條件下獲得的,故它是一個(gè)隨光照條件變化的變量。利用這個(gè)H分量平均值作為閾值中值,極差L作為閾值長(zhǎng)度,進(jìn)而可以確定邊緣重心模板的動(dòng)態(tài)閾值,并實(shí)現(xiàn)機(jī)器魚(yú)的閾值分割。基于邊緣重心模板的機(jī)器魚(yú)閾值分割步驟如下所述。

a.步驟一,對(duì)待處理的機(jī)器魚(yú)RGB圖像進(jìn)行灰度化、Sobel算子邊緣提取。

圖1a為試樣圖像,對(duì)其進(jìn)行灰度化,效果如圖3a所示。基于Sobel算子[10]進(jìn)行邊緣提取,獲得如圖3b所示的二值化邊緣圖像。利用邊緣二值化圖像,可以進(jìn)一步求取邊緣重心坐標(biāo)。

圖3 Sobel算子邊緣提取

b.步驟二,計(jì)算邊緣重心坐標(biāo)。

設(shè)提取的機(jī)器魚(yú)邊緣的像素集合為O,集合O的元素?cái)?shù)為N(O),采用式(5)即可獲得機(jī)器魚(yú)邊緣重心坐標(biāo)(XCO,YCO)。

(5)

對(duì)(XCO,YCO)進(jìn)行如式(6)的修正處理:

(6)

修正系數(shù)α1,α2,β1,β2的值視邊緣提取的效果而定,當(dāng)提取邊緣集合的橫縱坐標(biāo)值之和過(guò)大時(shí),以調(diào)整α1,α2為主,不太大時(shí),以調(diào)整β1,β2為主。

由于圖像存在噪聲干擾,Sobel算子會(huì)造成邊緣誤分割,由式(5)獲得的邊緣重心坐標(biāo)(XCO,YCO)往往存在誤差。通過(guò)修正系數(shù)α1,α2,β1,β2的調(diào)節(jié)可以修正邊緣重心坐標(biāo),保證計(jì)算的準(zhǔn)確性。

c.步驟三,計(jì)算邊緣重心模板閾值。

定義以邊緣重心為中心的n×n模板為邊緣重心模板。n根據(jù)實(shí)際所需的分割效果而定,可以選擇3,5,7,9等奇數(shù)。n取值越大,機(jī)器魚(yú)的分割效果越理想。設(shè)邊緣重心模板囊括的像素集合為M,邊緣重心模板閾值的長(zhǎng)度為極差L。通過(guò)式(7)求得邊緣重心模板閾值Hcm和Hcn。

Δ為極差修正系數(shù),一般可取L的1%~2%。Δ用以提高極差的準(zhǔn)確度,避免噪聲等因素干擾,提高分割精度。并且由于∑(x,y)∈MH(x,y)/n2的調(diào)節(jié),使閾值具有自適應(yīng)性,故能適應(yīng)光照條件變化。

d.步驟四,二值化處理。

利用邊緣重心模板閾值將機(jī)器魚(yú)圖像進(jìn)行二值化處理,獲得的二值化機(jī)器魚(yú)圖像如圖4所示。

圖4 二值化圖像

e.步驟五,閉合二值化圖像。

對(duì)獲得的二值化機(jī)器魚(yú)圖像進(jìn)行邊緣平滑、形態(tài)學(xué)閉合操作,結(jié)果如圖5所示。

圖5 閉合后的二值化圖像

3 實(shí)驗(yàn)測(cè)試與分析

為了驗(yàn)證邊緣重心模板閾值分割法(EGTTSA)的有效性,在酷睿i5 2.6 GHz計(jì)算機(jī)上,基于MATLAB2016a進(jìn)行試驗(yàn)測(cè)試。場(chǎng)地如圖6所示,機(jī)器魚(yú)置于水池中,水池正上方裝有獲取機(jī)器魚(yú)圖像的全局?jǐn)z像頭,并將圖像傳輸至主機(jī),主機(jī)再通過(guò)無(wú)線收發(fā)模塊控制機(jī)器魚(yú)的運(yùn)動(dòng)。

圖6 試驗(yàn)場(chǎng)地

為了驗(yàn)證文中算法抑制光照條件變化的效果,針對(duì)人造光照、強(qiáng)光照和弱光照3種環(huán)境下,對(duì)超過(guò)50個(gè)機(jī)器魚(yú)目標(biāo)進(jìn)行了性能測(cè)試,并將測(cè)試結(jié)果與基于RGB模型顏色相似性分割算法[7](CSSABR)和基于YCrCb顏色空間的自適應(yīng)閾值分割算法[8](ATSABY)進(jìn)行了比較。比較性能指標(biāo)為檢出率和誤檢率,且定義如下:

檢出率=Nums/Numo×100%

(8)

誤檢率=Nume/Numo×100%

(9)

Nums表示分割出且屬于原圖像機(jī)器魚(yú)的像素?cái)?shù);Nume表示分割出但不屬于原圖像機(jī)器魚(yú)的像素?cái)?shù);Numo表示原圖像機(jī)器魚(yú)的像素?cái)?shù)。

3種算法的性能對(duì)比如表1所示。由表1可知,CSSABR算法雖然平均誤檢率最低,但其平均檢出率分別低于ATSABY算法12%和EGTTSA算法16%。ATSABY算法由于主要依靠YCrCb顏色空間的Cr,Cb顏色分量實(shí)現(xiàn)機(jī)器魚(yú)的視覺(jué)分割,故其響應(yīng)時(shí)間高出EGTTSA算法50%,并且平均檢出率低于EGTTSA算法4%,平均誤檢率也高于CSSABR算法大約1%和EGTTSA算法0.6%。相比于這2種算法,EGTTSA算法由于進(jìn)行了邊緣重心模板的H分量均值求取,使閾值具有自調(diào)節(jié)性,有效降低了光照條件的影響,從而保證了高檢出率,而且極差不隨光照條件的變化而變化,故具有較低的誤檢率,響應(yīng)時(shí)間也只比CSSABR算法慢大約29%。上述試驗(yàn)結(jié)果表明,EGTTSA算法具有較高的機(jī)器魚(yú)分割精度,對(duì)不同光照條件下的圖像實(shí)現(xiàn)了高檢測(cè)、低誤檢的良好效果。

表1 3種算法的識(shí)別性能對(duì)比

圖7a ~圖7e給出了3種不同環(huán)境下的機(jī)器魚(yú)原圖像和3種算法的執(zhí)行結(jié)果。由圖7可知,CSSABR算法遺漏的機(jī)器魚(yú)像素?cái)?shù)較多,無(wú)法有效適應(yīng)光照條件變化。ATSABY算法在弱光照的條件下分割精度較低,性能不如EGTTSA算法。文中給出的EGTTSA算法所分割圖像具有最完整的檢測(cè)區(qū)域和較少的誤檢區(qū)域,而且圖像閉合完整,邊緣光滑,進(jìn)一步證明了算法的有效性。

圖7 3種算法處理效果

4 結(jié)束語(yǔ)

為了解決不同光照條件對(duì)機(jī)器魚(yú)視覺(jué)分割帶來(lái)的影響,提出了一種邊緣重心模板的閾值分割算法,通過(guò)理論分析和試驗(yàn)可以得到以下結(jié)論:

a.利用機(jī)器魚(yú)HSV顏色空間像素的H分量作為分割依據(jù),避免了因計(jì)算參量過(guò)多導(dǎo)致計(jì)算量過(guò)大的問(wèn)題,具有實(shí)時(shí)檢測(cè)特性。

b.利用H分量的極差作為分割閾值長(zhǎng)度。極差是根據(jù)機(jī)器魚(yú)本身的物理特性決定的,不受光照條件的影響,故多次使用同一條機(jī)器魚(yú)只需確定1次極差即可,減少了執(zhí)行算法的準(zhǔn)備步驟,增強(qiáng)了算法的可操作性。

c.利用邊緣重心模板閾值對(duì)機(jī)器魚(yú)進(jìn)行分割,有效降低了光照條件對(duì)機(jī)器魚(yú)視覺(jué)分割的影響,提高了不同光照條件下機(jī)器魚(yú)的分割效果。

參考文獻(xiàn):

[1] Marrazza G, Ravalli A, Rossi C. Fish robot based on chemical sensors for water monitoring [C]// Proceedings of 19th AISEM National Conference on Sensors and Microsystems, 2017: 59-64.

[2] Cui Z, Jiang H Z. Design and implementation of thunniform robotic fish with variable body stiffness[J]. International Journal of Robotics and Automation, 2017,32(2):109-116.

[3] 劉敦浩,張彥鐸,李迅,等.動(dòng)態(tài)環(huán)境下自適應(yīng)閾值分割方法[J].計(jì)算機(jī)應(yīng)用,2016,36(增刊2):152-156.

[4] 雷俊,王立輝,何蕓倩,等.適用于機(jī)器人視覺(jué)的圖像分割方法[J].系統(tǒng)工程與電子技術(shù),2017,39(7):1653-1659.

[5] Yuan M X,Zhao R,Hua X B,et al.Research on visual segmentation and localization of multi-robots under different lighting conditions[J].Journal of Systems and Control Engineering, 2015,229(9):838-850.

[6] 巨志勇, 蘇春美.非均勻光照下的車(chē)牌圖像分割算法[J].信息技術(shù),2015(10):34-37.

[7] 楊康葉,鄔春學(xué).基于RGB模型顏色相似性的彩色圖像分割[J].計(jì)算機(jī)系統(tǒng)應(yīng)用,2013,22(3):128-131,160.

[8] 沈志忠,王碩,曹志強(qiáng),等.基于邊緣檢測(cè)的圖像分割方法及其在機(jī)器魚(yú)中的應(yīng)用[J].機(jī)器人,2006,28(4):361-366.

[9] Sabzi S, Abbaspour-Gilandeh Y, Javadikia H.Machine vision system for the automatic segmentation of plants under different lighting conditions[J].Biosystems Engineering, 2017,161(9):157-173.

[10] 趙來(lái)剛,陳道炯.一種基于Sobel算子的新型邊緣提取技術(shù)[J].機(jī)械與電子,2011(2):59-61.

主站蜘蛛池模板: 黄色网页在线播放| 国产日韩欧美一区二区三区在线 | 国产日韩欧美精品区性色| 日韩毛片免费| 国产自无码视频在线观看| 五月婷婷精品| 亚洲美女一区| 在线国产毛片| 久久亚洲天堂| jizz国产在线| 99精品欧美一区| jizz在线免费播放| 久久精品国产91久久综合麻豆自制| 日韩在线成年视频人网站观看| 欧美成人二区| 国产精品浪潮Av| 国产欧美视频综合二区| 一级片免费网站| 久久大香香蕉国产免费网站| 午夜精品福利影院| 亚洲天堂区| 99久久精品免费看国产免费软件| www亚洲天堂| 亚洲成人在线网| 欧洲精品视频在线观看| 在线欧美日韩国产| 亚洲综合亚洲国产尤物| 免费无码网站| 国产女同自拍视频| 欧美成人在线免费| 欧美啪啪精品| 国产综合精品日本亚洲777| 亚洲国产中文在线二区三区免| 无码一区二区波多野结衣播放搜索| 国产成人AV男人的天堂| 国产精品久线在线观看| 午夜福利视频一区| 成人福利在线观看| 日本妇乱子伦视频| 亚洲动漫h| 最新午夜男女福利片视频| 黑色丝袜高跟国产在线91| 天天躁夜夜躁狠狠躁躁88| 婷婷色狠狠干| 国产一级二级在线观看| 成人精品午夜福利在线播放| 美女国内精品自产拍在线播放 | 日韩欧美国产另类| 国产福利在线免费| 亚洲成年人片| 色视频久久| 亚洲综合色婷婷中文字幕| 日韩欧美国产综合| 亚洲视频四区| 91成人精品视频| 亚洲欧美不卡| 久久午夜夜伦鲁鲁片无码免费| 国产主播在线一区| 亚洲精品久综合蜜| 九一九色国产| 国产亚洲欧美在线视频| 9丨情侣偷在线精品国产| 四虎永久免费在线| 亚洲第一黄色网址| 亚洲天天更新| 亚洲Aⅴ无码专区在线观看q| 国产精品太粉嫩高中在线观看| 久久这里只有精品2| 精品五夜婷香蕉国产线看观看| 欧美日一级片| 欧美爱爱网| P尤物久久99国产综合精品| h网址在线观看| 成人噜噜噜视频在线观看| 国产精品尤物在线| 凹凸精品免费精品视频| 曰韩人妻一区二区三区| 亚洲AV无码一二区三区在线播放| 亚洲天堂在线免费| 免费在线不卡视频| 国产男人天堂| 呦女亚洲一区精品|