999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于輪廓編碼融合BP網(wǎng)絡(luò)的圖像目標(biāo)識(shí)別方法研究

2020-10-13 09:47:01孟思明
數(shù)碼設(shè)計(jì) 2020年6期

摘要:目標(biāo)圖像輪廓編碼算法是一種圖像輪廓特征提取的二次轉(zhuǎn)換算法模型,具有較好的穩(wěn)定性和有效性。本文采用該輪廓編碼算法結(jié)合BP網(wǎng)絡(luò),提出一種圖像目標(biāo)識(shí)別方法。算法能大大減少樣本圖像所需數(shù)量,僅需要一個(gè)樣本圖像即可準(zhǔn)確快速地識(shí)別出與其一致的目標(biāo)圖像,識(shí)別率高達(dá)100%,在計(jì)算速度、抗干擾能力與數(shù)據(jù)存儲(chǔ)上都優(yōu)于傳統(tǒng)的識(shí)別方法。

關(guān)鍵詞:輪廓編碼;目標(biāo)識(shí)別;圖像識(shí)別;編碼鏈

中圖分類號(hào):TP391.41;O157.5 文獻(xiàn)標(biāo)識(shí)碼:A 文章編號(hào):1672-9129(2020)06-0069-03

Abstract:Targetimagecontourcodingalgorithmisasecondarytransformationalgorithmmodelforimagecontourfeatureextraction,whichhasgoodstabilityandeffectiveness.Inthispaper,thecontourcodingalgorithmcombinedwithBPnetworkisusedtoproposeanimagetargetrecognitionmethod.Thealgorithmcangreatlyreducethenumberofsampleimages,andonlyonesampleimageisneededtoaccuratelyandquicklyidentifythetargetimageconsistentwithit.Therecognitionrateisupto100%,whichissuperiortothetraditionalrecognitionmethodsincomputingspeed,anti-interferenceabilityanddatastorage.

Keywords:contourcoding;Targetrecognition;Imagerecognition;Chaincode

相對(duì)于經(jīng)典的圖像識(shí)別算法而言,基于輪廓的識(shí)別方法可大大減少計(jì)算時(shí)間,相比于圖像區(qū)域的識(shí)別而言,基于圖像輪廓邊界的識(shí)別方法具有顯著的優(yōu)勢(shì),其更容易融合進(jìn)其它的數(shù)值分析技術(shù),如傅立葉變換、小波分析、多尺度分形、神經(jīng)網(wǎng)絡(luò)等,還可以定量的將邊界輪廓信息進(jìn)行再處理,得到目標(biāo)圖像的二次特征信息。本文首先對(duì)目標(biāo)圖像輪廓編碼算法和BP網(wǎng)絡(luò)進(jìn)行簡(jiǎn)要分析,再采用目標(biāo)圖像輪廓編碼算法結(jié)合BP網(wǎng)絡(luò)方式,提出一種圖像目標(biāo)識(shí)別方法,并通過(guò)實(shí)驗(yàn)以能突出輪廓編碼算法優(yōu)勢(shì)的機(jī)械工件識(shí)別為例分析該目標(biāo)識(shí)別方法的優(yōu)點(diǎn)和抗干擾性能。

1目標(biāo)圖像輪廓編碼算法

目標(biāo)圖像輪廓編碼算法①,是基于水平集模型提取圖像的特征輪廓進(jìn)行編碼,有效地提取了圖像邊界的本質(zhì)信息,且通過(guò)將圖像旋轉(zhuǎn)的方式,將分割所得圖像的邊界輪廓進(jìn)行特定的編碼。該算法主要是將獲取得到的目標(biāo)圖像邊界坐標(biāo)信息,進(jìn)行一定的圖像轉(zhuǎn)換進(jìn)而提取出目標(biāo)圖像的輪廓信息矩陣,不但在編碼作用上、編碼速度及編碼思想上與傳統(tǒng)的編碼算法不一樣,而且在圖像輪廓特征提取的二次轉(zhuǎn)換上具有獨(dú)特的作用,能夠從多角度提取挖掘出圖像邊界輪廓的信息。該目標(biāo)圖像輪廓編碼算法流程步驟分別如下:

步驟1,基于圖像分析模型獲取得到目標(biāo)圖像的邊界信息,分別為(x,y)系列坐標(biāo)。

步驟2,將步驟1得到的輪廓邊界的坐標(biāo)值分別歸一化在[1,255]之間,剔除圖像因絕對(duì)相像素點(diǎn)不同造成的影響。

步驟3,將步驟2得到的輪廓矩陣數(shù)據(jù)轉(zhuǎn)換成uint8格式,便于后續(xù)計(jì)算處理。

步驟4,將步驟3得到的輪廓矩陣進(jìn)行灰度化,并將其轉(zhuǎn)換成圖像邊界的編碼矩陣。

步驟5,將步驟4得到的圖像邊界編碼矩陣通過(guò)設(shè)定相應(yīng)的閾值進(jìn)行二值化。

步驟6,為了將圖像邊界編碼矩陣與其它模型算法結(jié)合,將步驟5得到的二值化編碼矩陣進(jìn)行排列編碼,其排列編碼方式可以為橫向、列向及斜向。最后繪制出相應(yīng)的編碼鏈。其中,橫向編碼是將二值化后的編碼矩陣的每一行全部按先后順序轉(zhuǎn)化為一行。列向編碼是將編碼矩陣的每一列全部按照先后順序轉(zhuǎn)化為一行。斜向編碼是將編碼矩陣的每一對(duì)角線數(shù)據(jù)由右上角至左下角依次全部轉(zhuǎn)化為一行。

2BP神經(jīng)網(wǎng)絡(luò)

D.E.Rumelhart和J.L.McCelland為主的研究小組在1986年第一次提出BP(BackPropagation)神經(jīng)網(wǎng)絡(luò),是目前人臉表情識(shí)別技術(shù)中使用最廣泛的人工神經(jīng)元網(wǎng)絡(luò)。BP算法將學(xué)習(xí)過(guò)程劃分為正向傳輸信號(hào)和逆向傳輸誤差兩個(gè)過(guò)程。信號(hào)傳輸環(huán)節(jié)中,輸入層每個(gè)節(jié)點(diǎn)獲取信號(hào)的輸入,信息通過(guò)中間層處理后就傳輸?shù)捷敵鰧用總€(gè)節(jié)點(diǎn)來(lái)處理,全部完成后通過(guò)輸出層得到處理后的結(jié)果。如果結(jié)果不滿足預(yù)期的輸出時(shí),就會(huì)進(jìn)到誤差傳輸環(huán)節(jié)。這個(gè)環(huán)節(jié)中誤差按照某種形式從傳輸層出發(fā)傳輸?shù)诫[層以及輸入層,傳輸過(guò)程中對(duì)每層的所有單元的權(quán)限進(jìn)行修改,保證誤差可以梯度式的降低。這樣的正向傳輸信號(hào)和逆向傳輸誤差的環(huán)節(jié)會(huì)不斷往復(fù),一直到網(wǎng)絡(luò)得到的誤差控制在預(yù)期的范圍中。信號(hào)和誤差傳遞的環(huán)節(jié)中,每一層權(quán)值不斷的調(diào)節(jié)過(guò)程就是神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)訓(xùn)練過(guò)程。標(biāo)準(zhǔn)BP網(wǎng)絡(luò)的結(jié)構(gòu)包含輸入層、隱層以及輸出層。輸入向量為X=(x1,x2,…,xnT,隱含層的輸出向量為Y=(y1,y2,…,ynT。輸出層的輸出向量為O=(o1,o2,…,okT,期望輸出向量為:d=(d1,d2,…,dkT。vij表示輸入層第i個(gè)節(jié)點(diǎn)與隱層第j個(gè)節(jié)點(diǎn)的權(quán)值,wij表示隱層第i個(gè)節(jié)點(diǎn)與輸出層第j個(gè)節(jié)點(diǎn)的權(quán)值[1]。

對(duì)于輸出層:

對(duì)于隱含層:

當(dāng)網(wǎng)絡(luò)輸出與期望輸出不相符時(shí),存在的輸出誤差用E表示:

如果輸出誤差E不符合既定的ε或迭代次數(shù)低于預(yù)定的值時(shí),按照一定的規(guī)則來(lái)調(diào)整各層權(quán)值vij和wij從而降低誤差E,一直到E低于ε或者和達(dá)到指定的迭代次數(shù)。將此時(shí)的權(quán)值和閾值固定下來(lái),完成網(wǎng)絡(luò)的學(xué)習(xí)環(huán)節(jié)。BP算法的流程描繪如下:

步驟1,初始化每個(gè)神經(jīng)元的權(quán)值和閾值,輸入訓(xùn)練樣本和對(duì)應(yīng)的預(yù)期輸出。

步驟2,得到隱層和輸出層中每個(gè)神經(jīng)元的輸入與輸出。

步驟3,計(jì)算得到網(wǎng)絡(luò)的輸出誤差和每層的誤差信號(hào)。

步驟4,修正各層神經(jīng)元權(quán)值及閾值。

步驟5,計(jì)算網(wǎng)絡(luò)誤差,若誤差達(dá)到精度要求,訓(xùn)練結(jié)束,否則返回步驟2。

通過(guò)圖像預(yù)處理、特征提取等等準(zhǔn)備工作后,設(shè)計(jì)一個(gè)分類器,對(duì)輸入的特征進(jìn)行分類,實(shí)現(xiàn)對(duì)圖像目標(biāo)的識(shí)別。BP神經(jīng)網(wǎng)絡(luò)應(yīng)用在機(jī)械工件識(shí)別中,通常使用標(biāo)準(zhǔn)的三層架構(gòu),利用Purelin線性函數(shù)作為隱層到輸出層的激活函數(shù),輸入層到隱層的激活函數(shù)采用Sigmoid函數(shù)。隱層節(jié)點(diǎn)的數(shù)量按照經(jīng)驗(yàn)公式(4)來(lái)設(shè)定。

式中,m為輸出節(jié)點(diǎn)的個(gè)數(shù),n為輸入節(jié)點(diǎn)的個(gè)數(shù),a為1~10之間的常數(shù)。

3基于輪廓編碼融合BP網(wǎng)絡(luò)的圖像目標(biāo)識(shí)別實(shí)驗(yàn)分析

本節(jié)所有的實(shí)驗(yàn),均在IntelI7-4712HQ2.30GHzCPU,NVIDIA610M顯卡,8GB內(nèi)存和MATLABR2011b實(shí)驗(yàn)環(huán)境下完成。

3.1識(shí)別模型的建立及分析。由于目標(biāo)圖像輪廓編碼流程對(duì)于圖像旋轉(zhuǎn)所得的編碼匹配較差,或者說(shuō)對(duì)于圖像旋轉(zhuǎn)后的識(shí)別能力較弱。因此為了克服該編碼鏈所存在的缺點(diǎn),針對(duì)性的需要對(duì)圖像進(jìn)行旋轉(zhuǎn)校正后,才能進(jìn)行其圖像邊界輪廓的編碼。故輪廓編碼鏈與模式識(shí)別模型之間的橋梁就是圖像的校正。由于BP神經(jīng)網(wǎng)絡(luò)所具有的特點(diǎn),同時(shí)為了后續(xù)模型的比較,這里選取的模式識(shí)別模型系統(tǒng)以BP神經(jīng)網(wǎng)絡(luò)為核心。故本文所設(shè)計(jì)的目標(biāo)圖像輪廓編碼與神經(jīng)網(wǎng)絡(luò)模型融合的圖像識(shí)別實(shí)驗(yàn),選擇的識(shí)別對(duì)象是各種比較相似的不同機(jī)械工件,其流程步驟如下(見(jiàn)圖1):

步驟1,模板圖像的旋轉(zhuǎn)。本文主要利用霍夫變換檢測(cè)圖像的輪廓直線部分。通過(guò)旋轉(zhuǎn)圖像,將模板圖像與待識(shí)別圖像統(tǒng)一方向。該步驟主要為了后續(xù)圖像分割所得的輪廓邊界編碼鏈進(jìn)行預(yù)處理。

步驟2,模板圖像的分割與圖像輪廓的提取。本文基于LCV模型進(jìn)行分割圖像,并提取出圖像的邊界輪廓,為后續(xù)邊界輪廓編碼使用。

步驟3,模板圖像輪廓的編碼。將步驟2得到的輪廓邊界采用本文提出的特征編碼處理方式進(jìn)行整理。

步驟4,待識(shí)別的圖像旋轉(zhuǎn)。該步驟與模板圖像旋轉(zhuǎn)步驟一致。

步驟5,待識(shí)別圖像的分割與圖像輪廓的提取。該步驟與模板圖像的分割與圖像輪廓的提取一致。

步驟6,待識(shí)別圖像輪廓的編碼。該步驟與模板圖像輪廓的編碼步驟一致。

步驟7,將步驟6獲得的各類型圖像編碼特征作為BP神經(jīng)網(wǎng)絡(luò)的輸入信息,從而訓(xùn)練BP網(wǎng)絡(luò),得到智能化識(shí)別的神經(jīng)網(wǎng)絡(luò)模型。最后將訓(xùn)練好的BP神經(jīng)網(wǎng)絡(luò)模型對(duì)其它測(cè)試圖像進(jìn)行識(shí)別。

本文以各種比較相似的不同工件為例進(jìn)行算法的識(shí)別分析。其各種工件圖像如下圖1所示。其通過(guò)霍夫變換獲取的兩水平方向的校正模板圖像及編碼鏈結(jié)果分別如下圖2與圖3所示:

由于以上圖像類別數(shù)較少,故采用橫向編碼的方式進(jìn)行編碼。且編碼參數(shù)設(shè)定為統(tǒng)一圖像像素為20*50大小,閾值系數(shù)為0.9。其中通過(guò)以上的各圖像編碼鏈已經(jīng)可以看出各類圖像的編碼鏈存在較大的差異。將以上8條編碼鏈作為BP神經(jīng)網(wǎng)絡(luò)的輸入信息。并以A,B,C,D類作為網(wǎng)絡(luò)最終識(shí)別的輸出信息,其中網(wǎng)絡(luò)設(shè)定的訓(xùn)練參數(shù):第一層節(jié)點(diǎn)數(shù)1000個(gè),第二層節(jié)點(diǎn)數(shù)50個(gè),網(wǎng)絡(luò)目標(biāo)誤差1.0*e-8,網(wǎng)絡(luò)訓(xùn)練函數(shù)trainrp;網(wǎng)絡(luò)收斂結(jié)果參數(shù):網(wǎng)絡(luò)訓(xùn)練數(shù)21次,網(wǎng)絡(luò)訓(xùn)練時(shí)間9秒,網(wǎng)路收斂誤差1.26*10-8,網(wǎng)絡(luò)擬合優(yōu)度為1。

將以上訓(xùn)練好的智能系統(tǒng)用于圖像識(shí)別,其中針對(duì)103個(gè)工件樣本的識(shí)別情況為:正確識(shí)別參數(shù)為103,錯(cuò)誤識(shí)別0個(gè),識(shí)別率達(dá)到了100%。

其中將本文的識(shí)別算法在MPEG與PLANE數(shù)據(jù)庫(kù)的圖像識(shí)別結(jié)果,并與文獻(xiàn)[2]給出的其它幾個(gè)比較主流的識(shí)別模型算法進(jìn)行比較。其結(jié)果如下表1所示:

表1幾種識(shí)別方法在MPEG與PLANE數(shù)據(jù)庫(kù)的識(shí)別率

FD+SVMZM+SVMHMME+MLHMMC+MLHMME+WtL本文方法

MPEG數(shù)據(jù)庫(kù)94.29%92.14%80.00%92.14%97.62%98.47%

PLANE數(shù)據(jù)庫(kù)99.52%89.05%78.52%99.05%99.05%99.52%

3.2識(shí)別模型的抗干擾分析。為了說(shuō)明圖像邊界輪廓的編碼與神經(jīng)網(wǎng)絡(luò)算法相融合的圖像識(shí)別能力。針對(duì)性地對(duì)其進(jìn)行部分干擾識(shí)別的分析。其中重點(diǎn)討論待識(shí)別的圖像存在嚴(yán)重的噪聲干擾的識(shí)別效果。

當(dāng)圖像存在噪聲時(shí),往往全局像素的編碼鏈方式基本全部失效。因?yàn)閳D像的噪聲已經(jīng)是圖像像素的一部分。故識(shí)別出圖像的可能性基本沒(méi)有。

然而對(duì)于輪廓邊界的編碼鏈方式進(jìn)行圖像的識(shí)別過(guò)程。其關(guān)鍵的一步是能提取出圖像的關(guān)鍵邊界輪廓。也就是說(shuō),當(dāng)噪聲存在時(shí),只要能得到圖像的輪廓邊界,則問(wèn)題便可以解決。然而對(duì)于圖像的輪廓邊界的獲取,水平集模型中的LCV模型能夠有較好的抗噪聲能力。因此,對(duì)于含有噪聲的圖像識(shí)別,依然可以完美的進(jìn)行。以下通過(guò)含有高斯噪聲的圖像識(shí)別實(shí)驗(yàn),其結(jié)果如下圖4所示:

圖4人工添加噪聲后的圖像識(shí)別。(a)待識(shí)別原圖像。(b)圖像校正及LCV模型分割邊界結(jié)果。(c)所獲取圖像的邊界輪廓。(d)輪廓邊界編碼的鏈結(jié)果。

將以上含有人工噪聲圖像所得到的輪廓邊界編碼鏈作為神經(jīng)網(wǎng)絡(luò)的輸入。其檢驗(yàn)結(jié)果如下圖5所示:

由圖5含高斯噪聲的圖像識(shí)別測(cè)試實(shí)驗(yàn)我們可以看出,只要提取出工件圖像的輪廓邊界,并以橫向編碼方式得到其編碼鏈作為神經(jīng)網(wǎng)絡(luò)的輸入信息,網(wǎng)絡(luò)對(duì)于圖像的識(shí)別結(jié)果均正確。故本文的圖像輪廓編碼鏈融合神經(jīng)網(wǎng)絡(luò)的圖像識(shí)別對(duì)與含有噪聲的圖像依然能夠進(jìn)行識(shí)別。

4總結(jié)

通過(guò)以上針對(duì)性的分析,我們可以得出,本文的圖像輪廓編碼融合神經(jīng)網(wǎng)絡(luò)模型的圖像識(shí)別效果存在以下三個(gè)優(yōu)點(diǎn):

第一,由于將圖像經(jīng)過(guò)校正后獲取其邊界輪廓并進(jìn)行了編碼,故算法整體所需的樣本數(shù)量?jī)H僅只需要一個(gè),完全改善了傳統(tǒng)的圖像識(shí)別算法所需的樣本數(shù)量大的缺點(diǎn)。

第二,對(duì)于圖像全局像素神經(jīng)網(wǎng)絡(luò)模型的圖像識(shí)別方法,本文將圖像輪廓編碼與神經(jīng)網(wǎng)絡(luò)算法相融合完美地改善了模型的魯棒性及計(jì)算速度。

第三,對(duì)于傳統(tǒng)的圖像匹配算法,往往當(dāng)圖像含有較為嚴(yán)重的噪聲時(shí),圖像識(shí)別能力大大下降。而本文的識(shí)別算法關(guān)鍵的一步是能提取出圖像的輪廓,也就是說(shuō),即使噪聲存在時(shí),只要能得到圖像的輪廓邊界,則問(wèn)題便可以解決。而水平集模型中的LCV模型能夠有較好的抗噪聲能力。故針對(duì)含有噪聲的圖像識(shí)別,依然可以完美的進(jìn)行。

采用本文的目標(biāo)識(shí)別方法,僅僅只需要一個(gè)該類型模板圖像,便可識(shí)別出與之一樣的圖像類型。圖像模板數(shù)量大大減小,不但提高了識(shí)別過(guò)程的速度,更加使得識(shí)別過(guò)程得以高效率高精確度地進(jìn)行。同時(shí)通過(guò)針對(duì)不同圖像的邊界輪廓的特定編碼,可以使得不同圖像在任意的方向與角度,或者多單元組合的圖像中依然得以識(shí)別。即識(shí)別過(guò)程的抗干擾能力較強(qiáng)。

注釋:

①孟思明,一種創(chuàng)新的目標(biāo)圖像輪廓編碼算法研究,廣州,2016

參考文獻(xiàn):

[1]XiaojuanWang,YanpingBai,BPNetworkBasedonHandwrittenDigitalImageFeatureExtraction,AdvancesinAppliedMathematics,03(2),104~111,2014

[2]NinadThakoor,JeanGao,SungyongJung,HiddenMarkovModel-BasedWeightedLikelihoodDiscriminantfor2-DShapeClassification,IEEETransactionsonIamgeProcessing,16(11),2707~19,2007

主站蜘蛛池模板: 一级毛片免费不卡在线视频| 色综合激情网| 国产呦精品一区二区三区网站| 国产国语一级毛片在线视频| 国产白浆在线观看| 午夜综合网| 亚洲国产清纯| 99激情网| 亚洲中文制服丝袜欧美精品| 欧美色图久久| 一本一道波多野结衣av黑人在线| 亚洲精品第一在线观看视频| 精品亚洲麻豆1区2区3区| 免费Aⅴ片在线观看蜜芽Tⅴ| 亚洲成aⅴ人片在线影院八| 国产大全韩国亚洲一区二区三区| 天天摸天天操免费播放小视频| 国产亚洲视频免费播放| 凹凸国产分类在线观看| 热久久综合这里只有精品电影| 毛片网站免费在线观看| 亚洲国产理论片在线播放| 老司国产精品视频91| 人妻中文字幕无码久久一区| 国产91视频免费| 国产第一页免费浮力影院| 亚洲av无码人妻| 高清无码手机在线观看| 国产免费高清无需播放器| 成人中文字幕在线| 久久黄色小视频| 88av在线播放| 一本视频精品中文字幕| 欧美日一级片| 久久性妇女精品免费| 91视频首页| 九九热精品免费视频| 午夜日本永久乱码免费播放片| 亚洲91精品视频| 国产精品成人第一区| yjizz视频最新网站在线| 高清无码一本到东京热| 精品人妻一区无码视频| 久久人体视频| 国产浮力第一页永久地址| 亚洲综合狠狠| www.精品视频| 福利国产微拍广场一区视频在线| 国产永久在线观看| 成年女人a毛片免费视频| 91色国产在线| 青草视频免费在线观看| 精品久久国产综合精麻豆| 国产精品久久自在自2021| 玩两个丰满老熟女久久网| 欧美日韩亚洲综合在线观看| 91福利免费| 久久黄色视频影| 内射人妻无套中出无码| 五月天福利视频| 无码av免费不卡在线观看| 国产免费久久精品99re不卡| 67194在线午夜亚洲 | 亚洲国产精品无码AV| 日本草草视频在线观看| 精品欧美日韩国产日漫一区不卡| 欧美福利在线| 在线观看精品国产入口| 色综合天天综合中文网| 看国产毛片| 亚洲成年人网| 色综合天天综合| 日韩高清无码免费| 欧美日韩中文国产| 国产在线91在线电影| 在线国产毛片| 欧美成人午夜视频| 欧美色图久久| 高潮爽到爆的喷水女主播视频| 无码中文字幕精品推荐| 国产亚洲精品97在线观看| 一级毛片在线播放免费观看|