999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

REM記憶模型在圖像分類識別中的應用

2017-08-01 12:22:37姜英王延江
智能系統學報 2017年3期
關鍵詞:記憶數據庫特征

姜英,王延江

(中國石油大學 信息與控制工程學院,山東 青島 266580)

REM記憶模型在圖像分類識別中的應用

姜英,王延江

(中國石油大學 信息與控制工程學院,山東 青島 266580)

嘗試將認知心理學中的記憶模型與圖像學習識別聯系在一起,研究基于REM (retrieving effective from memory)記憶模型的視覺圖像存儲與識別方法。采用方向梯度直方圖(HOG)和局部二進模式(LBP)生成圖像特征向量,并對每個特征向量中的每一個分量按概率進行復制,允許錯誤復制,最后采用Bayesian決策計算被探測圖像特征向量與已學習圖像集特征向量的平均似然比值,根據該值判斷被探測圖像是否已學習過。實驗結果表明,提出的算法不僅對同一個物體的小幅度旋轉圖像具有很好的識別效果,同時對同一類別物體圖像識別也具有較好的效果,而且其虛報率遠遠低于其他識別方法。

圖像識別;記憶建模;HOG特征;LBP特征;Bayesian決策

中文引用格式:姜英, 王延江. REM記憶模型在圖像分類識別中的應用[J]. 智能系統學報, 2017, 12(3): 310-317.

英文引用格式:JIANG Ying, WANG Yanjiang. Application of REM memory model in image recognition and classification[J]. CAAI transactions on intelligent systems, 2017, 12(3): 310-317.

視覺圖像的分類與識別研究是計算機視覺研究、模式識別與機器學習領域內的一個非常活躍的方向,其在許多領域中應用廣泛,如銀行系統的人臉識別、防御系統的行人檢測與跟蹤、交通系統的車牌檢測與車輛跟蹤等。近年來,圖像分類[1]吸引了研究者們的注意,關于視覺圖像識別與分類的各種理論與算法層出不窮,如最近鄰分類器[2]、神經網絡分類器[3-4]、SVM支持向量機分類器[5]、卷積神經網絡分類器[6]、ELM極限學習機[7]及稀疏編碼方法等。為獲得良好的圖像分類效果,研究者們在設計圖像分類方法及改進分類準確性方面都做了大量工作。例如,稀疏編碼方法已被證實在圖像分類中具有優秀的分類性能,基于該方法的許多改進的稀疏編碼方法也被相繼提出,如SRC方法[8]、CRC方法[9]、RSC方法[10]及RLRC方法[11]等。盡管現有的許多算法在圖像分類方面表現突出,但目前已有的識別分類算法大多側重于“區別”,忽視了“認識”,即側重將某一類物體與有限類已學過物體進行區分。然而人類認識事物的過程側重于對某一類物體與無限類未知物體的區分,只在細小之處重視“區別”(如區別桌子與椅子或者魚與海豚等)。對于首次遇到的從未學習過的物體,傳統的模式識別方法會將其歸類于某一個已學習的類別。但是同樣情況下,人類對首次遇到的新物體的直接反應是從未見過或者不認識該物體,而不是直接判斷其屬于哪一類已經學習過的物體。眾所周知,計算機視覺研究的主要目標是使計算機能像人類一樣輕易地識別視覺圖像。神經生理學、心理學以及認知科學研究表明[12-13],人類能夠輕易地將目標從周圍環境中識別出來與人類記憶機制有著非常密切的聯系。人們所看到的和所經歷的都要經過記憶系統的處理。當認知新的事物時,與該事物相關的記憶信息就會被提取出來,從而加快認知的過程并適應新的環境。然而,在人腦記憶過程中信息是如何被加工、存儲和提取的仍然不得而知。Murdock[14]認為現代人腦記憶建模理論至少要解釋4個問題:信息是如何被表達、被存儲與提取的信息的種類,存儲與提取運算的本質以及信息存儲的格式。圍繞這些問題研究人員提出了包括情景記憶、語義記憶以及神經計算在內的記憶建模理論。Raaijmakers等[15]提出了SAM模型,所存儲的信息用“記憶影像”表達,能解釋記憶研究中的列表強度效應、列表長度效應以及近因效應等,但無法解釋鏡像效應;Hintzman等[16]提出的MINERVA 2模型首次將情景記憶與語義記憶聯合用于提取建模,沒有考慮列表強度效應以及鏡像效應;Shiffrin等[17]提出的REM記憶模型,采用Bayesian 理論計算線索與記憶影像的似然度,用于匹配搜索。上述情景記憶模型均假設識別判斷是在整體匹配相似度強度的基礎上完成的,其中REM記憶模型的突出性不僅因為其堅實的數學基礎,也源于其可以解釋情景記憶研究中出現的許多現象,如列表長度、列表強度與詞匯頻率效應等。REM模型對情景記憶研究中的列表強度效應、列表長度效應、詞匯頻率效應以及鏡面效應與正態ROC斜率效應的解釋不僅吸引了眾多研究人員對REM模型的進一步研究[18-21],也引起了我們的思考——能否將記憶模型應用于圖像識別分類中。目前大多數記憶模型均采用詞匯列表的學習方式,對自然圖像的學習和分類研究得很少,因此本文嘗試將REM模型引入視覺圖像的存儲與識別,并提出一種基于REM記憶模型的視覺圖像的學習、存儲與提取方法。

1 圖像特征表達

圖像特征提取在視覺圖像學習過程中起著非常關鍵的作用。近幾年來,許多特征提取算法被陸續提出并被應用于物體識別、如方向梯度直方圖(HOG)等[22]、局部二值模式(LBP)[23]、尺度不變特征轉換(SIFT)[24]、加速魯棒特征(SURF)[25]等。其中HOG算子能很好地描述局部目標的表現與形狀,LBP算子具有灰度尺度不變性和旋轉不變性,本文將這兩種算子同時應用于圖像特征提取以描述圖像的形狀與紋理特征。

1.1 HOG特征

方向梯度直方圖(histogram of oriented gradient, HOG)特征是由N.Dalal等[22]提出的一種物體特征描述子,其通過計算和統計圖像局部區域的梯度方向直方圖來構成特征。HOG特征提取算法的具體實現過程如圖1所示。

圖1 HOG特征提取算法流程Fig.1 The flow chart of HOG algorithm

1.2 LBP特征

局部二值模式(LBP)是由T.Ojala、M.Pietik?inen和D. Harwood提出的一種灰度尺度不變性和旋轉不變性的紋理算子[23]。原始LBP算子不能滿足不同尺寸和頻率紋理的需要,研究人員對其進行各種改進與優化,如半徑為R的圓形區域內含有P個采樣點的LBP 算子及LBP旋轉不變算子[26]。T. Ojala[27]定義了一個等價模式,模式數量減少為 種,特征向量維數更少,減少了高頻噪聲帶來的影響。

本文采用的LBP特征提取算法過程如下:

1)對圖像中的每一個像素點,定義圓形鄰域窗口,每個像素的灰度值與其相鄰的8個像素的灰度值比較,若周圍像素值大于中心像素值,則該像素點的位置被標記為1,否則為0。這樣可產生8位二進制數,即得到該窗口中心像素點的初始LBP值。

2)不斷旋轉圓形鄰域得到一系列初始定義的 LBP 值,取最小值作為該像素點的 LBP 值。

3)統計LBP值對應的二進制數從0~1或1~0跳變的次數,根據跳變次數確定其屬于哪一種LBP模式,共有P+1=9種模式,得到的模式數值即為像素點的LBP值。

4)圖像中所有像素點的LBP值組合起來形成一個LBP特征矩陣,即為該圖像的LBP特征。

2 REM模型在視覺圖像的表達、存儲與提取中的應用

認知記憶的快速提取模型——REM模型是Shiffrin等[17]1997年提出的一個用于識別單詞的記憶模型,該模型采用Bayesian 理論計算線索與記憶影像的似然度,用于匹配搜索。該模型能夠解釋許多情景記憶研究中的一些科學現象,如列表強度效應、列表長度效應、詞匯頻率效應、鏡面效應與正態ROC斜率效應;其與SAM、MINERVA2模型的主要區別之一在于,其實現了似然率的貝葉斯計算,是國際上公認的最好的記憶模型之一。

REM記憶模型被提出之后,研究人員陸續對REM模型進行研究。Stams等[18]通過對編碼與提取過程中的項目強度的控制,對比研究了REM模型與BCDMEM模型對提取過程中項目強度對誤報率降低的解釋說明。Cox等[19]在REM與RCA-REM模型基礎上提出一個新認知記憶模型,證實了即使在任務、學習因素、刺激及其他因子變化情況下,所提方法都有可能獲得合理的認知決策。Criss等[20]對比了REM模型與SLiM(the subjective likelihood model)模型,發現REM模型預測的誤報率較高;M.Montenegro等[21]研究了REM模型的解析表達式,文中引入Fourier變換,給出REM模型的FT積分方程,導出在給定參數值下模型預測的命中率與誤報率的雙積分形式的解析表達式,同時發現其具有與BCDMEM模型相同的一些性質:模型是不確定的,除非其中的一個參數固定為一個預設值,向量長度參數是不可忽略的參數。

2.1 特征表達與存儲

REM模型指出人腦記憶由圖像構成,每幅圖像是由一個特征值向量表示的,并且最終存儲結果是對特征值向量的一個不完整且容易出錯的復制。本文試圖借鑒REM模型對單詞的存儲學習過程來模擬人腦對圖像的學習過程,有概率地對圖像的特征向量進行復制,同時在復制過程中允許出現錯誤值。

從圖像庫中選取圖像,提取圖像LBP與HOG特征,將其分別寫成行向量形式并連接起來生成圖像特征向量。HOG特征是由小數組成的,并不是非負整數,為方便REM模型的計算,在實驗中簡單地對該特征擴大10倍并四舍五入。每學習一次圖像特征向量,對于那些還沒有存儲任何信息的位置,存儲新信息的概率為u*。注意到,一旦某個值被存儲,之后該值不會改變。如果對某個特征有存儲,其特征值從已學向量中正確復制的概率是c,以1-c的概率根據P[V=j]=(1-g)j-1g,j=1,2,…,隨機取值,并允許偶然選取正確值的可能性。

用V={Vj}j=1,2,…,N標記所有已學習圖像的特征集,其中Vj表示已學習圖像集合中第j副圖像Ij的特征向量,N為已學習圖像集合中的圖像個數。

2.2 提取

給定要檢測的圖像Itest,將其特征向量Vtest與V={Vj}j=1,2,…,N進行匹配,匹配結果為D={Dj}j=1,2,…,N,其中Dj為被檢測圖像特征與第j個視覺圖像特征的匹配結果。用s圖像表示與被檢測圖像相同的存儲圖像,d圖像表示除被檢測圖像之外的其他視覺圖像的存儲圖像。

被檢測圖像Itest與第j幅已存儲圖像Ij的匹配過程的關鍵步驟是,計算似然率λj,即在觀測結果Dj基礎上第j幅圖像為s圖像與d圖像的概率比值:

式中:Sj為第j副圖像為s圖像的事件;Nj為第j副圖像為d圖像的事件;M為非零特征值與被檢測向量特征值匹配的目錄;Vkj為第j副圖像中第k個特征值;njq為Vj與Vtest不匹配的非零特征值個數;g為幾何分布參數。

2.3 Bayesian決策

給定探測圖像Itest,將其與所有已學習圖像I={Ij}j=1,2,…,N進行匹配與不匹配比較,計算對應的似然值λ={λ1,λ2,…,λN},進而得到被檢測圖像為舊的而非新的概率為

若φ>1,那么認為被檢測的圖像為已學習的圖像,同時認為該圖像匹配最大λj值對應第j幅圖像;反之認為被檢測圖像是新的,從未學習過。

如果被檢測圖像是已學習過圖像的極小變化如旋轉之后的圖像,由于當前圖像特征向量的提取技術限制,被檢測圖像與對應的已學習過圖像的特征向量中部分特征值并不一致。而原REM模型中的復制過程亦會導致不一致特征值的個數增加,計算似然率時會有很多1-c項相乘,使得λ?1,故本文忽略了該復制過程。同時,由于所提取的特征值包含LBP特征,而LBP特征向量中值為8對應的是像素不變區域,故同時忽略特征值為0與8的區域。我們用圖2簡單地解釋該記憶模型過程,其中參數采用g=0.4,c=0.7。

圖2 改進的圖像特征存儲提取數值例子Fig.2 An improved numerical example for the storage and retrieval of the image feature

3 實驗結果

為驗證本文所提方法的有效性,在Matlab編程環境下,先后對哥倫比亞大學Coil-20圖像數據庫[28]與加州福尼亞理工大學Caltech-256數據庫[29]中的圖像進行實驗測試。

3.1 Coil-20數據庫實驗結果

Coil-20數據庫由20個不同對象的旋轉圖像構成,每個對象在水平方向上旋轉360°,并每隔5°拍攝一張照片,故每個項目有72幅圖像,每幅圖像的像素為128128。

從Coil-20圖像數據庫中選取已學習圖像,本文選擇了15個不同項目的圖像,構成圖3所示已學習圖像集。圖3中大寫英文字母(A~O)分別代表不同項目圖像的序號。

圖3 已學習圖像集Fig.3 The studied images set

接著從數據庫中選取被測試圖像,被測試圖像根據實驗需要選取圖4所示幾組圖像。

(a)“新”圖像

(b)“舊”圖像

(c)已學習項目的旋轉圖像

(d)已學習項目旋轉圖像組Ⅰ

(e) 已學習項目旋轉圖像組Ⅱ

(f) 已學習項目旋轉圖像組Ⅲ圖4 被測試圖像集Fig.4 The probe images set

由于特征向量維數比原REM模型中單詞特征維數大得多,計算似然率過程中會出現多個1-c項相乘,導致λ?1 ,最終會影響到識別效果,故將φ值擴大到10100倍。表1是利用本文所提算法對6組實驗圖像運行得到的識別結果。

表1 Coil-20數據庫實驗結果

Table 1 The experimental result on the Coil-20 database

圖像組第1幅第2幅第3幅第4幅第5幅(a)新 √新 √新 √新 √新 √(b)(AL)√(BA)√(DB)√(KD)√(KL)√(c)(A)√(B)√新 ×新 ×新×(d)(A)√(A)√(A)√(A)√(A)√(e)(E)√(E)√(E)√新 ×新×(f)(I)√(I)√(I)√(I)√新×

表1中大寫字母代表測試圖象對應的已學習圖像序號,“√”說明識別正確,“×”說明判別錯誤。很顯然,圖像組(a)、(b)識別效果不錯;圖像組(c)由5副已學習項目的旋轉圖像組成,只有2副圖像被正確識別為已學習圖像,即圖像發生旋轉時識別效果變差。通過對圖像組(d)、(e)、(f)的測試實驗發現,隨著圖像旋轉角度增加,算法識別率降低。導致識別效果不理想的原因在于,盡管采用的LBP算子具有旋轉不變性,但是當旋轉角度超過一定范圍之后算子不能很好地刻畫圖像特征。

3.2 Caltech-256數據庫實驗結果

Caltech-256數據庫來自加利福利亞理工學院,該數據庫共有29 780副圖像,包含了256個不同圖像項目類別,每個圖像類別包含不少于80幅屬于該類別的不同圖像,這些圖像屬于同一類,但并不是完全相同的項目,實驗選擇的已學習圖像列表如圖5所示。

圖5 Caltech-256數據庫中已學習圖像集Fig.5 The studied images set on the Caltech-256 database

從數據庫中選取20副被測試圖像,包含10副已學習過類別的圖像與10副新類別的圖像,如圖6所示。

圖6 Caltech-256數據庫中被檢測圖像集Fig.6 The probe images set on the Caltech-256 database

利用本文所提算法并將LBP特征值擴大兩倍,φ值擴大1075倍的實驗結果由表2給出。

表2 Caltech-256數據庫實驗結果

對于前10副“舊”的圖像,其中有7副圖像被正確識別出來,其余3副圖像被錯誤地判斷為“新”,后10副圖像都被正確地判斷為“新”。該實驗說明,本文所提的基于REM記憶模型的圖像識別算法不止對同一個物體的識別有效,也為同一類物體的識別方法給出了一個新思路。

3.2.1 實驗參數對識別率的影響

為說明φ值和LBP特征向量的倍數變化對Caltech-256數據庫實驗結果的影響,本文采用多組φ值和LBP變化數據進行實驗,實驗結果如圖7。

圖7分別描述了在不同φ值和LBP特征倍數情況下的圖像擊中率PH、虛報率PF、識別率與ROC曲線。3種曲線分別代表φ值擴大1050,1072,10100倍之后的實驗結果。不論φ值被擴大多少倍,隨著LBP特征倍數的增加,擊中率都在增加,但同時虛報率也在增加。當LBP倍數為2時,識別率取得最大值,即不論φ值被擴大多少倍,LBP特征被擴大2倍時圖像識別率都最高。很明顯,φ值被擴大10100倍時的識別率較其他情況的識別率低,其余兩種情況下的識別率相近。觀察3個實驗的ROC曲線下的面積(AUC)進行比較,很明顯φ值被擴大1075倍時ROC曲線下的面積最大,即實驗準確性最佳。當LBP特征值被擴大兩倍且φ值擴大1075倍時,實驗識別效果達到最佳。

圖7 不同Φ值與LBP倍數變化下的實驗曲線Fig.7 The hit and false rate curve under the varying value of Φ and LBP

3.2.2 與SRC算法的實驗性能對比

實驗采用的SRC算法[8]描述如下:所有已學習圖像特征向量被標記為X,對每一個探測圖像特征向量記為Y,求解如下最優問題:

從表3中可以看出,SRC算法在λ=290時的擊中率PH與本文算法相同,但是其虛報率PF高達7/10,遠高于本文算法的虛報率。

表3 本文方法與SRC算法在Caltech-256數據庫實驗對比Table 3 Performance comparison between the proposed method and the SRC method on the Caltech-256 database

3.2.3 與支持向量機(SVM)算法的實驗性能對比

為進一步說明所提方法的有效性,對比了本文所提算法與支持向量機(SVM)算法在Caltech-256數據庫上的識別分類性能。實驗中選取圖5所示的訓練圖像,即分別屬于10個不同類別的10幅圖像。對測試圖像集,選取20個不同類別(10個已學習類別與10個新類別)的100幅圖像,每個類別分別選取5幅圖像,實驗參數選取c=0.3,g=0.4,實驗結果如表4所示。

表4 本文方法與SVM算法在Caltech-256數據庫實驗對比

Table 4 Performance comparison between the proposed method and the SVM method on the Caltech-256 database %

很明顯,對已學習過的類別,本文算法有著很好的識別率,并且對從未學習過的類別的虛報率為0,即拒識率達到100%,而SVM 算法的虛報率高達100%。

4 結束語

在人腦認知記憶模型啟發下將圖像學習識別與REM模型結合在一起,驗證了REM記憶模型可以用于自然圖像的存儲與提取。實驗結果證實了,所提方法能夠實現在小幅度旋轉情況下的簡單圖像的識別任務與簡單類別圖像的分類任務。同時與SRC、SVM算法的實驗對比結果說明,本文方法的虛報率遠低于SRC與SVM方法。但由于現有特征提取方法限制,及REM模型本身對特征表達采用非負整數的這種要求均限制了圖像分類識別率。因此如何對大范圍旋轉變化圖像提取恰當的特征向量改進圖像特征表達,同時改進REM模型的特征表達存儲方法,以提高圖像識別率是下一步的研究重點。

[1]XU Y, ZHANG B, ZHONG Z. Multiple representations and sparse representation for image classification[J]. Pattern recognition letters, 2015, 68: 9-14.

[2]HELLMAN M E. The nearest neighbor classification rule with a reject option[J]. IEEE transactions on systems science and cybernetics, 1970, 6(3): 179-185.

[3]DENOEUX T. A neural network classifier based on Dempster-Shafer theory[J]. IEEE transactions on systems man and cybernetics-Part A systems and humans, 2010, 30(2): 131-150.

[4] DAVTALAB R, DEZFOULIAN M H, MANSOORIZADEH M. Multi-level fuzzy min-max neural network classifier[J]. IEEE transactions on neural networks and learning systems, 2014, 25(3): 470-482.

[5]CHANG C C, LIN C J. LIBSVM: a library for support vector machines[J].ACM transactions on intelligent systems and technology, 2011, 2(3): 389-396.

[6] SIMONYAN K, ZISSERMAN A. Very deep convolutional networks for large-scale image recognition[J]. Computer science, 2014.

[7] HUANG G B. What are extreme learning machines? Filling the gap between Frank Rosenblatt’s dream and John von Neumann’s puzzle[J]. Cognitive computation, 2015, 7(3) 263-278.

[8] WRIGHT J, YANG A Y, GANESH A, et al. Robust face recognition via sparse representation[J]. IEEE transactions on pattern analysis and machine intelligence, 2008, 31(2) 210-227.

[9] ZHANG L, YANG M, FENG X. Sparse representation or collaborative representation: Which helps face recognition[C]//International Conference on Computer Vision, 2011: 471-478.

[10]YANG M, ZHANG L YANG J, ZHANG D. Robust sparse coding for face recognition[C]//IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR), 2011, 42(7): 625-632.

[11]SCHOLKOPF B, PLATT J, HOFMANN T. Sparse representation for signal classification[J]. Advances in neural information processing systems, 2007, 19: 609-616.

[12]WANG Y. Formal description of the cognitive process of memorization[M]//Transactions on Computational Science V. Springer Berlin Heidelberg, 2009: 81-98.

[13]WANG Y, CHIEW V. On the cognitive process of human problem solving[J]. Cognitive systems research, 2010, 11(1): 81-92.

[14]MURDOCK B B. A theory of the storage and retrieval of item and associative information[J]. Psychological review, 1982, 89(6): 609-626.

[15]RAAIJMAKERS J G W, SHIFFRIN R M. SAM: a theory of probabilistic search of associative memory[J]. Psychology of learning and motivation, 1980, 14: 207-262.

[16]HINTZMAN D L. Judgments of frequency and recognition memory in a multiple-trace model[J]. Psychological review, 1988, 95(4): 528-551.

[17]SHIFFRIN R M, STEYVERS M. A model for recognition memory: REM-retrieving effectively from memory[J]. Psychonomic bulletin and review, 1997, 4(2): 145-166.

[18]STARN J J, WHITE C N, RATCLIFF R. A direct test of the differentiation mechanism: REM, BCDMEM, and the strength-based mirror effect in recognition memory[J]. Journal of memory and language, 2010, 63(1): 18-34.

[19]COX G E, SHIFFRIN R M. Criterion Setting and the dynamics of recognition memory[J]. Topics in cognitive science, 2012, 4(1): 135-150.

[20]CRISS A H,MCCLELLAND J L. Differentiating the differentiation models: a comparison of the retrieving effectively from memory model (REM) and the subjective likelihood model (SLiM)[J]. Journal of memory and language, 2006, 55(4): 447-460.

[21]MONTENEGRO M, MYUNG J I, PITT M A. Analytical expressions for the REM model of recognition memory[J]. Journal of mathematical psychology, 2014, 60(3): 23-28.

[22]DALAL N, TRIGGS B. Histograms of oriented gradients for human detection[C]//Computer Vision and Pattern Recognition. IEEE Computer Society Conference, on, 2005: 886-893.

[23]OJALA T, HARWOOD I. A Comparative study of texture measures with classification based on feature distributions[J]. Pattern recognition, 1996, 29(1): 51-59.

[24]LOWE D G. Distinctive image features from scale-invariant keypoints[J]. International journal of computer vision, 2004, 60(2):91-110.

[25]BAY H, TUYTELAARS T, VAN GOOL L. SURF: speeded up robust features[J]. Computer vision and image understanding, 2006, 110(3): 404-417.

[26]PIETIKAINEN M, OJALA T, XU Z. Rotation-invariant texture classification using feature distributions[J]. Pattern recognition, 2000, 33(1): 43-52.

[27]OJALA T, PIETIKAINEN, MAENPAA T. Multiresolution gray-scale and rotation invariant texture classification with local binary patterns[J]. IEEE transactions on pattern analysis and machine intelligence, 2002, 24(7): 971-987.

[28]NENE A S, NAYAR S K, MURASE H. Columbia object image library (COIL-20)[R]. CUCS-005-96, 1996.

[29]GRIFFIN G, HOLUB A, PERONA P. Caltech-256 object category dataset[R]. Pasadena: California Institute of Technology, 2007.

Application of REM memory model in image recognition and classification

JIANG Ying,WANG Yanjiang

(College of Information and Control Engineering, China University of Petroleum, Qingdao 266580, China)

We attempt to combine a memory model with image learning and recognition and to research the application of the REM model in image recognition and classification. An image feature vector was obtained by histograms of oriented gradients (HOG) and local binary pattern (LBP) operators; every component of a feature vector was copied with a certain probability, allowing for an error-prone copy of the studied vector. Finally, Bayesian decision theory was applied for calculating the average likelihood ratio between the feature vector of the probe image and that of the studied image set. The value of the ratio was used to decide whether the probe image had been studied.Experimental results demonstrate that the proposed method can gain a good recognition effect not only for the classification of the same object with small rotation angles but also for the recognition of the same category object. Moreover, the false rate is far lower than that of other classification methods.

image recognition; memory modeling; HOG feature; LBP feature; Bayesian decision

10.11992/tis.201605010

http://kns.cnki.net/kcms/detail/23.1538.TP.20170705.1657.010.html

2016-05-13. 網絡出版日期:2017-07-05.

國家自然科學基金項目(61271407,61301242);山東省自然科學基金項目(ZR2013FQ015);中央高校基本科研業務費專項資金資助項目(14CX06066A).

王延江.E-mail: yjwang@upc.edu.cn.

TP391

A

1673-4785(2017)03-0310-08

姜英,女,1985年生,博士研究生,主要研究方向為計算機視覺、認知記憶建模。

王延江,男,1966 年生,教授,博士生導師,主要研究方向為模式識別與智能信息處理、人腦記憶計算建模以及人腦結構與功能網絡連接分析。主持多項國家自然科學基金項目、山東省自然科學基金項目,發表學術論文100 余篇,其中被SCI、EI檢索40余篇。

猜你喜歡
記憶數據庫特征
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
記憶中的他們
數據庫
財經(2017年2期)2017-03-10 14:35:35
數據庫
財經(2016年15期)2016-06-03 07:38:02
兒時的記憶(四)
兒時的記憶(四)
記憶翻新
海外文摘(2016年4期)2016-04-15 22:28:55
數據庫
財經(2016年3期)2016-03-07 07:44:46
主站蜘蛛池模板: 亚洲成网站| 免费Aⅴ片在线观看蜜芽Tⅴ| 第一区免费在线观看| 九色最新网址| 亚洲精品久综合蜜| 91精品啪在线观看国产60岁| 国产免费久久精品99re丫丫一| 91小视频在线播放| 亚洲天堂自拍| 国产在线无码一区二区三区| 美女被躁出白浆视频播放| 美女免费黄网站| 成人中文字幕在线| 国产美女一级毛片| 国产精品黄色片| 国内精品久久久久久久久久影视| 久久亚洲国产一区二区| 中国成人在线视频| 欧美综合区自拍亚洲综合天堂| 精品国产中文一级毛片在线看| 有专无码视频| 毛片久久网站小视频| 欧美成人综合在线| 亚洲最大福利网站| 91丝袜美腿高跟国产极品老师| 人妻丝袜无码视频| 国产精品无码作爱| 中日韩欧亚无码视频| 伊人色在线视频| 亚洲欧美另类视频| 久久精品亚洲专区| 久久99精品久久久久久不卡| 精品丝袜美腿国产一区| 日本日韩欧美| 免费国产黄线在线观看| 亚洲va视频| 国产在线视频二区| 亚洲另类国产欧美一区二区| …亚洲 欧洲 另类 春色| 午夜欧美理论2019理论| 亚洲欧美精品在线| 国产精品极品美女自在线网站| 国产AV无码专区亚洲A∨毛片| 自拍欧美亚洲| 国产一区二区三区在线精品专区| 亚洲成a人在线观看| 又黄又湿又爽的视频| 在线免费看黄的网站| 亚洲无码不卡网| 国产午夜不卡| 91免费精品国偷自产在线在线| 国产成人精品无码一区二| 久久久久国色AV免费观看性色| 亚洲综合激情另类专区| 九色在线视频导航91| 国产精品片在线观看手机版| 欧美啪啪一区| 亚洲中字无码AV电影在线观看| 囯产av无码片毛片一级| 婷婷中文在线| a毛片免费观看| 99在线免费播放| 久久精品人人做人人爽| 亚洲人成网站18禁动漫无码| a亚洲视频| 亚洲欧美另类视频| 国产精品久久自在自线观看| 无码中文字幕精品推荐| 色婷婷成人网| 国产精品.com| 亚洲最黄视频| 国产精品无码AV中文| 色成人亚洲| 亚洲人成网站在线播放2019| 国产成人精品视频一区二区电影| www.日韩三级| 9999在线视频| 她的性爱视频| 2019年国产精品自拍不卡| 亚洲天堂视频在线免费观看| 啪啪免费视频一区二区| 久久免费精品琪琪|