999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

手寫液晶體數字及識別技術

2020-08-19 10:41:58鐘寶江
計算機工程與應用 2020年16期

丁 娜,鐘寶江

蘇州大學 計算機科學與技術學院,江蘇 蘇州 215000

1 引言

字符識別是模式識別的一個研究熱點,手寫數字識別技術作為其重要的研究分支,得到了廣泛的關注與發展。手寫數字識別是一種利用計算機以及一些識別設備自動辨認手寫阿拉伯數字的技術。常見應用主要包括郵件自動分揀、財務報表、銀行單據的檢查和處理、數據錄入等。這些任務一般都需要非常高的識別精確度和非常快的識別速度。然而,不同人的手寫風格迥異,差距較大,因此手寫體數字的格式難以規范,準確識別有較大的難度。為此,本文設計了一種利用“液晶體”記錄數字的方式,并進一步提出了一種對應的快速識別方法。與普通的手寫體數字相比,手寫液晶體數字在格式上比較規范統一,從而可以通過低復雜度的算法完成高精度的識別。

手寫液晶體數字識別的關鍵問題在于:不同樣本在筆畫深淺和筆畫粗細上存在差異,并且冗余筆畫會形成噪聲,影響識別效果。傳統的字符識別方法會對輸入圖像先進行一系列預處理操作(如高斯模糊化、二值化、形態學運算等),再進行特征提取,旨在減少這些差異與噪聲帶來的識別錯誤。這些預處理步驟往往使得算法過程復雜化,并且可能出現不穩定的識別結果。為此,本文提出的識別技術將直接對輸入的待識別數字圖像進行特征提取,能夠盡可能完整地保持原始的圖像信息,同時保證算法運行的穩定性。該技術將不同人的書寫風格歸一化,使得輸入的待識別樣本轉化為一個基本不變的數字表示。最后,實現了對手寫液晶體數字的可靠分類和識別。與現有方法相比,新方法的識別過程簡單穩定,卻能夠取得更好的識別效果。

本文以計算機閱卷系統的研發為背景,在這一任務中,對學生學號的識別需要有盡可能高的準確率。比如一個學號由10 位數字組成,則需要10 位數字都能正確識別,該學號記錄才能有效。也就是說,在這一應用場景中對單個數字識別的損失函數是通常識別任務的10倍。目前主流的數字識別方法是神經網絡算法[1-7]。在本地區中小學校采集了一批通常的手寫體數字樣本,運用在標準的手寫體數據庫,即MNIST 數據庫(http://yann.lecun.com/exdb/mnist/)上訓練出的神經網絡模型對其進行識別,正確率僅有62%左右,效果很不理想。如果期望提高正確率,則需要擴大或者更換訓練數據集,重新訓練網絡模型,工作流程復雜,且對于專業知識和硬件設施的要求也比較高。即便如此,對單個字符的識別率一般也只能提升到99%左右。此時對于一串包含10位數字的學號來說,其識別的準確率僅有90%,依然不夠理想。在其他類似的應用場景中,數字一般也都是以字符串形式出現的。可見,單個手寫體數字的識別準確率需要進一步提升。

本文提出的液晶體數字記錄方式將解決問題的關鍵步驟前置,采集到的待識別數字樣本具有相對規范的格式,從而能夠顯著減輕后期識別階段的壓力。對應提出的識別方法基于貝葉斯分類器來實現,無需事先訓練,算法復雜度低,在排除用戶未按照要求的模板書寫的情形后能夠實現100%的識別率。與現有方法相比,其優勢非常明顯。

2 相關技術

在計算機視覺和文本圖像分析領域,手寫數字的識別技術已經取得了巨大的進展。1998 年,Kundu 等人[8]利用可變持續時間隱馬爾可夫模型和路徑判別隱馬爾可夫模型策略,實現了一種手寫文字識別系統。2007年,Wen 等人[9]提出了一種手寫孟加拉數字識別系統,在郵政信件自動分揀機上得到了實際應用。該系統主要采用了支持向量機分類器,并且結合主成分分析特征提取器,能夠快速地給出識別結果。此外,研究人員已經對隱馬爾可夫模型[10]、支持向量機、Fisher 線性分類器、隨機森林、k-近鄰[11]等多種分類器模型進行了研究。這些傳統的分類模型在小規模數據集上可以達到較好的識別效果,然而在大規模數據集上的識別率和收斂速度都不夠高。總體來說,基于傳統的手寫體數字識別算法簡單,速度快,但是并不能達到百分百的精度需求[12-13]。

近年來,深度學習技術的發展為解決手寫體數字識別提供了新途徑。一批基于神經網絡的識別方法被提出[1-7]。作為一種新的機器學習方式,深度學習吸引了人們的廣泛關注。深度學習基于一組算法,試圖通過使用多個非線性信息處理階段對數據建模進行更高層次的抽象,重點學習數據的表達[14]。在深度學習環境中,基于表示學習的模式識別任務已經成功實現[15]。由于數據的可用性和對分類任務的高準確性和良好泛化能力,神經網絡已經成為解決問題的主要方法。卷積神經網絡(Convolutional Neural Network,CNN)在字符和數字識別上展示了優秀的識別率[16]。CNN 技術的優勢在于能夠自動提取輸入字符中不變的顯著特征[17-18]。雖然這些模型具有較高的精度,但是為了實現對神經網絡的權值進行微調以便提取出更好的特征,并使收斂速度慢于最優解,需要付出相應的代價,即大量的計算和復雜的體系結構開發。對于手寫體數字的識別,目前大都基于MNIST 手寫體數據集進行訓練識別。圖1 展示了該數據庫中兩批不同的樣本,可以看到在書寫方向、數字大小、筆畫粗細深淺等方面這些樣本存在明顯不同的風格化特征。如前所述,若使用MNIST 數據庫上訓練出的模型來對該數據庫以外的手寫體數字樣本進行測試,識別率很低。也就是說,基于特定數據集進行訓練的神經網絡模型,對非數據庫中的樣本進行識別時準確率并不理想。因此,目前在實際應用中,CNN神經網絡識別算法不夠穩定,其泛化性能的提高是一個瓶頸性的難點,并且使用成本非常高。

圖1 不同風格的手寫體數字樣本

為了保證識別的超高精度,一般會考慮使用答題卡系統。答題卡上的信息通過光標閱讀機識別,用配套軟件使涂點數據錄入到計算機中,如圖2(a)所示。然而,答題卡系統的設備成本高,且使用不方便,靈活程度低,限制了其應用范圍。一方面,光標閱讀機對信息卡的定位精度要求較高,因此制作一張答題卡有很多要求,比如紙張纖維要長、薄厚均勻、挺括程度好等,并且在印刷的套印和基準邊的裁切精度方面也要求很高,否則很容易造成閱讀錯誤,降低識別精度。此外,因為答題卡紙張纖維具有很強的親水性,在溫度急劇變化時漲縮也較大,所以機讀答題卡的存放與保管也需格外小心。另一方面,在答題卡填涂方面也非常講究,必須時刻保持答題卡的頁面整潔、不得折疊,需要使用指定的2B鉛筆進行特定形狀的填涂,否則會無法識別。在設備成本方面,市場上光標閱讀機的價格為1 萬元左右,外設條件要求更高。因此,答題卡系統大多用于一些重要的考試場合,實際應用范圍小。相對地,本文提出的計算機閱卷系統不僅在設備成本、使用方式等方面具有明顯的優勢,同時也契合當前互聯網以及個人液晶圖像設備(如手機)十分普及的時代特點,能夠在大范圍內靈活與廣泛地應用。

本文所設計的手寫液晶體數字的結構簡單,可以使得不同人的書寫風格盡量保持一致,如圖2(b)所示。進一步地,將基于貝葉斯分類器來設計一種無需事先訓練的識別算法。貝葉斯分類器通過計算樣本的最大后驗概率進行分類,適合處理多分類問題,并且在小規模數據集上的處理效果很好。同時,雖然該算法的程序實現簡單,運行速度快,但是卻能達到理想的識別精度。

圖2 兩種答題卡學號識別區域的對比

3 手寫液晶體數字

3.1 手寫液晶體的提出

數字是一種用來表示數的書寫符號,國際通用的數字是阿拉伯數字。不同人的書寫風格不同,因此手寫體數字從形態、大小、結構、深淺等各方面都會存在明顯差異,部分手寫數字甚至難以被人眼識別。如前所述,對于計算機閱卷系統這類場景來說,對單個數字的識別準確率要求非常高,傳統手寫阿拉伯數字的多變性將使得解決這一問題變得異常困難。答題卡識別系統雖然識別率高,但由于涂寫結果并不直觀、難以檢查等因素,涂錯數字的情況也時有發生,而且使用成本過高,因此無法普及。受數碼管上液晶字體(如圖3(a)所示)的啟發,本文提出了一種新的手寫體數字記錄方式,即“手寫液晶體數字”。在設計液晶體數字的模板(如圖3(b)所示)時,考慮到大部分人的書寫習慣,將該模板整體設計成略向右上角傾斜。為了保證用戶能夠正確書寫,同時會給出標準的數字樣例,如圖3(c)所示。基于這一數字記錄方式,后期的識別正確率能夠得到有效保證,從而很好地解決前面兩類識別系統遇到的問題。

相比通常的手寫數字樣本(見圖1),本文所采集到的手寫液晶體數字樣本(如圖3(d)和(e)所示)的結構穩定,風格相對統一,從而保證了識別的正確率。與傳統答題卡系統相比,使用者能夠直觀地檢查自己的書寫結果,避免傳統答題卡上容易出現的填涂錯誤。另外,一般的掃描機或者手機拍照后的圖像都可以在系統中直接進行處理和識別,不需要特殊的閱讀機,也不需要額外特殊的答題紙與答題筆,顯著提升了系統使用的便利性。

圖3 液晶數字及手寫數碼體學號

3.2 液晶體數字數據庫

從本地區中小學校中采集了6 386個手寫液晶體數字樣本,建立了一個用于測試的數據集,其中包含10種數字類別,即0~9這10類數字。圖4展示了10種數字類的部分樣本。書寫的工具包括鉛筆(著色淡,見圖3(d))和黑色簽字筆(著色深,見圖3(e)),并且因為不同學生在筆畫深淺、粗細、連貫性等各方面有所差別,使得數據集中的樣本具備多樣性與真實性,保證了實驗的合理性、測試的準確性以及本文方法的有效性。

圖4 本文提出的數據集的部分樣本圖

此外,為了模擬真實的應用場景,數據集中包含了少量未按規則填寫的數據樣本和漏寫的空樣本。為此,本文的識別算法將增加“拒判”這一分類結果,并將通過人眼驗證的合理“拒判”當作正確識別結果。圖5 給出了兩個被“拒判”的樣本,這些樣本均沒有按照模板要求的格式進行書寫,因此“拒判”為正確的識別結果。

圖5 被合理“拒判”的樣本

4 識別算法

為了保證識別過程和結果的穩定性,本文沒有采用傳統識別方法中對圖像樣本進行的預處理操作(如圖像模糊化和二值化)。這類預處理步驟主要是為了提高算法對于圖像噪聲的魯棒性,但同時也會丟失圖像的部分有效信息,使得識別結果變得不穩定。本文的識別算法將直接從原始樣本的圖像中提取特征,過程穩定且計算復雜度低,同時通過貝葉斯模型的特點(即基于后驗概率進行分類)來保證算法的抗噪性能。圖6給出了本文識別算法的主要步驟。具體地,首先基于液晶體數字模板的坐標設置7 個窗口,由此采集數字圖像的信息特征;然后依據貝葉斯判決方法將待識別樣本的特征與10類不同數字的標準特征向量進行匹配;最后根據最大后驗概率準則完成分類和識別。該算法的計算復雜度低,因此具有很快的識別速度,滿足在線實時識別的要求。

圖6 基于貝葉斯分類器的手寫數碼體數字主要步驟

4.1 特征提取

手寫液晶體數字樣本一共包含10 個類別,分別由ω0,ω1,…,ω9表示。其中ω0表示數字0的類別,ω1代表數字1的類別,以此類推。此外測試數據集中包含了部分實際無效(即沒有按照要求書寫,需要被合理“拒判”)的樣本。

本文識別算法直接對輸入的待識別液晶體數字圖像進行特征提取。液晶體數字的模板在7 個位置記錄不同數字的筆畫。根據這一結構,可在這些位置上相應地設置窗口來采樣可能出現的筆畫,如圖7(a)所示。

本文分別用R1,R2,…,R7表示這些信息采樣窗口,基于采樣結果,每個待識別數字都會被表示為一個7維向量。由于橫向的筆畫和豎向的筆畫有不同的長度,采用了兩種不同尺寸的窗口分別覆蓋(見圖7(a))。如果窗口尺寸過小,則可能會將采樣到的噪音點當作真實筆畫,形成筆畫存在的假象,從而導致錯誤識別。為此,選擇較大尺寸的窗口,保證了筆畫采樣的可靠性。

由于書寫誤差的問題,在初始設定的位置上這些窗口可能不僅覆蓋了目標筆畫,還包括了相鄰窗口對應筆畫的一部分,這時目標筆畫會被錯誤表示。為了解決這一問題,允許窗口的位置在一定范圍內浮動,得到多個采樣結果,最終依據灰度值之和最大(包含黑色像素點最少)的窗口來判斷筆畫是否存在。如果這一灰度值之和小于給定的閾值,則認為在對應的位置上出現了筆畫,稱之為“有效筆畫”。圖7(b)和(c)分別列舉了對于數字“3”和“4”的識別過程。對于數字“3”,有5 個窗口被確認為存在有效筆畫;而對于數字“4”,只有4個窗口出現了有效筆畫。為了表示待識別的數字樣本,記:

其中,xj(j=1,2,…,7)表示待識別圖像中液晶體數字的7個筆畫窗口內的灰度值之和。由于不同數字樣本在筆跡的粗細、深淺方面均有差異,而且同一個樣本的橫向筆畫和豎向筆畫粗細也可能都不同,為了得到不變的樣本表示,以橫、豎兩個方向上的有效窗口灰度值的均值分別對兩個方向上筆畫的特征值進行約化。為了便于表示,約化后該樣本的特征向量仍然用向量x表示。

圖7 采樣窗口的配置

用ri分別表示0~9這10個數字類的標準特征向量:

具體來說,向量ri中某個元素值若為1,則表示模板的對應位置有筆畫存在;若值為0,則表示對應位置無筆畫。例如,用向量r2=(1,1,1,0,1,1,0)T作為ω2(即數字“2”)的類特征表示,可解釋為第四和第七分量所對應的位置無筆畫,其余位置均有筆畫。表1列出了所有數字類的特征向量。

4.2 分類識別

貝葉斯分類器是一種基于貝葉斯定理和最大后驗概率確定新樣本輸出屬性的概率分類模型[19]。基于輸入特征相互獨立這一假設來計算概率,實現對模型的分類,適合處理多分類問題。因此,本文選擇了該分類器來識別液晶體數字,雖然算法結構和實現簡單,但在識別速度和準確率方面均達到了理想的效果。

首先,對于每一個數字類別ωi,計算其先驗概率,計算如下:

表1 10個數字的類特征向量

其中,Ni表示數據集中第i類數字圖像的數量,N表示數據集中數字圖像的總數。在學號識別這一應用場景中,10個數字類的先驗概率顯然均為0.1,這是先驗概率相等的情形。其他場景中也可能會出現先驗概率不相等的情形,比如在識別身份證號碼時,身份證序列的第一位只能取1~6 和8 這七類數字,顯然這十類數字的先驗概率不是相等的,這七類數字的先驗概率將大于其他三類數字。可以依據統計數據分別配置10個數字類的先驗概率,從而保證最終識別的準確率。

接著,基于待識別的數字樣本和每一個數字類的特征向量之間的距離來計算其屬于每一類數字的似然性pi,計算如下:

最后,根據貝葉斯公式計算待識別樣本的后驗概率分布,計算如下:

根據貝葉斯分類準則,后驗概率取值最大的類即為待識別樣本所屬的數字類別,即:

如果用戶未按照規范進行書寫,則會導致分類結果不可靠。為了區分這種情況,可以考慮含“拒判”決策的分類方法,即如果

則對X拒判。結合式(5)和(6),本文具體的分類模型表示為:

其中,τP默認值為0.16。

圖8 給出了數字“5”的三個手寫液晶體數字樣本。圖8(a)中的樣本筆跡較淺,圖8(b)中的樣本筆跡較深,圖8(c)中的樣本沒有按照模板書寫,從而無法從設置的窗口中正確采樣筆畫。這三個樣本在不同數字類上的后驗概率結果如圖9所示。容易看到,前兩個樣本的后驗概率具有大致相同的分布規律,并且都在“5”這個數字類上達到最大值,從而被正確識別。

圖8 數字“5”的三個樣本

圖9 數字“5”的三種不同樣本的后驗概率

可見,基于后驗概率的分類過程對于筆跡深淺具有明顯的不變性。而不按照模板要求書寫的第三個樣本,其最大后驗概率小于給定閾值,即屬于每一個數字類的概率都很低,因此被合理拒判。

4.3 容錯策略

對于計算機閱卷系統來說,考慮到各個用戶的書寫習慣不同,可能不會完全按照數字模板要求填寫,導致實際的手寫液晶體數字樣本與標準模板數字之間存在差異,形成錯誤的識別。但這些樣本可以被人眼準確識別,那么也應該屬于本文算法的正確識別范疇。因此本文設計了一種容錯策略來識別這類樣本。

基于采集到的數字樣例,本文總結出了一些具有代表性的“錯誤樣例”(如圖10 所示),大概占樣本總數的1.36%。為了正確識別這些人眼可以容忍的錯誤,在識別系統中加入了以下容錯策略,從而提高了識別的效率。

圖10 人眼可以容錯的書寫錯誤

根據實際采樣結果,只有1、6、9這三種數字類別需要進行容錯,其容錯表示稱為“容錯碼”,如表2 所示。在分類時,對這三類數字的特征向量進行了補充,也就是將待識別樣本的特征向量與這三個數字類的標準碼及容錯碼都分別進行概率計算,然后依據概率值高的結果進行分類,得出最終識別結果。

表2 “1”“6”“9”數字類的容錯碼

若算法中沒有增加這個容錯策略,則上述三種“錯誤”的數字樣本會被分類錯誤或者被拒判,識別率并不理想。因此,該容錯策略有效地增加了識別算法的可靠性與識別系統的可用性,提高了識別準確率。

5 實驗結果及分析

以下通過仿真實驗來評估本文方法的有效性。由于手寫液晶體數字是本文提出的新的數字記錄方式,目前沒有其他可使用的同類數據集,無法進行量化結果的直接對比。在手寫數字識別領域,近幾年來基于神經網絡的識別算法取得了顯著成效,具有一定的影響力。因此為了進行性能評估,將所提出的方法與目前三種具有代表性的神經網絡方法(LeNet[20]、AlexNet[21]和VGG16[22)]進行了比較。采用的評價指標包括識別的正確率、在數字串識別時的損失函數值、識別的抗噪性能以及算法運行時間四方面。

5.1 評價指標

識別正確率是分類效率的一種度量,是比較各種分類方案好壞的主要標準。正確率越高,算法識別效果越好。算法的正確率即用識別正確的樣本數除以樣本總數得到:

其中,ei表示第ωi類中樣本被錯判為其他類別的數量,Ni為每一類的總樣本數。

由于對數字的識別任務一般會出現在對字符串進行識別的場景中,本文考慮的第二個評價指標即為單個數字識別對整個數字串識別的損失函數值。該損失值反映了所使用的識別方法在識別錯誤時所產生的風險。計算機閱卷系統中的一組學號由十位數字組成,即需要滿足十位數字都能識別正確學號記錄才能有效。因此,損失函數計算如下:

其中,ei表示第ωi類中樣本被錯判為其他類別的數量,λ=10 為損失系數。

本文對測試數據集中的數字樣本加上不同強度的高斯噪聲與椒鹽噪聲,通過最終識別率的變化來反映各算法的抗噪性能。

在統計識別時間方面,對于神經網絡算法的描述包括了訓練時間與測試時間,而本文算法無需預先訓練,因此只包含測試時間。方法的識別時間越少,識別效率越高。

5.2 對比算法

本文選擇如下三種具有代表性的手寫體數字識別方法進行比較。

LeNet-5[20]:由 Lecun 在 1998 年提出,用于手寫體數字識別的卷積神經網絡方法。絕大多數的美國銀行用該方法識別支票上的手寫數字,是早期卷積神經網絡中最具代表性的技術之一。在LeNet-5 中,包含2 個卷積層、2個池化層和3個全連接層。輸入圖像的大小為32×32像素。

AlexNet[21]:由Hinton團隊提出,在2012年世界權威的ISVRC(計算機視覺競賽)中得到了第一名,并因此成為圖像分類的核心算法模型,為其后CNN 的發展奠定了技術基礎。AlexNet由8個學習層組成,包括5個卷積層和3個全連接層。輸入圖像的大小為227×227×3像素。

VGG16[22]:2014年ISVRC中使用的神經網絡模型,并且獲得了第一名。VGG16 由16 個學習層組成,包括13 個卷積層和3 個全連接層,是一個深層卷積神經網絡。輸入圖像的大小為224×224像素。

從整個數據集中隨機選取了1 452幅圖像作為測試集,剩余的4 934 幅圖像作為訓練集。為了讓所對比的三個神經網絡有更好的表現,利用現有已經訓練好的模型的權值參數作為初始化的參數,結合新的數據重新訓練,從而盡可能彌補訓練數據比較少,進而影響識別結果的問題。

5.3 測評與分析

表3 給出了本文方法與所對比的三種識別方法在識別正確率和損失值方面的表現。可以看出,對于其他三種神經網絡方面的經典算法,本文方法取得了最高的識別率,達到了100%,完全滿足識別精度要求很高的情形。基于損失值的對比,新方法比現有方法對于學號的識別具有更明顯的優勢。

表3 識別結果正確率和損失值

為了測試識別算法的抗噪性能,本文在測試圖像上分別添加了不同強度高斯噪聲和椒鹽噪聲。圖11和圖12分別展示了帶有噪聲的樣本圖像。實際環境下,噪聲可能會由于拍攝圖像的光線過暗或者樣本在圖像傳輸或壓縮過程中訊號受到干擾而形成。表4和表5分別給出了本文算法與對比算法在高斯噪聲與椒鹽噪聲(方差σ分別為0.1、0.2、0.3、0.4)上的識別率。隨著噪聲強度的增加,三種對比算法的識別率明顯逐漸下降,而本文算法不受噪聲的影響,識別率依然穩定在100%,具有優秀的抗噪能力。

圖11 不同強度的高斯噪聲樣本

圖12 不同強度的椒鹽噪聲樣本

表4 不同強度高斯噪聲下各算法的識別率%

表5 不同強度椒鹽噪聲下各算法的識別率%

5.4 計算復雜度分析

以下用浮點運算次數來分析各算法的時間復雜度。一次浮點運算定義為一次乘法或者一次加法。

卷積神經網絡中,n個卷積層的時間復雜度為[23]:

其中,M表示每個卷積核輸出特征圖的邊長;K表示每個卷積核的邊長;n表示神經網絡的卷積層數,即網絡的深度;Cl表示神經網絡第l個卷積層的輸出通道數。卷積層越多,運算次數越多,時間復雜度越高。由5.2 節可知,在上述三種對比算法中,LeNet-5 的時間復雜度最低,VGG16 的時間復雜度最高。因此只需比較LeNet-5與本文算法之間的時間復雜度。

輸入一張p×q的圖像,則n=p×q表示所有像素點的個數。將圖像縮放為指定尺寸需要遍歷所有的像素點,時間復雜度為O(n)。基于式(10)是對運行次數的估算,進而通過估算其運行次數來對比兩個算法之間的時間復雜度。在LeNet-5 算法中,卷積核大小為5×5,第一層卷積核的輸入通道為1,輸出6 張28×28 的特征圖,則運算次數約為282×52×1×6;第二層卷積核的輸入為第一層的輸出,輸出為16張10×10 的特征圖,則運算次數約為 102×52×6×16 ;因此LeNet-5 總的運算次數約為357 600,而AlexNet 和VGG16 的運算次數則遠大于該值。

在本文算法中,首先分別遍歷7個窗口中的像素點進行特征提取,其運算次數為600×3+450×4。然后基于貝葉斯分類器進行分類識別。先驗概率的計算取決于類別數,則運算次數約為10;類概率密度的運算次數約為330;最大后驗概率的運行次數約為31。最后相加可知,本文算法總的運行次數約為4 001,明顯低于LeNet-5 的運算次數。由此可見,本文算法的時間復雜度顯然低于對比算法的時間復雜度。

表6 給出了不同方法對每個樣本的實際平均訓練時間和識別時間。所有實驗均在以Linux為操作系統的NVIDIA TITAN Xp 的服務器上編譯運行。本文算法的明顯優勢在于其不需要預先訓練的時間,卻也能達到實時識別的效果,因此效率更高。

表6 不同算法的運行時間 ms

總體來說,本文算法基于液晶體數字的結構提取特征與分類識別,無需訓練步驟,從而其運行不依賴于數據集的大小,但能夠取得優于三種神經網絡方法的識別準確率、抗噪性以及識別速度。

6 總結

對于需要識別整個數字字符串的場景,對單個數字的識別精度需求很高。為此,本文提出了一種新的手寫體數字記錄方式,即液晶體數字,并提出了一種穩定可靠、快速有效的識別方法。本文方法首先基于液晶體模板的布局設置了7個圖樣采樣窗口,提取數字的特征信息,并將其轉換為樣本的特征向量。然后計算樣本與各數字類之間的距離,從而基于貝葉斯分類器實現分類。實驗結果表明,本文算法能夠取得優于現有識別算法的準確率,在算法復雜度、識別時間與抗噪性能方面也有明顯優勢。

主站蜘蛛池模板: 国产欧美视频在线| 欧美α片免费观看| 色天天综合| 亚洲中文字幕久久无码精品A| 欧美日一级片| 97超碰精品成人国产| 欧美不卡视频在线| 中文字幕在线永久在线视频2020| 亚洲精品大秀视频| 在线看片中文字幕| 国产女人在线| 都市激情亚洲综合久久| 亚洲视频无码| 日韩a在线观看免费观看| 国产高清精品在线91| 日本不卡在线| AV片亚洲国产男人的天堂| 毛片在线区| 久久久久久久蜜桃| 日本成人福利视频| 五月天丁香婷婷综合久久| 久久精品这里只有国产中文精品| 亚洲有无码中文网| 妇女自拍偷自拍亚洲精品| 欧美第二区| 亚洲午夜国产精品无卡| 亚洲视频四区| 亚洲床戏一区| 欧美日本激情| 美女亚洲一区| 九色视频最新网址| 欧美成人国产| 免费一级毛片不卡在线播放| A级毛片无码久久精品免费| 国产AV毛片| 国产视频一二三区| 色久综合在线| 婷婷综合色| 亚洲天堂日韩在线| 日日拍夜夜嗷嗷叫国产| 亚洲精品色AV无码看| 国产成人区在线观看视频| 亚洲福利网址| 欧美一道本| 亚洲av中文无码乱人伦在线r| 无码一区二区波多野结衣播放搜索| 久久婷婷国产综合尤物精品| 久久久久免费看成人影片 | 成人在线观看一区| 日韩二区三区无| 国产日韩欧美精品区性色| 久久久久久久蜜桃| 亚洲中字无码AV电影在线观看| 国产精品性| 精品久久久久久中文字幕女| 中文字幕色在线| 欧美v在线| 欧美日本激情| 精品国产成人国产在线| 日本精品影院| 一本久道久久综合多人| 国产精品女同一区三区五区| 在线国产欧美| 麻豆精品在线| 久久窝窝国产精品午夜看片| 2018日日摸夜夜添狠狠躁| 亚洲综合色区在线播放2019 | 一级毛片免费播放视频| 国产精品美女免费视频大全 | 丁香婷婷久久| 无码人妻热线精品视频| 亚洲成人高清在线观看| 国产真实二区一区在线亚洲| 国产精品视频久| 91福利国产成人精品导航| 精品视频一区二区三区在线播| 98精品全国免费观看视频| 亚洲欧美一区二区三区图片| 国产午夜不卡| 欧美激情视频一区二区三区免费| 巨熟乳波霸若妻中文观看免费 | 国产色爱av资源综合区|