999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于卷積神經網絡的驗證碼識別

2020-05-16 09:15:50李世成東野長磊
軟件 2020年4期
關鍵詞:模型

李世成,東野長磊

(山東科技大學 計算機科學與工程學院,山東 青島 266590)

0 引言

驗證碼(CAPTCHA)是一種區分用戶是計算機還是人的公共全自動程序。驗證碼通常由字母和數字組成,為防止被機器自動識別,其分辨率通常較低,圖片噪聲較大。字符被一定程度的扭曲或傾斜,字符間往往存在粘連,“用戶”需要識別并鍵入正確的字符。人眼隊驗證碼的識別率可以達到80%以上,但自動化程序識別準確率往往低于 0.01%。這對于防止金融欺詐、電商刷單、惡意注冊等批量化行為具有較好的效果[1-2]。

鑒于驗證碼在互聯網中的廣泛應用,國內外對驗證碼的識別進行了相關研究,出現了很多破解驗證碼的技術。目前,驗證碼識別主要有支持向量機(SVM)、卷積神經網絡(CNN)等方法[3]。對于噪聲較少并且字符位數固定的驗證碼圖片,使用深度神經網絡對整張驗證碼圖片進行多標簽學習來完成分類任務也可以達到很好的效果。也可以使用卷積神經網絡(CNN)與循環神經網絡(RNN)結合的方式實現驗證碼圖像端到端的識別[4]。

本文的驗證碼數據來源于 2019年全國高校計算機能力挑戰賽,字符之間大多數存在粘連問題,使用端到端的識別模型很容易遺漏掉字符。所以本文先進行單個字符切割,對卷積神經網絡添加注意力模塊,并使用卷積神經網絡對單個字符進行識別。

1 圖像預處理

1.1 去除噪點處理

如圖1所示,原始驗證碼圖片中有很多椒鹽噪聲,這些噪聲對圖片識別效果有著很大的干擾作用。椒鹽噪聲也稱為脈沖噪聲,是圖像中經常見到的一種噪聲,它是一種隨機出現的白點或者黑點,可能是亮的區域有黑色像素或是在暗的區域有白色像素(或是兩者皆有)。中值濾波是一種典型的非線性濾波,是基于排序統計理論的一種能夠有效抑制噪聲的非線性信號處理技術,基本思想是用像素點鄰域灰度值的中值來代替該像素點的灰度值,讓周圍的像素值接近真實的值從而消除孤立的噪聲點。如圖2所示,使用數字圖像處理中的中值濾波方法可以有效去除圖像中的噪點。

二維中值濾波的輸出公式為:

其中, (,)f x y, (,)g x y分別為原始圖像和處理后的圖像。W為二維模板,通常為3*3,5*5區域。也可以是不同的的形狀,如線狀,圓形,十字形,圓環形等。

圖1 原始圖像Fig.1 The original image

圖2 去噪處理后的圖像Fig.2 The denoised image

1.2 分割圖像

如圖3所示,在原始圖像中有字符之間相互重疊的部分,直接使用多分類的圖像處理方法很難識別出正確的字符。如圖4所示,本文將原始圖片切割成4份只有單個字符的圖像,使用單分類的模型進行識別,可以大幅度提高識別精度。

圖3 原始圖像Fig.3 The original image

圖4 切割之后的圖像Fig.4 The image after cutting

2 使用CNN進行樣本訓練

2.1 卷積神經網絡概述

驗證碼識別可以看作是圖像分類問題,也可以看作是對圖像的序列識別問題。近幾年,深度卷積神經網絡在圖像分類問題上不斷創新,突破極限。從比較簡單的 LeNet5[5]到更加深層網絡結構的VGGNet[6],說明了隨著網絡深度的增加,模型可以學習到更高級的圖像特征,使得圖像分類的效果更加準確。后來,研究者發現不斷的堆疊網絡結構并不能更進一步的提升模型識別的效果。疊加過多的神經網絡層會出現梯度消失或爆炸問題,難以收斂。隨著殘差網絡的提出,深層網絡結構的梯度消失問題得以解決,ResNet[7]是經典的深度殘差網絡模型。對于基于圖像序列的識別問題,有研究者提出了一種新穎的卷積循環神經網絡(CRNN)[8],因為它是DCNN和 RNN的組合。對于類序列對象,CRNN與傳統神經網絡模型相比具有一些獨特的優點:(1)可以直接從序列標簽(例如單詞)學習,不需要詳細的標注(例如字符);(2)直接從圖像數據學習信息表示時具有與DCNN相同的性質,既不需要手工特征也不需要預處理步驟,包括二值化/分割,組件定位等;(3)具有與RNN相同的性質,能夠產生一系列標簽;(4)對類序列對象的長度無約束,只需要在訓練階段和測試階段對高度進行歸一化;(5)與現有技術相比,它在場景文本(字識別)上獲得更好或更具競爭力的表現;(6)它比標準DCNN模型包含的參數要少得多,占用更少的存儲空間。

2.2 模型訓練

2.2.1 圖像及標簽處理

驗證碼數據來源于 2019年全國高校計算機能力挑戰賽提供的5000張訓練圖片和5000張測試圖片。原始圖像為40*120的RGB圖像,按照預處理階段進行去噪和分割,每張原始圖像分割成 4張40*30的圖像。標簽總共62類,分別是數字10類、小寫英文字母26類和大寫英文字母26類。

2.2.2 網絡結構

深度卷積神經網絡中常用的圖像分類模型有很多,例如:LeNet、VGG、ResNet和DenseNet[9]等。因為原始圖像為3通道圖像,大多數圖像中字符與背景之間的對比度很小,并且更深層次的網絡過于龐大,對于網絡訓練的硬件環境要求更高。所以本文選擇ResNet50作為基礎網絡,并且在每個殘差塊中添加注意力模塊(CBAM)[10]。

如圖5所示,殘差學習單元將輸入端與輸出端短路連接,復制一個淺層網絡的輸出加給深層的輸出。殘差學習單元的輸出如下:

x為淺層的輸出, ()H x為深層的輸出, ()F x為夾在二者之間的變換。當淺層的x代表的特征已經足夠成熟,如果任何對于特征x的改變都會讓 loss變大的話, ()F x會自動趨向于學習成為0。在前向過程中,當淺層的輸出已經足夠成熟的時候,讓更深層能夠實現恒等映射的作用[7]。

圖5 殘差學習的基本單元Fig.5 Residual learning:a building block

Convolutional Block Attention Module(CBAM),這是一種為卷積神將網絡設計的,簡單有效的注意力模塊(Attention Module)。如圖 6所示,對于卷積神經網絡的特征圖(feature map),CBAM從通道和空間兩個維度計算特征圖的注意力圖(attention map),然后將注意力圖與輸入的特征圖相乘來進行特征的自適應學習。對于中間層的特征圖F∈將會順序推理出一維的通道注意力圖和二維的空間注意力圖過程如下:

其中?為逐個元素之間相乘,首先將通道注意力模塊的輸出(channel attention map)與輸入(feature map)相乘得到F′,之后計算F′的空間注意力模塊的輸出(spatial attention map),并將兩者相乘得到最終的輸出F′。

圖6 卷積注意力模塊Fig.6 Convolutional block attention module

特征圖的每個通道都被視為一個特征檢測器,通道注意力模塊主要關注于輸入圖片中什么是有意義的。如圖7所示,通道注意力模塊使用最大池化和平均池化對特征圖在空間維度上進行壓縮,使用由 MLP組成的共享網絡對這兩個不同的空間背景描述進行計算得到通道注意力模塊的輸出。計算過程如下:

圖7 通道注意力模塊Fig.7 Channel attention module

空間注意力模塊主要關注于位置信息。如圖 8所示,空間注意力模塊在通道的維度上使用了最大池化和平均池化得到兩個不同的特征描述,然后將兩個特征合并,并使用卷積操作生成空間注意力的輸出。計算過程如下:

圖8 空間注意力模塊Fig.8 spatial attention module

在每個殘差學習單元的第三層卷積之后添加CBAM模塊。如圖9所示。

圖9 添加CBAM的殘差學習單元Fig.9 Residual learning with CBAM

添加了注意力模塊的 ResNet50模型的核心框架如表1所示,輸入為224*224*3的圖像,卷積層采用傳統的 5層架構,第一層卷積使用 7*7的卷積核,步長為 2,padding為 3,接下來使用大小為3*3,步長為2的卷積核進行最大池化操作。輸出為 112*112*64。第二層到第五層使用添加了注意力模塊的殘差塊,每一層包含的殘差塊個數為[3,4,6,3]。最后經過自適應平均池化和全連接層輸出結果。

表1 模型架構Tab.1 Model architecture

2.2.3 訓練樣本集

首先,將切割的圖片數據按照每一類樣本數據均等拆分成訓練集和驗證集,這樣可以使訓練樣本更加均衡。使用Scikit-learn中的stratifiedKFold函數可以做到這一點。使用雙線性插值法放大到224*224大小,并且在訓練集中隨機變換圖片的亮度、對比度、飽和度和色度,用來增強模型的泛化能力。使用交叉熵損失函數計算訓練損失,并使用AdaBound[11]優化函數進行優化。訓練集和驗證集的準確率隨著迭代次數的變化如圖10所示。

圖10 訓練集和驗證集準確率變化圖Fig.10 Plot of accuracy for training set and validation

2.3 模型測試

模型訓練結束后,選取在驗證集中準確率最高的模型最為最終的模型,并且在5000張測試集中測試模型的準確度。測試過程如圖11所示,首先讀取原始圖片,將原始圖片去噪并切割成4個單字符圖片,每張單字符圖片改變大小為 224*224,將 4個三維 224*224*3的單字符圖片按順序組合成四維4*224*224*3的數據,將組合成的四維數據輸入模型進行測試,將輸出的4個結果連接成字符串與正確的標簽進行比較計算準確率。準確率的計算公式如下:

模型在5000張測試集中的準確率達到97.9%,部分識別結果如表2所示。

圖11 測試流程圖Fig.11 Test flow chart

表2 識別結果Tab.2 Recognition result

3 結論

本文通過卷積神經網絡對驗證碼圖片進行特征提取訓練,在有線條干擾并且訓練數據較少的情況下,模型依然能夠達到接近98%的準確率。若能夠去除干擾線、增加訓練數據,或者使用多模型融合的方式,測試集的準確率將會進一步提高。從表 2可以看出,人眼能夠識別的驗證碼圖片,模型也都可以正確的識別,模型識別錯誤的圖片,人眼也很難正確分辨。隨著圖像識別技術的不斷發展,驗證碼的生成規則也將發生改變。

猜你喜歡
模型
一半模型
一種去中心化的域名服務本地化模型
適用于BDS-3 PPP的隨機模型
提煉模型 突破難點
函數模型及應用
p150Glued在帕金森病模型中的表達及分布
函數模型及應用
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
3D打印中的模型分割與打包
主站蜘蛛池模板: 日韩无码视频专区| 色成人综合| 日本草草视频在线观看| 黄色不卡视频| 国产自在自线午夜精品视频| 中文国产成人精品久久| 人妻无码一区二区视频| 成年人国产视频| 国产99在线| 成人精品午夜福利在线播放| 亚洲国产清纯| 久久久久无码精品国产免费| 国产精品乱偷免费视频| 国产黄在线观看| 美女被狂躁www在线观看| 在线高清亚洲精品二区| 国产极品嫩模在线观看91| 天天干伊人| 国产成人av一区二区三区| 色久综合在线| 国内精品视频| 亚洲人成影视在线观看| 日本午夜影院| www.日韩三级| 一级成人欧美一区在线观看| 在线日韩一区二区| 在线国产三级| 色屁屁一区二区三区视频国产| 69av在线| 亚洲男人在线| 爽爽影院十八禁在线观看| 亚洲av无码专区久久蜜芽| 国产不卡一级毛片视频| 欧美啪啪视频免码| 青草午夜精品视频在线观看| 野花国产精品入口| 久久频这里精品99香蕉久网址| 国产剧情一区二区| 色妺妺在线视频喷水| 成年人午夜免费视频| 日韩天堂网| 97人人模人人爽人人喊小说| 国产哺乳奶水91在线播放| 国产福利免费在线观看| 国产资源免费观看| 中文无码精品a∨在线观看| 992Tv视频国产精品| 波多野衣结在线精品二区| 午夜精品久久久久久久无码软件| 青青青草国产| 一级片一区| 成人免费午间影院在线观看| www.91中文字幕| 粗大猛烈进出高潮视频无码| 国产理论最新国产精品视频| 免费在线视频a| 99热在线只有精品| 亚洲黄网视频| 欧美在线网| 91人人妻人人做人人爽男同| 免费观看成人久久网免费观看| 亚洲国产成人久久77| 国产a在视频线精品视频下载| 日韩精品一区二区三区免费在线观看| 婷婷在线网站| 青青久久91| 免费中文字幕在在线不卡| 色成人综合| 午夜久久影院| 国产在线观看第二页| 精品偷拍一区二区| 又粗又硬又大又爽免费视频播放| 中文字幕在线永久在线视频2020| 男女男免费视频网站国产| 国产91精品久久| 国产主播喷水| 国产午夜精品一区二区三| 国内精品久久久久久久久久影视 | 欧美丝袜高跟鞋一区二区| 色综合久久88| 国产高清精品在线91| 国产乱人乱偷精品视频a人人澡|