


摘 ?要:不同性別雛雞在生產(chǎn)生活中的價(jià)值及培育方向均有較大差別,盡早無(wú)損傷高效地分辨出雛雞性別從而進(jìn)行定向培育,實(shí)現(xiàn)產(chǎn)業(yè)利益最大化。傳統(tǒng)的肛門鑒別法、伴性性狀鑒別法、蛋內(nèi)尿囊液檢測(cè)法和核磁共振測(cè)定法均有其不足之處。受肛門鑒別法中對(duì)肛部圖片兩大特性傳統(tǒng)人眼檢測(cè)方案的啟發(fā),在對(duì)原始圖像數(shù)據(jù)進(jìn)行關(guān)鍵區(qū)域特征增強(qiáng)和圖像增廣后,依托于LeNet深度學(xué)習(xí)模型的強(qiáng)大圖像處理能力實(shí)現(xiàn)極高效率的雛雞性別識(shí)別。
關(guān)鍵詞:雛雞性別鑒定;深度學(xué)習(xí);圖像識(shí)別;圖像增廣;LeNet
中圖分類號(hào):TP391.41 ? ? 文獻(xiàn)標(biāo)識(shí)碼:A 文章編號(hào):2096-4706(2020)23-0064-03
The Gender Intelligence Recognition of Chicks Based on
the LeNet Deep Learning Model
YANG Luye
(Shanghai University,Shanghai ?200444,China)
Abstract:Different gender chicks have a large difference in the value and cultivation direction in production and life,and distinguish the gender of chicks as early as possible and efficiently without damage,so as to carry out directional cultivation and realize the maximization of industrial benefits. The traditional methods of anal identification,sex-linked charateristics identification,egg allantoic fluid detection and nuclear magnetic resonance detection have their shortcomings. Inspired by the traditional human eye detection scheme of anal image two characteristics in anal identification method,after the key area feature enhancement and image expansion of the original image data,relying on the powerful image processing ability of LeNet deep learning model to realize highly efficient chicks gender recognition.
Keywords:gender identification of chicks;deep learning;image recognition;image augmentation;LeNet
0 ?引 ?言
雛雞性別的識(shí)別在傳統(tǒng)及現(xiàn)代養(yǎng)雞業(yè)中均屬核心技能[1]。由于雌雞和雄雞所產(chǎn)生的商業(yè)價(jià)值不盡相同,且雄雞和雌雞培育所需的環(huán)境、養(yǎng)殖中的側(cè)重點(diǎn)也存在較大差異。所以盡早知曉雛雞的性別并加以分類培育可以優(yōu)化生產(chǎn)布局,達(dá)到商業(yè)產(chǎn)能最大化以及提升工業(yè)效益的目的。
2 ?現(xiàn)有解決方案
目前工業(yè)界和生產(chǎn)生活中經(jīng)典的方法包括:
(1)肛門鑒別法(又稱“翻肛法”)。該鑒別法須在雛雞出殼后12小時(shí)內(nèi)進(jìn)行,重點(diǎn)是通過(guò)觀察雛雞有無(wú)生殖突起及生殖突起的組織形態(tài)來(lái)區(qū)別其雄雌。
(2)伴性性狀鑒別法。該鑒別法是依據(jù)伴性遺傳原理,分別培育雌雄品系,通過(guò)多品系間雜交,依據(jù)初生雛雞的羽毛顏色及其生長(zhǎng)速度來(lái)判別其雌雄。
(3)蛋內(nèi)尿囊液檢測(cè)法。該檢測(cè)法的原理為檢測(cè)尿囊內(nèi)雌激素水平,以此來(lái)判斷雞胚的性別。
(4)核磁共振(MRI)測(cè)定雞胚性別。該檢測(cè)法運(yùn)用兩套不同的核磁共振成像系統(tǒng),對(duì)處于特定時(shí)期的胚盤定位后再對(duì)其進(jìn)行性別篩查[2]。
但上述四種方法在實(shí)際生產(chǎn)工作中均有其不足之處。肛門鑒別法在很大程度上依賴檢測(cè)人員的鑒別技能,經(jīng)驗(yàn)不足的檢測(cè)人員難以達(dá)到工業(yè)級(jí)的準(zhǔn)確率,且最頂尖的檢測(cè)人員的篩選效率也只有30~35只每小時(shí)[3],遠(yuǎn)低于工業(yè)化生產(chǎn)要求,難以推廣到大型雞場(chǎng)。伴性性狀鑒別法檢測(cè)時(shí)間周期較長(zhǎng),需要等到雞雛長(zhǎng)出足以鑒別性別的性狀如羽色、羽速后方可以實(shí)現(xiàn)鑒別性別的目的,無(wú)法實(shí)現(xiàn)及早篩分雛雞的預(yù)期目標(biāo);尿囊液體檢測(cè)法有嚴(yán)格的時(shí)間限制,若對(duì)在始孵化早期的雞胚進(jìn)行細(xì)胞采樣則會(huì)影響雞胚發(fā)育;核磁共振測(cè)定法中的關(guān)鍵步驟即對(duì)雞胚的操作必須在外形完整的蛋中進(jìn)行,此技術(shù)尚處于研發(fā)階段,無(wú)法落實(shí)到生產(chǎn)應(yīng)用中。
3 ?算法模型介紹
近年來(lái),深度學(xué)習(xí)在各個(gè)學(xué)科領(lǐng)域的應(yīng)用中展現(xiàn)了巨大的可能性,突破了諸多瓶頸,有力的推動(dòng)了諸如計(jì)算機(jī)視覺(jué)、自動(dòng)語(yǔ)音識(shí)別、強(qiáng)化學(xué)習(xí)、自然語(yǔ)言處理等領(lǐng)域的研究。計(jì)算機(jī)視覺(jué)作為深度學(xué)習(xí)的重要領(lǐng)域,其中的圖像識(shí)別、甄選、分割等細(xì)分領(lǐng)域均已取得了諸多杰出的成果。因此,我們想將其中成熟的算法模型遷移到雛雞雄雌鑒別領(lǐng)域,將深度學(xué)習(xí)算法模型與傳統(tǒng)翻肛法的有效經(jīng)驗(yàn)相結(jié)合,用大量已準(zhǔn)確標(biāo)注的雞雛性別圖片訓(xùn)練雞雛雄雌判別模型。通過(guò)不斷優(yōu)化迭代,使判別模型能夠達(dá)到智能判別雞雛性別的功效,取代現(xiàn)有繁瑣且代價(jià)高昂的人力密集型的傳統(tǒng)解決方案,將經(jīng)典方法提升推廣到工業(yè)級(jí)、流水線級(jí)的通用解決方案中。
LeNet是一個(gè)經(jīng)典的卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)[4,5],對(duì)于輸入的二維三通道圖像,經(jīng)過(guò)兩次卷積層到線性整流層和池化層,再經(jīng)過(guò)全連接層,最后使用softmax分類器進(jìn)行分類。
3.1 ?卷積層
卷積層是卷積神經(jīng)網(wǎng)絡(luò)各層的基礎(chǔ)組成單元,其中每個(gè)卷積元參數(shù)均由反向傳播算法迭代優(yōu)化取得。卷積運(yùn)算可以實(shí)現(xiàn)高效的特征提取,低層級(jí)卷積層可以從圖像中取得基礎(chǔ)特征如邊緣、角度及線條等,多層級(jí)卷積層可以從圖像中獲得如圖像風(fēng)格等高維特征,為后續(xù)圖像分類,分割等任務(wù)提供底層信息。
3.2 ?線性整流層
線性整流層是每層神經(jīng)網(wǎng)絡(luò)之間的激活函數(shù)族,通過(guò)非線性變換,將神經(jīng)網(wǎng)絡(luò)模型所能表達(dá)的范圍從線性函數(shù)推廣至一般函數(shù)域,更加符合真實(shí)生產(chǎn)環(huán)境中的需求,讓模型在真實(shí)建模過(guò)程中有更強(qiáng)的魯棒性。
3.3 ?池化層
池化層是以取平均值、最小值、最大值等降維方法將由卷積層傳遞而來(lái)的高維特征降低到合適的維度的單元,減少后續(xù)計(jì)算迭代的時(shí)間消耗,提升效率。
3.4 ?全連接層
全連接層是將全局特征和優(yōu)化后的參數(shù)進(jìn)行點(diǎn)乘計(jì)算后得到可信度結(jié)果,進(jìn)而判斷圖片所歸屬的種類的一種結(jié)構(gòu)。
3.5 ?算法原理
在本次模型設(shè)計(jì)中,底層卷積層負(fù)責(zé)從輸入層的雞雛圖片數(shù)據(jù)中抽取圖像低維特征(如圖片邊角位置、總體亮度等),后將RGB三維通道信息轉(zhuǎn)化為高維數(shù)據(jù)向量并將其傳輸?shù)骄€性整流層。線性整流層通過(guò)非線性變換將圖片中的低維信息擴(kuò)展,映射,整合到新的向量空間中,提升基礎(chǔ)信息的復(fù)雜度,豐富數(shù)據(jù)維度。池化層將從網(wǎng)絡(luò)前端傳遞來(lái)的512維高位數(shù)據(jù)向量通過(guò)平均池化的方法快速降維后,再將其傳遞到全連接層,加速整體模型運(yùn)算速度,確保模型不會(huì)陷入維數(shù)災(zāi)難。全連接層作為輸出層前的最后分類器通過(guò)反復(fù)迭代優(yōu)化,進(jìn)而得最佳的匹配參數(shù),結(jié)合前端傳遞下來(lái)的特征向量,判別圖像所屬種類后傳遞到到輸出層。
4 ?實(shí)驗(yàn)驗(yàn)證
我們獲取的原始圖像信息如圖1和圖2所示,經(jīng)由雛雞判別專家一一標(biāo)注后分為雄雞雛雞組和雌雞雛雞組。
我們先對(duì)所有標(biāo)注好的圖像數(shù)據(jù)進(jìn)行數(shù)據(jù)平衡,保證雄雌數(shù)據(jù)所占比重相同,再利用5-folder cross-validation法,將數(shù)據(jù)隨機(jī)無(wú)偏分地劃為測(cè)試集和驗(yàn)證集作為輸入,來(lái)防止過(guò)擬合問(wèn)題,最終使用LeNet作為特征抽取的深度學(xué)習(xí)模型進(jìn)行二分類訓(xùn)練。但最終獲得的結(jié)果不太理想,測(cè)試準(zhǔn)確率僅為60%~65%,與隨機(jī)判別(50%)所得結(jié)果差距不大,歸其原因在于信息本身噪音較大,如測(cè)試數(shù)據(jù)集中部分圖片有雛雞尾羽陰影,原圖總體亮度對(duì)比度均不高,導(dǎo)致關(guān)鍵信息未顯著體現(xiàn),現(xiàn)有數(shù)據(jù)量較小(少于1 500張),而模型本身參數(shù)量大,導(dǎo)致數(shù)據(jù)過(guò)擬合。
與雞雛分類技術(shù)人員溝通后,我們發(fā)現(xiàn)傳統(tǒng)人工識(shí)別主要依靠觀測(cè)倒八形狀區(qū)域和圓形突起兩個(gè)特殊樣式來(lái)區(qū)別雄雌,如圖3所示。
為了能夠最大限度地凸顯關(guān)鍵性狀,我們對(duì)所有圖片使用OpenCV進(jìn)行以下數(shù)據(jù)預(yù)處理:對(duì)于遮罩外部噪音區(qū)域采光口所導(dǎo)致的取樣點(diǎn)區(qū)別,統(tǒng)一以內(nèi)切圓形為采樣標(biāo)準(zhǔn),消除外部干擾,如圖4所示。
通過(guò)反復(fù)測(cè)試處理效果,確定了使用Sobel算子對(duì)所有重采樣后的圖像進(jìn)行優(yōu)化處理,突出其關(guān)鍵性狀,如圖5所示。
由于圖像所代表類別具有旋轉(zhuǎn)不變性,即圖像旋轉(zhuǎn)后所代表雞雛性別不變,且在保留關(guān)鍵性狀的情況下對(duì)圖片進(jìn)行局部放大、縮小操作也不會(huì)改變圖像所歸屬的種類,故由此對(duì)原圖像數(shù)據(jù)進(jìn)行包括旋轉(zhuǎn)、放縮等合適的自增操作,如圖6所示。
對(duì)原有圖像數(shù)據(jù)進(jìn)行這樣的圖像預(yù)處理后得到增廣后的圖像數(shù)據(jù)集,再利用新的圖像數(shù)據(jù)重新訓(xùn)練模型,實(shí)驗(yàn)數(shù)據(jù)如表1所示。在迭代300次以后,得到了較好的結(jié)果,模型準(zhǔn)確率在測(cè)試集達(dá)到了94.1%,在驗(yàn)證集達(dá)到了92.5%,檢測(cè)效率超過(guò)110張/分鐘,達(dá)到了預(yù)期的目的。
5 ?結(jié) ?論
為了尋找準(zhǔn)確且高效的雞雛雌雄判別方案,同時(shí)也保障方案本身的可擴(kuò)展性和可推廣性,我們通過(guò)學(xué)習(xí)經(jīng)典的人力翻肛法判別經(jīng)驗(yàn),應(yīng)用計(jì)算機(jī)視覺(jué)輔助程序從源數(shù)據(jù)中環(huán)割選取圓形標(biāo)準(zhǔn)圖像集,依托Sobel算子對(duì)劃選好的雛雞圖像進(jìn)行圖像預(yù)處理以突出其中關(guān)鍵性征,再借由其旋轉(zhuǎn)性狀不變的特點(diǎn)進(jìn)行隨機(jī)旋轉(zhuǎn)圖像增廣,最后使用LeNet深度模型架構(gòu)進(jìn)行算法優(yōu)化迭代訓(xùn)練,得到有強(qiáng)識(shí)別能力的智能雛雞圖像雌雄判別模型。該模型在雞雛性別識(shí)別中獲得超過(guò)94%的識(shí)別準(zhǔn)確率和0.085秒/張的平均檢測(cè)效率,且未出現(xiàn)明顯過(guò)擬合現(xiàn)象,給雞雛識(shí)別的領(lǐng)域提供了一條新的思路,打通了人工智能和傳統(tǒng)家禽養(yǎng)殖業(yè)的墻壁。目前該模型在全新數(shù)據(jù)集上的檢測(cè)效果仍然有待提升。未來(lái)通過(guò)更加精細(xì)化的雛雞種類劃分和更加全面的雞雛圖像數(shù)據(jù)初期收集,以及調(diào)用更多種成熟的深度學(xué)習(xí)模型來(lái)進(jìn)行多模型組合預(yù)測(cè),我們相信能夠獲得更加高效且魯棒的雞雛識(shí)別模型,并將其應(yīng)用到真實(shí)的生產(chǎn)生活中。
參考文獻(xiàn):
[1] 王健,漠縱泉,肖小珺,等.雞胚性別鑒定——家禽科學(xué)研究的新視點(diǎn) [J].中國(guó)家禽,2003(14):26-36.
[2] 姜桂苗,何劍斌,馬振乾,等.家禽性別控制的研究進(jìn)展 [J],黑龍江動(dòng)物繁殖,2010,18(5):14-16.
[3] 燕海峰,肖兵南,TREFIL P,等.家禽的性別鑒定方法 [J].動(dòng)物學(xué)雜志,2001(6):58-61.
[4] ZHANG A,LI M,Lipton Z C,等. 動(dòng)手學(xué)深度學(xué)習(xí) [M].人民郵電出版社,2019:15-188.
[5] 鄭睿,余童,程龍閱.基于改進(jìn)LeNet-5的形狀類似物體識(shí)別方法 [J].信息技術(shù)與網(wǎng)絡(luò)安全,2020,39(6):31-37+43.
作者簡(jiǎn)介:楊陸野(1993—),男,漢族,上海人,初級(jí)工程師,碩士,研究方向:計(jì)算機(jī)視覺(jué)。