鄒倩穎, 吳寶永, 王小芳,2
(1.電子科技大學成都學院,云計算科學與技術系,成都611731;2.西華師范大學計算機學院,四川南充637002)
自20世紀起,人工智能在許多行業實現了創新,不僅提高工作效率,還有準確率。就醫療領域而言,人工智能在臨床診斷問題上實現了應用,但人工智能應用到醫學影像學領域的起步較遲,其原因在于用于醫學影像診斷的人工智能須依靠人主觀建立數學模型[1]。文獻[2]中提出了一種基于支持向量機與貝葉斯的算法,利用22個定量特征對肺炎進行判斷,但是其在不同機器產生的圖像效果不同,準確率不太穩定。文獻[3]中提出了一種基于小波的3D-CT圖像特征提取,但其對數據集要求過高。斯坦福大學在2017年設計了一個名為CheXNet,用于判斷胸腔部分的14種疾病,包括肺炎,雖然其識別率高95%,但其并未對肺炎的種類進行細分[4]。
本文采用卷積神經網絡(CNN)和仿生模式識別相結合的方法,首先使用卷積神經網絡作為圖像特征的提取器,使得機器無需人工進行特征提取,同時利用基于仿生模式識別的分類網絡作為分類器,增加了分類的準確率。實驗證明,本文所設計的方法平均準確率達90%,所設計方法不僅僅只是局限于肺炎判別,亦可遷移到其他圖像識別領域。
CNN[5]是一種深度神經網絡,常用于對視覺圖像進行分析。CNN是由生物過程所引導[6],其神經元之間的連接模式類似于動物的視覺皮層中的組織。單個皮層神經元在被稱為感受野的視野的受限區域中,對刺激作出反應。不同神經元的感受野部分互相疊加,使得它們覆蓋整個視野。
CNN是由卷積層、池化層和全連接層交叉堆疊而成的前饋神經網絡,其使用反向傳播算法進行訓練。在結構上,CNN有3個特性:局部連接、權重共享和子采樣。得益于此,CNN有一定程度上的平移、縮放和旋轉不變性。
CNN的典型架構通常使用多項邏輯回歸進行分類[7-8],然而,這種方式性能不理想。研究表明[9],如果在CNN后面添加了一個表現良好的分類器(如支持向量機(SVM)),分類精度將在一定程度上得到提高。與單獨使用CNN或SVM相比,由CNN和SVM結合的模型展現出了更高的準確率。
仿生模式識別(BPR)[10]更接近人類的認知功能,而BPR與傳統的模式識別相比,顯著的不同在于以“最優劃分”為主要原則。BPR中,“認知”一類事物對于分析和“認知”由同一類的所有樣本組成的無限點集的形狀是必不可少的。文獻[11]中也指出“拓撲空間的概念非常普遍,關于拓撲空間拓撲的科學是關于連續性的最一般的數學分支”BPR,只是分析點集拓撲中流形的方法,因此,BPR也稱為拓撲模式識別(TPR)。自其被提出之后,已經用于人臉識別[12]等領域。
圖1所示為二維平面中,BPR與傳統模式識別方法所形成的樣本子空間的對照示意圖。圖中圓形代表要識別的樣本;正方形與三角形代表其他兩類樣本;折線為傳統的BP網絡模式識別劃分的方式;大圓代表RBF網絡模式識別劃分的方式;橢圓所連成圖形代表了仿生模式識別的劃分。

圖1 仿生模式識別與傳統模式識別方法對照示意圖
本文設計的改進BPR的肺炎判別算法主要有兩部分:① 利用改進的CNN模型對肺炎圖像進行特征提取;② 添加基于BPR的分類網絡進行訓練,進而得到分類網絡,具體過程如圖2所示。

圖2 改進的仿生模式識別過程圖
具體步驟如下:
(1)數據預處理。將肺炎圖像歸一化為同樣大小的實驗圖像,在本文實驗中設置為(256×256)px。
(2)特征向量提取。肺炎圖像按類別分好,分別存儲;隨后按照類別分別輸入本文所設計的改進的CNN。
(3)分類網絡訓練。從CNN中特征向量作為高維空間中的點,按類別分別輸入本文設計的基于BPR的分類網絡進行訓練。
2.2.1 卷積層
卷積層中的X光片可與一個卷積核進行卷積,其結果經過激活函數后輸出形成卷積層的特征圖。卷積層形式為

式中:l代表層數;kij核函數表示權重參數;Mj代表輸入特征圖的集合;i表示第i層;j表示第j個輸入的X光片;每個輸出圖有一個偏置值b;f(·)為激活函數。
2.2.2 池化層
池化層的輸入源于上一個卷積層中X光片的卷積,主要起增強魯棒性的作用,同時減少了參數的數量,也一定程度防止過擬合現象的發生。特征圖經過池化層之后個數不會發生改變,但是特征圖會變小。一般地,池化層公式表示為

式中:down(·)表示下采樣函數(本文所構建的CNN中使用max()函數,即最大池化)是下采樣對應的“權重”。
2.2.3 全連接層
全連接層是用于連接前后層神經元的網絡層,通常而言,全連接層位于2個一維的網絡層之間。假設x∈Rm表示輸入層向量,y∈R表示輸出層向量,則在全連接層就有映射矩陣W∈Rm×n與偏置向量b∈Rn。其表達式為

2.2.4 網絡結構
本文對LeNet-5模型進行改進,得出了一個特征提取的網絡結構進行訓練。訓練數據時,所使用的訓練數據按批隨機選擇,分批輸入網絡中進行訓練。本文所設計的網絡結構如圖3所示。

圖3 網絡示意圖
本文將各類樣本中的每1張圖像輸入到網絡中進行訓練與特征提取,最終形成網絡模型,網絡的具體參數如表1所示。其中:R代表ReLU[13](線性整流函數)函數;M代表最大池化操作;D代表Dropout。

表1 神經網絡參數
2.3.1 同源連續性
BPR旨在對特征空間中一類樣本分布進行最佳覆蓋。對于各類X光圖像,BPR都將對其進行最佳覆蓋。“高維空間復雜幾何形體覆蓋識別方法”為樣本點的分布提供了先驗知識,因此可以將分析特征空間訓練樣本點間的關系作為基點,研究特征空間中某類樣本的分布狀況,進而對其進行合理的覆蓋,從而“認識”某類樣本。多維空間仿生信息學認為:可用的信息都包含在訓練集,在多維空間Rn中,設A類所有樣本點形成的集合為A,任取兩個樣本X,Y∈A且X≠Y,對于任意的ε>0,則一定存在集合B滿足,

式中:ρ(XM,XM+1)表示樣本XM;XM+1間的歐式距離。
但通常樣本分布是不規則的,要形成的覆蓋形狀也是非常復雜的。因此用來形成覆蓋的方法必須能夠在特征空間中形成一個高維空間的連續復雜的幾何形體來覆蓋樣本[12]。在本文構造的神經網絡中,樣本已經由X光片經由前文構建的卷積神經網絡轉換為了特征向量。
2.3.2 多權值向量神經元
對于訓練集中的X光片所生成特征向量可以利用多權值向量神經元進行構造。多權值向量神經元在特定的計算函數φ下可以形成一個封閉的曲面,因此可以使用多權值向量神經元進行BPR的神經網絡構造。
多權值向量神經元的通用表達式為

式中:w1,w2,…,wm為m 個權向量;X 為輸入向量;φ為計算函數;f為非線性轉移函數;θ為多權值神經元激活閾值。
設特征空間是n維實數空間Rn,即X∈Rn,向量函數方程:

此時,可視為由w1,w2,…,wm在特征空間Rn中構成的某種軌跡,該軌跡位于Rn中n-1維空間,若該軌跡為一個封閉的曲面,則就在Rn中形成了一個有限的覆蓋區域。若改變神經元權值,則會得到具有不同形狀的超曲面。故對于某類A,存在一個覆蓋區域,該區域為該類所有樣本共同覆蓋。
在影像學肺炎判別中,可以采用超香腸神經元[12],其表達式:

式中:θ(w1,w2)表示由n 維空間中兩點w1、w2確定的有限一維線段;φ(w1,w2,X)表示在n維空間中X 到θ(w1,w2)的歐式距離。
判別函數

2.3.3 網絡的構建
網絡的構建具體步驟如下:
(1)設某類肺X光圖片的所有構網樣本點集合為A = {a1,a2,…,aN},N 為該類樣本點總數。
(2)建立本文第2節設計的基于卷積神經網絡的圖像特征提取網絡。
(3)將集合A中所有樣本輸入步驟(2)所建立的卷積神經網絡中,得到N個該類X光圖片的1 024維特征向量,也就是得到了該類所有樣本在1 024維空間中的分布情況。計算所有點兩兩之間的歐式距離,找出歐式距離最小的兩個點,記為BA1、BA2。這兩個點構成的第1個一維線段記作θA1。用一個超香腸神經元對這個線段進行覆蓋,其覆蓋范圍,

式中:ρXθA1表示點X 到空間θA1的距離;PA1為所構造的幾何形體。
(4)隨后針對已經構造好的幾何形體PA1,判斷剩余各點是否被其覆蓋。若在PA1覆蓋范圍內,則排除;而對于在PA1范圍外的點,按步驟(3),找出離BA2最近的點,記作BA3,BA2與BA3此時便構成了第2個一維線段,記作θA2,同樣地,也用一個超香腸神經元來覆蓋此線段,其覆蓋范圍:

式中:ρXθA2表示點X 到空間θA2的距離;PA2為所構造的幾何形體。
不斷重復上述步驟,直至處理完所有樣本點,此時共產生了m個超香腸神經元,則該類A的覆蓋范圍便是全部個神經元的覆蓋范圍

(5)對訓練集中各類樣本做以上操作,即可得到各類所對應的覆蓋范圍。
(1)因地制宜,逐漸形成“家和計劃”本土服務特色模式。如沙坪壩區打造“家和故事”;黔江區探索“離婚分類分流服務”模式;長壽區針對服刑人員開展的困境家庭案例;綦江區以家庭理財教育助力脫貧致富;秀山縣挖掘傳統民族葷素作用等。
2.3.4 樣本識別
對于某張X光片的樣本識別過程如下:
對待識別樣本點X到i類高維空間覆蓋區中第j個神經元覆蓋區域的距離進行計算,

則樣本到第i類的覆蓋區域的距離,

式中:m表示第i類的超香腸神經元總數;ρij表示待識別樣本點X到第i類第j個超香腸神經元的歐式距離。當此樣本到第i類的覆蓋區域的距離≤0時,則表明此樣本在此覆蓋區域中;反之,則不在。若不落在任何一類的覆蓋區域內,則表明此樣本不在任何一類中。
本文實驗所用數據集共有3種類型(正常、病毒型肺炎、細菌型肺炎),由原數據集重新劃分,本文分別將其記為A組、B組和C組,各組訓練集、驗證集與測試集的比例均為8∶1∶1。
軟件環境:Debian 9.4。硬件環境:Intel(R)Xeon(R)CPU E5-2650 v3 @ 2.30 GHz,Tesla K80 NVIDIA Tesla K80,16 GB 內存,1TB 硬盤。
3.2.1 A 組對比實驗
使用A組進行實驗,結果如表2所示。

表2 A組改進仿生模式識別與SVM實驗結果對比表
本次實驗中,改進的BPR對于正常類與病毒型的識別準確率(下文簡稱識別率)相較于SVM算法低了1%,細菌型高了22%,整體均值高了10%。可見SVM
雖然在正常與病毒型的X光圖像上識別率高于本文所設計的方法,但是明顯在對于細菌性識別是其短板,但本文所提方案各類X光圖像的識別率較為高,故就實用性而言,本文所提方案略勝一籌。
3.2.2 B 組對比實驗
使用B組對比實驗的結果如表3所示。

表3 B組改進仿生模式識別與SVM實驗結果對比
在本組實驗中,即數據量稍有增大時,改進的仿生模式識別對于正常類X光圖像相較于支持向量機高了1%,病毒型基本無差,細菌型高了16%,整體均值高了6%。相較于A組實驗,兩種算法的對于各類X光片的識別效率均有浮動,其中支持向量機對于細菌型的精度上升尤為明顯。兩種算法其他類別精度下降的原因在于原始圖像存在未去除噪聲。
3.2.3 C 組對比實驗
使用C組對比實驗的結果如表4所示。

表4 C組改進仿生模式識別與SVM實驗結果對比
本組實驗,即訓練數據較多時,改進的仿生模式識別對于正常類的識別率較支持向量機高了19%,病毒型高了5%,細菌型高了4%,平均高了10%。可見即使在數據量較大時,改進的仿生模式識別的平均表現水平依舊高于支持向量機,噪聲對其影像也小于支持向量機。
總的說來,上述3組實驗(A、B、C),使用了3組數量呈梯度上升的數據集,實驗結果揭示了改進的仿生模式識別和支持向量機在數據從少到多的情況下,其對各類X光圖像的識別情況。A組~B組對比實驗改進的仿生模式識別的平均識別率,基本不變保持在92%,與此同時支持向量機的平均識別率由82%上升到了86%,上升了4%;B組~C組對比實驗,改進的仿生模式識別的平均識別率隨著樣本訓練樣本數量的增加下降了4%,達到88%,支持向量機的平均識別率下降了8%達到78%。可見噪聲對本文所提出構建的改進的仿生模式識別的影響小于其對傳統模式識別的影像。在本文所采用的數據集上,對3種類別的影像判別優于傳統的模式識別,在一定情況下改善了肺炎判別的性能。
本文為了解決肺炎判別而提出了結合卷積神經網絡和仿生模式識別的網絡模型,通過卷積神經網絡自動提取特征向量,并將其轉化為高位空間中的點,利用仿生模式識別的分類網絡進行分類,實驗所得結果平均準確率達90%,在一定程度上解決了肺炎判別問題。本文所設計的技術并不局限于肺炎的判別,亦可用于疾病的檢測和分類,例如肺結核、肺腫瘤以及骨骼腫瘤等。但是本文所提出的方法,在樣本數量較大時算法復雜度增加,訓練時間增長較為嚴重.針對這些問題,作者將進行更深入的研究。