999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于卷積神經(jīng)網(wǎng)絡(luò)的皮膚癌識(shí)別方法

2020-10-28 01:44:08郭文婷
關(guān)鍵詞:特征融合模型

龔 安,郭文婷

(中國石油大學(xué)(華東) 計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院,山東 青島 266580)

0 引 言

皮膚病是人類最常見的疾病之一,全世界30%~70%的人有與皮膚病相關(guān)的健康問題[1],其中很大比例的皮膚病由于沒有進(jìn)行早期治療,導(dǎo)致病情發(fā)展成皮膚癌。惡性黑色素瘤[2-3]作為世界上增長速度最快以及最致命的癌癥之一,每年導(dǎo)致較高的死亡人數(shù)[4]。進(jìn)行早期診斷和治療能夠防止良性皮膚癌惡化,提高惡性黑色素瘤的存活率。臨床上引入皮膚鏡[5]來協(xié)助醫(yī)生進(jìn)行診斷,但是由于病變區(qū)域的大小和形狀不同,即使是經(jīng)驗(yàn)豐富的醫(yī)生在進(jìn)行診斷時(shí),也具有主觀判斷的成分,增加了皮膚癌診斷的難度。因此,利用計(jì)算機(jī)輔助診斷,對(duì)于提高皮膚癌識(shí)別的效率和準(zhǔn)確率,具有極高的意義。

目前,對(duì)于皮膚癌的研究大多是針對(duì)黑色素瘤與非黑色素瘤的良惡性診斷[6-7],而基于計(jì)算機(jī)輔助診斷的皮膚癌圖像分類主要包括兩種方法。一是基于皮膚鏡圖像特征提取和傳統(tǒng)機(jī)器學(xué)習(xí)的分類方式,這種方式是經(jīng)過一系列圖像預(yù)處理、特征選擇之后,利用支持向量機(jī)[8]、決策樹等分類器完成分類。Jain S等[9]提出了一種利用ABCD規(guī)則,即黑色素瘤病變的主要特征:不對(duì)稱性、邊界不規(guī)則性、顏色和直徑,提取特征參數(shù)用于將圖像分類為正常皮膚和黑色素瘤的方法。Barata等[10]提出分別利用全局特征和局部特征檢測皮膚鏡中黑色素瘤的方法,得到利用單獨(dú)的特征進(jìn)行識(shí)別時(shí),顏色特征優(yōu)于紋理特征的結(jié)論。基于皮膚鏡圖像特征提取和傳統(tǒng)機(jī)器學(xué)習(xí)的分類方法較為依賴于專業(yè)知識(shí),也有一定的人為因素的影響,會(huì)對(duì)提取高質(zhì)量的特征有一定限制。二是基于深度學(xué)習(xí)的皮膚癌圖像分類方式。近年來,隨著深度學(xué)習(xí)的發(fā)展,卷積神經(jīng)網(wǎng)絡(luò)在醫(yī)學(xué)圖像識(shí)別領(lǐng)域取得了很好的效果。Li Y等[11]在ISIC2017的比賽中,利用預(yù)訓(xùn)練的ResNet模型,將三類皮膚癌分類問題分成兩個(gè)二分類問題進(jìn)行訓(xùn)練,實(shí)現(xiàn)了87%的識(shí)別率,但對(duì)于多分類問題效果不佳。Thao L T等[12]使用全卷積-反卷積結(jié)構(gòu)進(jìn)行分割后,再利用VGG16模型進(jìn)行病變識(shí)別,在卷積層之后,添加一個(gè)全局平均池化層,獲得輸出特征,該方法實(shí)現(xiàn)了超過89%的識(shí)別率,但識(shí)別敏感性偏低。目前在皮膚癌識(shí)別的研究中,基于卷積網(wǎng)絡(luò)的方法主要是利用單一網(wǎng)絡(luò)模型進(jìn)行識(shí)別,單一模型提取的皮膚癌特征相對(duì)于多個(gè)模型有一定的不足,所以針對(duì)每個(gè)模型的特點(diǎn),結(jié)合不同模型的優(yōu)勢(shì),提取不同的皮膚癌特征,利用特征融合的方法,利用融合后的特征來識(shí)別皮膚癌。

該文使用深度卷積神經(jīng)網(wǎng)絡(luò)將皮膚癌病理圖像分為黑色素細(xì)胞痣,黑色素瘤,良性角化病變,基底細(xì)胞癌,光化性角化病,血管病變,皮膚纖維瘤七類。為了避免因皮膚癌圖像數(shù)據(jù)量過小而產(chǎn)生過擬合問題,采用數(shù)據(jù)增強(qiáng)和特征融合的方法來提高模型的準(zhǔn)確率,以更好地滿足臨床需要。

1 方法介紹

提出的基于卷積神經(jīng)網(wǎng)絡(luò)的皮膚癌識(shí)別方法如圖1所示,主要包括三個(gè)部分:數(shù)據(jù)預(yù)處理、圖像特征提取及融合、圖像識(shí)別。首先對(duì)原始皮膚癌數(shù)據(jù)進(jìn)行裁剪、遮擋物處理、數(shù)據(jù)增強(qiáng)等預(yù)處理,將圖像統(tǒng)一調(diào)整224×224的大小,然后將預(yù)處理后的圖像輸入到卷積神經(jīng)網(wǎng)絡(luò)中進(jìn)行特征提取,經(jīng)過DenseNet201和Xception提取特征向量后,進(jìn)行融合,最后將融合后的特征向量輸入至識(shí)別模塊,利用softmax分類器進(jìn)行皮膚癌圖像的識(shí)別。

圖1 基于卷積神經(jīng)網(wǎng)絡(luò)的皮膚癌識(shí)別方法模型流程圖

1.1 遷移學(xué)習(xí)

遷移學(xué)習(xí)[13]是利用已經(jīng)訓(xùn)練好的模型參數(shù)來幫助新模型的訓(xùn)練。通過遷移學(xué)習(xí),可以加快并優(yōu)化模型的學(xué)習(xí)效率。遷移學(xué)習(xí)的應(yīng)用較為廣泛,深層次的神經(jīng)網(wǎng)絡(luò)包含有大量的參數(shù),數(shù)據(jù)量過小會(huì)在訓(xùn)練時(shí)出現(xiàn)過擬合現(xiàn)象,通常需要用大量的數(shù)據(jù)進(jìn)行訓(xùn)練。在醫(yī)學(xué)領(lǐng)域,數(shù)據(jù)量非常有限,難以滿足直接訓(xùn)練的需求,因此將自然圖像訓(xùn)練得到的權(quán)重作為醫(yī)學(xué)數(shù)據(jù)的初始化參數(shù),取得了顯著的成果。Pan等[14]提出將遷移學(xué)習(xí)應(yīng)用于醫(yī)學(xué)領(lǐng)域,取得了良好的效果。

1.2 數(shù)據(jù)預(yù)處理

目前深度學(xué)習(xí)的圖像分類算法經(jīng)過大量的數(shù)據(jù)樣本訓(xùn)練后得到了較高的準(zhǔn)確率,但當(dāng)數(shù)據(jù)樣本較少時(shí),準(zhǔn)確率會(huì)有所下降,并且圖像各類型的數(shù)據(jù)不平衡也會(huì)對(duì)圖像特征的學(xué)習(xí)產(chǎn)生不好的影響,使得準(zhǔn)確率降低。為了解決這個(gè)問題,通常使用水平/垂直翻轉(zhuǎn),旋轉(zhuǎn),縮放,裁剪,平移,調(diào)整對(duì)比度,噪聲等方法進(jìn)行數(shù)據(jù)增強(qiáng)。

各類皮膚癌圖像數(shù)據(jù)不平衡會(huì)影響對(duì)圖像特征的學(xué)習(xí),黑色素細(xì)胞痣的數(shù)量達(dá)到6 705,而最少的皮膚纖維瘤的數(shù)量只有115。為了解決數(shù)據(jù)不平衡的問題,對(duì)數(shù)據(jù)集進(jìn)行數(shù)據(jù)增強(qiáng)處理。針對(duì)數(shù)據(jù)量極少的皮膚纖維瘤等圖像,通過將圖像旋轉(zhuǎn)-90°、-45°、45°、90°、180°等方式,擴(kuò)充數(shù)據(jù)集。

1.3 特征提取與特征融合

在圖像識(shí)別領(lǐng)域,特征提取是關(guān)鍵,特征的好壞直接關(guān)系到處理結(jié)果的好壞。在進(jìn)行皮膚癌的識(shí)別工作中,要根據(jù)皮膚鏡圖像的顏色特征、形狀特征和紋理特征來進(jìn)行判斷。該文選用預(yù)訓(xùn)練的網(wǎng)絡(luò)模型DenseNet201以及Xception模型,將皮膚癌圖像進(jìn)行預(yù)處理后,輸入至模型進(jìn)行訓(xùn)練,得到的特征圖進(jìn)行融合,根據(jù)最終得到的特征圖進(jìn)行皮膚癌的識(shí)別。

相比于其他的網(wǎng)絡(luò)模型,如Alex[15]、VGGNet[16]、ResNet[17]等,DenseNet[18]網(wǎng)絡(luò)和Xception[19]網(wǎng)絡(luò)具有更深層次的網(wǎng)絡(luò)結(jié)構(gòu),可以學(xué)習(xí)到圖像深層次的特征。DenseNet含有密集塊結(jié)構(gòu),每一個(gè)卷積層的輸入都是前幾個(gè)卷積層輸出特征的結(jié)合,這樣加強(qiáng)了特征的傳播,實(shí)現(xiàn)了特征重用。Xception網(wǎng)絡(luò)采用多個(gè)不同尺寸的卷積核,提高對(duì)不同尺度特征的適應(yīng)能力,可以提取圖片不同尺度的特征。因此采取特征融合的方式,用不同的網(wǎng)絡(luò)提取圖像的不同特征來進(jìn)行訓(xùn)練。

1.3.1 DenseNet網(wǎng)絡(luò)

DenseNet作為獲得CVPR2017最佳論文獎(jiǎng)的深度卷積神經(jīng)網(wǎng)絡(luò)模型,借鑒了ResNet的短路連接方式,采用密集連接的方式,將網(wǎng)絡(luò)模型的任何兩層都直接連接,學(xué)習(xí)到更多層次的特征,使得網(wǎng)絡(luò)性能進(jìn)一步提升。

DenseNet的網(wǎng)絡(luò)基本結(jié)構(gòu)如圖2所示,主要包含稠密塊(DenseBlock)和過渡塊(transition layer)兩個(gè)組成模塊。稠密塊的結(jié)構(gòu)包括:BN-ReLU-Conv(1×1)-BN-ReLU-Conv(3×3),DenseNet由多個(gè)稠密塊組成,每兩個(gè)稠密塊中間的連接層稱為過渡塊,由BN->Conv(1×1)->averagePooling(2×2)組成。

圖2 DenseNet結(jié)構(gòu)

DenseNet相比于其他的網(wǎng)絡(luò)來說,具有較好的抗過擬合性能,適合于訓(xùn)練數(shù)據(jù)相對(duì)不足的情況。除此之外,DenseNet還具有以下特征:

(1)在DenseNet中,每個(gè)層都會(huì)與前面所有層連接在一起,并作為下一層的輸入,而該層所學(xué)習(xí)的特征也會(huì)被直接傳給其后面所有層作為輸入。對(duì)于一個(gè)L層的網(wǎng)絡(luò),DenseNet共包含L*(L+1)/2連接,對(duì)于來自不同層的特征圖直接連接,減少小樣本的過擬合問題,實(shí)現(xiàn)了特征重用,提升模型的效率。

(2)DenseNet的參數(shù)相對(duì)于其他網(wǎng)絡(luò)模型來說要少很多,同時(shí)由于梯度經(jīng)過每一層的傳遞,在一定程度上避免了梯度消失現(xiàn)象的發(fā)生。

1.3.2 Xception網(wǎng)絡(luò)

Inception最初提出的核心思想就是使用多尺寸卷積核去觀察輸入數(shù)據(jù)。在同一層中通過組合1*1,3*3,5*5卷積和池化等結(jié)構(gòu),使用不同尺寸的卷積核,提取更加豐富的特征,并且利用卷積核的合并,使得網(wǎng)絡(luò)寬度增加,同時(shí)也提高了對(duì)于不同尺度的適應(yīng)程度。但是網(wǎng)絡(luò)變寬的同時(shí),計(jì)算量也變大,所以通過加上1×1卷積核來減少參數(shù),減少計(jì)算量。

Xception在Inception V3[20]的基礎(chǔ)上借鑒深度可分離卷積(DepthWise Separable Convolution)實(shí)現(xiàn)了極致的Inception,在基本不增加網(wǎng)絡(luò)復(fù)雜度的前提下提高模型的效果。但Xception與Depthwise Separable Convolution相比較,有兩個(gè)不同之處:

(1)Depthwise Separable Convolution,先逐通道卷積,再進(jìn)行1×1卷積操作;而Xception則是先進(jìn)行1×1卷積操作,再逐通道卷積。

(2)Depthwise Separable Convolution的兩個(gè)卷積之間沒有激活函數(shù),而Xception在經(jīng)過1×1卷積操作之后加了Relu的非線性激活函數(shù)。

由此可見,Xception具有多個(gè)不同尺寸的卷積核,可以提高對(duì)不同尺度特征的適應(yīng)能力,提取更加豐富的特征,并且利用極致的Inception結(jié)構(gòu),在加深網(wǎng)絡(luò)的同時(shí)減少了參數(shù),使得網(wǎng)絡(luò)的性能得到提升。

1.3.3 特征融合

由于機(jī)器學(xué)習(xí)尤其是深度學(xué)習(xí)的迅速發(fā)展,特征融合應(yīng)用在越來越多的領(lǐng)域,它所帶來的優(yōu)勢(shì)也越來越明顯。特征融合是指使用不同的特征提取方式,提取圖像多種不同類型的特征,再按照特定的方法進(jìn)行融合,構(gòu)成一個(gè)新的特征向量,相比于單一的特征,特征融合后的特征向量具有圖像更多的特征信息。

特征融合一般包括并聯(lián)和串聯(lián)兩種形式,及add和concat方式。concat是以合并通道數(shù)的方式來融合特征,而add是以增加通道下的信息量的方式來融合特征,通道數(shù)不變。

由于每個(gè)輸出通道的卷積核是獨(dú)立的,以單個(gè)通道的輸出為例,假設(shè)兩路輸入的通道分別為X1,X2,…,Xc和Y1,Y2,…,Yc,式(1)、(2)分別表示兩種方式的輸出通道。

concat的單個(gè)輸出通道為(*表示卷積):

(1)

而add的單個(gè)輸出通道為:

(2)

該文采用經(jīng)過ImageNet數(shù)據(jù)集預(yù)訓(xùn)練的DenseNet201以及Xception模型,分別將訓(xùn)練得到的特征向量進(jìn)行融合,在融合層后添加全連接層,融合后的特征經(jīng)過全連接層,作為新的特征向量進(jìn)行皮膚癌的識(shí)別。特征融合可以更大程度地獲取到圖像的不同特征,實(shí)現(xiàn)更好的識(shí)別效果。

特征融合如圖3所示。

圖3 特征融合過程

1.4 圖像識(shí)別

皮膚癌圖像的識(shí)別是最后一個(gè)部分,通過獲取、分析及處理模型訓(xùn)練提取到的皮膚癌圖像的特征,應(yīng)用softmax分類器進(jìn)行皮膚癌圖像的識(shí)別。

softmax函數(shù),也稱歸一化指數(shù)函數(shù),和Relu、sigmoid激活函數(shù)不同的是,它們的輸入是一個(gè)單變量,而softmax函數(shù)的輸入是多個(gè)變量,常用于多分類神經(jīng)網(wǎng)絡(luò)輸出。softmax用于多分類過程中,它將多個(gè)神經(jīng)元的輸出映射到(0,1)區(qū)間內(nèi),這些值的累和為1,可以將每一個(gè)神經(jīng)元輸出理解成概率。在最后選取輸出節(jié)點(diǎn)的時(shí)候,選取概率最大(也就是值對(duì)應(yīng)最大的)節(jié)點(diǎn),作為預(yù)測目標(biāo)。

其公式為:

(3)

其中,Zi表示每個(gè)神經(jīng)元的輸出,Yi表示映射后的softmax值。

2 實(shí) 驗(yàn)

2.1 實(shí)驗(yàn)環(huán)境

實(shí)驗(yàn)的計(jì)算機(jī)配置和環(huán)境如下:CPU處理器為Intel(R) Core(TM) i7-6700K CPU @ 4.00 GHz×8;GPU處理器為NVIDIA GeForce GTX TITAN X;內(nèi)存(RAM)為16 GB;操作系統(tǒng)為64 bit Windows10專業(yè)版;編程語言為python;網(wǎng)絡(luò)模型通過基于Keras的深度學(xué)習(xí)框架實(shí)現(xiàn)。

2.2 實(shí)驗(yàn)數(shù)據(jù)

采用的皮膚鏡圖像來源于Kaggle提供的公開數(shù)據(jù)集,該數(shù)據(jù)集包含來自不同人群的皮膚鏡圖像。病例包括色素性病變領(lǐng)域中所有重要診斷類別的代表性集合,圖像大小是600×450,已由專業(yè)研究皮膚病變的醫(yī)生做好標(biāo)記。數(shù)據(jù)集中的皮膚病變包括:黑色素細(xì)胞痣(Nv),黑色素瘤(Mel),良性角化病變(Bkl),基底細(xì)胞癌(Bcc),光化性角化病(Akiec),血管病變(Vasc),皮膚纖維瘤(Df)這幾個(gè)常見類型,如圖4所示。

圖4 皮膚癌各類型圖

2.3 評(píng)價(jià)標(biāo)準(zhǔn)

為全面衡量模型的性能,除了采用識(shí)別準(zhǔn)確率(Accuracy)評(píng)價(jià)標(biāo)準(zhǔn)外,同時(shí)考慮識(shí)別的召回率,即敏感性(Sensitivity)。

準(zhǔn)確率的計(jì)算公式為:

Accuracy=

(4)

敏感性的計(jì)算公式為:

(5)

其中,q表示類別個(gè)數(shù),TP(True Positive)表示被正確地劃分為正例的個(gè)數(shù),TN(True Negative)表示被正確地劃分為負(fù)例的個(gè)數(shù),F(xiàn)P(False Positive)表示被錯(cuò)誤地劃分為正例的個(gè)數(shù),F(xiàn)N(False Negative)表示被錯(cuò)誤地劃分為負(fù)例的個(gè)數(shù)。當(dāng)Accuracy和Sensitivity的值都較大時(shí),說明模型具有較好的識(shí)別性能。

2.4 模型訓(xùn)練

基于Keras深度學(xué)習(xí)平臺(tái)進(jìn)行網(wǎng)絡(luò)結(jié)構(gòu)的搭建和模型訓(xùn)練。訓(xùn)練時(shí),將批處理設(shè)置為32,學(xué)習(xí)率為0.001,采用L1正則化和隨機(jī)梯度下降法(SGD),首先設(shè)置迭代次數(shù)為10,訓(xùn)練后會(huì)生成一個(gè)權(quán)重文件,在接下來訓(xùn)練時(shí),選擇上次訓(xùn)練所保存的權(quán)重再進(jìn)行訓(xùn)練,設(shè)置迭代次數(shù)為1 000。實(shí)驗(yàn)表明,這樣的訓(xùn)練方式有效地加快了收斂速度。

3 實(shí)驗(yàn)分析

實(shí)驗(yàn)采用五折交叉驗(yàn)證,將數(shù)據(jù)集隨機(jī)分成五份,輪流將其中4份作為訓(xùn)練數(shù)據(jù),1份作為測試數(shù)據(jù),重復(fù)實(shí)驗(yàn)5次,5次結(jié)果的正確率的平均值作為對(duì)算法精度的估計(jì)。針對(duì)每一類皮膚癌,測試集的結(jié)果矩陣如圖5所示。

圖5 測試結(jié)果矩陣

從矩陣中的數(shù)據(jù)可以看出,針對(duì)每一類皮膚癌,識(shí)別率均在85%以上,其中有些類型的皮膚癌,例如血管病變的識(shí)別率達(dá)到了99.6%,但是在黑色素瘤,黑色素細(xì)胞痣等類別,還存在著誤差,其中在黑色素瘤和黑色素細(xì)胞痣間存在錯(cuò)誤識(shí)別,以及皮膚纖維瘤被錯(cuò)誤識(shí)別為黑色素瘤、基底細(xì)胞癌等疾病,雖然存在著誤判,但良性角化病變、基底細(xì)胞癌、光化性角化病和血管病變均達(dá)到90%以上。在識(shí)別率達(dá)到90%以上的類別中,一部分的錯(cuò)誤識(shí)別是將良性角化病變識(shí)別為光化性角化病,以及將光化性角化病識(shí)別為基底細(xì)胞癌。對(duì)于總體的數(shù)據(jù)樣本,識(shí)別率和敏感性也達(dá)到91.42%、87.37%,識(shí)別率和敏感性大大提高。

為驗(yàn)證提出的特征融合的有效性,選擇在ImageNet數(shù)據(jù)集上預(yù)訓(xùn)練VGG19模型、ResNet50模型、DenseNet201模型以及Xception模型分別進(jìn)行單獨(dú)訓(xùn)練,再兩兩進(jìn)行特征融合實(shí)驗(yàn)。其中,設(shè)置和特征融合訓(xùn)練時(shí)相同的參數(shù)。在訓(xùn)練時(shí),利用首次訓(xùn)練所保存的權(quán)重再進(jìn)行訓(xùn)練,將特征融合后的結(jié)果與之進(jìn)行對(duì)比。實(shí)驗(yàn)結(jié)果如表1所示。

表1 特征融合與單一模型結(jié)果對(duì)比

根據(jù)表1可知,不同的卷積神經(jīng)網(wǎng)絡(luò)在皮膚癌圖像識(shí)別上有不同的表現(xiàn)。DenseNet201在準(zhǔn)確率方面有著不錯(cuò)的表現(xiàn),能夠達(dá)到88.39%,相比Xception、ResNet50、VGG19分別高出2.23%、5.59%、8.69%。基于所提出的特征融合方法,通過將Xception、ResNet50、VGG19、DenseNet201分別融合,發(fā)現(xiàn)融合后的卷積神經(jīng)網(wǎng)絡(luò)在識(shí)別正確率和敏感性值相比于利用單獨(dú)模型訓(xùn)練的結(jié)果,均有所提高,其中DenseNet201和Xception融合后在皮膚鏡圖像分類上相較于其他網(wǎng)絡(luò)模型表現(xiàn)得更好。表明利用特征融合的方法能夠使模型學(xué)習(xí)到更加豐富的特征,提高了皮膚癌圖像識(shí)別的準(zhǔn)確率和效率,有效地解決了皮膚癌類間相似度高、類內(nèi)差異大的問題。

利用數(shù)據(jù)增強(qiáng)以及未進(jìn)行數(shù)據(jù)增強(qiáng)的實(shí)驗(yàn)結(jié)果如表2所示。

表2 數(shù)據(jù)增強(qiáng)與未數(shù)據(jù)增強(qiáng)結(jié)果對(duì)比

從表中可以看出,經(jīng)過數(shù)據(jù)增強(qiáng)后的準(zhǔn)確率和敏感性均略高于未進(jìn)行數(shù)據(jù)增強(qiáng)的準(zhǔn)確率和敏感性,證明數(shù)據(jù)增強(qiáng)對(duì)于解決數(shù)據(jù)樣本小以及數(shù)據(jù)不平衡的問題是有效的,可以提高模型訓(xùn)練的準(zhǔn)確率和敏感性。

4 結(jié)束語

基于卷積神經(jīng)網(wǎng)絡(luò),對(duì)黑色素細(xì)胞痣,黑色素瘤,良性角化病變,基底細(xì)胞癌,光化性角化病,血管病變,皮膚纖維瘤這七類皮膚癌圖像進(jìn)行識(shí)別,針對(duì)皮膚癌識(shí)別中存在的誤判、準(zhǔn)確率低等問題,提出基于卷積神經(jīng)網(wǎng)絡(luò)特征融合識(shí)別皮膚癌方法。方法的優(yōu)點(diǎn)在于:

(1)在遷移學(xué)習(xí)的基礎(chǔ)上,使用預(yù)訓(xùn)練的DenseNet201模型以及Xception模型分別訓(xùn)練,采取特征融合的方式,實(shí)現(xiàn)了分類精度更高、收斂效果好的深度學(xué)習(xí)方法。

(2)采用數(shù)據(jù)增強(qiáng)的方法解決了皮膚癌圖像標(biāo)記樣本過少帶來的過擬合問題。

(3)實(shí)驗(yàn)證明,與單一模型相比,提出的方法準(zhǔn)確率和敏感性更高,為臨床診斷提供了更好的輔助作用。

存在的不足是實(shí)驗(yàn)數(shù)據(jù)不夠充足,今后的工作方向是使用更多的數(shù)據(jù)測試模型的識(shí)別率。

猜你喜歡
特征融合模型
一半模型
村企黨建聯(lián)建融合共贏
融合菜
從創(chuàng)新出發(fā),與高考數(shù)列相遇、融合
重要模型『一線三等角』
《融合》
重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
如何表達(dá)“特征”
不忠誠的四個(gè)特征
抓住特征巧觀察
主站蜘蛛池模板: 亚洲男人天堂久久| 亚洲欧美精品日韩欧美| 欧美性色综合网| 久久精品国产免费观看频道| 国产二级毛片| 久久中文字幕av不卡一区二区| 91精品国产无线乱码在线| 美女被躁出白浆视频播放| 就去色综合| 天天色天天操综合网| 国产十八禁在线观看免费| 99精品国产自在现线观看| 欧美在线观看不卡| 伊人色婷婷| 99无码中文字幕视频| 伊人网址在线| 成人第一页| 欧洲欧美人成免费全部视频| 91无码网站| www.国产福利| 中文字幕在线播放不卡| 91香蕉视频下载网站| 久久国产免费观看| 国产精品久久久久久搜索| 看你懂的巨臀中文字幕一区二区| 日韩精品免费一线在线观看| 日韩国产黄色网站| 欧美成人精品高清在线下载| 91无码国产视频| 她的性爱视频| 亚洲人成色77777在线观看| 亚洲大尺度在线| 伊在人亞洲香蕉精品區| 色天天综合| 久久久久夜色精品波多野结衣| 免费在线不卡视频| 无码精品一区二区久久久| 亚洲a级在线观看| 2022国产91精品久久久久久| 国内精品久久久久鸭| 久久精品电影| 日本爱爱精品一区二区| 在线观看欧美精品二区| 国产手机在线观看| 国产午夜无码专区喷水| 在线观看无码a∨| 国产免费黄| 欧美中日韩在线| 精品国产自在现线看久久| 免费一级毛片不卡在线播放| a毛片在线免费观看| 亚洲高清中文字幕| 亚洲国产欧洲精品路线久久| 国产91丝袜在线播放动漫| 国产日韩欧美成人| 无码精品福利一区二区三区| 欧美国产菊爆免费观看| 欧美黄网站免费观看| 亚洲三级色| 中文字幕资源站| 99re经典视频在线| 国产农村妇女精品一二区| 中文纯内无码H| 国产9191精品免费观看| a欧美在线| 五月天丁香婷婷综合久久| 久久综合结合久久狠狠狠97色| 国产99视频精品免费视频7| 欧美精品影院| 久久综合九九亚洲一区| 亚洲不卡影院| 精品综合久久久久久97超人| 在线视频精品一区| 亚洲伊人久久精品影院| 狠狠色香婷婷久久亚洲精品| 2021天堂在线亚洲精品专区| 亚洲av片在线免费观看| 国产在线一区二区视频| 国产精品亚欧美一区二区三区| 精品无码一区二区在线观看| 亚洲免费人成影院| 亚洲成a人片在线观看88|