999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于加權(quán)深度特征的醫(yī)學(xué)圖像并行檢索仿真

2021-12-10 08:32:14毛亞青胡俊峰
計算機仿真 2021年11期
關(guān)鍵詞:特征提取深度特征

毛亞青,王 亮,胡俊峰

(徐州醫(yī)科大學(xué)醫(yī)學(xué)信息學(xué)院,江蘇 徐州 221000)

1 引言

醫(yī)學(xué)圖像在當(dāng)今醫(yī)療診斷中發(fā)揮著顯著的作用,對這些醫(yī)學(xué)圖像數(shù)據(jù)的檢索更是醫(yī)學(xué)圖像應(yīng)用的前提和基礎(chǔ)。然而,隨著醫(yī)學(xué)影像存儲與傳輸系統(tǒng)、醫(yī)學(xué)數(shù)字成像和通信等標(biāo)準(zhǔn)的不斷發(fā)展和完善,醫(yī)學(xué)圖像數(shù)據(jù)呈現(xiàn)爆炸式的增長。目前,醫(yī)學(xué)影像數(shù)據(jù)約占醫(yī)院內(nèi)部數(shù)據(jù)總數(shù)的70%[1],這些規(guī)模龐大的醫(yī)學(xué)圖像資源帶來了諸如存儲體量大、檢索效率低的問題,傳統(tǒng)的串行遍歷檢索模式已經(jīng)出現(xiàn)瓶頸,也增大了檢索系統(tǒng)的負(fù)擔(dān)。如何有效地檢索醫(yī)學(xué)圖像,快速準(zhǔn)確地搜索出滿足要求的圖像是亟待解決的重要問題。

分布式平臺Hadoop的出現(xiàn)為大規(guī)模醫(yī)學(xué)圖像數(shù)據(jù)的檢索提供了新的方向[2-5],通過分布式文件存儲系統(tǒng)HDFS和分布式數(shù)據(jù)庫HBase分別存儲海量圖像和手動選取的圖像特征,然后通過基于MapReduce的分布式編程對輸入的檢索圖像執(zhí)行分布式并行相似性匹配和圖像檢索。這種檢索方式提高了圖像檢索的速度和效率,但MapReduce并行模型在磁盤中進行運算,與基于內(nèi)存的分布式計算引擎Spark相比,Spark每個作業(yè)中間輸出的結(jié)果可以存儲在內(nèi)存中,無需讀寫HDFS。因此,Spark可以更好地適應(yīng)醫(yī)學(xué)圖像檢索過程中的迭代匹配的過程[6],從而提高檢索速度。

在醫(yī)學(xué)特征提取方面,基于內(nèi)容的醫(yī)學(xué)圖像檢索最初主要通過對特定場景根據(jù)主觀判斷手動提取特征,如:紋理特征、邊緣特征、GIST特征等單個或多個特征的融合,很容易導(dǎo)致圖像特征提取不完整,從而降低檢索的精度。卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,CNN)的出現(xiàn)提供了一種隱式自動學(xué)習(xí)的圖像特征提取方案。基于CNN的深度特征不僅能夠保留更多圖像細節(jié)信息[7],在圖像特征表示方面也表現(xiàn)出優(yōu)于傳統(tǒng)特征的效果[8]。在近年來基于CNN的醫(yī)學(xué)圖像檢索研究[9-11]中,通過對網(wǎng)絡(luò)結(jié)構(gòu)的優(yōu)化,很多學(xué)者有效提高了基于深度特征醫(yī)學(xué)圖像檢索的精度。文獻[9]使用由多個卷積層和全連接層組成的卷積神經(jīng)網(wǎng)絡(luò),文獻[10]采用經(jīng)典LeNet模型進行圖像特征提取。與后續(xù)的新模型相比,他們特征提取使用的網(wǎng)絡(luò)模型層數(shù)太少,無法保留更深層的圖像特征。文獻[11]使用層數(shù)更深且可移植性更強的VGG網(wǎng)絡(luò)模型,并在此基礎(chǔ)上增加了Dense Blok,改善了特征提取不能表達圖像語義的問題。VGG模型簡化了卷積神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu),但訓(xùn)練的特征數(shù)量非常大,且隨著網(wǎng)絡(luò)層數(shù)的增多也加入了較多與圖像信息無關(guān)的噪聲特征。受Xu等人[12]的啟發(fā),本文通過基于部分語義的加權(quán)聚合方法進行醫(yī)學(xué)圖像特征提取,利用無監(jiān)督策略選擇部分卷積層濾波器生成權(quán)值,通過聚合對應(yīng)各語義內(nèi)容的加權(quán)區(qū)域表示獲取最終的特征表示,抑制了背景噪聲并突出有效判別部分,從而提取更加有效的深度特征信息。

為了提高醫(yī)學(xué)圖像檢索的準(zhǔn)確性,提取的圖像特征需要保留更多的圖像信息。因此其特征往往包含更高的維度,如基于VGG-16的CNN模型[12]提取的深度特征有4096維,龐大的特征維度也降低了特征存儲和檢索的效率。為此,眾多學(xué)者[9-11,13]采用哈希編碼的方式對高維特征向量進行編碼壓縮,從而節(jié)省存儲空間、提升計算效率。然而,這些研究普遍是在單機的環(huán)境下,對于分布式存儲的場景仍需要先把所有數(shù)據(jù)集中在單個節(jié)點進行編碼模型訓(xùn)練,帶來了更高的數(shù)據(jù)計算與存儲壓力。因此,本文適應(yīng)醫(yī)學(xué)圖像分布式存儲環(huán)境進行分布式哈希編碼模型訓(xùn)練,從而優(yōu)化哈希模型訓(xùn)練與計算存儲的過程。

綜上所述,為了提高大規(guī)模醫(yī)學(xué)圖像檢索的精度和效率,提出了一種基于加權(quán)深度特征的醫(yī)學(xué)圖像并行檢索方法。通過構(gòu)建基于部分語義加權(quán)聚合方法的卷積神經(jīng)網(wǎng)絡(luò)模型進行醫(yī)學(xué)圖像深度特征提取,利用分布式乘積量化哈希函數(shù)建立醫(yī)學(xué)圖像壓縮編碼模型,結(jié)合Spark并行計算模型對圖像特征進行分布式并行檢索。通過仿真驗證其性能,對比現(xiàn)有模型具有更高的檢索精度和檢索效率。

2 相關(guān)工作

2.1 Spark

Spark[6]是一個通用的大數(shù)據(jù)分布式計算框架,它實現(xiàn)了MapReduce編程范式,最初由加州大學(xué)伯克利分校AMP實驗室開發(fā)完成。Spark繼承了MapReduce編程簡單的優(yōu)點,并增加了對分布式內(nèi)存計算的支持。相比之下,MapReduce將計算過程中的中間數(shù)據(jù)存儲在磁盤上,而Spark則使用彈性分布式數(shù)據(jù)集RDD通過內(nèi)存來存儲中間數(shù)據(jù)[6],從而提高計算效率。此外,Spark可以非常方便地與Hadoop等開源產(chǎn)品進行融合,如資源管理和調(diào)度器YARN、Apache Mesos等。并且可以處理所有Hadoop支持的數(shù)據(jù),如HDFS、HBase和Cassandra等。對于已經(jīng)部署Hadoop集群的用戶不需要做任何數(shù)據(jù)遷移就可以使用Spark的強大處理能力。圖1所示為Spark的運行模式。

圖1 Spark運行模式

2.2 卷積神經(jīng)網(wǎng)絡(luò)

20世紀(jì) 90年代,LeCun等人[14,15]設(shè)計了多層人工神經(jīng)網(wǎng)LeNet-5模型,實現(xiàn)手寫體數(shù)字識別,奠定了CNN發(fā)展的基礎(chǔ)。之后,Krizhevsky等人[16]提出AlexNet模型,加深了網(wǎng)絡(luò)層次并解決了Sigmoid的梯度消失問題,減輕了模型的過擬合,在圖像識別任務(wù)上取得了重大突破。在這之后,研究學(xué)者又提出了其它的改善方法,如VGGNet[17]將網(wǎng)絡(luò)的深度擴展到19層,并在卷積設(shè)計上,使用了更小的卷機核,不僅減少了參數(shù),也達到了更好的效果。何愷明等人[18]提出的殘差網(wǎng)絡(luò)ResNet模型,進一步加深了神經(jīng)網(wǎng)絡(luò)的層次,同時解決了網(wǎng)絡(luò)模型訓(xùn)練過程的退化問題,降低了深層網(wǎng)絡(luò)的優(yōu)化難度。然而在模型通用性方面,在不進行微調(diào)的情況下,相關(guān)研究[19]發(fā)現(xiàn)Resnet在圖像檢索和視覺目標(biāo)跟蹤任務(wù)中沒有學(xué)習(xí)到良好的通用功能,而GoogleLeNet和VGGNet模型為轉(zhuǎn)移學(xué)習(xí)提供了更好的性能。

2.3 基于乘積量化哈希的特征索引

傳統(tǒng)樹結(jié)構(gòu)索引方法存儲空間占用過大,且隨著維度的增長空間代價成倍變大,因此需要通過對原始數(shù)據(jù)進行哈希編碼壓縮以節(jié)省空間。目前對哈希編碼的研究主要包括數(shù)據(jù)無關(guān)哈希和數(shù)據(jù)驅(qū)動哈希:數(shù)據(jù)無關(guān)哈希方法以局部敏感哈希(Locality Sensitive Hashing,LSH)[20]為代表,在不考慮數(shù)據(jù)分布的情況下將原始空間中的數(shù)據(jù)投影到超平面獲取相應(yīng)編碼。數(shù)據(jù)驅(qū)動哈希方法主要通過判別數(shù)據(jù)結(jié)構(gòu)及分布信息來自動學(xué)習(xí)哈希函數(shù),代表方法有譜哈希(Spectral Hashing,SH)[21]、迭代量化(Iterative Quantization,ITQ)[22]、乘積量化(Product Quantization,PQ)[23]、笛卡爾K均值(Cartesian K-Means)[24]及組合量化(Composite Quantization)[25]等。與其它編碼方法相比,乘積量化模型能夠有效解決聚類中心數(shù)量膨脹問題,進而提升大規(guī)模圖像檢索過程中的數(shù)據(jù)存儲效率。

3 基于加權(quán)深度特征的醫(yī)學(xué)圖像并行檢索

3.1 總體概述

本文提出的基于加權(quán)深度特征的醫(yī)學(xué)圖像并行檢索方法主要包括3部分:1)基于加權(quán)深度特征的醫(yī)學(xué)圖像特征提取;2)基于分布式哈希的醫(yī)學(xué)圖像特征量化;3)醫(yī)學(xué)圖像并行檢索。總體流程如圖2所示。

圖2 基于加權(quán)深度特征的醫(yī)學(xué)圖像并行檢索

3.2 醫(yī)學(xué)圖像深度特征提取

在醫(yī)學(xué)圖像深度特征提取部分,本文首先通過VGG16網(wǎng)絡(luò)模型提取深度卷積特征,然后基于部分語義的加權(quán)聚合方法進行特征加權(quán)篩選獲取最終特征向量。特征篩選過程利用無監(jiān)督策略選擇部分卷積層濾波器生成概率權(quán)值方案,通過聚合對應(yīng)各語義內(nèi)容的加權(quán)區(qū)域表示獲取最終的特征表示。具體流程如圖3所示。

圖3 醫(yī)學(xué)圖像深度特征提取過程

對于輸入查詢的圖像I,首先傳遞到預(yù)訓(xùn)練的深度網(wǎng)絡(luò)VGG-16模型提取深度卷積層特征f(由C個通道特征圖組成,每個特征圖高度為H、寬度為W)。該圖像通過N個篩選出來的部分檢測器加權(quán)聚合表示,即為N*C維的矢量表示。

部分判別檢測器的選擇基于醫(yī)學(xué)圖像特征數(shù)據(jù)集進行訓(xùn)練,選擇具有更大差異的特征圖通道,因此通過計算每個通道特征的方差進行篩選,C維向量gi(i=1,2,…,D)的C通道方差V={v1,v2,…,vc,…,vC}:

(1)

對C通道的方差{v1,v2,…,vC}進行排序,選擇方差最大的前N個判別式卷積層濾波器作為部分檢測器。然后,通過無監(jiān)督策略生成概率權(quán)值方案,每個概率權(quán)值方案都對應(yīng)于隱含的固定語義內(nèi)容。通過選擇的概率權(quán)值方案加權(quán)PWA表示的構(gòu)造開始于具有高度H和寬度W的圖像I的C×W×H維深度卷積特征f的加權(quán)和集:

(2)

系數(shù)wn是歸一化權(quán)重,其取決于由部分檢測器n生成的所選概率權(quán)值方案的位置(x,y)中的激活值vn(x,y):

(3)

其中α和β分別是功率歸一化和功率縮放參數(shù)。

從加權(quán)和池化過程獲得N個選擇的C維區(qū)域表示ψn(I),進而通過連接選定的區(qū)域表示得到全局N×C維表示向量ψ(I)=[ψ1,ψ2,…,ψN],其中根據(jù)特征集的C通道的方差值選擇N部分探測器,既提高了性能又提高了計算效率。

最后,通過后處理對全局表示ψ(I)執(zhí)行l(wèi)2-歸一化、主成分分析(Principal Component Analysis,PCA)壓縮和白化,并獲得最終的M維表示ψPWA(I)

(4)

其中V是大小為M×N的PCA矩陣,M是保留維度的數(shù)量,σ1,σ2,…,σM是相關(guān)的奇異值。

3.3 基于分布式哈希的醫(yī)學(xué)圖像特征編碼

醫(yī)學(xué)圖像特征編碼模型是對卷積神經(jīng)網(wǎng)絡(luò)輸出的醫(yī)學(xué)圖像特征進行哈希乘積量化編碼,通過分布式編碼存儲實現(xiàn)任意圖像查詢的快速檢索。首先,對訓(xùn)練數(shù)據(jù)集進行哈希編碼學(xué)習(xí)以獲得特征編碼模型;進而將訓(xùn)練好的編碼模型應(yīng)用在原始醫(yī)學(xué)圖像數(shù)據(jù)集中,實現(xiàn)其壓縮編碼表示和編碼數(shù)據(jù)分布式存儲;最后,在醫(yī)學(xué)圖像檢索過程中,對查詢的圖像向量在編碼數(shù)據(jù)集上找出近鄰候選編碼集合,從而輸出查詢結(jié)果。

(5)

最后,編碼模型C以多個子空間中編碼模型的笛卡爾積的形式表示,C=C1×C2×…×Cm。整個算法的空間復(fù)雜度與向量維度p、子空間數(shù)量m和子空間聚類中心數(shù)量k有關(guān),存儲編碼模型所需要的空間為O(mkp)。

圖4顯示了分布式編碼模型的訓(xùn)練過程。Spark平臺中的分布式計算過程將分布式數(shù)據(jù)存儲RDD分為多個分區(qū)在集群中的不同節(jié)點上運行。因此為了實現(xiàn)分布式哈希檢索,需要將哈希編碼模型分布式地存儲在RDD中。對于一個p維的輸入數(shù)據(jù)集X,數(shù)據(jù)分布式地存儲在m個計算節(jié)點上,因此將其劃分成m個子集X=[X1,…,Xm],每個子集包含n個聚類中心,共需要m×n個分布式矩陣進行存儲。編碼矩陣用B=[B1,B2,…,BS]來表示,根據(jù)數(shù)據(jù)分布式這一特點,分布式乘積量化的目標(biāo)函數(shù)為

圖4 分布式編碼模型訓(xùn)練過程

(6)

訓(xùn)練后的編碼模型可以對分布式存儲的醫(yī)學(xué)圖像深度特征數(shù)據(jù)集進行壓縮編碼表示。首先將分布在m個存儲節(jié)點上的特征向量集劃分成m份,再利用分布式編碼模型對每份向量子集進行編碼壓縮K-Means預(yù)測,從而獲得每份特征向量的聚類中心,再利用其聚類中心對每個向量子集進行編碼表示。

3.4 醫(yī)學(xué)圖像并行檢索

在醫(yī)學(xué)圖像檢索的應(yīng)用過程中,對于輸入查詢的醫(yī)學(xué)圖像,本文首先利用CNN模型進行深度特征提取,然后對哈希編碼后的特征向量采用非對稱距離度量[23]進行距離計算,最終輸出k個距離最近的相似醫(yī)學(xué)圖像。利用非對稱距離度量的優(yōu)勢在于能夠避免直接計算查詢醫(yī)學(xué)圖像深度特征向量與數(shù)據(jù)庫中每個向量的歐式距離,從而減少查詢時間,提高檢索效率。

圖5是醫(yī)學(xué)圖像并行檢索過程的示意圖。通過事先計算深度特征哈希數(shù)據(jù)庫中每個聚類中心與其子向量的距離建立檢索查找表;對于需要查詢的醫(yī)學(xué)圖像深度特征向量q,計算其與數(shù)據(jù)庫中聚類中心xi′的距離,即為該向量與其它圖像向量之間的非對稱距離;通過比較q與聚類中心的距離找出最近的聚類c,設(shè)距離為l;最后,遍歷查找表將c聚類中每個向量與聚類中心的距離與l相加,即獲得q與該聚類中所有向量的距離,篩選距離排序獲得最近似的特征向量并返回對應(yīng)的醫(yī)學(xué)圖像。

圖5 醫(yī)學(xué)圖像并行檢索過程

4 實驗結(jié)果分析

4.1 實驗環(huán)境與數(shù)據(jù)集

為了實現(xiàn)醫(yī)學(xué)圖像特征提取模型的高效訓(xùn)練和并行檢索模型的分布式執(zhí)行,本文將模型訓(xùn)練和并行檢索兩部分實驗分在不同的環(huán)境中執(zhí)行。其中,模型過程為基于CNN的加權(quán)深度特征提取模型的訓(xùn)練,環(huán)境選用GPU型號為Tesla K80、12GB內(nèi)存的Google云服務(wù)器,并采用Python 3.6和Tensorflow 1.7的深度學(xué)習(xí)框架。并行檢索包括基于分布式編碼模型的訓(xùn)練和基于Spark的并行檢索,環(huán)境選用1個主節(jié)點和3個計算幾點,各節(jié)點配置情況如表1所示。

表1 分布式節(jié)點配置情況

實驗數(shù)據(jù)集選用由美國國立衛(wèi)生研究院臨床中心(NIHCC)的團隊開發(fā)的醫(yī)學(xué)圖像數(shù)據(jù)集DeepLesion(https:∥nihcc.app.box.com/v/DeepLesion),是來自4427個患者的多類別、病灶級別標(biāo)注臨床醫(yī)療CT圖像開放數(shù)據(jù)集。該數(shù)據(jù)庫中目前已有32,735張CT圖像及病變信息,去除重復(fù)記錄后共有已標(biāo)記的病變圖像9624個,包括:肺(2370)、腹部(2119)、縱隔(1640)、肝臟(1257)、骨盆(843)、軟組織(660)、腎(488)和骨(247)共8種損傷類型。

本文實現(xiàn)的醫(yī)學(xué)圖像檢索方法在DeepLesion數(shù)據(jù)集上進行醫(yī)學(xué)圖像特征提取和分布式并行檢索。根據(jù)給定醫(yī)學(xué)圖像實現(xiàn)數(shù)據(jù)集中相同病灶、相似損傷的其它醫(yī)學(xué)圖像的檢索,從而有效地輔助醫(yī)療診斷過程。

4.2 實驗指標(biāo)

平均準(zhǔn)確率均值mAP(the mean Average Precision)是圖像檢索中最常用的評價指標(biāo),實驗將其用于評價所提出圖像檢索方法的效果。檢索結(jié)果的mAP值越大,相似圖像在檢索結(jié)果中排名越高,檢索效果越好。mAP的計算基于查全率r和查準(zhǔn)率p兩個參數(shù),定義為

(7)

具體含義指的是當(dāng)查詢第i張圖像返回共j個檢索結(jié)果時,rij表示檢索到的正確結(jié)果占圖像庫中正確結(jié)果總數(shù)的百分比,pij表示檢索到的正確結(jié)果占檢索出的全部結(jié)果的百分比。通過查全率和查準(zhǔn)率計算圖像i的平均查準(zhǔn)率(Average Precision,AP)為

(8)

其中,Δrij為在返回增加一張圖像時查全率的變化值,n為數(shù)據(jù)集中的圖像總數(shù)。因此,查詢m張圖像的平均查準(zhǔn)率均值mAP為

(9)

4.3 實驗分析

為驗證本文提出醫(yī)學(xué)圖像檢索方法的精度和效率,實驗共分為三部分:圖像特征提取方法的性能分析、分布式乘積量化哈希編碼效果分析、分布式檢索效率分析。

4.3.1 圖像特征提取方法的檢索性能分析

首先驗證本文圖像特征提取方法的性能,實驗在單機環(huán)境下將本文所采用的加權(quán)聚合深度特征提取圖像檢索方法與最新的圖像檢索方法進行對比,包括:基于手工SIFT特征的圖像檢索算法RVD-W[26]、基于AlexNet模型深度特征的圖像檢索算法CNN-SL[27]、基于GoogleLeNet模型深度特征的圖像檢索算法CCS[28]和基于VGG模型深度特征的圖像檢索算法CroW[29](https:∥github.corn/yahoocrow)進行檢索的mAP對比。

表2所示為采用不同特征提取模型的檢索方法效果對比,相比基于SIFT特征提取和其它CNN深度特征,本文特征提取所采用的算法在醫(yī)學(xué)圖像集中獲得了最好的檢索效果。

表2 不同圖像特征提取方法檢索效果對比

4.3.2 分布式乘積量化哈希編碼效果分析

為了驗證本文分布式乘積量化哈希編碼的性能,將所提出的算法與局部敏感哈希編碼LSH[20]、有譜哈希SH[21]、迭代量化ITQ[22]三種經(jīng)典哈希編碼算法在不同醫(yī)學(xué)圖像編碼長度時的檢索性能進行對比。

在編碼過程中,編碼長度由子空間數(shù)量m和各空間聚類中心個數(shù)k決定,編碼長度l=m*log2k(bit),實驗采用編碼位數(shù)分別為:8、16、32、64、128的長度進行實驗,4種哈希編碼算法的性能情況如圖6所示。隨著選取編碼長度的增大,所有編碼模型的檢索性能均有提高,是因為編碼長度越大所保留的特征長度越大、表達圖像信息的能力越強,因此編碼檢索效果越好。而相比之下,本文分布式乘積量化的哈希編碼模型平均檢索均值更高,檢索性能更好。

圖6 哈希編碼算法檢索性能對比

在Spark分布式訓(xùn)練調(diào)優(yōu)方面,實驗選取不同數(shù)量的Executor(節(jié)點的執(zhí)行進程數(shù))、針對不同哈希編碼長度進行哈希編碼模型分布式訓(xùn)練,對比其編碼模型的訓(xùn)練時間,如圖7所示??偟膩碚f,編碼長度越長,所需訓(xùn)練的時間越長。且隨著Executor個數(shù)的增多,訓(xùn)練消耗時間趨勢呈先下降后平緩,這是因為受限于Spark集群的計算節(jié)點總處理器核心數(shù),所以最終時間消耗趨于穩(wěn)定。

圖7 編碼模型訓(xùn)練時間對比

4.3.3 分布式檢索效率分析

在檢索效率方面,實驗在分布式環(huán)境中對本文方法檢索效果、分布式檢索效率即在不同節(jié)點數(shù)、不同檢索圖像數(shù)據(jù)量情況下的檢索時間進行分析。

圖8顯示了具有在不同節(jié)點數(shù)的Spark集群中醫(yī)學(xué)圖像檢索時間的比較。所提出算法消耗的時間隨著節(jié)點數(shù)量的增多而減少,同時也表現(xiàn)出整體系統(tǒng)的可擴展性。時間下降的趨勢逐漸趨于平緩,是因為雖然節(jié)點增多,但集群不可避免地需要消耗用來維持節(jié)點間網(wǎng)絡(luò)通信、調(diào)度計算等的時間??偟膩碚f,算法運行效率隨著節(jié)點的增加而更高,且數(shù)據(jù)量越大采用分布式計算的優(yōu)勢越明顯。

圖8 分布式檢索效率對比

4.3.4 醫(yī)學(xué)圖像檢索結(jié)果

如圖9是根據(jù)需要檢索的縱隔損傷圖像(損傷類型為3),使用本文算法的檢索出DeepLesion損傷數(shù)據(jù)集中前8張匹配的相似損傷圖像。同時,圖中也檢索出相似的肺部損傷圖像(損傷類型為5),從而提供數(shù)據(jù)集中的相關(guān)信息以輔助臨床診斷。

圖9 醫(yī)學(xué)圖像檢索結(jié)果

5 結(jié)束語

為了提高大規(guī)模醫(yī)學(xué)圖像檢索的準(zhǔn)確性和效率,本文深入研究和實現(xiàn)在Spark平臺下基于加權(quán)深度特征和分布式哈希的醫(yī)學(xué)圖像并行檢索方法。通過基于部分語義加權(quán)聚合的卷積神經(jīng)網(wǎng)絡(luò)對醫(yī)學(xué)圖像進行深度特征提取,保證了醫(yī)學(xué)圖像特征對原有圖像的關(guān)鍵信息保留;通過乘積量化的哈希編碼模型實現(xiàn)對醫(yī)學(xué)圖像特征的壓縮存儲,提高了存儲效率;通過基于Spark的分布式檢索提高了檢索的計算效率。最后,通過在醫(yī)學(xué)圖像數(shù)據(jù)集上的實驗對比在醫(yī)學(xué)圖像特征提取、哈希編碼性能、檢索效率方面系統(tǒng)均有良好表現(xiàn)。在未來的工作中,將拓展進行更大規(guī)模醫(yī)學(xué)圖像數(shù)據(jù)集的并行檢索,從擴大數(shù)據(jù)規(guī)模和醫(yī)學(xué)圖像檢索類別等角度提高系統(tǒng)的可拓展性。

猜你喜歡
特征提取深度特征
深度理解一元一次方程
如何表達“特征”
基于Gazebo仿真環(huán)境的ORB特征提取與比對的研究
電子制作(2019年15期)2019-08-27 01:12:00
不忠誠的四個特征
深度觀察
深度觀察
深度觀察
抓住特征巧觀察
一種基于LBP 特征提取和稀疏表示的肝病識別算法
基于MED和循環(huán)域解調(diào)的多故障特征提取
主站蜘蛛池模板: 欧美日韩激情| 国产不卡一级毛片视频| 国产成人AV男人的天堂| 亚洲成人高清在线观看| 亚洲天堂久久| 四虎国产永久在线观看| 波多野结衣在线一区二区| 国产日韩欧美一区二区三区在线 | 久久伊人操| 欧洲av毛片| 亚洲AⅤ波多系列中文字幕| 成人福利在线观看| 多人乱p欧美在线观看| 国产理论精品| 欧美一区二区啪啪| 在线99视频| 亚洲一区精品视频在线| 国产欧美性爱网| 国产专区综合另类日韩一区 | 国产极品美女在线播放| 99re精彩视频| 视频一区视频二区日韩专区| 试看120秒男女啪啪免费| 国产91蝌蚪窝| 四虎影视8848永久精品| a天堂视频在线| 欧美日韩国产综合视频在线观看 | 亚洲第一色视频| 国产原创演绎剧情有字幕的| 蜜桃视频一区二区| 亚洲精品自在线拍| 中国成人在线视频| 嫩草影院在线观看精品视频| 亚洲成a人片| 波多野结衣视频一区二区| 免费观看男人免费桶女人视频| 国产男女免费视频| 日韩高清欧美| 在线99视频| 欧美精品伊人久久| 亚洲成人黄色在线观看| 午夜啪啪网| 婷婷五月在线| 伊人久久婷婷五月综合97色| 91偷拍一区| 国产精品免费露脸视频| 无码中文AⅤ在线观看| 久久久久亚洲AV成人人电影软件| 亚洲av综合网| 国产成人综合日韩精品无码首页| 国产一级无码不卡视频| 91精品国产一区| 在线五月婷婷| 国产精品久久久久久影院| 免费av一区二区三区在线| 97视频在线观看免费视频| 国产精品美乳| 手机在线国产精品| 国产成人禁片在线观看| 99伊人精品| 免费在线观看av| 毛片视频网址| 天堂成人在线| 欧美午夜性视频| 欧美日韩午夜| 国产一区自拍视频| 国产剧情一区二区| 一级高清毛片免费a级高清毛片| 在线观看亚洲精品福利片| 国产亚洲精品91| 国产91高清视频| 亚洲男女在线| 亚洲国模精品一区| 亚洲动漫h| 九色91在线视频| 久久久久国产一级毛片高清板| 亚洲第一成年免费网站| 欧美成人A视频| 亚洲国产日韩在线观看| 国产日韩欧美精品区性色| 99在线免费播放| 在线无码私拍|