999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于深度殘差網絡的迭代量化哈希圖像檢索方法

2022-09-25 08:42:54廖列法李志明張賽賽
計算機應用 2022年9期
關鍵詞:深度方法

廖列法,李志明,張賽賽

(江西理工大學信息工程學院,江西贛州 341000)

0 引言

近年來,隨著互聯網的興起,信息大量過載,圖像、文字、視頻等數據大量涌現。如何在龐大的圖像庫中方便、快速、準確地查詢和檢索用戶所需的圖像,成為圖像檢索領域的研究熱點,圖像檢索技術可以應對大數據時代不斷增長的圖像數據要求。經過幾十年的發展,基于內容的圖像檢索技術已經廣泛應用于人臉檢索[1]、商品圖像檢索[2]、服裝檢索[3]、醫學圖像檢索[4]等生活領域。

大規模圖像檢索問題存在緯度高、數據量大、計算耗時等問題。為了實現高效檢索,提出了一種近似最近鄰(Approximate Nearest Neighbor,ANN)算法[5],根據特征向量的相似性,從圖像數據集中找到與目標最近的圖像。哈希算法被廣泛應用于圖像檢索[6]等相關領域,將圖像的高維特征映射為壓縮的二值哈希碼。由于漢明距離[7]的計算效率和存儲空間的優勢,可以解決大規模圖像檢索中存儲空間和計算復雜度等問題。

由于哈希算法需要對數據進行特征提取,再將特征向量映射為哈希碼,而深度學習[8]具有強大的特征學習能力,因此哈希算法逐漸開始利用深度學習進行特征提取,于是衍生出一種新的方法——深度哈希學習[9]。深度哈希學習融合了哈希算法與深度學習技術,本質是同時學習深度語義特征和哈希碼,通過利用深度學習的方法,不斷減小損失來訓練神經網絡,對輸入數據提取出高維特征,然后生成為緊湊的二進制哈希碼。深度哈希方法的性能優于傳統哈希方法[10]。卷積神經網絡哈 希(Convolutional Neural Network Hashing,CNNH)[11]首個將卷積神經網絡運用到哈希算法中,但無法同時進行特征學習和哈希碼學習;深度神經網絡哈希(Deep Neural Network Hashing,DNNH)[12]是基于深度神經網絡同時學習特征模塊和哈希編碼模塊,但特征學習的準確性不夠高;雙線性卷積神經網絡架構[13]使用集成網絡模型來獲得高維語義信息,學習了深度語義信息。為了解決特征學習不可避免地提高計算機的存儲容量,提出了深度殘差網絡哈希圖像檢索架構[14],以降低計算機的存儲容量,提高檢索效率。

在深度哈希算法的研究中,有效的語義信息提取非常重要。DeepBit[15]是哈希技術中的一種經典方法,通過在哈希層添加損失函數訓練深度哈希模型,以學習緊湊的二進制哈希碼。在此基礎上,還提出了具有量化誤差約束的無監督方法[16],增加重構損失以確保語義相似性。基于端到端的無監督哈希算法[17]通過使用典型關聯分析-迭代量化(Canonical Correlation Analysis Iterative Quantization,CCA ITQ)方法生成偽標記,將無監督算法轉變為監督算法。最小化量化誤差是學習哈希的另一個重要挑戰,迭代量化(Iterative Quantization,ITQ)[18]通過找到最佳旋轉矩陣將量化誤差最小化,離散監督哈希(Discrete Supervised Hashing,SDH)[19]優化了二進制哈希碼,減小了量化誤差,深度監督哈希(Deep Supervised Hashing,DSH)[20]通過施加一個正則化器來控制量化誤差,雙線性迭代量化(Bilinear Iterative Quantization,BITQ)[21]使用緊湊的雙線性投影將高維數據映射到兩個較小的投影矩陣中,分布式快速監督離散哈希(Distributed Fast Supervised Discrete Hashing,DFSDH)[22]引入分布式框架共享集中式哈希學習模型,改進深度哈希網絡(Improved Deep Hashing Network,IDHN)[23]引入了歸一化語義標簽計算的成對量化相似度。

目前,哈希算法仍然存在以下問題:1)基于傳統的哈希算法研究主要基于手工標記,制約了檢索的準確性;2)雖然當前的深度哈希算法能夠獲得更好的表示圖像特征向量,但算法的訓練時間急劇增加;3)目前大多數哈希方法難以適應大規模的圖像檢索要求。

基于上述考慮,為了提高圖像檢索的檢索準確性和學習更優的哈希碼,提出了基于深度殘差網絡的迭代量化哈希圖像檢索方法(Deep Residual Network and Iterative Quantization Hashing,DRITQH)。首先,使用深度殘差網絡提取圖像數據特征,獲得具有語義特征的高維特征向量;然后,使用主成分分析(Principal Component Analysis,PCA)對高維圖像特征進行降維,運用迭代量化對生成的特征向量進行二值化處理,更新旋轉矩陣,將數據映射到零中心二進制超立方體進行最小量化誤差,得到最佳的投影矩陣;最后,進行哈希學習,得到最優的二進制哈希碼。DRITQH 使用深度殘差網絡,無需傳統手工標注,提升了訓練速度,縮短了訓練時間,優化了訓練過程,解決了圖像表達能力較弱、大規模圖像檢索效率較低、難以適應大規模圖像檢索的要求等問題。

因此,本文的主要內容有以下3 點:

1)使用殘差網絡學習圖像特征,通過跳躍連接直接將輸入信息連接到后面的層,保證信息的完整性,加快訓練的速度,提高檢索精度。

2)使用迭代量化算法通過逼近真實數據與哈希碼之間最小的誤差,得到更好的投影矩陣,從而學習最優的二進制哈希碼,檢索效率高。

3)在CIFAR-10、NUS-WIDE 和ImageNet 三個基準數據集進行了實驗,實驗結果表明DRITQH 方法的準確性和有效性均較高,能更好地適應大規模圖像檢索的要求。

1 基于深度殘差網絡的迭代量化哈希圖像檢索模型的構建

1.1 深度殘差網絡

從深度卷積神經網絡架構開始,受到了He 等[24]提出的用于圖像分類的殘差網絡(Residual Network,ResNet)架構的啟發,該網絡結構由卷積層、殘差層、全連接層和迭代量化哈希層組成,用于生成哈希碼。殘差網絡可以訓練更深入的網絡架構,包括用跳躍連接來替換直接堆疊的層,直接將輸入信息跳躍連接到后面的層,保證了信息的完整性。圖1 顯示了該體系結構的基本構件,可以假設F(x) +x的等式具有跳躍連接[25]的前饋神經網絡,可以跳躍多個圖層,執行恒等映射。恒等映射方式連接既不添加額外的參數,也不增加計算復雜性,從而更好地實現卷積神經網絡整體架構的性能。即使是在極深的網絡中,整個網絡仍然可以通過隨機梯度下降進行端到端的反向傳播訓練,恒等映射方式能有效緩解了梯度消失和梯度爆炸問題,并優化了訓練過程。

圖1 殘差網絡基本構件Fig.1 Basic component of residual network

1.2 殘差網絡訓練過程

深度殘差網絡可以有效地提高神經網絡的訓練速度,描述符逐層發送,保證了輸出特征向量的表達能力,使用批歸一化和全局池化可以得到更好的泛化網絡。通過在輸入和輸出之間殘差學習,保護信息的完整性,并簡化了學習目標。如圖2 所示,ResNet-50 的網絡模型主要由16 個殘差塊組成,每個殘差塊包含3 個卷積層。首先是獨立的卷積層,然后是池化層,最后是不同的卷積殘差塊,每個卷積殘差塊包括多個卷積層與交叉層連接。

圖2 ResNet-50的網絡架構Fig.2 Network architectures for ResNet-50

為了簡化訓練的過程,本文的工作過程如下。首先,使用了遷移學習技術,在大型ImageNet 數據集上保留預先訓練的ResNet-50 并執行微調階段。然后進行微調階段,主要集中在數據的特征提取,訓練網絡來表征數據并生成與檢索任務相關的特征向量。訓練最后一個殘差塊來微調網絡,利用微調網絡來提取深度映射。全局平均池層的輸出被認為是每個輸入的相關判別特征,從數據集的每個圖像中提取特征向量,每張圖像都用一個特征向量表示。

1.3 迭代量化算法

ITQ 通過尋找最優的正交矩陣Q,對這些樣本進行量化,將漢明距離較小的樣本量化為不同的二值哈希碼。通過將樣本與隨機正交矩陣相乘,可以發現樣本被旋轉以找到最合適的正交矩陣,以一個小的漢明距離得到近似的哈希碼。為了使量化誤差損失最小,就是使真實樣本數據與哈希碼之間的誤差最小。

首先輸入特征向量,為了找到具有最大方差且成對不相關的哈希碼,輸入數據X∈Rn×d,其中n是特征向量的個數,d是特征向量的長度。在構建目標函數之前,首先減少特征的維度,提取主信息并減少訓練時間。采用PCA 對提取的特征Kn進行降維處理,設降維特征向量矩陣X∈Rn×d在維度之后被降低為KnX,使用PCA 的數據嵌入進行投影。PCA 算法適用于數據點上,以最小化投影數據的量化誤差,提出了在多維數據集上學習到更優的二進制哈希碼的方法。如果W∈Rd×q為PCA 的系數矩陣,則

整個編碼過程是:

如果W是最優解,那么WQ也是最優解,其中Q是q×q的正交矩陣,因此投影數據XQ也轉換為正交矩陣。對投影矩陣進行ITQ 正交變換,以減小量化誤差。

假設v∈Xq是投影空間中的一個向量,sign(v)是超立方體{-1,1}q的一個頂點,對該頂點進行二值化處理,q在漢明距離上接近v,量化損失是v與實際投影到二進制超立方體{-1,1}q之間的差異。

當量化損失‖sign(v) -v‖2的數值越小,意味著二值化代碼矢量與以前越相似,所產生的二進制代碼就更好,因此ITQ 旨在最大限度地減小以下量化損失,需要尋找正交旋轉矩陣,使得投影點最接近其二進制量化。

在這個迭代過程中,首先從式(3)中尋找給定的隨機初始化矩陣Q的最優Y。一旦更新Y,就會更新Q正交矩陣,使得式(4)最小化。最小化目標函數屬于正交普魯克問題,可以試圖找到一個最佳的旋轉來對其兩組點。固定Y,對Q進行更新,旋轉一個矩陣來對齊矩陣Y和XWQ。通過奇異值分解(Singular Value Decomposition,SVD)找到解決方案,得到YTXW=UΣVT,然后直接將Q更新為VUT,重復以上步驟可以找到最終的二進制代碼Y。

2 DRITQH圖像檢索過程

基于深度殘差網絡的迭代量化哈希圖像檢索方法從深度卷積神經網絡結構開始,采用ResNet-50 模型,如圖3 所示,由卷積層、殘差塊、全連接層用于特征提取,PCA 和ITQ用于生成哈希碼。這種設計選擇的主要是由于深度殘差網絡具有跳躍連接,從某一網絡層獲得激活信號,可以迅速反饋給另外一層或者好幾層,從而將信號傳遞到神經網絡的更深層。深層的殘差網絡比普通卷積網絡更容易優化,圖像的表示能力隨著網絡的深度不斷提高。在原有的ResNet-50 中引入了一種新的ITQ 的全連接哈希層來代替Softmax 分類層。全連接哈希層將從ResNet-50 提取的高維特征轉換為低維二進制編碼。為了實現哈希編碼,引入了一個雙曲正切tanh(x)激活函數,它將哈希層的輸出限制為[-1,1]。本文使用ResNet-50 提取圖像的特征向量,使用PCA 對特征向量進行降維,然后使用迭代量化來最小化投影樣本和二值化樣本之間的量化損失。

圖3 DRITQH的網絡結構Fig.3 Network structure for DRITQH

DRITQH 的檢索過程如圖4 所示,主要由3 部分組成:首先,使用深度殘差網絡的深層結構對圖像數據進行特征提取,獲得具有語義特征的高維向量;其次,使用PCA 進行降維,運用迭代量化ITQ 的哈希學習方法對生成的特征向量進行二值化處理,通過逼近真實數據與哈希碼之間的最小量化誤差,得到更好的投影矩陣;最后,進行哈希學習,生成有效的二進制哈希碼。

圖4 DRITQH圖像檢索過程Fig.4 DRITQH image retrieval process

算法1 基于深度殘差網絡的迭代量化哈希圖像檢索方法。

輸入n張圖像I={I1,I2,…,In},ResNet-50 測試樣本Z,迭代t,比特b。

輸出 訓練樣本和測試樣本的相似度。

步驟1 生成n個d維特征向量X∈Rn×d。

步驟2 PCA 降維為KnX。

步驟3 使用Y=sign(XWQ)進行編碼。

步驟4 執行迭代量化L(Y,Q)=‖Y-XWQ。

步驟5 使用P=YQ測試樣本Z。

步驟6 按照哈希碼測試樣本T=sign(P)。

步驟7 生成緊湊的二進制哈希碼,并計算漢明距離S=Dist(T,Z′)。

3 實驗結果與分析

在本章中,首先描述3 個基準圖像數據集CIFAR-10[26]、NUS-WIDE[27]和ImageNet[28]的實驗設置;然后與10 種經典的圖像檢索方法進行了全面比較;最后對所提出的DRITQH 方法進一步分析。為了全面評估本文方法和比較方法的檢索準確性,使用了平均精度均值(mean Average Precision,mAP)和準確率-召回率(Precision Recall,P-R)曲線作為實驗的度量標準,使用漢明距離度量圖像之間的相似性。

3.1 實驗數據集

CIFAR-10[26]數據集包含來自10種類別的60 000 幅圖像,每類6 000 幅圖像,每個圖像僅屬于一個類別。在實驗中將50 000 幅圖像用做訓練集,每類5 000 幅圖像,將10 000 幅圖像用于測試集。

NUS-WIDE[27]包含從Flickr 收集的269 648 幅圖像,其中每幅圖像均由來自81 個語義類的一個或多個標簽進行注釋。在實驗中使用從21 個最常出現的語義標簽中隨機選擇2 100 幅圖像作為測試集,其余圖像作為訓練集。

ImageNet[28]共包含約120萬幅圖像,實驗使用2012 年ISLVRC 公開的ImageNet 子集,隨機選擇其中100 個不同的類別,訓練集為120 000 幅圖像,驗證集為50 000 幅圖像,用于測試集為10 000 幅圖像。

3.2 評價指標

為了全面評估本文方法和比較方法的檢索準確性,使用mAP 和P-R 曲線的標準度量指標。準確率(Precision)是指返回結果中相關圖像的數量與檢索的圖像總數的比率,反映檢索的準確性;召回率(Recall)是指檢索到數據庫中相關圖像數量占總的相關圖像的比率,反映檢索的全面性;mAP 表示每個圖像檢索的平均精度得分的平均值,檢索得到的所有訓練樣本的平均準確率。首先計算每個查詢的平均精度(Average Precision,AP),并將AP 定義為:

其中數據庫有n張圖像,與圖像xi相近的圖像有k個,rj是檢索到的前j個圖像中匹配的數量。對于P-R 曲線,顯示了每個測試圖像在一定召回率下的精度,繪制了所有測試圖像的所有檢索結果的總體P-R 曲線。

3.3 相似性度量

由于漢明距離的計算速度快,廣泛用于度量兩個二進制碼之間的相似性。將漢明距離引入哈希學習中,通過異或操作和位計數指令,可以快速地執行計算。在執行二進制量化后保留良好的配對相似性,從而進一步減少了量化誤差。通過計算相同位數的哈希碼不同值的個數,相似圖像的漢明距離越小,不同圖像的漢明距離越大。對于數據P=(p1,p2,…,pn),其中表示為k維的列向量,漢明距離定義公式如下:

3.4 對比方法

為了測試本文方法的有效性,在兩種廣泛使用的基準數據集上驗證了DRITQH 方法的性能,與10 種經典的哈希方法進行了比較,大致將這些方法分為兩組:傳統的哈希方法和基于深度學習的哈希方法。傳統的哈希方法包括無監督的哈希方法:譜哈希(Spectral Hashing,SH)[29]、ITQ[18]、局部敏感哈希(Locality Sensitive Hashing,LSH)[30]和監督哈希方法:SDH[19]、核函數的監督哈希(Supervised Hashing with Kernels,KSH)[31]。基于深度學習的哈希方法包括深度平衡離散哈希(Deep Balanced Discrete Hashing,DBDH)[32]、DFH(Deep Fisher Hashing)[33]、CNNH[11]、IDHN[23]、DPN(Deep Polarized Network)[34]。

1)SH[29]:譜哈希將圖分割問題聯系起來,通過對相似圖的拉普拉斯矩陣特征向量的子集設定閾值來計算二進制代碼。

2)ITQ[18]:迭代量化方法使用交替最小化方法,找到旋轉零中心數據的最佳方式,將映射的量化誤差最小化。

3)LSH[30]:使用局部敏感哈希函數映射變換,隨機生成嵌入數據集合。

4)SDH[19]:離散監督哈希通過找到類標簽與哈希碼的關系,采用非線性核函數構建哈希模型,求得每個類的哈希碼,用離散法提升檢索精確度。

5)KSH[31]:核函數監督哈希利用漢明距離與哈希碼內積之間的對應關系來學習哈希函數。

6)DBDH[32]:深度平衡離散哈希使用監督信息直接指導離散編碼和深度特征學習過程。

7)DFH[33]:采用線性判別分析最大化類之間的二進制距離,同時最小化同一類內圖像的二進制距離。

8)CNNH[11]:卷積神經網絡哈希是首次將深度神經網絡引入到哈希中的方法,在得到圖像特征向量的同時進行哈希學習。

9)IDHN[23]:改進的深度哈希方法來增強多標簽圖像檢索的能力,使用一對多標簽圖像之間的細粒度相似性以進行哈希學習。

10)DPN[35]:用于學習哈希的新型深度極化網絡,最小化偏振損失相當于同時最小化內部方差和最大化類間方差的漢明距離。

3.5 實驗設置

在實驗中,首先對基礎網絡進行對比實驗,本文采用AlexNet、VGG、GoogleNet、ResNet-50 和ResNet-101 作為基準方法,分別得到平均準確率。實驗結果如圖5 所示,采用簡單的網絡(AlexNet、VGG 和GoogleNet)表現的檢索性能較低,ResNet-50 在圖像檢索算法中表現較好的性能,因此本文采用了性能較好的ResNet-50 網絡結構作為特征提取框架。

圖5 網絡模型在三個數據集上的mAP值Fig.5 mAP values of network models on three datasets

實驗是通過Pytorch 框架實現的,ResNet-50 被用作本文的網絡骨干。在訓練過程中,將批次大小設置為256,動量設置為0.9,重量衰減設置為5E-4,學習率為0.001,總共訓練了150 個周期。

3.6 實驗結果分析

本文表示了DRITQH 方法和10 種不同哈希對比方法在CIFAR10、NUS-WIDE 和ImageNet 數據集上 具有不同長度(12 bit、24 bit、32 bit 和48 bit)的哈希碼圖像檢索性能的結果。如表1 所示,可以看到,與具有不同長度的哈希碼與其他方法相比,DRITQH 方法的精度具有一定的提高。CIFAR-10 數據集的結果表明,所提出的DRITQH 方法的性能顯著優于其他所有方法。與傳統的哈希方法相比,DRITQH 使用殘差網絡提取圖像深層語義信息,對應不同長度的哈希碼的檢索性能達到了78.9%、80.1%、82.2%和82.7%。此外,深度學習的哈希方法都比傳統的哈希方法的性能更好,特別是IDHN 基于深度學習的哈希方法,實現了所有基于深度學習的哈希方法中的較高檢索性能。與IDHN 相比,本文的DRITQH 方法對應于不同長度的哈希代碼分別實現絕對提高4.5%、5.5%、5.4%和4.6%的平均精度。

類似于其他哈希方法,本文對大規模圖像檢索進行了實驗,對于NUS-WIDE 數據集,如果兩個圖像共享至少一個標簽,則認為它們屬于相同的類別。表1 實驗結果表明,所提出的DRITQH 方法優于現有的傳統哈希方法,與經典的基于深度學習的哈希方法相比,DRITQH 方法表現的性能略有提高。這些結果表明,本文的方法可以提高檢索性能。

本文還對更具挑戰性的大規模ImageNet 數據集進行實驗,將本文方法與其他方法進行比較,結果顯示在表1 中,觀察到DRITQH 在除了12 bit 之外的其他所有比特位獲得了最佳性能,因為較短的代碼在大規模數據集中的圖像語義相似性差異較小,隨著代碼長度的增加,所提出的DRITQH 的性能提高比其他方法更明顯,檢索精度達到71.1%、76.3%、77.6%和78.1%,進一步展示了本文所提出的方法的優越性,也說明該方法適用于大規模的圖像檢索任務。

表1 在三個數據集上不同哈希碼長度的mAP值Tab.1 mAP values of hash code with different lengths on three datasets

在深度哈希方法中,本文的DRITQH 方法在大多數情況下都在3 個數據集上實現了最佳的檢索精度。如圖6 所示,本文的DRITQH 方法的性能通常隨著哈希碼長度的增加而提高,這是因為隨著哈希碼長度的增加,學習的圖像特征更加豐富,進而提高了檢索精度。

為了進一步將DRITQH 與所有方法進行比較,在3 個數據集哈希碼為32 bits 繪制了P-R 曲線。如圖7 所示,本文發現DRITQH 的P-R 曲線下的面積大于大多數情況下的比較方法,表明DRITQH 優于比較方法,可以返回更多的語義相似得到圖像,主要原因是通過殘差網絡可以更好地挖掘圖像深層語義信息,具有更好的表示能力。由于傳統的哈希算法是通過低級語義信息生成哈希碼,而深度語義特征可以獲得更多的圖像信息。因此,由深層語義信息生成的哈希碼比低級語義信息的哈希碼更好,驗證了在深度學習中學習圖像表示的優勢比使用手工圖像特征更有益于學習有效的二進制哈希碼。

圖7 三個數據集上在32 bit編碼下的查準率、查全率和P-R曲線Fig.7 Precision,recall and P-R curves under 32 bit encoding on three datasets

通過圖6(a)和6(b)可以觀察到,NUS-WIDE 數據集檢索性能比CIFAR-10 更好,因為圖像越復雜,網絡模型學習到的特征信息就越多,檢索的性能就更好;但ImageNet 數據集檢索性能卻有所偏低,主要是由于ImageNet 數據集數據量龐大,類別多,大規模數據集中的圖像語義相似性差異較小。結果表明兩點:1)驗證了深度學習中圖像特征表示比傳統手工提取的圖像特征能學習更有效的二進制哈希碼,CNNH 比使用深度學習網絡提取特征的方法精度有所偏低,主要是由于CNNH 無法同時進行圖像特征和哈希碼的學習,但CNNH比傳統手工提取特征的哈希方法的性能又更好。2)DRITQH方法在3 個數據集的大多數情況下實現了最佳的檢索精度,檢索性能通常隨著長度的增加,每一種方法的檢索效果都有提高。在本文的方法中,利用了ResNet-50 模型的優勢,提高了訓練速度和生成了高質量的特征向量,使用ITQ 算法將高維特征向量映射到低維空間并生成最優的二進制哈希碼,從而提高了圖像檢索的準確率。

圖6 DRITQH方法在三個數據集上對不同長度哈希碼的檢索精度Fig.6 Retrieval precision of DRITQH method for hash codes with different lengths on three datasets

3.7 編碼時間分析

除了檢索性能之外,本文還將所提出的DRITQH 方法在NUS-WIDE 數據集上的計算時間成本與其他方法進行了比較。基于哈希的圖像檢索過程通常由三部分組成:特征提取、哈希碼的生成和數據庫檢索。

圖8 顯示了哈希方法的編碼時間,其結果是在整個測試集上訓練得到的平均編碼時間。通常,當僅考慮從模型輸入產生二進制代碼,基于深度學習的方法比傳統方法較慢至少一個級別,然而考慮到特征提取時間,基于深度學習的方法比傳統的哈希方法快很多。此外,傳統的哈希方法通常需要幾種類型的特征來實現基于深度學習的方法的檢索性能,這進一步減慢了整個編碼過程。DRITQH 方法和其他方法的時間成本比較可知,當學習哈希函數時,哈希碼生成的時間成本和數據庫檢索時間成本是一個非常快的乘法矩陣,并且使用漢明距離可以通過異或操作快速地實現,這表明哈希編碼時間主要取決于特征提取階段,包括網絡的大小,其中較大的網絡包含更多參數,這需要更多時間完成特征提取。與IDHN 方法相比,DRITQH 平均編碼時間少1 717 μs。DRITQH 方法時間成本較低,使用殘差網絡學習圖像特征,通過跳躍連接直接將輸入信息連接到后面的層,保護信息的完整性,進一步說明DRITQH 能有效加快訓練速度。

圖8 在NUS-WIDE數據集上編碼一個圖像的時間成本Fig.8 Time cost to encode one image on NUS-WIDE dataset

4 結語

針對圖像數據呈指數級增長,傳統的圖像檢索算法已無法滿足用戶精準檢索圖像的要求。本文通過設計深度框架改進哈希算法提高二進制哈希碼,提出了基于深度殘差網絡的迭代量化哈希圖像檢索方法,通過ResNet-50 提取的特征向量作為ITQ 的輸入,進行哈希學習并編碼。殘差網絡可以提高神經網絡的訓練速度,更好地提取圖像的深層語義特征,從而提高了ITQ 的性能,在較小的數據規模下實現更高的檢索準確率。在3 個基準數據集上的實驗結果表明,采用殘差網絡提取的特征向量作為ITQ 的輸入,可以學習更好的哈希碼,不僅提高了訓練速度,還提高了檢索的準確率,且可通過較小的碼長實現更高的檢索準確性。本文方法與經典的方法相比,提高了檢索精度和訓練速度。由于DRITQH 是一種相對通用的哈希方法,它在信息檢索等其他任務中具有廣泛的潛在應用,在未來,將致力于圖像檢索領域學習更好的量化圖像檢索方法。

猜你喜歡
深度方法
深度理解一元一次方程
學習方法
深度觀察
深度觀察
深度觀察
深度觀察
用對方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
賺錢方法
提升深度報道量與質
新聞傳播(2015年10期)2015-07-18 11:05:40
主站蜘蛛池模板: 丝袜国产一区| 国产精品亚洲日韩AⅤ在线观看| 亚洲欧洲自拍拍偷午夜色| 色综合网址| 亚洲男人的天堂久久香蕉| 久久夜色精品| 狠狠色婷婷丁香综合久久韩国 | 欧洲亚洲一区| 18禁黄无遮挡免费动漫网站| 国产精品污污在线观看网站| 91成人免费观看在线观看| 国产精品亚洲欧美日韩久久| 久久久精品国产亚洲AV日韩| 久久www视频| 国产精品免费电影| 国产欧美精品一区aⅴ影院| 亚洲丝袜第一页| 色综合激情网| 国产高清色视频免费看的网址| 自拍亚洲欧美精品| 国模私拍一区二区| 中文字幕乱码二三区免费| 国产综合另类小说色区色噜噜| 国产成人无码久久久久毛片| 久久精品无码国产一区二区三区| 老色鬼久久亚洲AV综合| 国产aⅴ无码专区亚洲av综合网| 在线视频亚洲欧美| 亚洲无码A视频在线| 毛片免费观看视频| 国产区免费精品视频| 美女被操91视频| 亚洲无线视频| 日本一区二区不卡视频| 亚洲精品日产精品乱码不卡| 在线日韩日本国产亚洲| 日韩免费成人| 亚洲av无码成人专区| 欧美精品成人一区二区视频一| 精品国产一区二区三区在线观看| 性欧美精品xxxx| 四虎影视永久在线精品| 爆乳熟妇一区二区三区| 久久久久夜色精品波多野结衣| 国产理论一区| 日本免费福利视频| 亚洲高清资源| 99免费视频观看| 中文字幕永久视频| 欧美激情首页| 欧美在线三级| 国产精品视频导航| 999国产精品| 亚洲中文字幕在线观看| 91尤物国产尤物福利在线| 欧美区一区| 自拍偷拍欧美| 欧美精品影院| 欧美日韩综合网| 婷婷99视频精品全部在线观看| 日韩亚洲综合在线| 久久a级片| 国产成人无码AV在线播放动漫| AV老司机AV天堂| 国产在线一区二区视频| 免费aa毛片| 成人毛片免费观看| 精品一区二区三区视频免费观看| 欧美不卡在线视频| 国产视频入口| 亚洲制服丝袜第一页| 亚洲青涩在线| 久久精品无码一区二区日韩免费| 亚洲欧美成人网| 国产原创演绎剧情有字幕的| 野花国产精品入口| V一区无码内射国产| 成人无码一区二区三区视频在线观看| 四虎免费视频网站| 国产剧情一区二区| 高潮毛片无遮挡高清视频播放| 亚洲精品国偷自产在线91正片|