999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

多視圖動量對比學習算法

2023-01-01 00:00:00李永財劉向陽
計算機應用研究 2023年2期

摘 要:比較同一圖像不同增強的相似性是對比學習取得顯著成果的關鍵。傳統對比學習方法使用了圖像的兩個不同視圖,為了學習到圖像更多的信息以提高分類準確率,在MoCo(momentum contrast for unsupervised visual representation learning)的基礎上,提出了一種多視圖動量對比學習算法。每次迭代中,對于圖像的多個數據增強分別使用一個查詢編碼器和多個動量編碼器進行特征提取,使得本次迭代可以使用更多的數據增強和負樣本。使用優化的噪聲對比估計(InfoNCE)來計算損失,使得查詢編碼器能得到更有益于下游任務的特征表示。對查詢編碼器使用梯度回傳更新網絡,對各動量編碼器使用改進的動量更新公式以提高模型的泛化能力。實驗結果表明,使用多視圖動量對比學習可以有效提高模型的分類準確率。

關鍵詞:對比學習;多視圖;動量更新;噪聲對比估計

中圖分類號:TP181 文獻標志碼:A 文章編號:1001-3695(2023)02-006-0354-05

doi: 10.19734/j.issn.1001-3695.2022.07.0344

Multi-view momentum contrast learning algorithm

Li Yongcai, Liu Xiangyang

(School of Science, Hohai University, Nanjing 211100, China)

Abstract:Comparing the similarity of different enhancements of the same image is the key to achieving remarkable results in contrastive learning. The traditional contrastive learning method uses two different views of the image. In order to learn more information of the image to improve the classification accuracy, based on MoCo, this paper presented multi-view momentum contrast learning algorithms. In each iteration, this paper used a query encoder and multiple momentum encoders to extract feature for multiple data enhancements of the image, so that it could use more data enhancements and negative samples in this iteration. And it used the optimized noise contrast estimation(InfoNCE) to calculate the loss, so that the query encoder could obtain feature representations which was more beneficial to downstream tasks. The query encoder network updated with gradient backhaul, and each momentum encoder updated with an improved momentum update formula to improve the generalization ability of the model. Experimental results show that using multi-view momentum contrastive learning can effectively improve the classification accuracy of the model.

Key words:contrastive learning; multi-view; momentum update; noise-contrastive estimation

0 引言

監督學習需要依賴大量人工標注的數據,而人工標注數據耗時費力且昂貴。人工智能最近在開發自我監督學習(SSL)算法方面取得了巨大進展,該算法可以從大量未標記的數據中學習高質量的數據表示[1]。自監督學習是通過輔助任務生成監督信息的一種無監督學習范式。自監督學習通過生成免人工標注的輔助任務為特征,學習提供代理的監督信號,獲得有益于下游任務的特征表示[2]。近年來,自監督學習在自然語言處理領域引起了廣泛的研究興趣[3],并且GPT[4,5]和BERT[6]等無監督模型在自然語言處理已經取得了顯著的成果,而在計算機視覺中,預定義的語義標簽會阻礙圖像識別的進一步改進,自監督學習不依賴人工標簽而是通過學習像素本身以解決這些限制。目前,在計算機視覺中,最近的研究工作[7~11]正在一步一步縮小監督學習與無監督學習之間的差距,自監督特征表示學習取得最先進成果的方法是對比學習[12],它通過區分正樣本和負樣本來學習特征表示,即訓練一個網絡使得來自于同一圖像的不同增強的相似性盡可能地大,來自于不同圖像的增強的相似性盡可能地小。在遷移到下游任務時,對比學習工作[7,13,14]在某些任務上可以與監督學習持平,有的甚至超過了監督學習。

對比學習在計算機視覺上取得顯著的成果很大程度上依賴于數據增強[14]以及大量的負樣本[13,14]。文獻[14,15]指出,比較同一圖像的不同視圖在對比學習中的發揮著核心作用,它可以通過比較不同視圖之間的關系來促使模型學習到圖像更多的信息,這樣更有利于模型學習到對下游任務更有用的特征表示。此外,對比學習的成功得益于更多的負樣本。SimCLR(a simple framework for contrastive learning of visual representations)[14]使用了更大的batch-size和更多的數據增強來提升模型的性能。MoCo[13]則是提出了一種動態詞典的方法,將字典維護為一個數據樣本隊列,當前批圖像的特征表示加入隊列,而最過時一批的退出隊列。這個方法將字典大小與batch-size大小解耦,可以將其設置成很大,以此來增大負樣本的數量,而無須使用大的batch-size,對硬件的要求更小。

以往的對比學習[13,14,16]只用到了一個正樣本對,即同一圖像的兩個不同的視圖,由于這兩個視圖是通過對圖像隨機裁剪得到的,重疊的區域較大,學習到的一般是圖像的整體信息。在文獻[7,17]的實驗中也證明了使用多個隨機裁剪對對比學習模型性能的提升有幫助。受到多隨機裁剪的啟發,本文在MoCo的基礎上,提出了一種多視圖對比學習的方法。該方法使用圖像更多不同的視圖來學習圖像更多的信息,提高模型在下游任務中的性能。對于圖像的多個不同視圖,取其中一個視圖放入查詢編碼其中,其余視圖放入不同動量編碼器中,經過動量編碼器的視圖也會進行隊列維護[13]的操作。由于動量編碼器更新無須進行梯度回傳,計算時間并不會增加太多,而且隊列維護操作可以使用更多的負樣本。所以本文構建多個隊列,在計算時間不會增加太多的情況下,使用圖像更多的視圖以及更多的負樣本來進行學習。本文在CIFAR-10和CIFAR-100數據集上做了大量的實驗,結果顯示,使用改進后的算法在做分類任務時,其分類準確率進一步得到提升。在測試階段,模型的精度只在前20~30個epoch之間波動幅度稍大,在后面的epoch中模型精度逐漸趨于穩定,波動幅度很小,基本維持在某一水平上,且每個實驗重復多次,最后得到的精度相差無幾。

1 相關工作

1.1 實例判別和對比學習

自監督學習通過學習圖像的像素本身區別不同的圖像而不需要人工標簽。在之前的研究中[14]提到,圖像的相似性不是從語義標簽中獲得的,而是從圖像數據本身獲得的。每個圖像都有其自身的特點,都可以與同一語義類別中的其他圖像顯著不同。所以在實例判別這一輔助任務中,將類別判別發揮到實例級判別這一極致上,即將每一張圖像都認為是一個類別,通過捕捉每一實例間的相似性與不相似性訓練模型以學習到一個好的特征表示。在最近具有顯著成果的一些對比學習工作[13,14,16]中,使用的輔助任務都是實例判別任務,它將數據集中的每個圖像視為自己的類別[16,18],Dosovitskiy等人[19]顯式地將每個圖像劃分為一個類別,并學習一個線性分類器,其類別數等于數據集中圖像的數量。由于數據集中圖像數量太大,這種方法在計算方面變得難以處理,Wu等人[16]則是通過在存儲庫中存儲預先編碼好的特征替換分類器來緩解這個問題,并且使用NCE[20]來計算損失,這是對比學習的一種特殊形式[11,12]。但是這種方法會導致編碼不一致的問題,Chen等人[14]通過更大的batch-size來解決這一問題,如果批量足夠大,存儲庫完全可以替換為來自同一批的圖像,但這一方法對硬件的要求非常高。He等人[13]提出了使用動量更新的編碼器方法可以,在相對更少的硬件下使用更多負樣本來提升模型的性能。

1.2 動量對比學習

He等人[13]提出了動量對比學習算法,將一張圖像通過數據增強得到兩個不同版本,這兩個增強為正樣本對,其余的增強為負樣本;其中一個增強進入查詢編碼器得到特征表示,另一個增強進入動量編碼器得到特征表示,然后這一批次的特征進入隊列,最過時的一個批次的特征出隊,以此來維護一個大的字典;經過編碼器得到的特征向量使用損失函數InfoNCE計算損失;最后,查詢時編碼器使用梯度回傳更新網絡參數,動量編碼器使用公式θk←mθk+(1-m)θq更新網絡參數,其中θq和θk分別為查詢編碼器和動量編碼器的參數,m為動量系數,取值為0.999。

1.3 動量編碼器

He等人[13]將對比學習工作都歸納為構建動態字典,字典中的“key”從數據中采樣,并通過編碼器得到特征表示,無監督學習訓練編碼器的過程則可以看成是在執行字典查詢工作,即一個通過編碼器得到的特征表示“query”應與和它相匹配的“key”相似,而與其他的不相似,在對比學習中,與“query”相匹配的“key”是同一圖像的不同數據增強版本。過去的研究[13,14,16]表明,更多的負樣本對于對比學習模型性能的提升尤為重要。從這個角度來說,構建的動態字典應該包含兩個特性,字典應該足夠大以及在訓練過程中應盡可能保持一致的“key”。具體地說,較大的字典可以更好地對底層的連續、高維視覺空間進行采樣,而字典中的“key”應該用相同或相似的編碼器進行特征提取,目的是使它們與“query”的對比是一致的。He等人[13]提出將字典維護為一個隊列,當前批次的圖像經過編碼后進入隊列,而最過時的那一批次退出隊列。這個方法將字典大小與batch-size解耦,允許字典大小設置成很大。另外,為了保持編碼的一致性,對“key”進行特征提取的時候使用了動量編碼器,動量編碼器的更新不使用反向傳播,而是使用動量更新式(4)來更新編碼器的參數。

2 多視圖動量對比學習算法

在最早語義表征的自監督學習方法中,思路一般都是將原始圖片經過變換后預測圖像變換的一些性質,例如基于拼圖任務的方法[21,22],這些方法將原始圖片分成多個小塊,然后訓練一個網絡來預測每個小塊的位置,從而學習物體整體個局部的關系;除此之外,還有的方法是將原始圖像旋轉一個角度,使模型預測其旋轉的角度[23];或將原始圖片的一部分摳掉,使模型學習并恢復圖片缺失部分。這些方法學習到的特征都是隨著這些變換的不同而改變的低級特征,在一些語義識別任務中如圖像分類表現不是很理想。

文獻[15]提到同一圖像經過變換后語義信息應是不變的,即經過不同變換后的圖像的特征表示應是相似的,且和其他負樣本的特征表示應是相異的。文獻[15]使用拼圖的方法將圖像分為九個小塊,通過聚合和映射得到這些拼圖產物的特征表示,并用對比損失函數來訓練網絡,其效果在眾多優秀的自監督學習方法中也是名列前茅,并且在特征表示的距離直方圖中,使用圖像不同的變換得到的特征之間距離的均值和方差都比用拼圖預測任務得到的特征表示要小,因此,通過獲取場景或物體各部分之間的關系,對圖像隨機裁剪后進行比較可以獲得很好的效果,可以更好地學習到圖像更深層次的語義信息,對于下游任務精度的提升至關重要。受此啟發,本文使用同一圖像的多個不同變換來促使編碼器學習到更多圖像本身的語義信息。

2.1 多視圖動量對比學習算法框架及流程

本文在對比學習算法框架MoCo的基礎上,改進了對比學習的輸入和動量更新公式,使得網絡能學習到圖片更多的信息,圖像分類結果更準確。本文算法的結構如圖1所示,偽代碼如算法1所示,主要包括以下幾個部分:a) 數據增強部分,該部分對任一輸入的圖像采用隨機增強的方式來獲得該圖像多個不同的視圖;b) 特征提取及隊列維護部分,該部分主要采用了標準的ResNet網絡來提取圖像的特征,對于動量編碼器,先使用動量更新式(4)去更新網絡,經由動量編碼器得到的新的一批特征進入隊列,隊列中最過時的一批特征出隊,以此來進行隊列維護;c) 損失函數部分,對同一圖像的不同視圖采用了InfoNCE[12]計算損失并將其加和;d) 網絡更新部分,對于所需學習的查詢編碼器,使用梯度回傳更新網絡。

算法1 多視圖動量對比學習算法

# f_q,f_ki: 查詢編碼器和動量編碼器

# queue: 隊列(C×K) # m: 動量系數# t: 溫度超參數

# 參數初始化

f_q.params=f_k1.params=f_k2.params=…=f_k2.params

for x in loader: #加載一個mini batch的樣本

x_q=aug(x),x_k1=aug(x),x_k2=aug(x),…

x_kn=aug(x) #進行數據增強得到多個不同視圖

#經過編碼器得到向量表示: N×C

q=f_q.forward(x_q),k1= f_k1.forward(x_k1),

k2=f_k2.forward(x_k2),…,kn= f_kn.forward(x_kn)

#不進行梯度回傳

k1=k1.detach(),k2=k2.detach(),…,kn=kn.detach()

# 正樣本的logits: N×1

l_pos1=bmm(q.view(N,1,C),k1.view(N,C,1))

# 負樣本的logits: N×K

l_neg1=mm(q.view(N,C),queue1.view(C,K))

logits1=cat([l_pos1,l_neg1],dim=1) # logits: N×(1+K)

labels1=zeros(N) # 正樣本都排在第0個

loss1=CrossEntropyLoss(logits1/t,labels1)

enqueue(queue1,k1) # 最新的一批進隊

dequeue(queue1) # 最過時的一批出隊

# 動量編碼器參數的更新

f_k1.params=m*f_k1.params+(1-m)*f_q.params

#下一分支的損失計算及編碼器參數的更新

l_pos2=bmm(q.view(N,1,C),k2.view(N,C,1))

l_neg2=mm(q.view(N,C),queue2.view(C,K))

logits2=cat([l_pos2,l_neg2],dim=1)

labels2=zeros(N)

loss2=CrossEntropyLoss(logits2/t,labels2)

enqueue(queue2,k2)

dequeue(queue2)

f_k2.params=m*f_k2.params+(1-m)*f_k1.params

loss=loss1+loss2+… +lossn #總的損失

loss.backward()

update(f_q.params)#梯度回傳更新查詢編碼器的參數

2.2 數據增強

一張輸入的圖片增強方式可以分為兩種: a)增強涉及到空間幾何變換[24],如隨機裁剪(random resize crop,RRC)、隨機水平翻轉(random horizontal flip,RHF);b)增強涉及到外觀變換,如顏色抖動(color jitter,CJ)、隨機灰度化(random gary scale,RGS)等。

正如之前的研究工作[12,13]所指出的那樣,比較同一圖像的隨機視圖在對比學習中發揮著核心作用,它通過捕捉圖像各部分之間的關系的信息來促使模型學習到該圖像更多的信息。在MoCo中使用的是同一圖像的兩個不同視圖,為了學習到圖像更多的信息,本文使用同一圖像的多個不同視圖,如圖2所示。設圖像集合X={x1,x2,x3,…,xn},batch-size大小。對圖像集合使用上述增強方式的組合,得到圖像的不同視圖。

其中:變換T為多個增強方式的組合,即

對于集合中的某一張圖片x,經過數據增強后得到的xq和xki記為正樣本,其余的樣本均為負樣本。

2.3 特征提取及隊列維護

將經過數據增強后的圖像集合Xq放入查詢編碼器網絡進行特征提取,將圖像集合Xk放入動量編碼器進行特征提取,在使用動量編碼器提取特征之前,先對動量編碼器進行更新,更新方式如下:

其中:θ0=θq,為查詢編碼器或前一個動量編碼器的參數;θki為動量編碼器的參數;m為動量系數,本文取m=0.999。在保證動量編碼器得到的特征盡可能保持一致性的情況下,使各動量編碼器有所不同以增大輔助任務的難度從而提高模型的泛化能力。為了使用更多的負樣本且不耗費太大的資源,MoCo使用了維護隊列這一方法,即每一批經過動量編碼器網絡得到的特征進入隊列,而隊列中最過時的那一批圖像出隊,隊列將字典大小與小批處理大小解耦,允許字典大小設置成較大,這樣模型在訓練過程就可以使用更多的負樣本,使其在分類任務上的準確率更高,本文字典大小取K=65 536。

2.4 損失函數及網絡更新

對提取得到的特征進行損失計算,本文使用的損失函數為InfoNCE,具體計算如下:

設batch-size的大小為N,對于一個批次里的任一圖像x,采用數據增強后變換為xq,xk1,xk2,…,將增強后的圖像進行特征提取得到特征表示:

其中:fq為查詢編碼器; fki為動量編碼器。對提取到的特征使用損失函數

計算每一張圖像的損失,其中i=1,2,…,K為隊列大小,τ為溫度超參數,本文中取τ=0.07。再將一個批次里所有的損失相加得到

最后,多個對比損失相加得到最終的損失Ltotal為

在計算損失之后,使用梯度回傳對查詢編碼器網絡進行更新。

3 實驗結果及分析

在無監督學習預訓練階段,本文在數據集CIFAR-10和CIFAR-100上進行預訓練。CIFAR-10數據集共有10個類別的彩色圖像,其中每個類別有6 000張圖像,每張圖像的像素為32×32。CIFAR-100數據集共有100個類別的彩色圖像,其中每個類別有600張圖像,每張圖像的像素為32×32。

在線性評估階段,把預訓練好的網絡的backbone凍住,只訓練線性分類器最后的全連接層,batch-size設置為16,train-epoch設置為100。在預訓練階段和線性評估階段,其余未指定的超參數如數據增強方式、優化器、學習率調整等均與MoCo相同。本文的實驗環境如表1所示。

3.1 不同數據集對比

分別在CIFAR-10和CIFAR-100數據集上使用改進后的方法進行預訓練,神經網絡使用的是ResNet50,設置batch-size為16,train-epoch為200,將所得到的預訓練模型用于下游分類任務上,每個實驗重復5次,所得結果取平均值,其在CIFAR-10和CIFAR-100數據集上的分類準確率如表2、圖3、4所示。

2s_Mo、3s_Mo:表示預訓練時使用兩個、三個相同的動量編碼器,更新公式為

其中:θk為動量編碼器的參數;θq為查詢編碼器的參數。

2d_Mo、3d_Mo:表示預訓練時使用兩個、三個不同的動量編碼器,更新公式為式(4)。

由圖3及4可以觀察到,當增加對比學習樣本的更多視圖時,預訓練模型在分類任務上的準確率較MoCo有所提升;同時,本文實驗還比較了使用相同動量編碼器和不同動量編碼器的分類效果,當使用不同的動量編碼器進行預訓練時,其分類效果相較于使用相同編碼器的預訓練模型有所提升,且在模型訓練階段和線性分類階段其損失值一直保持穩定下降。

3.2 不同網絡結構對比

本節使用不同深度的神經網絡(ResNet18、ResNet34、ResNet50)進行對比實驗,比較不同深度的網絡結構對模型分類準確率的影響。實驗參數設置如下:batch-size設置為16,train-epoch設置為200,在CIFAR-10數據集上進行預訓練,改進后的算法分類準確率如圖5所示。

由圖5可以觀察到,隨著所用神經網絡深度的增大,模型的分類準確率都隨之提高。神經網絡深度越大,模型擬合的效果更好,使得模型在進行分類任務時準確率更高;同時,神經網絡深度的增大也提升了多視圖動量對比學習算法的分類效果。

3.3 不同數量動量編碼器對比

為了驗證使用更多視圖、更多不同的動量編碼器對預訓練模型的分類效果的影響,本節實驗設置更多不同的動量編碼器,batch-size設置為16,train-epoch設置為200,在CIFAR-10數據集上進行預訓練,所得模型在下游分類任務中準確率如圖6所示,其中橫坐標為不同動量編碼器的個數。

從圖6可以觀察到,當該方法的動量編碼器個數增大到4、5時,其分類準確率反而下降了。當使用圖像更多視圖時,模型會產生過擬合導致分類準確率下降,因此在做分類任務時,選用3個不同的動量編碼器為宜,同時也不會增加過多的訓練時間。

3.4 不同方法對比

本節實驗探究不同深度的網絡結構對模型分類準確率的影響。使用ResNet18作為骨干網絡,利用改進后的算法在CIFAR-10數據集上進行預訓練,預訓練train-epoch設置為200,batch-size設置為16,將得到的預訓練模型在數據集CIFAR-10上進行分類任務。訓練線性分類器時,batch-size設置為128,train-epoch設置為100,與同樣使用ResNet18作為骨干網絡的不同方法[16]進行對比,所得結果如表3所示。

由表3可以發現,使用改進的算法在CIFAR-10數據集上的分類準確率進一步得到提升。

4 結束語

在傳統的對比學習任務中,使用的只是同一圖像的兩個不同視圖。本文在MoCo的基礎上,研究了多視圖及不同動量編碼器對模型做分類下游任務的準確率的影響。在圖像處理階段,提出了使用同一圖像的多個視圖,將傳統的對比學習任務從一個正樣本對擴展到多正樣本對。在特征提取階段,使用多個動量編碼器對不同視圖進行特征提取,對動量編碼器使用改進后的動量更新式(4)進行網絡更新。最后,使用優化的噪聲對比估計(InfoNCE)對模型進行損失計算。通過不同數據集、不同個數動量編碼器、不同方法、不同網絡深度的對比實驗,每個實驗重復五次,最終結果取五次實驗結果的平均值。實驗結果表明,使用改進后的算法在做分類任務時,其分類準確率在數據集CIFAR-10和CIFAR-100上較MoCo有提升,并且對不同深度的神經網絡的分類效果也有所提升,但并非使用越多不同的視圖效果越好,當增加更多的視圖時,模型過擬合使得分類準確率下降,因此選用三個不同動量編碼器為宜;同時,使用改進后的算法在做分類任務時,其分類準確率較其他方法進一步得到提升;除此之外,訓練好的模型在做分類任務時,其精確度穩定上升,只有前20~30個epoch的波動幅度稍大,第40~50個epoch之后,波動幅度很小,而且在模型訓練及線性分類階段,模型的損失值一直都是穩定下降,未出現有很大波動的區間。

本文工作只在分類下游任務中檢驗改進后算法的性能,由于篇幅和時間的問題,未來工作可以在改進數據增強方式及損失函數的情況下在多個下游任務進行實驗,如目標檢測、語義分割等,讓模型更好地應用到實際任務中。

參考文獻:

[1]方鵬飛,李賢,燕陽,等. 連接自監督學習中的節點: 給初學者的一篇簡要綜述 [J]. 計算機科學技術學報,2022,37(3): 507-526. (Fang Pengfei,Li Xian,Yan Yang,et al. Connecting the dots in self-supervised learning: a brief survey for beginners [J]. Journal of Computer Science and Technology,2022,37(3): 507-526.)

[2]汪云云,孫顧威,趙國祥,等. 基于自監督知識的無監督新集域適應學習[J]. 軟件學報,2022,33(4):1170-1182. (Wang Yun-yun,Sun Guwei,Zhao Guoxiang,et al. Unsupervised new-set domain adaptation with self-supervised knowledge [J]. Journal of Software,2022,33(4): 1170-1182.)

[3]孫鵬飛,歐陽亞文,宋定杰,等. 基于自監督任務增強的小樣本意圖識別 [J]. 計算機科學技術學報,2022,37(3): 527-538. (Sun Pengfei,Ouyang Yawen,Song Dingjie,et al. Self-supervised task augmentation for few-shot intent detection [J]. Journal of Computer Science and Technology,2022,37(3): 527-538.)

[4]Radford A,Narasimhan K,Salimans T,et al. Improving language understanding by generative pre-training [EB/OL]. (2018). https://cdn.openai.com/research-covers/language-unsupervised/language_understanding.

[5]Radford A,Wu J,Child R,et al. Language models are unsupervised multitask learners [J]. OpenAI Blog,2019,1(8): 9.

[6]Devlin J,Chang M W,Lee K,et al. BERT: pre-training of deep bidirectional transformers for language understanding [EB/OL]. (2019-05-24). http://doi.org/10.48550/arxiv.1810.04805.

[7]Caron M,Misra I,Mairal J,et al. Unsupervised learning of visual features by contrasting cluster assignments [J]. Advances in Neural Information Processing Systems,2020,33: 9912-9924.

[8]Chen Ting,Kornblith S,Swersky K,et al. Big self-supervised models are strong semi-supervised learners [J]. Advances in Neural Information Processing Systems,2020,33: 22243-22255.

[9]Chen Xinlei,Fan Haoqi,Girshick R,et al. Improved baselines with momentum contrastive learning [EB/OL]. (2020-03-09). http://doi.org/10.48550/arxiv.2003.04297.

[10]Grill J B,Strub F,Altché F,et al. Bootstrap your own latent-a new approach to self-supervised learning [J]. Advances in Neural Information Processing Systems,2020,33: 21271-21284.

[11]Hjelm R D,Fedorov A,Lavoie-Marchildon S,et al. Learning deep representations by mutual information estimation and maximization [EB/OL]. (2019-02-22). http://doi.org/10.48550/arxiv.1808.06670.

[12]Oord A,Li Yazhe,Vinyals O. Representation learning with contrastive predictive coding [EB/OL]. (2019-01-22). http://doi.org/10.48550/arxiv.1807.03748.

[13]He Kaiming,Fan Haoqi,Wu Yuxin,et al. Momentum contrast for unsupervised visual representation learning [C]// Proc of IEEE Confe-rence on Computer Vision and Pattern Recognition.Piscataway,NJ: IEEE Press,2020: 9726-9735.

[14]Chen Ting,Kornblith S,Norouzi M. et al. A simple framework for contrastive learning of visual representations [C]// Proc of International Conference on Machine Learning. [S.l.]: PMLR,2020: 1597-1607.

[15]Misra I,Maaten L. Self-supervised learning of pretext-invariant representations [C]// Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway,NJ: IEEE Press,2020: 6706-6716

[16]Wu Zhirong,Xiong Yuanjun,Yu S,et al. Unsupervised feature lear-ning via non-parametric instance discrimination. [C]// Proc IEEE Conference on Computer Vision and Pattern Recognition. Piscataway,NJ: IEEE Press,2018: 3733-3742.

[17]Xie Enze,Ding Jian,Wang Wenhai,et al. DetCo: unsupervised contrastive learning for object detection [C]// Proc of IEEE/CVF International Conference on Computer Vision. Piscataway,NJ: IEEE Press,2021: 8372-8381.

[18]Bojanowski P,Joulin A. Unsupervised learning by predicting noise [C]// Proc of International Conference on Machine Learning. [S.l.]:PMLR,2017: 517-526.

[19]Dosovitskiy A,Fischer P,Springenberg J T,et al. Discriminative unsupervised feature learning with exemplar convolutional neural networks. [J]. IEEE Trans on Pattern Analysis amp; Machine Intel-ligence,2016,38(9): 1734-1747.

[20]Gutmann M,Hyvrinen A. Noise-contrastive estimation: a new estimation principle for unnormalized statistical models [C]// Proc of the 13th International Conference on Artificial Intelligence and Statistics. 2010: 297-304.

[21]Doersch C,Gupta A,Efros A A. Unsupervised visual representation learning by context prediction [C]// Proc of IEEE International Conference on Computer Vision. Piscataway,NJ: IEEE Press,2015: 1422-1430.

[22]Noroozi M,Favaro P. Unsupervised learning of visual representations by solving jigsaw puzzles [C]// Proc of European Conference on Computer Vision. Cham: Springer,2016: 69-84.

[23]Gidaris S,Singh P,Komodakis N. Unsupervised representation lear-ning by predicting image rotations[EB/OL]. (2017-08-22). http://doi.org/10.48550/arxiv.1603.09246.

[24]耿國華,薛米妍,周蓬勃,等. 基于對比學習與多尺度結合的陶瓷顯微圖像分類方法 [J]. 西北大學學報: 自然科學版,2021,51(5): 734-741. (Geng Guohua,Xue Miyan,Zhou Pengbo,et al. Ceramic microscopic image classification based on the combination of contrastive learning and multi-scale methods [J]. Journal of Northwest University: Natural Science Edition,2021,51(5): 734-741.)

收稿日期:2022-07-13;修回日期:2022-08-31 基金項目:云南省重大科技專項(202002AE090010)

作者簡介:李永財(1998-),男,廣西南寧人,碩士研究生,主要研究方向為自監督學習;劉向陽(1976-),男(通信作者),山東青島人,副教授,博士,主要研究方向為智能計算、機器學習、數據分析等(liuxy@hhu.edu.cn).

主站蜘蛛池模板: av色爱 天堂网| 99久久国产综合精品2020| 国产精品久久久久久搜索 | 亚洲熟妇AV日韩熟妇在线| 五月激情婷婷综合| 成人永久免费A∨一级在线播放| 制服丝袜在线视频香蕉| 亚洲国产精品无码AV| 日韩欧美在线观看| 精品国产aⅴ一区二区三区| 一级全免费视频播放| 国产二级毛片| 真实国产乱子伦高清| 精品中文字幕一区在线| 亚洲国产无码有码| www亚洲天堂| 国产人人乐人人爱| 精品乱码久久久久久久| 欧美日本在线播放| 亚洲色图欧美视频| 久视频免费精品6| 国产91全国探花系列在线播放 | 重口调教一区二区视频| 原味小视频在线www国产| 刘亦菲一区二区在线观看| 国产网友愉拍精品视频| 极品私人尤物在线精品首页| 亚洲乱强伦| 免费看黄片一区二区三区| 久久久久国色AV免费观看性色| 成人福利在线免费观看| 亚洲第一在线播放| 精品三级网站| 爱色欧美亚洲综合图区| 亚洲成人精品| 在线高清亚洲精品二区| 54pao国产成人免费视频| 亚洲天堂久久新| av在线无码浏览| 日韩精品一区二区三区视频免费看| 久久福利片| 亚洲无线视频| 婷婷五月在线视频| 国产第四页| 国产欧美日本在线观看| 久久精品中文字幕免费| 亚洲无码一区在线观看| 无码区日韩专区免费系列| 久草青青在线视频| 国产v精品成人免费视频71pao| 中文无码精品A∨在线观看不卡| 亚洲a级毛片| 国产乱肥老妇精品视频| 人妻精品久久无码区| 欧美激情福利| 国产91在线|中文| 国产亚洲精| 欧美一级高清免费a| 一级做a爰片久久毛片毛片| 国产精品美女网站| 老司机精品一区在线视频| 国产精品区视频中文字幕| 国产精品自在线天天看片| 欧美性精品| 国产视频欧美| 热这里只有精品国产热门精品| AV在线天堂进入| 亚洲av日韩综合一区尤物| 国产麻豆精品在线观看| 在线视频精品一区| 伊人色综合久久天天| 欧美一级在线| 亚洲天堂精品在线| 国产美女人喷水在线观看| 亚洲美女一区二区三区| 国产视频久久久久| 精品中文字幕一区在线| 国产亚洲欧美日韩在线一区二区三区| 国产xx在线观看| 色悠久久综合| 久久黄色免费电影| 国模粉嫩小泬视频在线观看|