999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于對數行列式實現的矩陣補全算法

2021-09-10 07:22:44秦國峰彭沖魏計鵬
青島大學學報(自然科學版) 2021年2期
關鍵詞:機器學習

秦國峰 彭沖 魏計鵬

摘要:傳統的基于低秩假設的矩陣補全模型常常對目標矩陣采用核范數的約束,由于核范數對秩函數的近似不夠精確,基于核范數的低秩模型可能無法產生最優的效果。為此,采用對數行列式代替核范數,提出基于最小化矩陣對數行列式的矩陣補全模型。研究結果表明,基于最小化對數行列式實現的矩陣補全算法能夠有效地恢復矩陣的低秩信息,能夠有效地補全圖像的缺失信息。

關鍵詞:矩陣補全;低秩結構;對數行列式;機器學習

中圖分類號:TP181

文獻標志碼:A

收稿日期:2020-11-06

通信作者:彭沖,男,博士,副教授,主要研究方向為機器學習。E-mail: Pchong1991@163.com

在現實世界中,數據量變得越來越大,越來越多的數據開始采用矩陣的形式存儲。由于存儲設備的損壞,網絡中信息傳輸不穩定導致傳輸過程中數據丟包等原因,出現了大量數據缺失的問題[1],因此從非常有限的信息中估計缺失值這項技術變得尤為重要。矩陣補全技術被廣泛應用在很多領域。例如,圖像恢復[2],視頻去噪[3]和推薦系統[4-5]等。在近二十年中,矩陣補全算法得到了長足的發展,其中基于低秩的模型具有顯著的性能[6-9]。基于低秩的模型通常對目標矩陣做出一個合理的假設,即目標矩陣是低秩的或近似低秩的,基于此假設,研究人員提出了矩陣補全問題的基礎建模[6]。然而,矩陣補全基礎模型秩最小化問題很難求解,為了解決這個問題,現有算法通常使用核范數來代替秩函數。理論研究表明核范數是最貼近秩函數的凸下界[10];采用核范數來近似代替秩函數的現有方法有很多,例如奇異值閾值(SVT)[11],核規范正則最小二乘法(NNLS)[12]和魯棒性主成分分析(Robust PCA)[13]。研究發現,當矩陣存在較大奇異值時,核范數對矩陣秩的近似往往不夠精確,因此在實際應用中可能會獲得次優性能[14]。本文針對核范數對于秩函數的擬合不夠精確這一問題,提出了改進后的矩陣補全算法。相對于將矩陣所有奇異值直接相加的核范數,本文采用基于矩陣對數行列式的方式近似矩陣的秩,從而有效地減小較大的奇異值對矩陣低秩性質的影響。相比于核范數而言,對數行列式對于秩函數的近似更為精確。因此,本文通過采用對數行列式代替秩函數,得到了新的矩陣補全模型。

1 相關工作介紹

近些年,矩陣補全技術被廣泛應用于各種領域,包括機器學習,計算機視覺,信號處理等。最近的研究進展表明,基于核范數的矩陣補全算法對于低秩部分的近似不夠精確,針對這個問題本研究考慮采用對數行列式來解決。

1.1 對數行列式

對于任意矩陣X∈Rm×n,矩陣的對數行列式定義為

F(X)=logdet(I+XTX)(1)

顯然,logdet(I+XTX)=∑ni=1log(1+σ2i,X),其中,σ1,X>σ2,X>…>σn,X≥0,σi,X是矩陣X的第i個奇異值。

1.2 奇異值閾值算法(SVT)

SVT[11]算法是采用核范數近似代替秩函數從而實現矩陣補全的一種算法,模型為

minXX*+αX2Fs.t. PΩ(X)=PΩ(M)(2)

其中,X∈Rm×n是恢復出的矩陣;M∈Rm×n是給定的低秩的不完整的數據矩陣;α為平衡參數;Ω是一組對應于能被觀察到的項目的位置信息。PΩ(X)定義為:當(i,j)∈Ω時,PΩ(X)ij=Xij; 當(i,j)∈Ωc時,PΩ(X)ij=0。

通過使用對數行列式來對函數的低秩部分進行擬合,這種效果要好于核范數的擬合效果,本文采用這種方式成功的解決了核范數作為秩函數近似不夠精確的問題[14]。

2 本文方法

2.1 目標函數

考慮到核范數作為矩陣低秩部分的表現不夠理想,本文采用對數行列式作為對秩函數的非凸近似

min Xlogdet(I+XTX)s.t. PΩ(X)=PΩ(M)(3)

其中,I為單位陣;M∈Rm×n; X∈Rm×n是修復后的新矩陣。

2.2 模型的優化

由于難以直接優化目標函數,本文通過引入輔助變量來簡化模型,從而得到新模型

min logdet(I+XTX)s.t. W=X,PΩ(X)=PΩ(M)(4)

優化階段,本文采用了ALM(增廣拉格朗日法)[15]的優化算法,交替迭代優化每一個變量。給出模型的增廣拉格朗日方程式

L=F(X)+ρ2W-X+θρ2F(5)

其中,ρ 是平衡參數,θ 是拉格朗日乘子。

2.2.1 最小化X 關于X的子問題

Xt+1=argminX F(X)+ρt2Wt-X+θtρt2F(6)

其中,t為迭代次數。對于使用對數行列式的子問題,通過文獻[14]的證明,可知式(6)等價于求解

σ*i=argminσ*i∑ig(σ*i)+ρt2(σ*i-σi,H)2s.t. σ*i≥0,(i=1,…,n)(7)

其中,g(x)=log(1+x2); σ*i是所求更新后的最優解X的第i個奇異值,H=Wt+θt/Pt,σi,H≥0,(i=1,…,n)是矩陣H的第i個奇異值。對關于σi的函數f(σi)=log(1+σ2i)+ρt2(σi-σi,H)2分別求一階導數和二階導數,得

f′(σi ) = 2σi 1 + σ2i+ ρt (σi -σi,H )(8)

f''(σi ) = ρt σ4i+ (2ρt -2)σ2i+ (2 + ρt )(1 + σ2i)2(9)

令f′(σi)=0,得

ρtσ3i-ρtσi,Hσ2i+(ρt+2)σi-ρtσi,H=0(10)

其中,σi≥0,(i=1,…,n); 矩陣H的SVD是U diag({σi,H}ni=1)VT; U,V均為單位正交矩陣,且UUT=I,VVT=I,U為左奇異矩陣,V為右奇異矩陣;diag({σi,H}ni=1)是主對角線元素為σi,H,(i=1,…,n),其余元素為0的主對角矩陣;σi,H≥0,(i=1,…,n)。

本文通過兩種情況進行分析。

情況1:如果σi,H=0,由于σi≥0,可知f′(σi)≥0,故f(σi)是非減函數,因此,σi=0時,函數f(σi)最小。

情況2:如果σi,H>0,此時有f′(0)<0,f''(0)>0,因此至少存在一個根∈(0,σi,H); 當ρt>0.25時,可以看出f''(σi)>0,因此f′(σi)是有唯一全局最優解的凸函數,此時σ*i可以通過f′(σi)=0求解得到。當0<ρt<0.25時,可以通過以下方式進行求解:刪掉式(10)求解中負根的集合,獲得解集Ο+,根據一階必要條件定理,可知σ*i=argminσi∈{0}∪Ο+f(σi)。

設置初始化ρt=0.000 1,且ρt隨著迭代次數不斷增大,在迭代到17次時,滿足ρt>0.25,通過這種方式,來保證當σi,H>0時,有σ*i∈(0,σi,H); 當σi,H=0時,σ*i=0。

綜上,得到Xt+1的更新方式為

Xt+1=U diag(σ*1,…,σ*n)VT(11)

2.2.2 最小化W 關于W的子問題為

Wt+1=argminWρt2W-Xt+1+θtρt2F(12)

針對上述最小化問題,通過對式(10)中W求導,得到Wt+1的更新方式為

Wt+1=Xt+1-θtρt(13)

為了保證原圖像已知的像素值不變,加入約束條件PΩ(W)=PΩ(M),得到Wt+1的更新方式

Wt+1=PΩc(Wt+1)+PΩ(M)(14)

其中,Ωc是一組對應于矩陣中缺失項的位置信息。

2.2.3 其他變量的更新 關于變量ρ與θ的更新方式為

ρt+1=ρt×k(15)

θt+1=θt+ρt+1(Wt+1-Xt+1)(16)

其中,k>1,保證每次迭代ρ都是增大的。

上述優化算法可以歸為算法1。

算法1

輸入:需要處理的數據矩陣,以及缺失位置的下標;初始化ρ和θ。

(1) 給定最大的迭代次數matrix,迭代進行優化;

(2) 設置t=1,計算 max{Wt-Xt2F,Xt+1-Xt2F,Wt+1-Wt2F}≤0.001,判斷是否收斂;

(3) 根據式(11)計算Xt+1;

(4) 根據式(14)計算Wt+1;

(5) 根據式(15)計算ρt+1,根據式(16)計算θt+1;

(6) 跳轉至第二步直到收斂;

(7) Return Xt+1。

3 實驗及結果分析

實驗采用和SVT[11]算法相同的參數初始值,令ρ=0.000 1。當迭代進行到17次時,ρ>0.25,此時滿足實驗方法所需條件,可以認為本文算法在前16次的迭代中,提供了滿足實驗條件的初始化。

3.1 對比方法及實驗數據

為保證實驗的有效性,選取實驗數據時,借鑒文獻[16],選用對比度較為明顯的圖1~圖4,能夠更直觀的看到對比實驗效果。實驗設計時,分別進行了25%,50%,75%的隨機缺失值處理,并記錄缺失值的位置。在對比實驗部分,選用經典的SVT(奇異值閾值算法)。

3.2 恢復圖像對比

圖1~圖4,展示了矩陣補全算法的對比實驗效果圖(原數據圖片節選自文獻[16],下載鏈接為https://github.com/xueshengke/TNNR)。實驗選用隨機添加了75%缺失值的噪聲圖像的矩陣補全效果圖作為展示。從圖1~圖4的對比圖展示部分,不難看出,新算法恢復后的圖像噪聲信息更少,色彩飽和度和局部圖像質量更加接近原圖像。

3.3 PSNR值比較

實驗中選用PSNR值來衡量恢復后的圖像質量,PSNR值越大,表示恢復出的圖像質量越好。對三種不同噪聲水平的圖片,分別用SVT算法和本文的算法分別進行圖像恢復,并記錄修復后圖像的PSNR值,記錄在表1~表4中。

從表1~表4展示的實驗結果很容易發現,在相同條件下,修復后的圖像在PSNR值的對比上,使用本文方法獲得的PSNR值較大,矩陣補全效果明顯好于經典的SVT算法。實驗驗證了本文的猜想,相比于SVT算法采用核范數近似秩函數的做法,采用對數行列式的方式,能夠更好的作為秩函數的近似,充分利用了數據矩陣的低秩性質,提高了矩陣恢復的效果。

3.4 收斂性分析

為了測試本文方法的收斂性,實驗設計中本文針對圖1分別計算了每次迭代中的PSNR值,W-X2F,Xt+1-Xt2F,以及Wt+1-Wt2F的值,收斂圖分別如圖5~圖8所示。可知,在迭代40次左右,模型已經收斂。

4 結論

本文提出了一種新的矩陣補全算法的模型。在目標函數低秩性部分改進了核范數替代秩函數不夠精確的問題,采用對數行列式代替核范數作為秩函數的近似。在實驗優化部分,本文采用ALM的優化方式對模型進行優化,解決了非凸問題優化困難的技術難點。在所設計的圖像補全實驗中,本文算法表現良好,證明了其有效性。

參考文獻

[1]王興宏.大數據應用及新時期所面臨的挑戰研究[J].青島大學學報(自然科學版),2020,33(3):22-27.

[2]NIKOS K. Image completion using global optimization[C]//Computer Vision and Pattern Recognition. New York, 2006: 442-452.

[3]JI H, LIU C, SHEN Z, et al. Robust video denoising using low rank matrix completion[C]// 23rd IEEE Conference on Computer Vision and Pattern Recognition, CVPR. San Francisco, 2010: 13-18.

[4]STECK H. Training and testing of recommender systems on data missing not at random[C]//Proceedings of the 16th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. Washington, 2010,713-722.

[5]KANG Z, PENG C, CHENG Q. Top-N recommender system via matrix completion[C]// 30th Association for the Advancement of Artificial Intelligence (AAAI) Conference on Artificial Intelligence. Phoenix, 2016,179-184.

[6]CANDES E J, RECHT B. Exact matrix completion via convex optimization[J]. Computational Math, 2009, 9: 717-772.

[7]CANDES E J, TAO T. The power of convex relaxation: Near-optimal matrix completion[J]. IEEE Transactions on Information Theory, 2010, 56(5):2053-2080.

[8]LIU J, MUSIALSKI P, WONKA P, et al. Tensor completion for estimating missing values in visual data[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2013, 35(1):208-220.

[9]ERIKSSON A, HENGEL A V D. Efficient computation of robust low-rank matrix approximations in the presence of missing data using the L1 Norm[C]//2010 IEEE Computer Society Conference on Computer Vision and Pattern Recognition. San Francisco, 2010: 771-778.

[10] RECHT B, FAZEL M, PARRILO P A. Guaranteed minimum-rank solutions of linear matrix equations via nuclear norm minimization[J]. Siam Review, 2010, 52(3):471-501.

[11] CAI J, CAND E J, SHEN Z. A singular value thresholding algorithm for matrix completion[J]. Siam Journal on Optimization, 2008, 20(4):1956-1982.

[12] TOH K C, YUN S. An accelerated proximal gradient algorithm for nuclear norm regularized linear least squares problems[J]. Pacific Journal of Optimization, 2010, 6(3):615-640.

[13] PENG C, CHEN Y, KANG Z, et al. Robust principal component analysis: A factorization-based approach with linear complexity[J]. Information Sciences, 2019, 513: 581-599.

[14] PENG C, KANG Z, LI H, et al. Subspace clustering using log-determinant rank approximation[C]//Proceedings of the 21th ACM SIGKDD international conference on Knowledge Discovery and Data Ming.Sydney,2015:925-934.

[15] YANG J, YUAN X. Linearized augmented lagrangian and alternating direction methods for nuclear norm minimization[J]. Mathematics of Computation, 2012, 82(281):301-329.

[16] HU Y, ZHANG D B, YE J P, et al. Fast and accurate matrix completion via truncated nuclear norm regularization[J]. IEEE Transactions on Pattern Analysis & Machine Intelligence, 2013, 35(9):2117-2130.

Matrix Completion Algorithm Based On Log-determinant

QIN Guo-feng, PENG Chong, WEI Ji-peng

(College of Computer Science and Technology, Qingdao University, Qingdao 266071, China)

Abstract:

The nuclear norm constraint is mainly used for the target matrix in traditional matrix completion models based on low-rank assumptions. However, the nuclear norm is not accurate enough to approximate the rank function. Thus it may lead to degraded performance in low-rank recovery problem. To resolve the drawback of the nuclear norm in low-rank recovery, the log-determinant is used to replace nuclear norm and the matrix completion model based on the log-determinant minimization is proposed. Experimental results show that proposed method can effectively recover the low-rank structure of the target matrix and complete the missing entries of corrupted images in image completion application.

Keywords:

matrix completion; low-rank structure; log-determinant; machine learning

猜你喜歡
機器學習
基于詞典與機器學習的中文微博情感分析
基于網絡搜索數據的平遙旅游客流量預測分析
時代金融(2016年27期)2016-11-25 17:51:36
前綴字母為特征在維吾爾語文本情感分類中的研究
科教導刊(2016年26期)2016-11-15 20:19:33
下一代廣播電視網中“人工智能”的應用
活力(2016年8期)2016-11-12 17:30:08
基于支持向量機的金融數據分析研究
基于Spark的大數據計算模型
基于樸素貝葉斯算法的垃圾短信智能識別系統
基于圖的半監督學習方法綜述
機器學習理論在高中自主學習中的應用
極限學習機在圖像分割中的應用
主站蜘蛛池模板: 国外欧美一区另类中文字幕| 91在线精品麻豆欧美在线| 色哟哟国产精品一区二区| 极品私人尤物在线精品首页| 久久精品亚洲中文字幕乱码| 午夜啪啪福利| 国产乱人乱偷精品视频a人人澡| 国产精品福利一区二区久久| 制服丝袜国产精品| 欧美成人午夜影院| 日韩不卡免费视频| 在线精品亚洲一区二区古装| 国产精品成人啪精品视频| 成人福利在线看| 国产午夜一级毛片| 91年精品国产福利线观看久久| 精品无码一区二区在线观看| 国产精品三区四区| 免费看av在线网站网址| 亚洲国产av无码综合原创国产| 欧美精品在线视频观看| 香蕉国产精品视频| 日韩一区精品视频一区二区| 91精品综合| 免费a在线观看播放| 免费无遮挡AV| 在线精品视频成人网| 呦女亚洲一区精品| 蜜桃视频一区二区| 国产精品亚洲片在线va| 欧美、日韩、国产综合一区| 全免费a级毛片免费看不卡| 国产激情无码一区二区免费| 国产欧美另类| 日韩国产另类| 久久久亚洲色| 最新国产在线| 欧美一级片在线| av在线5g无码天天| 欧美色视频在线| 最新国产麻豆aⅴ精品无| 国产网友愉拍精品| 欧美视频在线第一页| 国产视频久久久久| 日韩无码视频专区| 最新精品国偷自产在线| 国产99精品视频| 久久人搡人人玩人妻精品一| 激情综合婷婷丁香五月尤物| 欧美a级在线| 国产女人在线观看| 国产综合日韩另类一区二区| 91在线无码精品秘九色APP | 中文字幕无码中文字幕有码在线| 五月天综合婷婷| 乱色熟女综合一区二区| 日韩在线视频网| 亚洲无码高清视频在线观看| 日本国产精品一区久久久| 一区二区三区国产| 成人精品区| 国产高清无码麻豆精品| 国产在线观看精品| 亚洲精品在线观看91| 国产成人综合日韩精品无码首页 | 素人激情视频福利| 日本道中文字幕久久一区| 国产欧美专区在线观看| 亚洲精品国偷自产在线91正片| 91成人免费观看| 亚洲乱强伦| 精品三级在线| 久久国产av麻豆| 国产综合另类小说色区色噜噜 | 成·人免费午夜无码视频在线观看| 成AV人片一区二区三区久久| 亚洲欧洲日韩久久狠狠爱| 日韩AV无码免费一二三区| 全部免费特黄特色大片视频| 天天综合网亚洲网站| 欧美国产在线看| 91国语视频|