鄒小花,夏 容
(南昌航空大學科技學院,江西 南昌 332020)
圖像在異構融合網絡信息交互的情況下容易丟失一些細節,導致圖像變得不完整、紋理不自然、邊緣模糊,不能滿足用戶的需求。如何使圖像細節在異構融合網絡下得到增強,進而提高圖像質量是在醫學診斷、軍事衛星以及高清晰視頻領域等研究的重要課題,并具有極高的科學價值。
針對上述問題,相關人員對圖像細節增強進行了研究,但是仍有許多不足。例如文獻[1]提出基于非下采樣輪廓小波變換的圖像細節增強方法,使用頻域分析算法對圖像進行分解,得到圖像的輪廓,從而獲得圖像的高頻和低頻信息,為了改善低頻圖像亮度不均勻等問題,再對低頻圖像做視網膜增強處理,同時對高頻圖像做非線性增強,通過去噪處理后得到高頻特征圖;在粗糙的低頻圖像范圍內分析高頻圖像的顯著性特征,最后將高頻圖像與低頻圖像進行融合得到精細的細節增強圖。此方法能夠最大化的利用高頻與低頻圖像信息,并且可以控制光照對實驗的影響。文獻[2]為加強遙感圖像的細節處理,將傳統的非下采樣法與模糊理論相結合,研究出一種遙感圖像增強算法。首先將原始圖像做NSCT變換處理,得到不同子帶上的高頻系數與低頻系數,利用模糊理論對高頻系數進行處理,并將這些系數設立成隸屬度函數;再按照從高層到底層的順序,將高頻系數線性逐層加入到低頻中,全部加入后,實現遙感圖像細節的增強。該方法無論在主觀還是客觀方面都能增強遙感圖像的細節。文獻[3]提出一種基于圖像跨尺度相似性和特征組合的圖像超分辨率重建方法。首先利用圖像的跨尺度相似性,采用KNN算法分別建立高、低分辨率圖像之間的像素特征和梯度特征的映射關系,然后利用像素特征映射關系對輸入圖像重建包含高頻信息的高分辨圖像,利用奇異值閾值化獲取輸入圖像的有效高頻信息,并利用梯度特征映射關系將高頻信息放大后分塊疊加到高分辨率圖像上,得到最終的圖像重建結果。
上述方法雖然使圖像的細節得到增強,但是在設計過程中未能考慮到圖像的紋理方向,導致圖像邊緣不清晰,存在鋸齒現象,并且需要改變的計算參數很多,實驗操作起來比較復雜。針對以上問題在異構網絡融合基礎上,提出超采樣圖像細節增強研究。超采樣圖像技術可以有效的提升圖像的細節質量,與其它增強圖像細節的方法相比,該方法可以快速提高圖像的分辨率、降低畫面噪點,從而增強圖片細節。
異構融合網絡[4]是指網關將各種類型的網絡連接到核心網絡中,最終融合成為一個整體,是時代發展與科技進步的必然趨勢。網絡融合有很多的優勢,使網絡的覆蓋范圍擴大,讓網絡資源得到高效利用,從而降低運營的成本;融合可以滿足用戶多樣化的需求,為用戶提供更好的服務。圖1為網絡異構融合示意圖。

圖1 異構融合網絡示意圖
要想在異構融合網絡環境下增強超采樣圖像的細節,需設定一個低分辨率圖像為L,再通過雙三次差值方法[5]把該圖像的邊緣部分變得模糊,使它成為缺少細節且分辨率較高的低頻圖像,將H設定為目標圖像,從而獲得目標高頻細節圖像

(1)


標準的奇異值算法模型的建立是對M*N矩陣里的A進行分解,其步驟為:
步驟一:利用正交變換方式,對A矩陣進行消減,變換成雙對角矩陣B

(2)

U1為M*M的正交陣;
B如果它滿足M*N的上雙對角矩陣,則M≥n;如果滿足M*N的下雙對角矩陣,則M 對矩陣B做奇異值分解,得出 (3) S為對角矩陣,其中每個元素分別對應一個奇異值。 將式(2)與式(3)相結合,就可以得到奇異值分解的公式為 (4) 在矩陣S中,任何一個元素σ都與矩陣A中的一個特征值相對應。根據降序儲存的順序σ≥σi+1(i≥0)假設U=U1*U2,這樣矩陣A中的右奇異值全部儲存在U中。相同道理可以得出矩陣A的左奇異值都儲存在V中。因此在異構融合網絡下矩陣A的奇異值算法模型為 (5) 此奇異值算法模型有兩個重要的目標: 2)無論是低頻圖像塊還是高頻圖像塊所得到的稀疏表示系數均相同。 在異構融合網絡環境下根據局部自適應性特點,搜索原始低分辨率圖像,獲取最準確的匹配塊,利用奇異值算法模型對圖像進行矩陣重構[7],獲取有價值的高頻細節信息。細節增強算法由4部分組成分別為: 1)初始差值:采用哪種方式的差值算法會影響最后的分辨率效果,差值算法較好得到的結果就越準確,本文在獲得原始分辨率圖像時使用的是輪廓模板差值法,該方法能夠較好的保持原始圖像的基本輪廓。 2)塊匹配搜索[8]:找出兩個圖像塊的對應點,并且計算出對應的像素之差,所得的值作為圖像匹配的準則。Y0作為原始的高頻圖像,對此進行逐點分塊處理,圖像里全部像素點b∈Y0,得到的坐標是(bx,by),將b看作右下角的一個控制點,構建一個分辨率為i×i的圖像參考塊,示意圖如圖2所示。 圖2 超采樣圖像參考塊示意圖 上圖展示了其中一個塊劃分的圖像,一個小方格對應一個像素點,圖中粗線框架表示劃分為4×4的塊。 對初始低分辨率圖像中控制點b上的對應像素ρ進行計算,坐標為(ρx,ρy),公式如下 ρx=bx/scale,ρy=by/scale (6) scale代表圖像的縮放因子,將ρ設為搜索中心,構建5×5的搜素范圍窗,并且在此范圍窗內做完整的匹配搜素。將每個匹配塊與目標參考塊進行匹配值計算,匹配值最小的匹配塊是參考塊的最佳匹配。 奇異值分解算法分別為原始超分辨率圖像與低分辨率圖像提供目標塊和學習塊,在匹配過程中會用到很多的初始圖像信息,這樣會降低計算的復雜程度,計算起來較為簡便。 3)奇異值閾值:將最佳匹配塊R變為高頻圖像Rh的計算公式如下所示 Rh=R-R*Gσ (7) 高頻圖像Rh奇異值分解后得到Rh=U∑VT,獲得如下所示的奇異值矩陣 ∑=diag(λ1,λ2…,λr),λ1≥λ2…λr≥0 (8) (9) 經過奇異值分解獲得初始超采樣圖像目標塊Bi(Bi?Y0)所對應的高頻圖像 (10) (11) (12) 將以上操作步驟反復進行,直到所有的圖像塊都完成上述操作,最終得到完整的超采樣圖像細節增強圖。 異構融合網絡下對超采樣圖像做細節增強時,圖像的邊緣或者細節較多的地方,由于疊加圖像的高頻圖像中會有偽高頻成份存在,此種偽高頻可以看做是一種噪聲,但并不是普通的高斯噪聲、脈沖噪聲等??梢岳闷娈愔捣纸馑惴▽ζ溥M行去噪處理,不需要對噪聲類型做假設,處理過程極其簡單。 圖3為所提方法操作流程。 圖3 細節增強流程圖 為了驗證本文圖像細節增強算法的有效性,將主觀視覺與客觀的峰值信噪比、結構相似度作為評價標準完成對比實驗。將所提算法與文獻[1]、文獻[2]算法做對比分析。為了實驗的公平性,在進行對比時,采用的參數需要一致,原子數量為800,稀疏度設為5,塊的大小為5×5,重疊大小是5。 設置第一組為對物品圖像細節的增強實驗,圖4為三種不同算法對圖像細節增強的效果。 圖4 實驗一圖像細節增強的效果圖 峰值信噪比:常用作圖像壓縮等領域信號重建質量的測量,本文通過對比該值分析細節增強圖像清晰度 (13) 式中,MAXI表示圖像點顏色的最大數值,MSE表示圖像均方差。兩個m×n單色圖像I和K的均方根誤差為 (14) 下表為實驗一得出的三種算法的峰值信噪比與結構相似度對比表: 結構相似度是對圖像質量進行打分評價的一個很經典的指數,取值范圍[0,1],值越大,表示圖像失真越小。從第一組的對比實驗中可以看出,本文使用方法得到的細節增強圖像清晰度高,帽子的紋理較清晰,達到了有效增強效果,而文獻方法得到圖像存在非常明顯的面塊現象,細節信息丟失。 第二組實驗設置為對動物皮毛圖像細節的增強實驗,以下三幅圖為第二組實驗得到的超采樣圖像細節增強圖: 圖5 皮毛圖像細節增強的效果圖 下表為實驗二得出的圖像對比結果: 經過對比可以看出采用本文算法進行細節增強的圖像中,動物的皮毛紋理會比初始圖像更加的清晰,文獻[1]、文獻[2]算法對圖像中大面積的震蕩紋理處理效果較差。 表1與表2在客觀上對三種算法做出比較,從數據顯示的信息可以看出,本文方法與文獻[1]、文獻[2]方法相比,會產生更高的峰值信噪比并且結構相似度接近于1。因此在異構融合網絡下,使用本文算法對超采樣圖像細節的增強有較好效果。 表1 帽子圖峰值信噪比與結構相似度對比表 表2 皮毛圖像峰值信噪比與結構相似度對比表 本文提出了異構融合網絡下超采樣圖像的細節增強。通過采集訓練樣本,建立奇異值算法模型,利用奇異值分解與閾值算法,獲取最佳匹配圖像,對該圖像做加窗處理后使圖像的細節部分得到增強。通過實驗對比,無論是圖片的直觀感受,還是客觀的峰值信噪比與結構相似度的數據,都表明本文方法不僅提高了奇異值算法的性能,而且實現圖像細節增強的過程簡單、快速,與其它方法相比能很好的實現圖像的細節增強。






2.2 超采樣圖像細節的增強









3 實驗分析
3.1 實驗參數
3.2 實驗結果分析






4 結論