蔣 平
(安徽開放大學 開放教育學院,合肥 230022)
在日常生活中,人類通過視覺系統(tǒng)得到大部分信息,這些信息屬于圖像信息,所以圖像是人類感知世界的重要載體。隨著移動互聯(lián)網(wǎng)的不斷普及,網(wǎng)絡上的圖像信息呈指數(shù)型上漲,形式也變得更加多種多樣。越來越多的圖像信息被以數(shù)字化的方式存儲到互聯(lián)網(wǎng)中,圖像來源不斷廣大,圖像種類日益增多。在計算機視覺應用領域,圖像精度優(yōu)化在圖像處理中占有重要位置,圖像精度優(yōu)化效果好,會對目標識別、圖像識別以及場景解析等工作起到非常重要的幫助。為挖掘出圖像中有價值的信息,需要對圖像精度深度優(yōu)化,以便進一步加工處理。目前,已有較多關于優(yōu)化圖像精度的方法,但因為其復雜性,有很多問題需要解決,并沒有一個通用的評價標準。傳統(tǒng)的圖像精度深度優(yōu)化方法優(yōu)化效果較差,優(yōu)化后的圖像精度難以滿足實際應用需求,因此對圖像精度深度優(yōu)化方法更進一步的研究具有重要的實際意義,為此設計一種基于卷積神經(jīng)網(wǎng)絡的圖像精度深度優(yōu)化方法。經(jīng)過實驗證明,此次設計的基于卷積神經(jīng)網(wǎng)絡的圖像精度深度優(yōu)化方法比傳統(tǒng)優(yōu)化方法優(yōu)化后的圖像精度高,滿足了圖像精度優(yōu)化方法的設計目的,解決了傳統(tǒng)方法優(yōu)化精度差的問題。
為了解決傳統(tǒng)的圖像精度深度優(yōu)化方法優(yōu)化后的圖像精度仍然較差的缺陷,設計一種基于卷積神經(jīng)網(wǎng)絡的圖像精度深度優(yōu)化方法。該方法的整體設計流程如圖1所示。

圖1 整體設計流程
采用目標監(jiān)測方法提取圖像目標區(qū)域特征,目的是對圖像中的最優(yōu)目標定位,映射出目標區(qū)域的圖像特征,用其表示圖像信息。利用深度學習框架生成多個特征圖以對圖像的原始特征進行提取,其原理如圖2所示:

圖2 圖像特征提取原理
圖像特征提取如圖2所示,圖像提取過程中會生成多個特征圖[1],以為目標分類和位置回歸做準備。在上述過程中會生成多個邊框,為了達到更好的效果,對損失函數(shù)進行改進,目的是為了更準確地識別出圖像目標屬性。在該過程中涉及到3個相關的代價函數(shù)[2]:目標區(qū)域中物體分類的代價函數(shù)、邊界框位置的代價函數(shù)、目標屬性分類代價函數(shù)。
其中目標區(qū)域中物體分類的代表函數(shù)表示為:

為遵循多任務損失定義,計算圖像邊界框位置的代價函數(shù),表達式為:
式中,l(r)代表圖像目標區(qū)域,Nw代表非目標區(qū)域,e代表圖像變量,te、t分別代表圖像的參數(shù)化坐標。
目標屬性分類代表函數(shù)表示為:
式中,M代表圖像預測損失值,F(xiàn)t為圖像目標屬性[4],w為圖像目標圖像屬性分類參數(shù),d代表圖像數(shù)據(jù)集。
將上述訓練好的圖像目標區(qū)域特征標注[5]于圖像數(shù)據(jù)中,為圖像精度優(yōu)化提供基礎。
上述過程提取了圖像的目標區(qū)域特征,在此基礎上,對圖像像素集分割[6],通過圖像相鄰像素顏色、亮度、紋理等特征,將像素點聚類為一個個小的圖像塊,將圖像細分[7]為多個目標區(qū)域。分類的圖像像素點具有較大的相似性,所以將其當作一類點進行處理,以簡化計算時間。首先轉(zhuǎn)化圖像顏色空間[8],轉(zhuǎn)化公式為:

然后設定種子點[9],利用圖像的三維色彩顏色以及圖像的二維空間位置信息,計算像素點距離[10],表達式為:


最后,對圖像進行分割處理,設置為每個超像素的中點,減少圖像極端位置[11]帶來的干擾,計算公式為:

根據(jù)上述計算,對圖像三維顏色以及二維空間的處理,完成圖像像素分割,為圖像精度深度優(yōu)化提供基礎依據(jù)。
在上述圖像目標區(qū)域特征提取與圖像像素集分割的基礎上,對圖像增強處理。根據(jù)上述處理可知,處理后的圖像存在細節(jié)信息丟失[12]的現(xiàn)象,為了解決圖像全局結構信息不足的問題,根據(jù)卷積神經(jīng)網(wǎng)絡并行架構,通過交替無監(jiān)督和有監(jiān)督學習訓練網(wǎng)絡,將該架構應用至圖像超分辨率重構與修復中去,能夠提升圖像精度優(yōu)化效果。對圖像信息修復前,光滑圖像,其過程如圖3所示:

圖3 圖像光滑區(qū)域處理過程
固定當前的修復圖像,求解公式如下:


由于圖像中存在兩種形式,全尺寸圖像與圖像塊,利用全尺寸圖像描述圖像特性較難,因此將全尺寸圖像與圖像塊看作兩個獨立的變量[13],并引入輔助變量,進行求解,計算公式為:

將圖像中的圖像塊看作一種原子組合,用二進制碼進行編碼,定義如下:
p=[p1,p2,…,pn]
(9)
其中,p代表圖像的基因位。
利用適應度函數(shù)評估圖像個體優(yōu)劣程度,在圖像塊中,重構信號與原始信號相差越小,表明圖像塊個體越優(yōu)秀。然而在實際的圖像重構過程中,得不到圖像的原始信號,只能獲得觀測向量,因此用觀測誤差的倒數(shù)定義適應度函數(shù):
式中,f(t)代表圖像塊基于整體圖像的適應度,y代表圖像原始信號,A△為圖像觀測誤差,u代表圖像的有效空間。
為此,采用交叉和變異算子增加圖像的原子個數(shù),尋找圖像相對位置的基因片段,已達到圖像信息交互的目的,圖像基因活性的數(shù)學公式表示為:
式中,C代表圖像的基因活性參數(shù),V代表圖像交叉規(guī)則,mh圖像的基因位的活性值,△(p)為圖像特征的平均稀疏度。
在此基礎上,搭建深度學習框架,該框架描述如下所示:
式中,F(xiàn)‖X‖代表圖像細節(jié)信息,s為圖像中的權重系數(shù),x為圖像中的像素塊。
卷積神經(jīng)網(wǎng)絡并行架構,主要是指將訓練數(shù)據(jù)劃分到不同窗口下,每個窗口都存在完成網(wǎng)絡模型,使用不同數(shù)據(jù)進行訓練。如圖4所示。

圖4 卷積神經(jīng)網(wǎng)絡并行架構
通過交替無監(jiān)督和有監(jiān)督學習訓練網(wǎng)絡,利用第一層神經(jīng)網(wǎng)絡描述圖像中的低頻參數(shù)[14],利用第二層神經(jīng)網(wǎng)絡修復圖像與真實觀測值的殘差值,運用第三層神經(jīng)網(wǎng)絡確保數(shù)據(jù)的保真度。
圖像細節(jié)信息恢復表達式為:

根據(jù)上述計算,對圖像細節(jié)信息修復,以對圖像增強處理,完成圖像精度深度優(yōu)化。
對上述設計的基于卷積神經(jīng)網(wǎng)絡的圖像精度深度優(yōu)化方法進行具體的實驗驗證,并將其與傳統(tǒng)的基于均值濾波的圖像精度深度優(yōu)化方法對比,對比兩種圖像精度深度優(yōu)化方法優(yōu)化后的圖像精度。
在實驗軟件環(huán)境方面,使用Ubuntu14.04 64位操作系統(tǒng),采用C++編輯語言,具體的軟件配置見表1。

表1 實驗軟件配置
在硬件方面,使用了服務器級主板,并配備了處理器與顯卡,具體的硬件配置見表2。

表2 實驗硬件配置
實驗采用Camvid數(shù)據(jù)集內(nèi)的圖像數(shù)據(jù)作為實驗對象,將數(shù)據(jù)分為評估集與測試集各200張圖像。評估集采用傳統(tǒng)方法設計的優(yōu)化方法進行圖像優(yōu)化,測試集采用此次設計的圖像精度深度優(yōu)化方法進行圖像優(yōu)化。
為保證實驗結果準確性,將實驗圖像在VGG模型的基礎上進行預訓練,并進行10萬次迭代。為減少實驗時間,將實驗圖像每40張做一次優(yōu)化,每種方法各進行5次實驗。并對圖像進行訓練,為了提高效率,將所有圖像劃分為178×178大小的圖像,并對每張圖像進行下采樣處理。
傳統(tǒng)方法與此次設計的優(yōu)化方法的優(yōu)化精度對比結果可知,傳統(tǒng)圖像優(yōu)化方法在圖像優(yōu)化時,優(yōu)化的圖像精度與圖像特征提取精度均較差,與實際的圖像視覺效果相差較大(見圖5,圖6)。此外,傳統(tǒng)圖像精度優(yōu)化方法在優(yōu)化過程中,產(chǎn)生的計算量較大,難以獲得較好的圖像精度優(yōu)化效果。而此次設計的方法在圖像精度深度優(yōu)化上,優(yōu)化精度較高,說明此次設計的優(yōu)化方法能夠快速、準確地對圖像細節(jié)信息進行修復,從而保證優(yōu)化后的圖像精度較高,滿足圖像深度優(yōu)化需求。

圖5 精度深度優(yōu)化對比結果

圖6 圖像特征提取精度
在上述基礎上,采用這兩種方法進行圖像分割與圖像增強時間比較。
由表3和表4可知,此次設計方法的圖像分割與圖像增強時間均低于傳統(tǒng)方法,說明該方法的圖像分割與圖像增強的效率高,實際應用效果好。

表3 圖像分割時間比較 s

表4 圖像增強時間比較 s
綜上所述,此次設計的基于卷積神經(jīng)網(wǎng)絡的圖像精度深度優(yōu)化方法比傳統(tǒng)方法優(yōu)化效果好,比傳統(tǒng)方法優(yōu)化后的圖像精度高,能夠解決傳統(tǒng)優(yōu)化方法優(yōu)化后的圖像精度差的問題,更具有效性和實用性。
本研究設計了一種基于卷積神經(jīng)網(wǎng)絡的圖像精度深度優(yōu)化方法,經(jīng)實驗證明,該方法優(yōu)化后的圖像比傳統(tǒng)方法精度高,但是仍然存在較多的不足之處,在下一步的研究中,網(wǎng)絡中涉及到的參數(shù)較多,訓練時間開銷較大,圖像精度優(yōu)化時間等問題需要做進一步的提高。從實驗數(shù)據(jù)方面看,本研究使用的數(shù)據(jù)集樣本相對較小,在下一步的研究中可以使用自然圖像集,深度研究此次設計的方法在實際環(huán)境中的優(yōu)化能力。