999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于卷積神經(jīng)網(wǎng)絡的圖像精度深度優(yōu)化

2021-08-23 01:42:32
淮陰工學院學報 2021年3期
關鍵詞:深度優(yōu)化實驗

蔣 平

(安徽開放大學 開放教育學院,合肥 230022)

在日常生活中,人類通過視覺系統(tǒng)得到大部分信息,這些信息屬于圖像信息,所以圖像是人類感知世界的重要載體。隨著移動互聯(lián)網(wǎng)的不斷普及,網(wǎng)絡上的圖像信息呈指數(shù)型上漲,形式也變得更加多種多樣。越來越多的圖像信息被以數(shù)字化的方式存儲到互聯(lián)網(wǎng)中,圖像來源不斷廣大,圖像種類日益增多。在計算機視覺應用領域,圖像精度優(yōu)化在圖像處理中占有重要位置,圖像精度優(yōu)化效果好,會對目標識別、圖像識別以及場景解析等工作起到非常重要的幫助。為挖掘出圖像中有價值的信息,需要對圖像精度深度優(yōu)化,以便進一步加工處理。目前,已有較多關于優(yōu)化圖像精度的方法,但因為其復雜性,有很多問題需要解決,并沒有一個通用的評價標準。傳統(tǒng)的圖像精度深度優(yōu)化方法優(yōu)化效果較差,優(yōu)化后的圖像精度難以滿足實際應用需求,因此對圖像精度深度優(yōu)化方法更進一步的研究具有重要的實際意義,為此設計一種基于卷積神經(jīng)網(wǎng)絡的圖像精度深度優(yōu)化方法。經(jīng)過實驗證明,此次設計的基于卷積神經(jīng)網(wǎng)絡的圖像精度深度優(yōu)化方法比傳統(tǒng)優(yōu)化方法優(yōu)化后的圖像精度高,滿足了圖像精度優(yōu)化方法的設計目的,解決了傳統(tǒng)方法優(yōu)化精度差的問題。

1 圖像精度深度優(yōu)化方法設計

為了解決傳統(tǒng)的圖像精度深度優(yōu)化方法優(yōu)化后的圖像精度仍然較差的缺陷,設計一種基于卷積神經(jīng)網(wǎng)絡的圖像精度深度優(yōu)化方法。該方法的整體設計流程如圖1所示。

圖1 整體設計流程

1.1 圖像目標區(qū)域特征提取

采用目標監(jiān)測方法提取圖像目標區(qū)域特征,目的是對圖像中的最優(yōu)目標定位,映射出目標區(qū)域的圖像特征,用其表示圖像信息。利用深度學習框架生成多個特征圖以對圖像的原始特征進行提取,其原理如圖2所示:

圖2 圖像特征提取原理

圖像特征提取如圖2所示,圖像提取過程中會生成多個特征圖[1],以為目標分類和位置回歸做準備。在上述過程中會生成多個邊框,為了達到更好的效果,對損失函數(shù)進行改進,目的是為了更準確地識別出圖像目標屬性。在該過程中涉及到3個相關的代價函數(shù)[2]:目標區(qū)域中物體分類的代價函數(shù)、邊界框位置的代價函數(shù)、目標屬性分類代價函數(shù)。

其中目標區(qū)域中物體分類的代表函數(shù)表示為:

為遵循多任務損失定義,計算圖像邊界框位置的代價函數(shù),表達式為:

式中,l(r)代表圖像目標區(qū)域,Nw代表非目標區(qū)域,e代表圖像變量,te、t分別代表圖像的參數(shù)化坐標。

目標屬性分類代表函數(shù)表示為:

式中,M代表圖像預測損失值,F(xiàn)t為圖像目標屬性[4],w為圖像目標圖像屬性分類參數(shù),d代表圖像數(shù)據(jù)集。

將上述訓練好的圖像目標區(qū)域特征標注[5]于圖像數(shù)據(jù)中,為圖像精度優(yōu)化提供基礎。

1.2 圖像像素集分割

上述過程提取了圖像的目標區(qū)域特征,在此基礎上,對圖像像素集分割[6],通過圖像相鄰像素顏色、亮度、紋理等特征,將像素點聚類為一個個小的圖像塊,將圖像細分[7]為多個目標區(qū)域。分類的圖像像素點具有較大的相似性,所以將其當作一類點進行處理,以簡化計算時間。首先轉(zhuǎn)化圖像顏色空間[8],轉(zhuǎn)化公式為:

然后設定種子點[9],利用圖像的三維色彩顏色以及圖像的二維空間位置信息,計算像素點距離[10],表達式為:

最后,對圖像進行分割處理,設置為每個超像素的中點,減少圖像極端位置[11]帶來的干擾,計算公式為:

根據(jù)上述計算,對圖像三維顏色以及二維空間的處理,完成圖像像素分割,為圖像精度深度優(yōu)化提供基礎依據(jù)。

1.3 圖像增強處理

在上述圖像目標區(qū)域特征提取與圖像像素集分割的基礎上,對圖像增強處理。根據(jù)上述處理可知,處理后的圖像存在細節(jié)信息丟失[12]的現(xiàn)象,為了解決圖像全局結構信息不足的問題,根據(jù)卷積神經(jīng)網(wǎng)絡并行架構,通過交替無監(jiān)督和有監(jiān)督學習訓練網(wǎng)絡,將該架構應用至圖像超分辨率重構與修復中去,能夠提升圖像精度優(yōu)化效果。對圖像信息修復前,光滑圖像,其過程如圖3所示:

圖3 圖像光滑區(qū)域處理過程

固定當前的修復圖像,求解公式如下:

由于圖像中存在兩種形式,全尺寸圖像與圖像塊,利用全尺寸圖像描述圖像特性較難,因此將全尺寸圖像與圖像塊看作兩個獨立的變量[13],并引入輔助變量,進行求解,計算公式為:

將圖像中的圖像塊看作一種原子組合,用二進制碼進行編碼,定義如下:

p=[p1,p2,…,pn]

(9)

其中,p代表圖像的基因位。

利用適應度函數(shù)評估圖像個體優(yōu)劣程度,在圖像塊中,重構信號與原始信號相差越小,表明圖像塊個體越優(yōu)秀。然而在實際的圖像重構過程中,得不到圖像的原始信號,只能獲得觀測向量,因此用觀測誤差的倒數(shù)定義適應度函數(shù):

式中,f(t)代表圖像塊基于整體圖像的適應度,y代表圖像原始信號,A△為圖像觀測誤差,u代表圖像的有效空間。

為此,采用交叉和變異算子增加圖像的原子個數(shù),尋找圖像相對位置的基因片段,已達到圖像信息交互的目的,圖像基因活性的數(shù)學公式表示為:

式中,C代表圖像的基因活性參數(shù),V代表圖像交叉規(guī)則,mh圖像的基因位的活性值,△(p)為圖像特征的平均稀疏度。

在此基礎上,搭建深度學習框架,該框架描述如下所示:

式中,F(xiàn)‖X‖代表圖像細節(jié)信息,s為圖像中的權重系數(shù),x為圖像中的像素塊。

卷積神經(jīng)網(wǎng)絡并行架構,主要是指將訓練數(shù)據(jù)劃分到不同窗口下,每個窗口都存在完成網(wǎng)絡模型,使用不同數(shù)據(jù)進行訓練。如圖4所示。

圖4 卷積神經(jīng)網(wǎng)絡并行架構

通過交替無監(jiān)督和有監(jiān)督學習訓練網(wǎng)絡,利用第一層神經(jīng)網(wǎng)絡描述圖像中的低頻參數(shù)[14],利用第二層神經(jīng)網(wǎng)絡修復圖像與真實觀測值的殘差值,運用第三層神經(jīng)網(wǎng)絡確保數(shù)據(jù)的保真度。

圖像細節(jié)信息恢復表達式為:

根據(jù)上述計算,對圖像細節(jié)信息修復,以對圖像增強處理,完成圖像精度深度優(yōu)化。

2 實驗

對上述設計的基于卷積神經(jīng)網(wǎng)絡的圖像精度深度優(yōu)化方法進行具體的實驗驗證,并將其與傳統(tǒng)的基于均值濾波的圖像精度深度優(yōu)化方法對比,對比兩種圖像精度深度優(yōu)化方法優(yōu)化后的圖像精度。

2.1 實驗軟硬件環(huán)境配置

在實驗軟件環(huán)境方面,使用Ubuntu14.04 64位操作系統(tǒng),采用C++編輯語言,具體的軟件配置見表1。

表1 實驗軟件配置

在硬件方面,使用了服務器級主板,并配備了處理器與顯卡,具體的硬件配置見表2。

表2 實驗硬件配置

實驗采用Camvid數(shù)據(jù)集內(nèi)的圖像數(shù)據(jù)作為實驗對象,將數(shù)據(jù)分為評估集與測試集各200張圖像。評估集采用傳統(tǒng)方法設計的優(yōu)化方法進行圖像優(yōu)化,測試集采用此次設計的圖像精度深度優(yōu)化方法進行圖像優(yōu)化。

為保證實驗結果準確性,將實驗圖像在VGG模型的基礎上進行預訓練,并進行10萬次迭代。為減少實驗時間,將實驗圖像每40張做一次優(yōu)化,每種方法各進行5次實驗。并對圖像進行訓練,為了提高效率,將所有圖像劃分為178×178大小的圖像,并對每張圖像進行下采樣處理。

2.2 結果與分析

傳統(tǒng)方法與此次設計的優(yōu)化方法的優(yōu)化精度對比結果可知,傳統(tǒng)圖像優(yōu)化方法在圖像優(yōu)化時,優(yōu)化的圖像精度與圖像特征提取精度均較差,與實際的圖像視覺效果相差較大(見圖5,圖6)。此外,傳統(tǒng)圖像精度優(yōu)化方法在優(yōu)化過程中,產(chǎn)生的計算量較大,難以獲得較好的圖像精度優(yōu)化效果。而此次設計的方法在圖像精度深度優(yōu)化上,優(yōu)化精度較高,說明此次設計的優(yōu)化方法能夠快速、準確地對圖像細節(jié)信息進行修復,從而保證優(yōu)化后的圖像精度較高,滿足圖像深度優(yōu)化需求。

圖5 精度深度優(yōu)化對比結果

圖6 圖像特征提取精度

在上述基礎上,采用這兩種方法進行圖像分割與圖像增強時間比較。

由表3和表4可知,此次設計方法的圖像分割與圖像增強時間均低于傳統(tǒng)方法,說明該方法的圖像分割與圖像增強的效率高,實際應用效果好。

表3 圖像分割時間比較 s

表4 圖像增強時間比較 s

綜上所述,此次設計的基于卷積神經(jīng)網(wǎng)絡的圖像精度深度優(yōu)化方法比傳統(tǒng)方法優(yōu)化效果好,比傳統(tǒng)方法優(yōu)化后的圖像精度高,能夠解決傳統(tǒng)優(yōu)化方法優(yōu)化后的圖像精度差的問題,更具有效性和實用性。

3 結語

本研究設計了一種基于卷積神經(jīng)網(wǎng)絡的圖像精度深度優(yōu)化方法,經(jīng)實驗證明,該方法優(yōu)化后的圖像比傳統(tǒng)方法精度高,但是仍然存在較多的不足之處,在下一步的研究中,網(wǎng)絡中涉及到的參數(shù)較多,訓練時間開銷較大,圖像精度優(yōu)化時間等問題需要做進一步的提高。從實驗數(shù)據(jù)方面看,本研究使用的數(shù)據(jù)集樣本相對較小,在下一步的研究中可以使用自然圖像集,深度研究此次設計的方法在實際環(huán)境中的優(yōu)化能力。

猜你喜歡
深度優(yōu)化實驗
記一次有趣的實驗
超限高層建筑結構設計與優(yōu)化思考
民用建筑防煙排煙設計優(yōu)化探討
關于優(yōu)化消防安全告知承諾的一些思考
一道優(yōu)化題的幾何解法
深度理解一元一次方程
做個怪怪長實驗
深度觀察
深度觀察
深度觀察
主站蜘蛛池模板: 欧美色亚洲| 免费观看成人久久网免费观看| 国产一二视频| 久久性视频| 香蕉伊思人视频| 欧美激情视频一区二区三区免费| 亚洲欧美日韩另类在线一| 婷婷色一二三区波多野衣| 免费又爽又刺激高潮网址| 亚洲综合婷婷激情| 美女无遮挡免费网站| 国产自产视频一区二区三区| 欧美一区中文字幕| 日韩中文字幕亚洲无线码| 免费xxxxx在线观看网站| 高清乱码精品福利在线视频| 99这里只有精品在线| 日韩精品亚洲一区中文字幕| 超碰aⅴ人人做人人爽欧美 | 国产精品精品视频| 54pao国产成人免费视频| 欧美黑人欧美精品刺激| 国产在线观看精品| 久久综合AV免费观看| 亚洲一区波多野结衣二区三区| 欧美精品啪啪一区二区三区| 国产在线视频欧美亚综合| 小说 亚洲 无码 精品| 国产人前露出系列视频| 国产在线观看第二页| 深爱婷婷激情网| 欧美视频在线播放观看免费福利资源| 欧美日本在线| 欧美.成人.综合在线| 久久久久久久久久国产精品| 日日摸夜夜爽无码| 综合天天色| 国产亚洲视频播放9000| 亚洲色图欧美视频| 国产全黄a一级毛片| 免费在线观看av| 亚洲国产成熟视频在线多多| 91口爆吞精国产对白第三集| 国产剧情一区二区| 97一区二区在线播放| 高清色本在线www| 激情乱人伦| 毛片在线播放a| JIZZ亚洲国产| 特级aaaaaaaaa毛片免费视频 | 一级毛片高清| 新SSS无码手机在线观看| 亚洲欧美日韩动漫| 91亚瑟视频| 久久精品波多野结衣| 69视频国产| 亚洲福利片无码最新在线播放| 国产青榴视频| 欧美成人区| 99偷拍视频精品一区二区| 欧美日韩亚洲综合在线观看| 久久窝窝国产精品午夜看片| 无码中文AⅤ在线观看| 黄色免费在线网址| 中文字幕66页| 国产亚洲一区二区三区在线| 嫩草国产在线| 2020极品精品国产| 国产本道久久一区二区三区| 露脸真实国语乱在线观看| 91外围女在线观看| 国产亚洲日韩av在线| 玖玖免费视频在线观看| 尤物成AV人片在线观看| 欧美一区二区三区不卡免费| 精品欧美日韩国产日漫一区不卡| 国产精品亚洲va在线观看| 国产成a人片在线播放| 精品无码视频在线观看| 99re热精品视频国产免费| 国产自在自线午夜精品视频| 亚洲国产成熟视频在线多多|