999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于生成對抗網(wǎng)絡(luò)的魚眼圖像校正方法

2023-02-18 05:36:22祁自建聶亞杰張嘉偉
軟件導(dǎo)刊 2023年1期
關(guān)鍵詞:模型

祁自建,聶亞杰,張嘉偉

(中國船舶集團(tuán)有限公司第七一八研究所,河北 邯鄲 056027)

0 引言

隨著科技的進(jìn)步,魚眼鏡頭被廣泛應(yīng)用于視頻監(jiān)控、自動駕駛和醫(yī)療檢測等領(lǐng)域。然而魚眼鏡頭捕獲的圖像不適用于為大多數(shù)透視圖像設(shè)計(jì)的計(jì)算機(jī)視覺技術(shù),如目標(biāo)追蹤、運(yùn)動估計(jì)、場景分割等任務(wù)[1]。因此,魚眼圖像的校正問題成為了研究熱點(diǎn)。

在魚眼鏡頭出現(xiàn)后的幾十年間,人們嘗試用各種校正算法校正魚眼圖像。基于投影模型的魚眼圖像校正算法有兩種不同模型:一種是球面投影模型,另一種是拋物面投影模型。運(yùn)用球面投影模型校正魚眼圖像的關(guān)鍵是找到魚眼圖像的光學(xué)中心和球面模型半徑,但在實(shí)際應(yīng)用中兩者很難被找到。一般都是假設(shè)圖像的中心點(diǎn)為該圖像的光學(xué)中心,半徑取魚眼圖像中有效圓形區(qū)域的半徑。拋物面模型復(fù)雜,在實(shí)際應(yīng)用中模型實(shí)現(xiàn)困難。楊玲等[2]提出一種應(yīng)用經(jīng)緯映射的魚眼圖像校正方法,不需要標(biāo)定參數(shù)即可將半球魚眼圖像校正為正常圖像;Kannala 等[3]假設(shè)圖像光心到投影點(diǎn)的距離和投影光線與主軸之間夾角的多項(xiàng)式存在比例關(guān)系,是目前比較受歡迎的模型;廖士中等[4]通過選取圖像中合適的控制點(diǎn),然后利用多項(xiàng)式和雙線性插值方法進(jìn)行魚眼圖像校正。

基于標(biāo)定的校正算法主要是通過外部設(shè)備對魚眼相機(jī)的內(nèi)外參數(shù)進(jìn)行標(biāo)定,借助標(biāo)定板,通過標(biāo)定板的真實(shí)坐標(biāo)與魚眼成像平面坐標(biāo)之間的坐標(biāo)轉(zhuǎn)換,實(shí)現(xiàn)魚眼圖像校正。該方法校正精度高,但對實(shí)驗(yàn)設(shè)備精度要求高[5]。Chan 等[6]提出一種改進(jìn)的自動棋盤檢測算法,以避免原始約束和用戶干預(yù),然后采用自適應(yīng)自動角點(diǎn)檢測,將魚眼成像函數(shù)用泰勒技術(shù)展開,根據(jù)最大似然準(zhǔn)則進(jìn)行非線性細(xì)化,完成魚眼圖像的標(biāo)定與校正;Radka 等[7]提出一種用于魚眼標(biāo)定的非中心模型,該模型是對之前中心模型的擴(kuò)展,使用該模型不需要提供詳細(xì)的魚眼鏡頭參數(shù);Lu 等[8]提出一種魚眼鏡頭無模型校正方法,即基于單幅圖像的啟發(fā)式B-spline 模型;吳軍等[9]以待標(biāo)定魚眼相機(jī)近似垂直棋盤格獲取的單張影像為對象,通過橢圓輪廓約束、滅點(diǎn)約束等多種幾何約束分階段求解相機(jī)參數(shù);皮英東等[10]利用直接線性變化DLT 和魚眼影像上標(biāo)定的控制點(diǎn)信息快速求解球面投影參數(shù)。

卷積神經(jīng)網(wǎng)絡(luò)的出現(xiàn)給魚眼圖像校正帶來了新的解決方案,Rong 等[11]在模擬魚眼圖像數(shù)據(jù)集上訓(xùn)練Alexnet,將魚眼圖像畸變參數(shù)分為401 類,通過網(wǎng)絡(luò)獲取畸變參數(shù)來糾正失真圖像,但有限的離散參數(shù)導(dǎo)致訓(xùn)練后的網(wǎng)絡(luò)在復(fù)雜的魚眼圖像校正上表現(xiàn)不佳;Yin 等[12]提出一種上下文協(xié)作網(wǎng)絡(luò),在網(wǎng)絡(luò)中添加高維特征和語義特征,但由于高維特征、語義特征只能提供有限信息,在魚眼圖像校正中效果較差;薛村竹[13]提出一種明確的幾何約束用來改善魚眼圖像的網(wǎng)絡(luò)感知,該網(wǎng)絡(luò)依靠魚眼中曲線校正后應(yīng)該為直線的假設(shè),對于圖像中線段較少的網(wǎng)絡(luò)校正效果差,而且需要邊緣標(biāo)簽、失真標(biāo)簽和正常圖像的多個標(biāo)簽,針對邊緣標(biāo)簽的邊緣網(wǎng)絡(luò)還要進(jìn)行預(yù)訓(xùn)練;Sha 等[14]通過簡化拋物線模型,將其與神經(jīng)網(wǎng)絡(luò)結(jié)合在一起進(jìn)行魚眼圖像校正,并在網(wǎng)絡(luò)中增加圖像超分辨率結(jié)構(gòu),以解決校正圖像分辨率較低的問題;李有強(qiáng)[15]提出一種基于卷積神經(jīng)網(wǎng)絡(luò)的魚眼鏡頭標(biāo)定方法,該方法通過改進(jìn)U-Net 網(wǎng)絡(luò)校正魚眼圖像圓弧坐標(biāo)作為前置網(wǎng)絡(luò),然后通過殘差網(wǎng)絡(luò)進(jìn)行魚眼鏡頭內(nèi)部參數(shù)預(yù)測,獲得參數(shù)后再根據(jù)立方盒展開原理對圖像進(jìn)行校正展開;Nobuhiko 等[16]通過神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)視場超過180°的魚眼圖像的外在參數(shù)(傾斜、滾動角)和內(nèi)在參數(shù)(焦距),完成參數(shù)學(xué)習(xí)后進(jìn)行魚眼圖像校正。

基于生成的方法主要是通過生成對抗網(wǎng)絡(luò)(Generative Adversarial Network,GAN)直接生成校正圖像。Liao等[17]提出自動校正徑向失真生成對抗網(wǎng)絡(luò),該網(wǎng)絡(luò)是第一個用于徑向失真校正的對抗網(wǎng)絡(luò),采用無監(jiān)督的學(xué)習(xí)方式,通過學(xué)習(xí)失真圖像與正常圖像的分布,讓失真圖像的分布通過網(wǎng)絡(luò)后逐漸靠近正常圖像的分布。然而,該網(wǎng)絡(luò)在同時重建圖像內(nèi)容和結(jié)構(gòu)方面負(fù)擔(dān)過重,導(dǎo)致校正后的圖像內(nèi)容模糊,圖像結(jié)構(gòu)無法完全校正。之后Liao 等[18]又提出一種針對單張圖像,不區(qū)分生成魚眼圖像的模式進(jìn)行失真校正的方法,主要是將魚眼圖像的生成模型統(tǒng)一到失真校正圖像上,圖像上每一個點(diǎn)代表當(dāng)前位置的失真程度,該方法更準(zhǔn)確地對扭曲的結(jié)構(gòu)進(jìn)行了校正。然而,使用GAN 進(jìn)行校正時,級聯(lián)網(wǎng)絡(luò)容易導(dǎo)致圖像細(xì)節(jié)丟失,一般跳躍連接會導(dǎo)致失真擴(kuò)散。Yang 等[1]針對跳躍連接帶來較大誤差的問題,將特征級校正引入網(wǎng)絡(luò),在生成網(wǎng)絡(luò)的不同層中使用外觀流對圖像特征進(jìn)行校正,以此減少跳躍連接帶來的誤差。

綜上可知,基于深度學(xué)習(xí)的魚眼圖像校正算法都聚焦在GAN 網(wǎng)絡(luò),而GAN 網(wǎng)絡(luò)存在跳躍連接帶來的誤差增大問題。本文通過在生成網(wǎng)絡(luò)的編碼器中添加畸變參數(shù)預(yù)測模塊,并將預(yù)測的畸變參數(shù)嵌入到生成網(wǎng)絡(luò)的解碼器中,以此減少跳躍連接帶來的誤差。最后通過實(shí)驗(yàn)對比,分析其在數(shù)據(jù)集上的表現(xiàn)。

1 研究方法與相關(guān)理論

1.1 生成對抗網(wǎng)絡(luò)

生成對抗網(wǎng)絡(luò)是2014 年由Goodfellow 等[19]提出的一種新型神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),主要結(jié)構(gòu)如圖1 所示。其包含生成器G 和判別器D,生成器的主要任務(wù)是生成能夠欺騙判別器的圖像,讓判別器無法判斷是生成器生成的圖像還是真實(shí)存在的圖像。判別器的任務(wù)則是盡量識別出圖像是生成的還是真實(shí)存在的。

Fig.1 Generative adversarial network architecture圖1 生成對抗網(wǎng)絡(luò)結(jié)構(gòu)

在網(wǎng)絡(luò)訓(xùn)練期間,生成器努力生成可欺騙判別器的圖像,而判別器試圖識別出由生成器生成的“假圖像”。兩個網(wǎng)絡(luò)互相交替訓(xùn)練,因此該訓(xùn)練過程被稱為對抗訓(xùn)練。通過對抗訓(xùn)練讓生成圖像的分布逐漸靠近真實(shí)圖像的分布,當(dāng)判別器無法分辨真假圖像時,生成對抗網(wǎng)絡(luò)訓(xùn)練完成,其訓(xùn)練過程如下:

假設(shè):pdata表示真實(shí)數(shù)據(jù)分布,pz表示生成器分布,x 表示從真實(shí)分布采樣的樣本,z 表示從生成器采樣的樣本。具體訓(xùn)練過程為:①生成器G 是一個生成圖像的網(wǎng)絡(luò),接收一個隨機(jī)噪聲z,通過該噪聲生成圖像,記作G(z);②D是一個判別網(wǎng)絡(luò),判別一張圖像是否是真實(shí)的,其輸入?yún)?shù)x 代表一張圖像,輸出D(x)代表為真實(shí)圖像的概率。若為1,則代表100%為真實(shí)圖像;若為0,則代表不是真實(shí)圖像;③一般情況下是先多訓(xùn)練幾次生成器,然后訓(xùn)練判別器。重復(fù)幾次過后,得到最后的生成模型。

生成對抗網(wǎng)絡(luò)的損失函數(shù)如式(1)所示。式(1)中的min max 可以理解為更新判別器時需要最大化公式,更新生成器時需要最小化公式。這是一個尋找納什均衡的過程,尋找其最小、最大上界。

判別器模型參數(shù)更新時,對于來自真實(shí)分布pdata的樣本x 而言,希望D(x)的輸出越接近1 越好,即logD(x)越大越好;對于噪聲z 生成的數(shù)據(jù)G(z)而言,希望D(G(z))盡量接近0,即log (1 -D(G(z)))越大越好。

生成器模型參數(shù)更新時,希望G(z)盡可能與真實(shí)數(shù)據(jù)一樣,即pz=pdata,因此希望D(G(z))盡量接近1,即log (1 -D(G(z)))越小越好。

生成對抗網(wǎng)絡(luò)經(jīng)過多年發(fā)展,已經(jīng)演變出多種不同網(wǎng)絡(luò),例如條件生成對抗網(wǎng)絡(luò),將無監(jiān)督的生成對抗網(wǎng)絡(luò)變成半監(jiān)督或者有監(jiān)督的模型。深度卷積網(wǎng)絡(luò)近年來備受研究人員關(guān)注,董訪訪等[20]使用深度卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行品牌服裝圖像檢索;程廣濤等[21]用深度卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行煙霧識別。神經(jīng)網(wǎng)絡(luò)中的池化層不可逆,深度卷積生成對抗網(wǎng)絡(luò)將對抗網(wǎng)絡(luò)與深度卷積神經(jīng)網(wǎng)絡(luò)相結(jié)合,在下采樣過程中不使用池化層,而是選擇改變卷積層步長的方法進(jìn)行下采樣,上采樣過程中的反卷積網(wǎng)絡(luò)也是采用改變反卷積層步長的方法進(jìn)行上采樣。

1.2 魚眼圖像數(shù)據(jù)集

在使用卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行魚眼圖像校正時,要求數(shù)據(jù)集規(guī)模較大,因此數(shù)據(jù)集一般采用合成魚眼圖像的方式進(jìn)行制作。合成魚眼圖像的映射形式包含兩種:除法模型與多項(xiàng)式模型。

1.2.1 除法模型

在圖像坐標(biāo)系中,透視圖像上的任意點(diǎn)Pu(x,y)與圖像中心P0(x0,y0)的歐式距離可以表示為ru,Pu在魚眼圖像中有一個對應(yīng)點(diǎn)Pd(xd,yd),Pd與畸變中心的距離表示為rd。ru與rd之間的映射關(guān)系除法模型如式(2)所示:

其中,ki為失真參數(shù),通過改變ki的值來改變魚眼畸變程度。n是參數(shù)數(shù)量,一般來說,n越大,多項(xiàng)式次數(shù)越多,用多項(xiàng)式模型表示的畸變狀態(tài)就越復(fù)雜。圖2 展示的是正常圖像與除法模型生成魚眼圖像之間的對比,圖中左邊部分為正常圖像,右邊部分為除法模型生成的魚眼圖像。

1.2.2 多項(xiàng)式模型

與除法模型相比,多項(xiàng)式模型在設(shè)計(jì)入射光角度方面更為特殊。入射光角度與光透鏡角度之間的關(guān)系如式(3)所示,θu表示入射光角度,θd是光通過透鏡的角度。

Fig.2 Comparison of normal image and image generated by the division model圖2 正常圖像與除法模型生成圖像對比

魚眼圖像一般有4 種投影模型,分別是正交投影模型、等距投影模型、球面透視投影模型、等立體角投影模型[22]。在使用多項(xiàng)式模型生成魚眼圖像時,選擇等距投影模型,rd和θd滿足等距投影關(guān)系,其中rd=f·,f是魚眼相機(jī)的焦距。對于針孔相機(jī),投影模型應(yīng)該是rd=f·tanθd,簡化得到式(4):

ru與rd之間的關(guān)系如式(5)所示:

將ki和f合并得到式(6),在生成魚眼圖像時主要考慮k的取值:

為了簡化模型,本文采用單參數(shù)多項(xiàng)式方法生成魚眼圖像數(shù)據(jù)集。因?yàn)槟P椭杏袇?shù)預(yù)測網(wǎng)絡(luò),并將預(yù)測的參數(shù)嵌入到后面的模型中。原圖像從包含400 多種場景的Places 數(shù)據(jù)集中進(jìn)行選擇,圖像大小為256×256,本文的魚眼圖像訓(xùn)練集包含38 400 張圖像,測試集包含2 560 張圖像。單參數(shù)K 的取值范圍為10-4~10-6[9]。

在圖3 中,左邊為背景圖像,中間為原圖像,右邊為單參數(shù)生成的魚眼圖像,可以看到制作出來的魚眼圖像與真實(shí)圖像以及原圖像之間在內(nèi)容上有一定差別,內(nèi)容上縮小了,原因是在生成魚眼圖像時,原圖像中的部分像素會丟失。為使魚眼圖像與真實(shí)圖像之間的內(nèi)容保持一致,在制作真實(shí)圖像時對原圖像進(jìn)行部分切割[1]。

Fig.3 Comparison between single-parameter generated image,real image and original image圖3 單參數(shù)生成圖像與真實(shí)圖像以及原圖像之間對比

2 模型與評價(jià)指標(biāo)

2.1 模型

2.1.1 模型整體結(jié)構(gòu)

模型整體結(jié)構(gòu)如圖4 所示,包含3 部分,分別是生成網(wǎng)絡(luò)、判別網(wǎng)絡(luò)和參數(shù)預(yù)測網(wǎng)絡(luò)。生成網(wǎng)絡(luò)主要通過多層殘差網(wǎng)絡(luò)對特征進(jìn)行提取,下采樣過程通過修改卷積網(wǎng)絡(luò)中的步長替代池化操作,通過編碼器不斷進(jìn)行下采樣后獲得圖像特征,解碼器的殘差網(wǎng)絡(luò)則將編碼器的輸出以及參數(shù)預(yù)測網(wǎng)絡(luò)輸入的γ 參數(shù)進(jìn)行結(jié)合,再進(jìn)行多次上采樣操作得到生成圖像。上采樣操作是反卷積過程,編碼器與解碼器在每個殘差網(wǎng)絡(luò)中都有跳躍連接。

Fig.4 Overall structure of the network model in this paper圖4 本文網(wǎng)絡(luò)模型整體結(jié)構(gòu)

參數(shù)預(yù)測網(wǎng)絡(luò)的輸入是編碼器最后一層的高維特征,通過自適應(yīng)平均池化函數(shù)將每個特征圖的大小變成1×1,然后將上一步得到的多維張量變成一維張量,將一維張量通過全連接網(wǎng)絡(luò)進(jìn)行參數(shù)預(yù)測,對預(yù)測的參數(shù)進(jìn)行編碼后獲得畸變參數(shù)γ,并將畸變參數(shù)傳到生成網(wǎng)絡(luò)的解碼器殘差塊中。判別網(wǎng)絡(luò)接收生成網(wǎng)絡(luò)生成的圖像和真實(shí)圖像,真實(shí)圖像的標(biāo)簽為1,生成圖像的標(biāo)簽為0,對輸入圖像進(jìn)行二分類,判別圖像真假。

2.1.2 殘差網(wǎng)絡(luò)模塊

殘差網(wǎng)絡(luò)模塊包含兩個卷積和一個激活函數(shù),輸入與輸出維度保持一致。第一個卷積層的卷積核大小為3×3,第二個卷積層的卷積核大小為1×1,如圖5 所示。編碼器中的殘差模塊只有卷積和激活函數(shù),不包括虛線框中的部分,解碼器殘差網(wǎng)絡(luò)模塊的輸出是將γ嵌入到輸出中。

2.1.3 判別網(wǎng)絡(luò)結(jié)構(gòu)

判別網(wǎng)絡(luò)整體結(jié)構(gòu)如圖6 所示,判別網(wǎng)絡(luò)將輸入的圖像不斷通過卷積網(wǎng)絡(luò)加激活函數(shù)的結(jié)構(gòu)進(jìn)行下采樣。卷積核大小選擇為5×5,卷積核個數(shù)分別為16、32、48、64、64,最后通過全連接層預(yù)測輸入圖像是正常圖像還是魚眼圖像。

2.1.4 損失函數(shù)

預(yù)測損失選擇L1 損失函數(shù)作為預(yù)測參數(shù)與真實(shí)參數(shù)之間的損失函數(shù),減少異常值的懲罰項(xiàng)。N 為從訓(xùn)練樣本中取樣的個數(shù),Ppre為預(yù)測參數(shù),Pgt為真實(shí)參數(shù),LP為預(yù)測損失,如式(7)所示:

Fig.5 Residual block network structure圖5 殘差塊網(wǎng)絡(luò)結(jié)構(gòu)

Fig.6 Discriminant network structure圖6 判別網(wǎng)絡(luò)結(jié)構(gòu)

生成損失也選擇L1 損失,如式(8)所示,計(jì)算圖像與背景圖像每個通道、每個像素點(diǎn)之間的L1損失。

生成網(wǎng)絡(luò)的總體損失函數(shù)如式(9)所示:

判別網(wǎng)絡(luò)判斷真假圖像的問題可以看作是一個二分類任務(wù),因此選擇二分類交叉熵?fù)p失(BCEloss)作為判別網(wǎng)絡(luò)的損失函數(shù)。

2.2 評價(jià)指標(biāo)

峰值信噪比(PSNR)用于評價(jià)重建圖像與背景圖像之間的相似度,其數(shù)值越高,兩個圖像之間的相似度越高。通過式(10)計(jì)算兩個圖像之間的均方誤差,然后通過式(11)計(jì)算PSNR。MAXI是圖像中可能最大的像素值,若使用8位表示像素,則MAXI的值為255。

結(jié)構(gòu)相似性(SSIM)用于評價(jià)兩個圖像之間的相似度[23],該指標(biāo)從對比度、亮度、結(jié)構(gòu)3 個方面對圖像進(jìn)行相似性比較。結(jié)構(gòu)相似性值的范圍為[0,1],當(dāng)值越靠近1,說明兩個圖像之間的相似度越高。計(jì)算SSIM 需要計(jì)算兩個圖像各自的均值,如式(12)所示:

標(biāo)準(zhǔn)差的計(jì)算公式如式(13)所示:

圖像協(xié)方差的計(jì)算公式如式(14)所示:

SSIM 一般選用均值作為亮度的估計(jì),如式(15)所示:

標(biāo)準(zhǔn)差作為對比度的估計(jì),如式(16)所示:

協(xié)方差作為結(jié)構(gòu)相似程度的度量,如式(17)所示:

SSIM 的計(jì)算公式如式(18)所示,其中α、β、γ 取值均為1。

SSIM 選取圖像中的部分區(qū)域進(jìn)行計(jì)算,可能存在誤差,而多尺度結(jié)構(gòu)相似性(MS-SSIM)[24]在圖像中選擇多個區(qū)域進(jìn)行計(jì)算,然后取多個區(qū)域SSIM 的平均值,相比SSIM評價(jià)更加合理。用滑動窗口將圖像分成N 塊,加權(quán)計(jì)算每一窗口的均值、方差以及協(xié)方差,權(quán)值滿足求和為1,通常采用高斯核,然后計(jì)算對應(yīng)塊的結(jié)構(gòu)相似度,最后將平均值作為兩圖像之間的結(jié)構(gòu)相似性進(jìn)行度量。

3 實(shí)驗(yàn)與分析

3.1 實(shí)驗(yàn)環(huán)境與過程

實(shí)驗(yàn)環(huán)境如表1 所示。在生成網(wǎng)絡(luò)的總損失函數(shù)中存在一個超參數(shù)λ,在實(shí)驗(yàn)中將其設(shè)置為0.001。深度學(xué)習(xí)中針對損失函數(shù)的優(yōu)化包含多種優(yōu)化器:隨機(jī)梯度下降(SGD)、帶有動量的梯度下降、自適應(yīng)矩估計(jì)(Adam)。一般常用的優(yōu)化器為SGD 和Adam,本文選擇Adam 作為優(yōu)化器。學(xué)習(xí)率是影響模型訓(xùn)練的重要參數(shù),若學(xué)習(xí)率太高,損失函數(shù)無法收斂;若學(xué)習(xí)率低,損失函數(shù)下降速度慢,無法完成學(xué)習(xí)。本文的學(xué)習(xí)率從0.000 1 開始,在訓(xùn)練過程中動態(tài)調(diào)整學(xué)習(xí)率。根據(jù)訓(xùn)練輪次,每10 次對學(xué)習(xí)率進(jìn)行修改。每輪次訓(xùn)練需要30 多分鐘,模型在訓(xùn)練30 輪次后損失幾乎保持不變,因此訓(xùn)練輪次選擇50 次,每一輪次輸入圖像為16 張。針對預(yù)測參數(shù)是否對圖像校正結(jié)果產(chǎn)生影響,在訓(xùn)練中進(jìn)行了帶有參數(shù)預(yù)測模型和不帶有參數(shù)預(yù)測模型的對比實(shí)驗(yàn)。在本文模型的生成網(wǎng)絡(luò)中,每個模塊都可以包含多個殘差塊,也進(jìn)行了對比實(shí)驗(yàn),殘差塊個數(shù)分別為1、2、3、4。

Table 1 Experimental environment表1 實(shí)驗(yàn)環(huán)境

3.2 實(shí)驗(yàn)結(jié)果

從魚眼數(shù)據(jù)集中選擇3 個不同種類的圖像作為對比,選擇的圖像如圖7 所示。對比方法選擇了經(jīng)緯度校正方法和文獻(xiàn)[1]中提到的基于外觀流的漸進(jìn)互補(bǔ)網(wǎng)絡(luò)魚眼圖像校正方法。

Fig.7 Fisheye dataset image圖7 魚眼圖像數(shù)據(jù)集圖像

圖8 是魚眼圖像經(jīng)過經(jīng)緯度校正后的圖像,通過與圖7 中的圖像進(jìn)行比較,雖然圖像中的畸變被校正,但是在圖像的頂端和低端又有了新的畸變,而且相比圖7 內(nèi)容有所減少。圖9 是魚眼圖像經(jīng)過文獻(xiàn)[1]中的基于外觀流的漸進(jìn)互補(bǔ)網(wǎng)絡(luò)魚眼圖像校正方法校正后的圖像,相較于圖8,圖9 不僅對魚眼圖像進(jìn)行了校正,而且圖像內(nèi)容保存更加完整。

Fig.8 Results of latitude and longitude correction method圖8 經(jīng)緯度校正方法結(jié)果

Fig.9 Results of appearance flow-based progressive complementary network correction method圖9 基于外觀流的漸進(jìn)互補(bǔ)網(wǎng)絡(luò)校正方法結(jié)果

圖10 是魚眼圖像經(jīng)過本文方法校正后的圖像,圖11是魚眼圖像對應(yīng)的真實(shí)背景圖像。圖10 的校正效果與圖9 相比更加接近背景圖像,圖9 中的左側(cè)圖像電梯門還存在一點(diǎn)點(diǎn)“凸起”,圖10 中左側(cè)圖像電梯門已經(jīng)不存在“凸起”;圖10 中間的文字與圖9 相比也更加清晰;圖10 中的右側(cè)圖像與圖9 中的圖像相比也是“凸起”消失,更加接近圖11中的背景圖像。

Fig.10 Correction results in this paper圖10 本文校正結(jié)果

Fig.11 Groundtruth image圖11 真實(shí)背景圖像

3.3 實(shí)驗(yàn)結(jié)果分析

針對魚眼圖像校正效果,選擇PSNR、SSIM、MS-SSIM3個定量指標(biāo)進(jìn)行比較,測試集計(jì)算結(jié)果如表2 所示。本文方法在3 個指標(biāo)上均高于文獻(xiàn)[1]中基于外觀流的漸進(jìn)互補(bǔ)網(wǎng)絡(luò)方法,PSNR 從25.596 提高到28.039、SSIM 從0.800提高到0.875、MS-SSIM 從0.943提高到0.970。

由表3 可知,將參數(shù)預(yù)測嵌入到生成網(wǎng)絡(luò)之后,其校正效果與沒有參數(shù)嵌入的網(wǎng)絡(luò)相比有所提高,數(shù)值的增加主要體現(xiàn)在PSNR 和SSIM 值上,證明參數(shù)嵌入確實(shí)可以提高模型對魚眼圖像的校正效果。

Table 2 Correction results of different methods表2 不同方法校正結(jié)果

Table 3 Correction result with and without parameter network表3 有無參數(shù)網(wǎng)絡(luò)校正結(jié)果

不同殘差塊對模型帶來的影響如表4 所示。前期殘差塊個數(shù)增加對模型校正效果的影響是積極的,殘差塊個數(shù)增加后模型的校正效果也得到提升,但當(dāng)殘差塊個數(shù)增加到4 個時,模型校正效果卻會下降,而且隨著殘差塊的增加,整個模型的參數(shù)量也在不斷增加。綜合來看,本文網(wǎng)絡(luò)中的殘差塊個數(shù)應(yīng)該為3。

Table 4 Influence of the number of residual blocks on the model表4 殘差塊個數(shù)對模型的影響

4 結(jié)語

針對生成對抗網(wǎng)絡(luò)在魚眼圖像校正過程中由于跳躍連接帶來的誤差和解碼器負(fù)擔(dān)過重問題,提出一種結(jié)合生成對抗網(wǎng)絡(luò)和魚眼校正參數(shù)預(yù)測網(wǎng)絡(luò)的算法。該算法通過在模型的生成網(wǎng)絡(luò)中添加魚眼校正參數(shù)預(yù)測模塊,將生成網(wǎng)絡(luò)編碼器的輸出作為預(yù)測網(wǎng)絡(luò)的輸入,然后將預(yù)測的參數(shù)嵌入到生成網(wǎng)絡(luò)的解碼器中,用預(yù)測的參數(shù)指導(dǎo)魚眼圖像解碼過程,以此減少跳躍連接帶來的誤差損失和解碼器負(fù)擔(dān),提高模型校正魚眼圖像的質(zhì)量。實(shí)驗(yàn)結(jié)果表明,在魚眼圖像數(shù)據(jù)集上,校正圖像與背景圖像的峰值信噪比(PSNR)達(dá)到28.039,相比之前的方法提升了9.5%;結(jié)構(gòu)相似度(SSIM)達(dá)到0.875,相比之前的方法升了7.5%。本文模型雖然在一定程度上減少了跳躍連接帶來的誤差,但是模型生成的校正圖像在放大后的某些部分還存在像素模糊的問題,如何直接通過模型生成較高質(zhì)量的校正圖像是下一步需要研究的問題。

猜你喜歡
模型
一半模型
一種去中心化的域名服務(wù)本地化模型
適用于BDS-3 PPP的隨機(jī)模型
提煉模型 突破難點(diǎn)
函數(shù)模型及應(yīng)用
p150Glued在帕金森病模型中的表達(dá)及分布
函數(shù)模型及應(yīng)用
重要模型『一線三等角』
重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
3D打印中的模型分割與打包
主站蜘蛛池模板: 久久久久久尹人网香蕉| 四虎影视无码永久免费观看| 久久精品波多野结衣| 国产精品自在线拍国产电影| 日韩无码黄色网站| www.亚洲一区二区三区| 亚洲中文字幕在线精品一区| 91年精品国产福利线观看久久| 色偷偷一区二区三区| 国产精品妖精视频| 日韩精品视频久久| 人妻少妇久久久久久97人妻| 欧美影院久久| 国产福利微拍精品一区二区| 色欲色欲久久综合网| 亚洲无码精彩视频在线观看| 91福利在线观看视频| 国产91小视频| 欧美日本视频在线观看| 毛片久久久| 国产精品林美惠子在线播放| 亚洲高清资源| AV片亚洲国产男人的天堂| 欧美成人手机在线观看网址| 亚洲国产成人精品无码区性色| 中文无码毛片又爽又刺激| 国产精品19p| 国产69精品久久| 国产成人av大片在线播放| 亚洲日韩精品无码专区97| 无码国产偷倩在线播放老年人| 亚洲aaa视频| 男人的天堂久久精品激情| 欧美精品亚洲精品日韩专区| 国产av色站网站| 国产免费黄| 茄子视频毛片免费观看| 青青草原偷拍视频| 黄网站欧美内射| 丁香婷婷久久| 中日无码在线观看| 97国产精品视频自在拍| 日韩一区精品视频一区二区| 中文字幕在线永久在线视频2020| 亚洲国产综合精品一区| 免费看的一级毛片| 亚洲一区二区黄色| 尤物特级无码毛片免费| 成人字幕网视频在线观看| 精品黑人一区二区三区| 亚洲中字无码AV电影在线观看| 中文无码毛片又爽又刺激| 日韩在线网址| 亚洲三级影院| 全免费a级毛片免费看不卡| 中国美女**毛片录像在线| 免费高清a毛片| 国产在线观看精品| 天天操天天噜| 91免费观看视频| 午夜欧美在线| 91精品啪在线观看国产91| 国产成在线观看免费视频| 91国内在线视频| 波多野结衣一二三| 日本成人一区| 亚洲精品不卡午夜精品| 亚洲 欧美 日韩综合一区| 国内自拍久第一页| 色悠久久久| 亚洲综合香蕉| 99视频在线精品免费观看6| 日韩 欧美 国产 精品 综合| 欧美人与牲动交a欧美精品 | 亚洲中文字幕无码mv| 亚洲美女高潮久久久久久久| 99一级毛片| 不卡午夜视频| 国产日本欧美在线观看| 色综合久久久久8天国| 熟女视频91| 91成人免费观看|