999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

面向同步輻射光源圖像的可并行智能壓縮方法

2023-01-27 08:28:12符世園張敏行高宇汪璐程耀東
計(jì)算機(jī)工程 2023年1期
關(guān)鍵詞:方法模型

符世園,張敏行,高宇,汪璐,程耀東,3

(1.中國(guó)科學(xué)院高能物理研究所,北京 100049;2.中國(guó)科學(xué)院大學(xué),北京 100049;3.中國(guó)科學(xué)院高能物理研究所天府宇宙線研究中心,成都 610041)

0 概述

高能同步輻射光源(High-Energy Photon Source,HEPS)是我國(guó)重大科技基礎(chǔ)設(shè)施。一期建設(shè)的實(shí)驗(yàn)線站預(yù)計(jì)每天會(huì)產(chǎn)生數(shù)百太字節(jié)的原始實(shí)驗(yàn)數(shù)據(jù)[1],海量數(shù)據(jù)對(duì)存儲(chǔ)和傳輸帶來(lái)極大壓力。數(shù)據(jù)壓縮作為一種減少數(shù)據(jù)量的方法可以用于緩解該問(wèn)題。實(shí)驗(yàn)線站產(chǎn)生的數(shù)據(jù)中占比最高的是硬X 射線實(shí)驗(yàn)線站產(chǎn)生的圖像數(shù)據(jù)。硬X 射線實(shí)驗(yàn)線站利用硬X 射線的穿透能力掃描樣本,產(chǎn)生16 位單通道灰度圖。在相鄰成像間隔中,樣本均圍繞自身中心軸旋轉(zhuǎn)一個(gè)極小的角度,每掃描一個(gè)樣本會(huì)產(chǎn)生成百上千張二維投影圖像。

壓縮方法按照信息有無(wú)損失可以分為有損壓縮和無(wú)損壓縮。在有損壓縮中,不相關(guān)或者不重要的數(shù)據(jù)被直接忽略,解壓后得到的數(shù)據(jù)與原始數(shù)據(jù)不同。在無(wú)損壓縮中,每個(gè)細(xì)節(jié)都會(huì)被保存,只有統(tǒng)計(jì)冗余被消除,可完整重構(gòu)原始數(shù)據(jù)。由于該成像線站采集圖像的目的是用于探索物質(zhì)內(nèi)部結(jié)構(gòu),因此為保證數(shù)據(jù)的科學(xué)潛力,采用無(wú)損壓縮保證圖像信息的完整性。但是,通用圖像無(wú)損壓縮方法對(duì)光源圖像壓縮效果不佳。

近年來(lái),人工智能技術(shù)得到了飛速發(fā)展。在數(shù)據(jù)無(wú)損壓縮領(lǐng)域,深度學(xué)習(xí)技術(shù)也受到了越來(lái)越多的關(guān)注,已有研究人員將Softmax 層作為壓縮的一部分與傳統(tǒng)編碼方法相結(jié)合,用于探索文本壓縮比的優(yōu)化。本文提出一種面向同步輻射光源圖像的可并行無(wú)損壓縮方法,充分利用光源圖像的相關(guān)性,以參數(shù)自適應(yīng)的可逆量化方法和非線性預(yù)測(cè)方法實(shí)現(xiàn)對(duì)光源圖像的智能化壓縮,逐步降低存儲(chǔ)光源圖像所需要的資源。針對(duì)算術(shù)編碼效率問(wèn)題,設(shè)計(jì)概率距離量化方法提升編碼并行度,最終達(dá)到提高圖像壓縮比的同時(shí)完全保留數(shù)據(jù)科學(xué)潛力并且使其具有高并行度。

1 相關(guān)工作

1.1 通用無(wú)損壓縮方法

無(wú)損圖像壓縮方法可以分為熵編碼、預(yù)測(cè)編碼、變換編碼和基 于字典的編碼[2]4 類。Huffman 編碼[3]、算術(shù)編碼[4]等熵編碼在編碼過(guò)程中,首先通過(guò)概率估計(jì)生成編碼表,概率可通過(guò)全局統(tǒng)計(jì)生成,也可由局部信息生成,然后通過(guò)編碼表消除編碼冗余。預(yù)測(cè)編碼通過(guò)圖像空間結(jié)構(gòu)進(jìn)行像素值預(yù)測(cè),再將預(yù)測(cè)值與真實(shí)值之間的殘差通過(guò)熵編碼壓縮,從而達(dá)到無(wú)損壓縮的目的,例如:WebP[5]基于3 個(gè)相鄰塊預(yù)測(cè)當(dāng)前塊;PNG[6]可通過(guò)可選的5 種類型的過(guò)濾器進(jìn)行預(yù)測(cè),不同類型的過(guò)濾器對(duì)周圍的像素值進(jìn)行不同的計(jì)算得到預(yù)測(cè)值;FLIF[7]通過(guò)上下文模型結(jié)合熵編碼進(jìn)行壓縮;JPEG_LS[8]中當(dāng)前像素的預(yù)測(cè)值取決于局部邊緣方向的自適應(yīng)模型。變換編碼是將空域轉(zhuǎn)變到頻域進(jìn)行無(wú)損壓縮,例如JPEG2000[9]使用可逆的小波變換。基于字典的編碼是通過(guò)字符串表進(jìn)行壓縮,例如LZW 將像素分組為字符串,最后轉(zhuǎn)換成編碼。

視頻冗余除了圖像中存在的空間冗余和編碼冗余外,還包括時(shí)間冗余,所以視頻無(wú)損壓縮方法可以進(jìn)一步從時(shí)間維度上進(jìn)行預(yù)測(cè)。FFV1[10]是一個(gè)簡(jiǎn)單高效的無(wú)損幀內(nèi)編碼器,可使用可變長(zhǎng)度編碼或算術(shù)編碼進(jìn)行熵編碼。因此,通用壓縮方法主要包括變換、量化、預(yù)測(cè)、編碼4 個(gè)步驟,而由于這些步驟中量化過(guò)程不可逆,無(wú)損壓縮直接跳過(guò)該步驟。此外,通用圖像無(wú)損壓縮方法可以有效地利用圖像的局部結(jié)構(gòu),而通用視頻無(wú)損壓縮方法可以進(jìn)一步消除圖像序列內(nèi)部的時(shí)間冗余,但是只能捕獲手工指定的簡(jiǎn)單統(tǒng)計(jì)信息。為解決這兩個(gè)問(wèn)題,本文結(jié)合同步輻射光源圖像的特點(diǎn),提出一種完全可逆的分區(qū)量化方法,通過(guò)基于深度學(xué)習(xí)的無(wú)損壓縮方法提升壓縮效果。

1.2 基于深度學(xué)習(xí)的無(wú)損壓縮方法

近年來(lái),深度學(xué)習(xí)技術(shù)在諸多任務(wù)中取得了達(dá)到或超越傳統(tǒng)通用方法的性能。由于數(shù)據(jù)量的持續(xù)爆發(fā)性增長(zhǎng),越來(lái)越多的研究人員將深度學(xué)習(xí)技術(shù)應(yīng)用于無(wú)損壓縮。在無(wú)損壓縮任務(wù)中最關(guān)鍵的是準(zhǔn)確的概率估計(jì),深度學(xué)習(xí)方法主要用于預(yù)測(cè)階段,利用訓(xùn)練得到的概率模型對(duì)數(shù)據(jù)分布進(jìn)行建模,與熵編碼結(jié)合對(duì)殘差進(jìn)行無(wú)損編碼,最大化模型在真實(shí)值上的預(yù)測(cè)概率,等同于最小化使用編碼器的無(wú)損壓縮模型所獲得的比特率[11]。

在圖像無(wú)損壓縮任務(wù)中:文獻(xiàn)[11]通過(guò)建模低分辨率與高分辨率圖像的還原過(guò)程,從低分辨率圖像直接得到預(yù)測(cè)圖像的概率分布,結(jié)合算術(shù)編碼進(jìn)行壓縮;文獻(xiàn)[12]結(jié)合通用的有損圖像壓縮方法構(gòu)建無(wú)損圖像壓縮,利用CNN 對(duì)殘差分布進(jìn)行建模;文獻(xiàn)[13]通過(guò)基于流的方法將輸入圖像轉(zhuǎn)換為具有預(yù)定義分布函數(shù)的潛在表示,編碼和解碼函數(shù)必須互為可逆,并使用大型神經(jīng)網(wǎng)絡(luò)提高壓縮性能。在科學(xué)數(shù)據(jù)的壓縮任務(wù)中,深度學(xué)習(xí)方法也得到廣泛的應(yīng)用:文獻(xiàn)[14]提出一種基于神經(jīng)網(wǎng)絡(luò)的DNA 序列壓縮器,在壓縮效果上得到一定的提升;文獻(xiàn)[15]使用深度遞歸神經(jīng)網(wǎng)絡(luò)來(lái)改進(jìn)傳統(tǒng)方法并提高模型的泛化能力和預(yù)測(cè)精度。

上述基于深度學(xué)習(xí)的壓縮方法建模追求泛化性和通用性。與上述壓縮方法不同,GOYAL 等[16]在DeepZip 中提出一種基于時(shí)序網(wǎng)絡(luò)的文本無(wú)損壓縮方法,該方法針對(duì)不同的數(shù)據(jù)過(guò)擬合訓(xùn)練獨(dú)立的模型,為保證壓縮過(guò)程完全可逆,將模型與壓縮結(jié)果一并保存,即壓縮數(shù)據(jù)與模型為一對(duì)一關(guān)系,模型僅適用于訓(xùn)練數(shù)據(jù)的壓縮任務(wù)。這種對(duì)不同數(shù)據(jù)過(guò)擬合建模的方式可在其測(cè)試數(shù)據(jù)上優(yōu)化壓縮比,但是模型規(guī)模會(huì)帶來(lái)額外的存儲(chǔ)空間開(kāi)銷。對(duì)于模型規(guī)模影響壓縮效果的問(wèn)題,文獻(xiàn)[17]提出一種基于自適應(yīng)和半自適應(yīng)訓(xùn)練的新型混合架構(gòu),無(wú)需重新訓(xùn)練模型即可壓縮新的數(shù)據(jù)。同時(shí),基于深度學(xué)習(xí)的無(wú)損壓縮方法通常編碼速度較慢,低編碼速率限制了應(yīng)用的可行性。針對(duì)這一問(wèn)題,文獻(xiàn)[18]提出一種多尺度的漸進(jìn)統(tǒng)計(jì)模型加速模型推理速度,文獻(xiàn)[19]通過(guò)流模型進(jìn)行加速,文獻(xiàn)[20]通過(guò)并行預(yù)測(cè)多個(gè)像素的概率進(jìn)行加速,文獻(xiàn)[21]通過(guò)跳過(guò)耗時(shí)較長(zhǎng)的編碼階段進(jìn)行加速。

本文通過(guò)提出概率距離以及穩(wěn)定的計(jì)算過(guò)程替換算術(shù)編碼過(guò)程,在保證壓縮比優(yōu)化的前提下提高編碼過(guò)程的并行度。受DeepZip 啟發(fā),結(jié)合光源圖像特點(diǎn),以數(shù)據(jù)集為單位過(guò)擬合訓(xùn)練模型,減少模型規(guī)模對(duì)壓縮比提升的影響。

2 圖像數(shù)據(jù)集建立與相關(guān)性分析

2.1 圖像數(shù)據(jù)集建立

本文圖像數(shù)據(jù)來(lái)自上海同步輻射光源裝置,是掃描不同樣本得到的圖像序列,涵蓋了魚(yú)鱗、菌絲、小鼠腦和化石翅膀。不同圖像序列的幀數(shù)和圖像尺寸有所不同,分辨率為2 048×2 048 像素和2 048×1 200 像素兩種,均為16 位單通道灰度投影圖序列,具體信息如表1 所示。

表1 數(shù)據(jù)集信息Table 1 Dataset information

分別對(duì)上述圖像序列使用通用無(wú)損壓縮方法進(jìn)行壓縮測(cè)試,得到結(jié)果如表2 所示,壓縮結(jié)果以壓縮比(Compression Ratio,CR)衡量,壓縮比即為壓縮前文件大小與壓縮后文件大小的比值。通用無(wú)損壓縮方法達(dá)到的最優(yōu)壓縮比為1.46~1.64。壓縮比越高,說(shuō)明節(jié)省的存儲(chǔ)空間越多,數(shù)據(jù)長(zhǎng)期存儲(chǔ)的成本越低。

表2 4 種通用壓縮方法的壓縮比Table 2 CR of four general compression methods

2.2 圖像線性相關(guān)性分析

對(duì)于圖像相似度的衡量指標(biāo),Spearman 系數(shù)[22]比SSIM[23-24]更準(zhǔn)確,因此以Spearman 系數(shù)為圖像間線性關(guān)系的衡量標(biāo)準(zhǔn)。同一樣本圖像序列內(nèi)部的時(shí)間線性相關(guān)性由相鄰圖像間線性相關(guān)性的均值計(jì)算得到。

圖像序列內(nèi)部的部分時(shí)間線性相關(guān)性通過(guò)時(shí)間差分去除。時(shí)間差分即將相鄰幀同一空間位置像素相減,該過(guò)程也可以看作將前幀作為后幀的線性預(yù)測(cè)幀,差分后得到去除部分線性冗余后的殘差數(shù)據(jù),殘差數(shù)據(jù)可通過(guò)深度學(xué)習(xí)方法建模非線性關(guān)系進(jìn)一步壓縮。

差分前后圖像序列內(nèi)部的線性時(shí)間相關(guān)性如表3 所示,差分前圖像序列內(nèi)部具有極強(qiáng)的線性時(shí)間相關(guān)性,差分后其相關(guān)性接近于0。因此,差分可以簡(jiǎn)單有效地去除圖像序列內(nèi)部的時(shí)間線性相關(guān)性。

表3 圖像差分前后的相關(guān)性對(duì)比Table 3 Comparison of correlation before and after image difference

3 同步輻射光源圖像智能壓縮

3.1 整體流程

本文提出一種面向同步輻射光源圖像的可并行智能無(wú)損壓縮方法,如圖1 所示,主要包括線性預(yù)測(cè)和非線性預(yù)測(cè),用以分別去除圖像序列中的線性及非線性冗余信息。以時(shí)間差分作為去除線性冗余的線性預(yù)測(cè)方法,差分后的圖像通過(guò)分區(qū)量化方法將像素值取值范圍映射到一個(gè)更小的區(qū)間,以減小像素值所占比特位,得到images′。在非線性預(yù)測(cè)模塊中,通過(guò)預(yù)測(cè)模型及訓(xùn)練方法以加速訓(xùn)練及預(yù)測(cè)過(guò)程,定義概率距離概念以加速編碼過(guò)程,將概率距離量化流作為最終壓縮流。

圖1 整體壓縮流程Fig.1 Overall compression process

3.2 分區(qū)量化

由于光源圖像序列內(nèi)部時(shí)間線性相關(guān)性較強(qiáng),因此通過(guò)時(shí)間差分方法去除序列內(nèi)部的大部分時(shí)間線性冗余。時(shí)間差分前圖像像素值分布如圖2(a)所示,時(shí)間差分后圖像像素值集中分布在0 和65 535 附近,該范圍中部?jī)H有少量數(shù)據(jù)存在,如圖2(b)所示。將像素值映射到較小的數(shù)據(jù)范圍能夠縮小其所占比特位,從而達(dá)到壓縮的目的,因此本文提出可逆的分區(qū)量化方法,以保存少量未壓縮數(shù)據(jù)為代價(jià),換取較小的數(shù)據(jù)分布范圍。

圖2 菌絲圖像差分前后的像素值分布對(duì)比Fig.2 Comparison of pixel value distribution before and after difference

該量化過(guò)程完全可逆,因此可以保證反量化后數(shù)據(jù)與量化前數(shù)據(jù)一致。分區(qū)量化與反量化過(guò)程如圖3 所示,在分區(qū)量化后,原始數(shù)據(jù)分為待壓縮數(shù)據(jù)和直接保留數(shù)據(jù),其中直接保留數(shù)據(jù)直接按順序單獨(dú)存儲(chǔ)。為保證無(wú)損還原,直接保留數(shù)據(jù)以占位符的形式存在于待壓縮數(shù)據(jù)中。在反量化時(shí),在待壓縮數(shù)據(jù)中掃描到占位符時(shí),按順序回填直接保留數(shù)據(jù)即可。待壓縮數(shù)據(jù)量化方法為向右平移指定距離,在還原時(shí)需向左平移相同距離。

圖3 分區(qū)量化與反量化過(guò)程Fig.3 Process of partition quantization and inverse quantization

對(duì)于T×M×N的圖像序列,其中,T為幀數(shù),M為高度,N為寬度,分區(qū)量化步驟具體如下:

1)采樣:從圖像序列中等間隔抽取一定數(shù)量樣本。

2)統(tǒng)計(jì)像素值:統(tǒng)計(jì)采樣數(shù)據(jù)集中像素值的分布得到Dict,記錄每一個(gè)像素值出現(xiàn)的次數(shù),Dict(i)表示值為i的像素值出現(xiàn)的次數(shù)。

3)確定占位符f:由占位符確定數(shù)據(jù)的量化函數(shù),依據(jù)式(1)確定占位符:

4)構(gòu)造量化函數(shù)F(x):x為分區(qū)量化前的差分像素值,根據(jù)占位符構(gòu)造量化函數(shù),約定占位符為量化后范圍末尾加1 的值。待壓縮數(shù)據(jù)后,只需向右平移指定步長(zhǎng)(f-1)/2,直接保留數(shù)據(jù)并映射到占位符,按順序存儲(chǔ)到文件中,如式(2)所示:

5)量化:根據(jù)量化函數(shù)將數(shù)據(jù)量化到新的值。

分區(qū)反量化步驟具體如下:

1)確定占位符f:由于占位符的設(shè)置是新的映射范圍最大值加1,因此待壓縮數(shù)據(jù)的最大值即為占位符的值。

2)構(gòu)造反量化函數(shù)G(y):該過(guò)程為量化函數(shù)逆過(guò)程,y為量化后的值。若數(shù)據(jù)等于占位符,則從直接保留數(shù)據(jù)中讀取一個(gè)數(shù)據(jù),否則向左平移指定步長(zhǎng)(f-1)/2,如式(3)所示:

3)反量化:根據(jù)反量化函數(shù)還原量化值。

在分區(qū)量化過(guò)程中,主要包括像素值統(tǒng)計(jì)、占位符確定、量化(反量化)過(guò)程,這3 個(gè)過(guò)程均可并行計(jì)算。

3.3 非線性預(yù)測(cè)

圖像序列經(jīng)過(guò)差分及量化后,已去除部分線性冗余并將像素值映射到較小范圍。非線性預(yù)測(cè)用于利用差分量化后圖像序列的非線性相關(guān)性進(jìn)一步提升壓縮比。受DeepZip 啟發(fā),使用深度學(xué)習(xí)方法過(guò)擬合壓縮數(shù)據(jù),學(xué)習(xí)其非線性相關(guān)性。但是該方法存在以下問(wèn)題:1)由于模型規(guī)模較大,因此抵消了壓縮所節(jié)省的空間;2)一對(duì)一訓(xùn)練過(guò)程耗時(shí);3)模型預(yù)測(cè)時(shí)間較長(zhǎng)。對(duì)于問(wèn)題1 和2,結(jié)合同步輻射光源圖像的特點(diǎn),提出一種以數(shù)據(jù)集為單位,用少量數(shù)據(jù)訓(xùn)練模型以壓縮整體數(shù)據(jù)的方法;對(duì)于問(wèn)題3,提出一種以CNN 為基礎(chǔ)架構(gòu)的概率預(yù)測(cè)模型,以提高預(yù)測(cè)的并行度。

3.3.1 訓(xùn)練與預(yù)測(cè)方法

本文將壓縮方法分為通用壓縮與專用壓縮兩類,如圖4、圖5 所示。通用方法是由專門(mén)的組織提出標(biāo)準(zhǔn)編寫(xiě)而成的,對(duì)大部分圖像數(shù)據(jù)具有壓縮效果。專用方法如DeepZip,壓縮器僅對(duì)訓(xùn)練數(shù)據(jù)有效。

圖4 通用壓縮中數(shù)據(jù)與壓縮器的對(duì)應(yīng)關(guān)系Fig.4 Correspondence between data and compressors in the general compression

圖5 專用壓縮中數(shù)據(jù)與壓縮器的對(duì)應(yīng)關(guān)系Fig.5 Correspondence between data and compressors in the special compression

基于同步輻射光源圖像中一個(gè)樣本對(duì)應(yīng)一個(gè)數(shù)據(jù)集的特點(diǎn),本文提出一種壓縮粒度介于通用與專用之間的非線性預(yù)測(cè)方法,如圖6 所示,每一個(gè)數(shù)據(jù)集即為一個(gè)圖像序列。該方法以專用壓縮的思想提升壓縮比,即對(duì)不同的圖像序列訓(xùn)練不同的模型,這是因?yàn)椴煌瑯颖旧傻膱D像序列內(nèi)容差別較大。由于同一樣本生成的圖像序列內(nèi)容非常相似,因此借鑒通用壓縮的思想加速訓(xùn)練過(guò)程,即對(duì)同一圖像序列使用統(tǒng)一的模型進(jìn)行預(yù)測(cè)。在本文的訓(xùn)練與預(yù)測(cè)方法中,以數(shù)據(jù)集為單位過(guò)擬合訓(xùn)練獨(dú)立模型,訓(xùn)練數(shù)據(jù)為樣本圖像序列中的單張圖像及其前序圖像組成的小樣本數(shù)據(jù)集,用于該樣本所有圖像的壓縮。

圖6 本文中數(shù)據(jù)與壓縮器的對(duì)應(yīng)關(guān)系Fig.6 Correspondence between data and compressors in this study

3.3.2 C-Zip 網(wǎng)絡(luò)結(jié)構(gòu)

概率預(yù)測(cè)模型C-Zip 以CNN 為基礎(chǔ)架構(gòu),輸入為指定patch 大小,如圖7 所示。該模型主要基于TCN[25]和Octave Convolution[26]。

圖7 C-Zip 網(wǎng)絡(luò)結(jié)構(gòu)Fig.7 C-Zip network structure

TCN 是一種通過(guò)因果卷積和膨脹卷積學(xué)習(xí)序列的非線性關(guān)系的模型,僅使用CNN 模型,可大規(guī)模并行處理。本文方法利用3D-TCN 學(xué)習(xí)圖像序列中的時(shí)空特征,最后通過(guò)Fully-Connected 層加Softmax層得到編碼時(shí)使用的預(yù)測(cè)概率分布,其中3D-TOCN子模塊如圖8 所示。該子模塊結(jié)合了Octave Convolution,將輸入按通道切分為高頻和低頻,低頻數(shù)據(jù)所含信息量較少,可以在高度和寬度的維度上縮小為原來(lái)的1/2,之后分別通過(guò)3D-TCN 學(xué)習(xí)頻域內(nèi)非線性關(guān)系,通過(guò)Octave Convolution 進(jìn)行頻域間通信,最后將低頻信息通過(guò)上采樣恢復(fù)成原始大小,與高頻信息做拼接即得到最后的輸出。

圖8 3D-TOCN 子模塊結(jié)構(gòu)Fig.8 3D-TOCN submodule structure

3.4 概率距離

由于算術(shù)編碼速度慢,并行度低,影響壓縮效率,因此本文提出概率距離方法(Rank)用以增加編碼并行度。

Softmax 層的輸出根據(jù)不同的任務(wù)可以得到不同的解讀與計(jì)算,從而提取出不同的信息。Softmax的輸出經(jīng)過(guò)歸一化后可以認(rèn)為是每個(gè)值對(duì)應(yīng)的概率。對(duì)于壓縮問(wèn)題,概率可直接與熵編碼進(jìn)行結(jié)合;對(duì)于多分類問(wèn)題,預(yù)測(cè)類別為最大概率值對(duì)應(yīng)的類別;對(duì)于推薦問(wèn)題,需對(duì)概率進(jìn)行排序。本文針對(duì)的問(wèn)題是大字典數(shù)數(shù)據(jù)壓縮,對(duì)于大字典數(shù)據(jù)而言,若神經(jīng)網(wǎng)絡(luò)預(yù)測(cè)的結(jié)果較好,則大部分真實(shí)值對(duì)應(yīng)的概率距離在Top-K中,當(dāng)K的比特位數(shù)小于當(dāng)前數(shù)據(jù)的比特位數(shù)時(shí),可結(jié)合分區(qū)量化達(dá)到壓縮效果,因此可通過(guò)概率距離結(jié)合分區(qū)量化達(dá)到壓縮的目的。

概率距離方法定義為真實(shí)值對(duì)應(yīng)的預(yù)測(cè)概率值在預(yù)測(cè)概率向量中的排序位置,針對(duì)概率值相同導(dǎo)致排序不穩(wěn)定的問(wèn)題,進(jìn)一步比較字典中值的大小,保證計(jì)算過(guò)程完全可逆。

對(duì)于字典數(shù)為[0,n-1]的數(shù)據(jù),當(dāng)前待編碼數(shù)據(jù)為v,模型輸出為預(yù)測(cè)概率向量p,p[j]為字典數(shù)j對(duì)應(yīng)的概率值,其中0≤j≤n-1,概率距離計(jì)算如式(4)及式(5)所示:

目前,在傳統(tǒng)智能壓縮方法中,將模型的輸出看作概率,結(jié)合算術(shù)編碼進(jìn)行壓縮。本文根據(jù)神經(jīng)網(wǎng)絡(luò)輸出計(jì)算得到概率距離,結(jié)合分區(qū)量化進(jìn)行壓縮,如圖9 所示。該方法計(jì)算簡(jiǎn)單,因?yàn)閮H涉及比較大小和做統(tǒng)計(jì)的過(guò)程,而不同像素值概率距離的計(jì)算相互獨(dú)立,所以并行度高。同時(shí),該方法的輸出可以繼續(xù)與其他編碼方法相結(jié)合,進(jìn)一步提升壓縮比。

圖9 非線性壓縮流程Fig.9 Process of nonlinear compression

4 實(shí)驗(yàn)與結(jié)果分析

4.1 分區(qū)量化分析

對(duì)不同數(shù)據(jù)集進(jìn)行時(shí)間差分,圖10 和圖11 為不同數(shù)據(jù)集中單張圖像差分前后的像素值分布對(duì)比,其中,差分前不同數(shù)據(jù)集圖像像素值分布的范圍和密度不同,差分后不同數(shù)據(jù)集圖像像素值的分布范圍均密集分布在兩端區(qū)域。因此,不同數(shù)據(jù)集時(shí)間差分后均可通過(guò)分區(qū)量化縮小像素值分布范圍。

圖10 原圖像素值分布Fig.10 Pixel value distribution of original images

圖11 差分圖像素值分布Fig.11 Pixel value distribution of difference images

對(duì)每個(gè)數(shù)據(jù)集的圖像序列抽取1/100 的數(shù)據(jù)統(tǒng)計(jì)其像素值并計(jì)算其占位符,結(jié)果如表4 所示。不同樣本的占位符有所不同,說(shuō)明分區(qū)量化的計(jì)算具有數(shù)據(jù)自適應(yīng)性。量化后像素值所占比特位由16 位降低至11 或12 位,而保留數(shù)據(jù)只占原始數(shù)據(jù)的0.29%~1.97%,說(shuō)明量化后數(shù)據(jù)可以達(dá)到壓縮的目的。

表4 不同數(shù)據(jù)集上的分區(qū)量化結(jié)果Table 4 Partition quantization results on different datasets

因此,分區(qū)量化可以達(dá)到將數(shù)據(jù)無(wú)損量化到較小數(shù)據(jù)范圍的目的,能夠節(jié)省20%以上的存儲(chǔ)空間,同時(shí)較小的數(shù)據(jù)分布范圍有利于后續(xù)基于深度學(xué)習(xí)的模型訓(xùn)練與壓縮。

4.2 非線性預(yù)測(cè)方法對(duì)比

數(shù)據(jù)集圖像序列進(jìn)行時(shí)間差分及分區(qū)量化后,通過(guò)非線性預(yù)測(cè)方法進(jìn)行概率預(yù)測(cè),直接結(jié)合算術(shù)編碼進(jìn)行壓縮。

模型的輸入維度為3×32×32,即將圖像數(shù)據(jù)分塊處理,塊大小為32×32 像素,利用當(dāng)前幀的前向3 幀不同圖像塊預(yù)測(cè)當(dāng)前幀相應(yīng)圖像塊每一個(gè)像素值的概率分布,損失函數(shù)為交叉熵?fù)p失函數(shù),損失連續(xù)3 個(gè)epoch 不下降或者epoch 達(dá)到16 時(shí)停止訓(xùn)練,學(xué)習(xí)率設(shè)置為0.01,使用Adam 優(yōu)化器,每3 個(gè)epoch學(xué)習(xí)率下降10%,Octave Convolution 中超參數(shù)設(shè)置為0.5。

以小鼠腦數(shù)據(jù)集為例,本文提出的C-Zip 中僅使用CNN 模型,即可達(dá)到與DeepZip 相近的壓縮比優(yōu)化效果,并且可以減少預(yù)測(cè)時(shí)間,如圖12 所示。

圖12 DeepZip 與C-Zip 壓縮比與預(yù)測(cè)時(shí)間對(duì)比Fig.12 Comparison of DeepZip and C-Zip in CR and predicting time

取數(shù)據(jù)集中少量數(shù)據(jù)過(guò)擬合訓(xùn)練模型作為整體圖像序列的預(yù)測(cè)模型,壓縮結(jié)果如表5 所示。對(duì)于專用模型壓縮以圖片為單位的原訓(xùn)練方法和本文提出的以數(shù)據(jù)集為單位的壓縮方法,兩者結(jié)果較為接近,驗(yàn)證了本文方法在光源圖像壓縮問(wèn)題上的有效性。在化石翅膀數(shù)據(jù)集的結(jié)果中,原方法的壓縮比較高。在小鼠腦和魚(yú)鱗數(shù)據(jù)集的結(jié)果中,本文方法的壓縮比較高,這是因?yàn)閷?shí)際的模型訓(xùn)練過(guò)程中,考慮到實(shí)際應(yīng)用的時(shí)間限制,訓(xùn)練過(guò)程中達(dá)到指定epoch 即停止訓(xùn)練,會(huì)導(dǎo)致訓(xùn)練過(guò)程中未找到最優(yōu)解的問(wèn)題,從而導(dǎo)致某些圖像壓縮效果不佳。本文方法在壓縮時(shí)隨機(jī)選取的模型若為訓(xùn)練效果好的模型,則會(huì)出現(xiàn)整體壓縮比高于原方法的結(jié)果,這是未來(lái)可以改進(jìn)的方向。但是相較于傳統(tǒng)壓縮方法,這兩種方法的壓縮比均可獲得0.5 以上的提升效果。

表5 2 種壓縮方式的壓縮比對(duì)比Table 5 Comparison of CR of two compression methods

4.3 概率距離分析

對(duì)不同數(shù)據(jù)集的圖像序列,經(jīng)過(guò)相同的時(shí)間差分與分區(qū)量化、訓(xùn)練與預(yù)測(cè)方法,僅將模型輸出改為概率距離,算術(shù)編碼改為分區(qū)量化過(guò)程,所得壓縮比結(jié)果如表6 所示。

表6 不同數(shù)據(jù)集上的概率距離量化結(jié)果Table 6 Probability distance quantization results on different datasets

不同數(shù)據(jù)集概率距離的占位符不同,量化后比特位為7~9 位,相較于原16 位數(shù)據(jù),該部分?jǐn)?shù)據(jù)在比特位上可以節(jié)省43.75%~56.25%的存儲(chǔ)空間。結(jié)合保留數(shù)據(jù)占比,整體壓縮比為1.74~2.00,與使用概率距離前的壓縮方法相比,整體壓縮比有所下降。

在單個(gè)像素值的概率距離的計(jì)算過(guò)程中,僅涉及簡(jiǎn)單的加減運(yùn)算,相較于算術(shù)編碼,該壓縮流程更易于硬件實(shí)現(xiàn)及加速。同時(shí),不同像素值的概率距離計(jì)算過(guò)程相互獨(dú)立,后續(xù)分區(qū)量化過(guò)程同為高可并行方法。因此,對(duì)比原始?jí)嚎s流程,概率距離量化流程能夠在保證壓縮比的前提下提高并行度。

4.4 整體壓縮比對(duì)比

在本文方法中,為保證壓縮過(guò)程無(wú)損,壓縮后需要存儲(chǔ)的數(shù)據(jù)包含預(yù)測(cè)模型數(shù)據(jù)、差分量化后保留數(shù)據(jù)、Rank 保留數(shù)據(jù)以及Rank 量化后數(shù)據(jù)4 個(gè)部分,其中預(yù)測(cè)模型數(shù)據(jù)可忽略不計(jì),另外3 個(gè)部分?jǐn)?shù)據(jù)大小占原數(shù)據(jù)大小比值如表7 所示,整體壓縮比為1.69~2.22。PNG、JPEG2000、JPEG_LS、FLIF 和本文方法的壓縮比對(duì)比如表8 所示,相較于傳統(tǒng)無(wú)損壓縮方法,本文方法的壓縮比提升了0.23~0.58。可見(jiàn),本文方法在保證壓縮比優(yōu)化的前提下,具有較高的并行度。

表7 不同數(shù)據(jù)集上的整體壓縮比Table 7 Overall CR on different datasets

表8 5 種方法的壓縮比對(duì)比Table 8 Comparison of CR of five methods

5 結(jié)束語(yǔ)

本文提出一種面向同步輻射光源圖像的可并行智能無(wú)損壓縮方法。通過(guò)充分挖掘該類圖像序列內(nèi)部相關(guān)性,設(shè)計(jì)可逆的分區(qū)量化方法。以數(shù)據(jù)集為單位過(guò)擬合訓(xùn)練模型,作為概率預(yù)測(cè)器,并結(jié)合穩(wěn)定的概率距離計(jì)算方法,在確保圖像壓縮比的同時(shí)提高了編碼并行度。實(shí)驗(yàn)結(jié)果表明,該方法相比于傳統(tǒng)圖像無(wú)損壓縮方法對(duì)于同步輻射光源圖像具有更好的壓縮效果。下一步將細(xì)化分區(qū)量化中占位符的選擇范圍,明確占位符對(duì)壓縮效果的影響程度,形成可量化指標(biāo),同時(shí)通過(guò)提升模型訓(xùn)練過(guò)程中尋找最優(yōu)解的速度,以獲得穩(wěn)定的壓縮比優(yōu)化效果,并且可將該方法與FPGA 等硬件相結(jié)合進(jìn)一步降低計(jì)算成本,加速壓縮過(guò)程,提升適用范圍。

猜你喜歡
方法模型
一半模型
重要模型『一線三等角』
重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
學(xué)習(xí)方法
3D打印中的模型分割與打包
用對(duì)方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
FLUKA幾何模型到CAD幾何模型轉(zhuǎn)換方法初步研究
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
賺錢(qián)方法
捕魚(yú)
主站蜘蛛池模板: 日本在线免费网站| 国产精品粉嫩| 97视频免费在线观看| 无码国产偷倩在线播放老年人| 欧美精品v日韩精品v国产精品| 亚洲第一视频网| 亚洲精品动漫| 国产本道久久一区二区三区| 老司国产精品视频91| 思思热精品在线8| 日日噜噜夜夜狠狠视频| 欧美国产日韩在线| 免费午夜无码18禁无码影院| 欧美爱爱网| 日韩午夜片| 久久亚洲黄色视频| 一级毛片免费不卡在线视频| 第九色区aⅴ天堂久久香| 亚洲精品自在线拍| 日韩不卡高清视频| 欧美在线导航| 波多野结衣无码AV在线| 亚洲第一国产综合| 激情乱人伦| 一区二区偷拍美女撒尿视频| 天天做天天爱夜夜爽毛片毛片| AⅤ色综合久久天堂AV色综合| 中国国产一级毛片| 婷婷综合在线观看丁香| 欧美精品综合视频一区二区| 国产成在线观看免费视频| 亚洲最大情网站在线观看| 国产尤物在线播放| 亚洲精品爱草草视频在线| 九色综合伊人久久富二代| 国产精品伦视频观看免费| 国产精品美乳| 婷婷久久综合九色综合88| 国产亚洲视频播放9000| 欧美日韩另类国产| 99精品国产自在现线观看| 精品夜恋影院亚洲欧洲| 国产H片无码不卡在线视频| 亚洲综合极品香蕉久久网| 青青青视频蜜桃一区二区| 亚洲清纯自偷自拍另类专区| 国产在线观看一区精品| 国产噜噜噜| 国产精品成人不卡在线观看| 综合网天天| 国产精品3p视频| 2019国产在线| 亚洲啪啪网| 热久久综合这里只有精品电影| 日韩午夜福利在线观看| 国产一区二区网站| 精品国产免费人成在线观看| 97久久精品人人| 亚洲国产亚洲综合在线尤物| 99视频在线免费观看| 日本成人精品视频| 日韩在线观看网站| 国产第八页| 东京热av无码电影一区二区| 2022国产91精品久久久久久| 在线免费观看a视频| 欧美午夜在线视频| 无码一区中文字幕| 91精品国产自产91精品资源| 国产精品网曝门免费视频| 亚洲一区二区三区麻豆| a色毛片免费视频| 久久久久国产一级毛片高清板| 久久精品女人天堂aaa| 国产www网站| 日韩毛片在线播放| 亚洲日本韩在线观看| Aⅴ无码专区在线观看| 欧美日韩国产在线观看一区二区三区| 国产欧美日韩综合一区在线播放| 在线免费亚洲无码视频| 欧美a在线看|