賈曉芬,趙佰亭,周孟然,陳兆權,黃賢波
?
基于bagging?rough SVM集成的去馬賽克方法
賈曉芬,趙佰亭,周孟然,陳兆權,黃賢波
(安徽理工大學電氣與信息工程學院,安徽淮南,232001)
能否有效保護圖像的細節信息是衡量去馬賽克技術優劣的關鍵因素,為改善圖像細小邊緣區域的邊緣特征,抑制偽彩色效應或鋸齒現象,提出一種基于bagging-rough的SVM集成算法,并利用該算法實現去馬賽克。為提高支持向量機集成的預測精度,利用各平面之間的色彩相關性及色差恒定原理構建色差平面,在色差平面上利用圖像的空間相關性構建原始樣本集,采用bootstrap技術對原始樣本集重取樣,利用粗糙集約簡算法約簡重取樣出的樣本特征,然后用約簡后的樣本訓練成員回歸機、建立預測模型,將各成員回歸機的預測結果采用均值法融合輸出,其輸出即為預測的色差平面上待插值點的色差,最后根據預測的色差值計算出丟失的像素值。仿真實驗結果表明:所提去馬賽克方法獲得較優的客觀指標彩色圖像峰值信噪比(CPSNR)和S-CIELAB的色差,較好的保護圖像的細節信息,達到較滿意的視覺效果。
去馬賽克;支持向量機;集成;粗糙集
數碼相機作為一種利用電子傳感器把光學影像轉換成電子數據的彩色圖像成像設備,獲得1幅彩色圖像需要3個傳感器在每個像素點分別獲取,和3種顏色分量。為了減小電子產品的體積,降低成本和復雜性,通常將彩色濾波陣列(CFA)覆蓋在單傳感器表面來同時獲得3種顏色分量。因此,傳感器陣列的每個像素點只能采集到1個顏色分量,為了得到1幅全彩色圖像,每個像素點必須通過其相鄰的已知顏色分量估計出該像素點丟失的另外2種顏色分量,這個過程被稱為去馬賽克。本文重點對最經典、應用最廣泛的Bayer CFA[1]圖像進行去馬賽克的研究。傳統的最鄰近插值、線性插值等方法在平滑區域能取得較好的效果,但會降低圖像的邊緣特征,造成偽彩色效應或鋸齒現象。近年來,各種獲取高質量圖像的方法,尤其是以獲取高質量彩色圖像為目標的去馬賽克方法相繼被提出,如應用稀疏表示的方法[2]、應用空間和色彩相關性的方法[3?4]、基于框架的方法[5]、基于圖像修復藝術的方法[6]、基于異質性投影的方法[7?8]、利用自適應加權的方法[9]、利用支持向量機的方法[10]、基于邊緣的方法[11]等。其中,利用支持向量機去馬賽克是支持向量機在回歸領域的重要應用,支持向量機可以按照可控制的精度逼近任一函數,具有全局最優、泛化能力強等優勢,能夠保證插值結果的準確性,但其穩定性有待提高。支持向量機集成(SVM ensemble)是一種新型的機器學習方法,是將集成學習應用于機器學習領域的產物。它不僅繼承了支持向量機解決小樣本、非線性、高維及局部極值等問題的優勢[12],而且穩定性、泛化能力均優于單個支持向量機。支持向量機集成因其出色的學習性能,已被應用在高分辨率遙感圖像分類[13]、衛星圖像分割[14]、混沌時間序列預測、微弱信號檢測、故障診斷、雷達目標高分辨率一維距離像識別等領域,但將其應用于圖像去馬賽克方面的研究還較少見。為此,本文作者提出一種基于SVM集成的去馬賽克方法,目的在于改善圖像的細小邊緣區域的邊緣特征,減少結果圖像中的偽彩色(虛假顏色)或鋸齒現象,提高成像質量。
1 集成學習與粗糙集
1.1 集成學習
集成學習是通過訓練多個成員學習機,并融合各學習機的結果而得到最終判別結果的學習方法。它能夠顯著提高學習機的泛化能力,被國際權威Dietterich稱為當前機器學習領域的4大研究方向之一[15],已廣泛應用于機器學習、神經網絡、統計學習等領域。如何生成集成個體和集成結果是集成學習的2個熱點問題,集成個體具有的高精確度和高差異性[16]是獲取良好集成結果的關鍵。鑒于此,bagging[17],boosting[18]和AB[19]等集成方法相繼被提出。
Bagging和boosting是在生成集成個體方面研究和使用最多的技術,但簡單的bagging SVM和boosting SVM算法不能有效提高SVM的泛化能力。
1.2 粗糙集動態約簡算法
粗糙集理論[20]是在經典集合論基礎上發展起來的處理不確定、不一致信息的數學工具。對于大樣本,支持向量機支持向量的數目眾多,會使支持向量機所需訓練時間和內存急劇增加。利用粗糙集方法約簡掉訓練樣本中重要度較低的屬性特征,可以有效降低訓練樣本的維數,縮短支持向量機的訓練時間。粗糙集屬性約簡是以最小概率描述為準則來選擇最優特征,每一個約簡都包含有不同的屬性,且具有與原始數據相近的分類能力,因此,利用多個約簡結果訓練的集成個體是準確且具有差異性的。
屬性約簡是粗糙集理論研究的核心問題之一,在機器學習領域已經被廣泛研究。He等[21]利用鄰域粗糙集選擇SVM的樣本及特征,大大縮減了SVM的訓練時間和訓練時占用的內存空間。Wang等[22]利用粗糙集的特征權重提高了SVM的分類能力。采用粗糙集約簡算法去掉學習性能欠佳的特征子集,剔除冗余信息更有利于生成高精度和高差異性的個體[23]。顯然,可利用粗糙集構造SVM集成的集成個體。因此,本文作者利用bagging和粗糙集構建成員回歸機。
2 基于bagging-rough的SVM集成算法
為了提高成員回歸機的精確度和差異性,利用bagging算法的bootstrap技術重取樣本的原始樣本集,再用粗糙集約簡算法約簡重取樣出的樣本特征,然后用約簡后的樣本訓練并構建成員回歸機,最后利用成員回歸機預測待插值點的色差。該算法記為bagging-rough SVM集成算法,其步驟如下。
步驟1:對含有個樣本的原始樣本集采用bootstrap重采樣技術獲得組含有(<)個樣本的樣本集,構成子系統集合={1,2,…,S}。其中:子系統S=(U,∪)是第(1,2,…,)組樣本集;為樣本集合;為待約簡的特征屬性集,為決策屬性集合。
步驟2:對每一個子系統S,采用基于屬性重要度的粗糙集相對約減算法進行屬性約簡。
步驟5:利用最終約簡輸出訓練成員回歸機,得到預測模型h。
步驟6:利用測試樣本及訓練好的成員回歸機,預測待插值點的色差值,然后將各成員回歸機預測的結果采用均值法融合輸出,即。其中:為集成規模,即重采樣的樣本集的個數;為測試樣本的輸入樣本;′為預測的色差值。
3 采用bagging-rough SVM集成的去馬賽克方法
SVM集成法在用彩色圖像各平面間的色彩相關性及色差恒定原理構建的色差平面上實現,在色差平面上用局部區域內的空間相關性原理構建原始樣本集,然后用bagging-rough SVM集成法預測待插值點的色差值,最后計算出丟失的顏色分量。
采用SVM集成法去馬賽克需要對,和3個平面分別插值,無論對那個平面插值都包括以下5部分:
1) 構建色差平面。根據彩色圖像各平面間的色彩相關性及色差恒定原理構建色差平面K或K。
2) 構造原始樣本集:在色差平面K或K上構造原始樣本集={1,2,…,X},其樣本(=1,…,),其中輸入樣本為7維向量,輸出樣本為1維向量。
在色差平面上,以每一個色差值為中心點的5×5區域構造2個樣本。其輸入樣本分別利用該中心點的4個鄰角(圖1中的位置)或上、下、左、右(圖1中的位置)的4個色差構造,即由4個色差、兩兩對角的色差之差、4個色差的均值組成7維向量;輸出樣本均是該中心點的色差。將上述方式構造的樣本組成原始樣本集={1,2,…,X}。

(a) 以G為中心點的5×5區域內G分布;(b) 以R為中心點的5×5區域內R分布
3) 構造測試樣本。在色差平面上,以每一個待插值點為中心點,在其周圍的3×3區域內構造一個測試樣本。其輸入樣本是利用該中心點周圍鄰近的4個已知色差、其兩兩對角的色差之差、4個色差的均值構造的7維向量;輸出樣本′即為待預測的色差。
4) 利用bagging-rough SVM集成算法預測色差平面上待插值點的色差。
5) 確定待估計的像素分量。
3.1 插值平面:估計點的分量和點的分量
1) 估計點的分量。
第1步:預測點的色差值。
①構造色差平面r。在點利用(其中在偶數行)和(其中在奇數行)構造色差平面r,如圖2(a)。

(a) 在G點,利用G分量和與之相鄰的R分量構造的色差平面;(b) 估計出(a)平面上R點的色差值后的色差平面(為R點的估計值)
②構建原始樣本集。在色差平面K上,以每一個K為中心點,若其周圍5×5區域內K均存在,則以該點的K作為輸出樣本構造2個樣本模式。
模式1:利用圖1(a)中M所在位置的K構造7維輸入樣本,處的K為輸出樣本。
模式2:以圖1(a)中所在位置的K構造7維輸入樣本,處的K為輸出樣本。
③訓練成員回歸機。按照bagging-rough SVM集成算法的步驟1~5進行。
④構造測試樣本并預測點處的K色差。此步為bagging-rough SVM集成算法的步驟6。
在圖2(a)上,以每一個點為中心點,在其周圍的3×3區域內構造測試樣本,估計該中心點的K。例如,若上、下、左、右的4個K存在,則以,,,,|?|,|?|,(+++)/4作為上一步訓練好的成員回歸機的輸入,成員回歸機就可以預測出處的K。最后將各成員回歸機預測的結果采用均值法融合輸出,其輸出即為點的。圖2(b)所示為預測出所有點的色差的示意圖。
第2步:計算出點的分量。利用公式計算出點的分量,其中為第1步預測出的點處的色差。例如,利用可得點的分量。
2) 估計點的分量。與本節1)的步驟類似,不同之處是在圖3(a)的K色差平面上進行,K色差平面利用公式(在偶數行)和(在奇數行)構造;然后按照(1)中的方法預測所有點的色差得到圖3(b)(為估計值);最后利用點估計出的色差及公式計算出所有點的分量,

(a) 在G點,利用G分量和與之相鄰的B分量構造的色差平面;(b) 估計出(a)平面上B點的色差后的色差平面(為B點的估計值)
此時,平面上的所有分量均為已知,可在插值和平面時使用。
3.2 插值平面:估計點的分量和點的分量
在馬賽克圖像的點利用該點的分量及插值平面時估計的′分量構造圖4(a)的色差平面,此步在每個點利用實現。

(a) 在R點,利用插值G平面時估計的G′分量及該點的R分量構造的色差平面;(b) 估計出圖4(a)平面上B點的色差后的色差平面(為B點的估計值)
1) 估計點的分量。
第1步:預測點處的色差。
模式1:利用圖1(b)中所在位置的K值構造7維輸入樣本,處的K為輸出樣本。
模式2:以圖1(b)中N所在位置的K構造7維輸入樣本,處的K為輸出樣本。
②訓練成員回歸機。按照bagging-rough SVM集成算法的步驟1~5進行。
在圖4(a)上,以每一個點為中心點,在其周圍的3×3區域內構造測試樣本,估計該中心點的。例如,若4個鄰角的色差存在,則以,,,,|?|,|?|,(+++)/4作為上一步訓練好的成員回歸機的輸入樣本,即可預測出點的。最后將各成員回歸機預測的結果采用均值法融合輸出,其輸出即為點的值。圖4(b)所示為預測出所有點的的示意圖。
第2步:計算點的分量。利用公式計算點的分量,其中為第1步估計出的點處的色差。例如,利用可得點的分量。
2) 估計點的分量。在圖4(b)上,以每一個點為中心點,在其周圍的3×3區域內構造測試樣本,估計該中心點的。例如,若上、下、左、右的色差均存在,則以,,,,|?|,|?|,(+++)/4作為輸入樣本,用估計點的分量時訓練好的成員回歸機即可預測出點的色差值;然后將各成員回歸機預測的結果采用均值法融合輸出,其輸出即為點的;最后利用計算出點的分量,其中是估計出的點的色差。
3.3 插值平面:估計點的分量和點的分量
在馬賽克圖像的點利用該點的分量及插值G平面時估計的分量構造圖5(a)的色差平面,此步在每個點利用實現。
1) 估計點的分量。此步和插值平面時的(1)類似,不同之處在于其插值過程在圖5(a)的色差平面上實現:先在平面上構建原始樣本集,再利用粗糙集約簡算法約簡的樣本訓練成員回歸機;然后用訓練好的成員回歸機預測點的色差。圖5(b)所示為預測出所有點色差的示意圖(為估計值)。最后利用公式計算點的分量。
2) 估計點的分量。此步驟與插值平面的步驟2)類似,在圖5(b)上,利用估計點的分量時訓練好的成員回歸機預測點的色差,然后利用公式計算出點的分量。

(a) 在B點,利用插值G平面時估計的G′分量及該點的B分量構造的色差平面;(b) 估計出圖5(a)平面上R點的色差后的色差平面(為R點的估計值)
4 仿真實驗及結果分析
采用Lin等開發的SVM軟件工具箱(LIBSVM)在MATLABR2009b中仿真,選擇-SVR作為成員回歸機,成員回歸機使用徑向基函數RBF,其余參數采用默認設置。為了說明本文方法的有效性,對被廣泛作為測試圖像的柯達彩色圖像進行測試,先獲取彩色圖像的Bayer型馬賽克圖像,然后利用文獻[2?3,5?7,9]中的方法與本文的方法進行去馬賽克,再利用客觀評價指標彩色圖像峰值信噪比(CPSNR)和S-CIELAB空間的色差,及主觀評價方法對去馬賽克的效果進行 評價。
CPSNR是基于RGB顏色空間恒量兩幅彩色圖像在矢量模上的誤差,其值越大表明圖像的插值效果越好,其計算公式為
S-CIELAB系統融合了人類的空間視覺特征,將半色調網點過濾成人眼響應的模糊模式,可以對整副圖像進行點對點的色差計算,色差越小說明圖像的失真越小,其色差計算公式為

表1給出了對24幅標準彩色圖像進行測試所得的客觀指標CPSNR和,加粗的數字表示最優指標。從表1可以看出:文獻[3]和[5]中的去馬賽克方法獲得的2項指標均不理想,其去馬賽克的效果劣于其他方法;文獻[2,6,9]中的方法均獲得了較高的CPSNR,但較大,說明結果圖像存在嚴重失真;文獻[7]的方法獲得了較小的,失真較小,接近本文方法所得結果,但CPSNR低于本文方法0.64 dB;本文方法獲得了最高的CPSNR和最小的,表明其結果圖像的質量優于其他方法,本文獲得了最好的去馬賽克效果。
表1 不同方法的客觀指標rCPSNR及的比較
Table 1 rCPSNR and comparison of different demosaicing approaches

表1 不同方法的客觀指標rCPSNR及的比較
編號文獻[2]中方法文獻[3]中方法文獻[5]中方法文獻[6]中方法文獻[7]中方法文獻[9]中方法本文方法 rCPSNRrCPSNRrCPSNRrCPSNRrCPSNRrCPSNRrCPSNR 139.371.3337.992.0335.922.6140.012.9139.951.2640.391.2340.471.20 240.711.5440.491.5039.701.6340.232.1339.291.5741.411.4840.231.35 343.190.8742.641.0041.001.1642.490.9142.300.9041.130.9543.130.88 441.291.1840.511.5139.641.6540.311.2240.001.2141.881.1841.611.01 538.701.9238.041.9836.152.5638.152.6538.011.9437.471.9738.291.90 640.051.0138.101.7436.942.0340.630.9940.790.9841.060.9941.170.98 742.831.0342.731.1341.031.3841.521.9641.631.1241.641.2042.891.00 836.421.4635.202.4533.343.1636.742.9237.611.4337.971.4138.021.37 943.280.8042.581.2140.731.4142.301.9842.970.7741.850.8543.400.77 1042.700.8242.521.1941.131.3942.431.9742.330.7942.560.7942.920.78 1140.221.2639.461.5638.091.8340.562.4640.581.2541.011.2341.041.21 1243.530.6642.631.1041.131.2743.641.3543.510.6343.940.6444.050.63 1335.292.0934.382.9033.643.2736.423.1136.292.0635.102.1436.562.03 1437.951.6537.131.8735.522.2036.472.7736.321.7235.801.7538.231.45 1540.211.3639.491.4339.091.5640.151.8539.231.3840.441.3440.451.32 1643.620.8941.161.3740.141.5344.310.9244.360.8244.420.8844.510.85 1742.011.3341.361.2740.441.3942.281.7442.121.3041.501.4742.621.31 1837.472.2037.732.0537.012.2337.762.9237.172.2836.962.4337.402.25 1941.271.1540.131.5737.391.8841.351.9241.361.1341.411.1441.461.13 2041.001.1841.331.2340.091.3941.271.9340.950.9540.931.2041.290.97 2139.741.2038.961.7037.621.9539.872.5239.921.1540.211.1540.271.14 2238.871.4238.281.8937.082.0938.512.4038.361.4438.311.6238.881.36 2342.411.1742.911.1341.621.2242.500.9541.451.0442.221.2442.400.91 2435.631.3934.821.9034.282.2235.462.4235.121.4035.421.4935.631.31 Avg40.321.2939.611.6138.281.8840.222.0440.071.2740.211.3240.711.21
圖6所示為利用本文方法對柯達彩色圖像進行測試的部分結果圖像及其放大區域。由圖6可見:結果圖像中基本不存在虛假色,尤其是容易出現虛假色或者鋸齒現象的含有邊緣較多的區域獲得了理想的結果圖像,有效保存了圖像的細小邊緣區域的邊緣特征。圖7所示為對柯達19采用不同去馬賽克方法獲得的結果圖像的局部放大區域。從圖7可看出:文獻[3]和文獻[5]中的方法獲得的結果圖像中虛假色非常明顯;文獻[2]中方法去馬賽克的效果優于文獻[3]和[5]的方法,結果圖像中的虛假色明顯減少;文獻[6]和文獻[9]的結果圖像中基本沒用虛假色,但柵欄邊緣較模糊,視覺效果不理想;文獻[7]的結果圖像中柵欄的邊緣信息保存的較好,但有少許的虛假色;本文方法消除了虛假色、且保存了柵欄邊緣的信息,獲得了最好的去馬賽克效果。圖中的視覺效果和表1中的客觀指標一致。

(a) kodak14;(b) kodak14的放大區域;(c) kodak15;(d) kodak15的放大區域;(e) kodak17;(f) kodak17的放大區域;(g) kodak20;(h) kodak20的放大區域

(a) 標準圖像;(b) 本文方法;(c) 文獻[2]的方法;(d) 文獻[3]的方法;(e) 文獻[5]的方法;(f) 文獻[6]的方法;(g) 文獻[7]的方法;(h) 文獻[9]的方法
仿真實驗的主客觀指標表明,文中提出的SVM集成方法改善了圖像的細小邊緣區域的邊緣特征,減少了結果圖像中的偽彩色、鋸齒現象,提高了成像 質量。
SVM訓練過程實質是求解一個二次規劃問題,假定原始樣本集的規模為,子樣本集的規模是(<),每個樣本的維數為,SVM訓練算法的時間復雜度為(SV3),內存空間為(SV2)。本文算法的時間復雜度最壞可以達到(SV3+SV2+SV),其中( )為時間函數,SV為支持向量的個數。經過粗糙集約簡后,樣本維數降低,子樣本集的差異性增加,算法的時間復雜度減小,能夠顯著提高成員SVM的精度及其成員之間的差異性。SVM集成把原始樣本集分成若干子樣本集,能夠發揮SVM解決小樣本問題的優勢,保證了算法具有較好的泛化能力。因此,本文算法能保證SVM集成的精度及圖像插值效率。
5 結論
1) 采用bootstrap技術重取樣原始樣本集,利用粗糙集動態約簡重取樣出的樣本特征,能夠保證訓練樣本的差異性,有利于構建差異性大、精度高的成員回歸機,有效提高成員回歸機的預測精度。
2) 在基于色彩相關性及色差恒定原理構建的色差平面上構造原始樣本集,利用bagging-rough算法估計色差平面上的待插值點的色差值,進而計算出彩色圖像上丟失的顏色分量的方法,能獲得較好的去馬賽克效果。
3) 據所提方法獲得的結果圖像具有較好的客觀指標及良好的視覺效果,能有效保存圖像的細小邊緣區域的邊緣特征。
[1] Lukac R, Plataniotis K N. Color filter arrays: design and performance analysis[J]. IEEE Trans on Consum Electron, 2005, 51(4): 1260?1267.
[2] Mairal J, Elad M, Sapiro G. Sparse representation for color image restoration[J]. IEEE Trans on Image Processing, 2008, 17(1): 53?69.
[3] CHANG Lanlan, TAN Y P. Effective use of spatial and spectral correlations for color filter array demosaicking[J]. IEEE Trans on Consumer Electronics, 2004, 50(1): 355?365.
[4] Moghadam A A, Aghagolzadeh M, Kumar M, et al. Compressive framework for demosaicing of natural images[J]. IEEE Trans on Image Processing, 2013, 22(6): 2356?2371.
[5] Lukac R, Plataniotis K N. Data-adaptive filters for demosaicking: A framework[J]. IEEE Trans on Consum. Electron, 2005, 51(2): 560?570.
[6] Ferradans S, Bertalmio M, Caselles V. Geometry-based demosaicking[J]. IEEE Trans on Image Processing, 2009, 18(3): 665?670.
[7] CHUNG Kuoliang, YANG Weijen, YAN Wenming, et al. Demosaicing of color filter array captured images using gradient edge detection masks and adaptive heterogeneity-projection[J]. IEEE Trans on Image Processing, 2008, 17(12): 2356?2367.
[8] CHUNG Kuoliang, YANG Weijen, CHEN Pangyen, et al. New joint demosaicing and zooming algorithm for color filter array[J]. IEEE Trans on Consumer Electronics, 2009, 55(3): 1477?1486.
[9] HAO Pengwei, LI Yan, LIN Zhouchen, et al. A geometric method for optimal design of color filter arrays[J]. IEEE Trans Image Process, 2011, 20(3): 709?722.
[10] 賈曉芬, 馬立勇, 馬家辰. 基于支持向量機的彩色濾波陣列插值方法[J]. 四川大學學報(工程科學版), 2010, 42(3): 145?150. JIA Xiaofen, MA Liyong, MA Jiachen. Support vector machines based color filter array interpolation scheme[J]. Journal of Sichuan University: Engineering Science Edition, 2010, 42(3): 145?150.
[11] Pekkucuksen I, Altunbasak Y. Edge strength filter based color filter array interpolation[J]. IEEE Trans on Image Processing, 2012, 21(1): 393?397.
[12] Vapnik V N. The nature of statistical learning theory[M]. New York: Springer, 1995:20?50.
[13] HUANG Xin, ZHANG Liangpei. An SVM ensemble approach combining spectral, structural, and semantic features for the classification of high-resolution remotely sensed imagery[J]. IEEE Transactions on Geoscience and Remote Sensing, 2013, 51(1): 257?272.
[14] Saha I, Maulik U, Bandyopadhyay S, et al. SVMeFC: SVM ensemble fuzzy clustering for satellite image segmentation[J]. IEEE Geoscience and Remote Sensing Letters, 2012, 9(1): 52?55.
[15] Dietterich T G. Machine learning research: Four current directions[J]. AI Magazine, 1997, 18(4): 97?136.
[16] Dietterich T G. An experimental comparison of three methods for constructing ensembles of decision trees Bagging boosting and randomization[J]. Machine Learning, 2000, 40(2): 139?158.
[17] Breiman L. Bagging predictors[J]. Machine Learning, 1996, 24(2): 123?140.
[18] Schapire R E. The strength of weak learn ability[J]. Machine Learning, 1990, 5(2): 197?227.
[19] Robert B, Ricardo G O, Francis Q. Attribute bagging: improving accuracy of classifier ensembles by using random feature subsets[J]. Pattern Recognition, 2003, 36(6): 1291?1302.
[20] Pawlak Z. Rough sets[J]. International Journal of Computer and Information Science, 1982, 11: 341?356.
[21] HE Qiang, XIE Zongxia, HU Qinghua, et al. Neighborhood based sample and feature selection for SVM classification learning[J]. Neurocomputing, 2011, 74(10): 1585?1594.
[22] WANG Tinghua, HUA Jialin, LI Xiangjun, et al. Rough set-based feature weighting to improve SVM classification[J]. Journal of Computational Information Systems, 2012, 8(8): 3359?3367.
[23] 張寒波, 黃輝先, 王耀南. 基于粗糙集約筒的特征選擇神經網絡集成技術[J]. 控制與決策, 2010, 25(3): 37l?387. ZHANG Hanbo, HUANG Huixian, WANG Yaonan. Feature selection neural network ensemble based on rough sets reducts[J]. Control and Decision, 2010, 25(3): 37l?377.
(編輯 陳愛華)
Demosaicing based on bagging rough-set support vector machine ensemble
JIA Xiaofen, ZHAO Baiting, ZHOU Mengran, CHEN Zhaoquan, HUANG Xianbo
(College of Electrical & Information Engineering, Anhui University of Science and Technology, Huainan 232001, China)
A support vector machine (SVM) ensemble based demosaicing algorithm was proposed, which can reduce edge artifacts and false color artifacts effectively, and improve the image edge feature. Firstly, original sample set was constructed by applying inter-pixel correlation on green-red or green-blue color difference plane. The color difference plane was constructed by applying inter-channel correlation of the R, G, B channels and the constant color difference principle. Secondly, the training samples were selected by using the conventional bagging algorithm was used to re-sample the original sample set, and use the rough set reduction algorithm to dynamically reduce sample characteristics of the re-sampled samples. Thirdly, the individual support vector regression (SVR) was trained with the reduced training samples, and forecast the unknown color difference between two color channels (green-red or green-blue was forecast). Finally, the missing color value at each interpolated pixel was calculated using the forecasted color difference. Simulation results show that the proposed approach produces visually pleasing full-color result images and obtains higherCPSNRand smaller colour differenceof S-CIELAB than other conventional demosaicing algorithms.
demosaicing; support vector machine; ensemble; rough set
10.11817/j.issn.1672-7207.2015.06.013
TN919.3
A
1672?7207(2015)06?2065?09
2014?06?15;
2014?08?09
國家自然科學基金資助項目(51174258,11105002);安徽高校省級自然科學研究項目(KJ2013B087);淮南市科技計劃項目(2013A4017);大學生創新創業訓練計劃項目(201310361205)(Projects (51174258, 11105002) supported by the National Natural Science Foundation of China; Project (KJ2013B087) supported by Anhui Provincial Natural Science Research Projects in Central Universities, China; Projects (2013A4017) support by the Guidance Science and Technology Plan Projects of Huainan, China; Project (201310361205) supported by the Youth Foundation of Anhui Universityof Science & technology of China)
趙佰亭,博士,副教授,從事圖像處理和智能控制等研究;電話:0554-6631012;E-mail:zhaobaiting@126.com