999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于仿射不變離散哈希的遙感圖像多目標分類*

2019-05-20 06:56:12孫權森劉亞洲紀則軒
軟件學報 2019年4期
關鍵詞:分類方法

孔 頡,孫權森,徐 暉,劉亞洲,紀則軒

(南京理工大學 計算機科學與工程學院,江蘇 南京 210094)

1 引 言

隨著不同用途衛星的發射以及遙感技術的飛速發展,遙感圖像的分辨率越來越高,涵蓋的光譜譜段越來越廣,有效完成多目標分類工作從而正確解譯衛星數據成為了一個具有挑戰性的課題[1-6].目前應用于自然圖像分類的經典方法有K近鄰分類法(K-NN)、隨機森林法(RF)、支持向量機(SVM)、稀疏表示分類器(SRC)[7-10]等.K-NN法以測試樣本鄰域信息為參照確定其所屬類別,能夠較快地完成分類工作,然而分類精度受數據集的影響較大.RF法通過訓練集重構來放大分類模型間的差異,從而提高組合分類模型的外推預測能力,實現分類精度的提升,具有較強的分類魯棒性,缺陷是算法訓練時間過長.SVM 以其在小樣本學習上的優勢,降低了學習機對樣本信息的依賴性,然而,當樣本數增多以及為解決多目標分類而創建多個二類 SVM 分類器時,過高的機器內存要求和不斷增加的運算時間,都影響了 SVM 方法的效率.SRC方法以稀疏表示思想為基礎,通過尋找測試樣本在不同類別訓練樣本上的最優稀疏表示系數確定其類別號,具有很高的分類精度,然而生成過完備詞典對電腦存儲的高要求以及過長的運算時間是其主要的缺陷[11].而應用于遙感圖像的分類方法,除了以上幾種分類方法外[12-15],早期的工作是圍繞目標物光譜分析為基礎的,生成具有代表性的目標特征曲線或歸一化指數進行分類判別.歸一化指數的方法,是指特殊波段間運算所產生的能夠代表目標明顯特征的指數,如歸一化植被指數(NDVI)、歸一化水體指數(NDWI)、歸一化雪蓋指數(NDSI)分別用于提取植物、水體、雪覆蓋信息[16].特征曲線分析方法,是以同類物質樣本在光譜空間的概率相似性為基礎的,主要方法有最大似然法、最小距離法等[17].這些早期遙感圖像的分類方法具有很強的先驗知識的支撐,具有很高的分類精度,然而適用范圍卻局限于多源數據、多光譜信息.近年來,基于人工神經網絡的遙感圖像分類方法通過模擬人類神經系統的結構與功能,將樣本信息以神經元形式傳遞、加權分析和反饋的方式實現遙感圖像的多目標分類.人工神經網絡,主要包括前向網絡、反饋網絡和自組織網絡,其結構設計很復雜,具有很強的特征捕捉能力,在多目標分類工作中取得了不錯的效果,然而過長的學習時間以及網絡結構難以收斂等因素都制約了其應用價值[18,19].結合這些經典分類方法的利弊,我們希望找到一種新的方法,既不過分依賴數據集的構成,又能降低算法的存儲需求,并能保證較高的精度和速度.

哈希方法以其低存儲、高效率等優勢在圖像檢索領域率先得到了廣泛應用,近年來逐漸推廣到圖像分類、識別等問題中[20].哈希方法的主要思想是,在不改變原數據語義相似性的基礎上,通過將高維特征空間映射到低維的漢明空間,以低字節二值哈希碼代替原有的高維實數特征以表征原有數據信息.早期哈希方法如局部敏感哈希(LSH)是數據無關的哈希技術,對投影向量及二值碼初始化采取特定分布中隨機采樣的策略,雖然在模擬數據中有足夠的理論支撐,但在實際場景下性能得不到保證[21].近10年的哈希方法研究重心逐漸轉化到利用數據自身以及一些監督信息設計高效的哈希函數上,其主要的分支劃分為無監督哈希和監督哈希.無監督哈希方法主要有譜哈希(SH)[22]、可擴展圖哈希(SGH)[23]、流形哈希(IMH)[24]等,通過挖掘數據集的分布信息,以譜聚類方法、流形結構等模型求解.而通過將語義信息等先驗知識嵌入到哈希函數學習中,監督哈希方法近年來發展迅速,其主要代表方法有核監督哈希(KSH)[25]、最小損失哈希(MLH)[26]、監督離散哈希(SDH)[27]、列采樣監督離散哈希(COSDISH)[28]、旋轉不變離散哈希(RIDISH)[29].以標簽化類別信息加入到樣本訓練和測試中,通過引入核學習、度量學習等方法用于生成二值碼,監督哈希方法在多目標分類應用中更為適用[30].KSH[25](CVPR 2012)通過將核映射思想引入到哈希技術中,以內積代替漢明距離運算,在保證樣本相似性的基礎上提高了分類精度.SDH[27](CVPR 2015)采用適當的嵌入學習算法,將哈希碼直接映射到標簽信息上,并采用離散循環坐標梯度下降方法(DCC)在離散約束下按位求解,簡化了運算過程,大大提高了算法效率.COSDISH[28](AAAI 2016)以迭代采樣語義相似矩陣的多列完成所有數據的訓練學習,代替了傳統的松弛化約束求解的方式,提高了分類方法的速度和穩定性.

目前為止,哈希方法在自然圖像分類問題上已取得了很大的成功,然而要引入到遙感領域還需要結合遙感衛星成像前后的具體星情.遙感圖像的目標識別,除了受樣本有限、紋理豐富等遙感圖像數據因素的影響外,還會因在軌相機的姿態、傳感器拍攝時不同方位角和俯仰角而發生變化.隨著遙感目標數量的不斷增大,不斷增加的幾何校正預處理過程已經不能滿足在軌實時目標檢索和匹配工作的需求.對常見衛星遙感圖像,其成像模型可用中心投影成像來近似,可以認為觀測數據和實際數據間近似滿足仿射變換關系[31].為此,在將哈希引入遙感圖像多目標分類時,需要考察樣本的仿射變換信息,使這些信息的哈希特征表達具有相似性并能更好地表達原樣本的類別信息.針對上述問題,本文提出一種仿射不變離散哈希的框架,在 SDH目標函數中引入仿射不變因子約束,通過求解漢明空間的離散優化問題實現優質二值碼的生成.而仿射不變因子約束項迫使仿射變化擴大的同型號樣本集具有相同的二值碼,從而保證了哈希算法的仿射不變性.本文的框架圖如圖1所示.

Fig.1 The frame of the proposed method圖1 本文算法框架圖

本文的主要貢獻有以下兩個方面.

(1) 提出一種仿射不變離散哈希方法,通過在監督離散哈希二值碼的生成過程中加入仿射不變項模型優化,有效地解決了因衛星成像形成的仿射變換畸變對分類精度的影響.

(2) 通過在不同數據集下的實驗對比,其結果表明,不論是橫向對比于經典的哈希方法,還是縱向對比于經典的分類方法,本文方法均兼顧了多目標分類的精度和速度.

2 仿射不變離散哈希(AIDH)

2.1 監督離散哈希(SDH)

假設有n個樣本,,每一列代表一個d維的樣本.為了正確表達樣本語義信息,哈希學習需要生成一組二值碼,其中,bi是對應于樣本xi的字節長度為L的二值化編碼.

不同于無監督哈希最小化樣本間距離相似性的求解方式,監督哈希利用了訓練樣本的標簽信息,使得真實類別(標簽)與預測類別間的差異盡可能地小.監督哈希的正則化目標函數可表示為

為了獲得高質量的哈希碼,使得學習到的二值編碼能夠保持原有樣本空間的相似性,并減少因隨機映射生成哈希函數的誤差,考慮構建哈希函數H(X)將樣本的連續特征映射到二值化空間上,對二值編碼B進行離散約束.于是,式(1)改寫為

式(2)的第3項代表哈希函數H(X)與二值碼B之間的擬合誤差,λ1為懲罰因子.哈希函數通常是采用映射學習算法獲取,為保持樣本的非線性結構,采用如下形式:

2.2 仿射不變離散哈希

若直接將哈希用于遙感圖像的目標分類中,會受限于拍攝時的高度和角度等因素,形成不同程度的仿射變換.為此,我們希望在SDH的基礎上做出改進,生成一種具有仿射不變性的哈希編碼.

設圖像仿射變換前后坐標分別為G(x,y)和G′(x′,y′)∈R2,則有:

依據MSA特征提取的方法可知,圖像在仿射變換前后的對應像素點亮度函數具有相同分布,這種同分布的關系是獨立于仿射變換的;那么圖像的仿射變換不會改變圖像所代表物體的語義信息[33].由于仿射變換前后的圖像對應著相同標簽模式類的信息,那么可以將仿射后擴大的樣本加入到訓練樣本集,并加以仿射約束信息優化原有目標函數,生成更優質的哈希碼[2].

定義R個旋轉角度α={α1,α2,…,αR}及其旋轉變換Tα= {Tα1,Tα2,...,TαR},其中,Tαi表示經αi角度旋轉變換;定義S個縮放因子β={β1,β2,…,βs}及其縮放變換Tβ= {Tβ1,Tβ2,...,Tβs},其中,Tβi表示βi倍縮放變換.那么仿射變換可

表達為旋轉變換和縮放變換的笛卡爾積:Tα,β=Tα×Tβ.將Tα,β應用于所有訓練樣本X,結合原始訓練集,即構成了新的用于仿射不變離散哈希模型的樣本集Tα,β={X,Tα,βX}.

由于仿射變換前后不改變物體本身的語義信息,那么所得到的哈希碼應該是相似的,生成的哈希碼對數據集具有仿射不變性[5,34].類似于旋轉不變HOG特征的處理方案,添加仿射不變約束項如下:

這樣,式(2)的原目標函數就可以改寫為

可以看到,通過添加此約束項可以迫使每個樣本生成哈希碼更接近于其張成的仿射樣本子空間的均值,從而實現整體樣本集Xα,β與其二值哈希編碼B盡可能地相似.式(6)即為仿射不變離散哈希所需優化的目標方程[35].

2.3 優化求解方案

仿射不變離散哈希的未知變量分別為B、W、H,可以通過交替優化的方式把式(6)的問題分解為3個子問題,分別進行求解.

(1)P-step:固定B、W,優化P.

由于P優化的過程只與H(X)有關,因而,只需優化式(6)中的第3項.求解結果如下:

(2)W-step:固定P、B,優化W.

原方程簡化為求解只有前兩項的監督哈希問題,通過最小二乘法可求解:

(3)B-step:固定W、P,優化B.原問題轉化為求解式(9)所示函數:

將式(9)展開,再化簡,等價于求解:

受SDH優化方式的啟發,采用DCC來按位求解哈希碼,每一位對應B的一行數據.

令bi為矩陣B的第i行,qi為矩陣Q的第i行,wi為矩陣W的第i行;為矩陣B去除bi后的矩陣,為矩陣Q去除ai后的矩陣,為矩陣W去除wi后的矩陣,那么:

式(11)中const為常數項,不影響優化過程.將式(11)代入式(10)中約掉常數項和倍數項,可得:

這個問題可以獲得如下的閉解:

因而,本文方法的基本步驟可見下面的算法[35].

算法.仿射不變離散哈希(AIDH).

3 實驗部分

3.1 數據集介紹及算法運行環境

為了驗證AIDH算法的有效性,本文采用兩個數據集NWPU VHR-10和RSOD-Dataset.NWPU VHR-10是西北工業大學團隊標注的航天遙感目標檢測數據集,而RSOD-Dataset是武漢大學團隊標注的一個遙感圖像公共數據集[36].兩個數據集通過提供了源圖像以及各自圖像中所含帶目標坐標信息的標簽文件(ground truth),給出了可提取的多類目標樣本.這兩個數據集的優勢就在于源圖像的存在給出了旋轉樣本邊緣的信息,避免了樣本自旋轉產生的邊緣黑帶.

NWPU VHR-10提供了650幅圖像,生成了3 896個目標,分為10個數據類,分別為757架飛機、302艘艦船、655個油桶、390座棒球場、524座網球場、159座籃球場、163座足球場、224個港口、124座橋梁、598個車輛.這些數據來自谷歌地球(分辨率 0.5m~2m)和法伊英根數據(分辨率 0.08m)[4].RSOD-Dataset提供了 936幅圖像,生成了7 400個目標,分為4個數據類,分別為5 374架飛機、1 698個油桶、176架立交橋、149個操場.這些數據取自谷歌地圖和天地圖等,圖2給出了該數據集的各類目標信息,而各類目標的分辨率見表1.

Fig.2 Four-class object samples of RSOD-Dataset圖2 RSOD-Dataset的4類目標示例

Table 1 The resolution of different objects of RSOD-Dataset表1 RSOD-Dataset各類目標分辨率

在數據的特征選擇上,使用的是國際上公認的Gist特征[37].該特征是512維的,由基于視覺詞袋模型的網格化Gabor小波系數組成.在樣本集設置上(以RSOD-Dataset為例),按比例隨機抽取2 000個來自4類的目標作為測試樣本集;然后,對剩余的5 400個樣本集作仿射變換,并對擴大后的樣本集打亂次序后作為訓練樣本集,將訓練和測試樣本集的特征及其類別標簽合成到一個.mat文件中用于算法驗證.本文的實驗中,旋轉系數為R=11,α={30°,60°,…,330°},縮放系數都是S=2,β={0.5,0.75}.此外,為了驗證算法的有效性,我們生成了 10 組.mat文件,取平均值作為算法的精度結果.本文的所有實驗是在軟件MATLAB2014a上仿真實現的,電腦的處理器是英特爾酷睿i7-8550U,CPU主頻1.99GHz,內存為8GB RAM.

3.2 實驗對比及定量分析

本文是以哈希方法為基礎的遙感多目標分類,實驗分為兩部分,一是比較本文方法和經典的哈希方法之間的精度,二是比較本文方法與傳統的多目標分類方法之間的優越性.

3.2.1 哈希方法之間的性能對比

為了驗證仿射不變離散哈希方法在哈希函數改進上的優越性,本文選取了譜哈希(SH)[22]、可擴展圖哈希(SGH)[23]、核監督哈希(KSH)[25]、列采樣監督離散哈希(COSDISH)[28]、監督離散哈希(SDH)[27]、旋轉不變離散哈希(RIDISH)[29]作為對比方法以驗證算法的精度.此外,為了驗證本文方法相對于旋轉不變離散哈希的優勢,特增加一步實驗,旋轉&尺度不變離散哈希(RI&SIDISH)代表的是旋轉不變離散哈希方法在旋轉不變約束項中加入縮放變換的結果.

定量指標上,選取4個指標來評價算法的精度.表2~表5顯示出這些指標在各種哈希算法下的評價結果.

(1) 平均分類精度(MAP):準確分類的目標占總數的比例.

(2) 前1 000個樣本的分類精度(precision of top 1000 returned samples):對所有測試樣本尋找其匹配度較高的前1 000個訓練樣本計算其分類精度,再對這些測試樣本分類精度取平均值.

(3) 漢明距離在半徑為2時的分類精度(precision of Hamming distance with radius 2):以漢明距離小于等于2為測度,對所有測試樣本尋找與其接近的訓練樣本并計算分類精度,再對這些測試樣本的分類精度取平均值.

(4) 各分類精度(AP):各類目標的分類精度.

表2~表4從宏觀的角度給出了7種哈希方法在多目標分類中的精度對比情況.在哈希字節的選取上,給出了8字節、16字節、32字節和64字節的數據.可以看到,隨著哈希字節數的增長,各種哈希方法的增長趨勢是一致的,直至32字節,而到了64字節時,很多哈希方法的精度反而會有所降低.這種情況的發生往往取決于數據集的分布以及過擬合的發生.鑒于此,在表5中給出了32字節時各目標分類的結果.

Table 2 MAP of different hashing method in 8,16,32,64 bits表2 不同哈希方法在8、16、32、64字節下的平均分類精度

Table 3 The precision of top 1000 returned samples of different hashing method in 8,16,32,64 bits表3 不同哈希方法在8、16、32、64字節下的前1 000個樣本的分類精度

Table 4 The precision of Hamming distance with radius 2 of different hashing method in 8,16,32,64 bits表4 不同哈希方法在8、16、32、64字節下的漢明距離在半徑為2時的分類精度

兩個數據集均能有效驗證7種哈希方法的分類精度.從宏觀對比上看,武漢大學RSOD-Dataset數據集的分類精度較高于西北工業大學NWPU VHR-10數據集的分類精度,究其原因是,武漢大學的數據集雖然樣本數很多,但是數據類型較少(4個),樣本的差異性較大,數據集較為簡單,使得分類的精度偏高.而西北工業大學的數據集,包含的數據類型較多(10個),樣本集的多樣性增加了準確分類的難度,更能層次化地反映出不同算法在多目標的分類效果.

從監督和無監督哈希方法之間對比上來看,兩種無監督哈希方法SH、SGH的精度較低,甚至連30%都不到,這符合了機器學習中無監督方法在沒有先驗信息時,即使挖掘更多的數據自身的特征也難以有效提升分類精度的結論.而6種監督哈希方法的平均分類精度都達到了至少65%以上.而且,KSH方法在8字節處的分類精度就已達到了 67.73%的精度,說明了哈希方法以較少的字節依然能夠很好地區分出不同目標類的語義信息.COSDISH方法在8字節處就取得了高于KSH、SDH的分類精度,然而,隨著哈希碼字節數的增多,分類精度的增長卻不如其他方法明顯,該方法的優點在于,對樣本數目不敏感,兩個數據集下分類精度隨字節增長的幅度相似,代表著這種算法的穩定性很高.

觀察表2后4行的數據可以發現,RIDISH相對于SDH有更大的提升在于8字節處就能獲得8成以上的分類精度,這主要得益于該方法考慮了樣本的旋轉多樣性.而觀察RIDISH和RI&SIDISH的精度可以發現,在加入原數據的縮放樣本后,數據的精度反而有所下降(約為4%).這個現象表明,數據的尺度性會影響到RIDISH的分類精度.而本文方法在考察了樣本的仿射變換信息后,精度達到了93.74%,高于RI&SIDISH方法的89.91%,即說明本文方法在不同尺度目標的語義表達的有效性,達到了改進哈希方法對仿射不變性的要求.同時,本文方法在MAP等精度上也略高于 RIDISH方法,表明本文方法繼承并發揚了旋轉不變哈希在哈希碼約束項上改造的優勢.

圖3和圖4直觀地給出了兩個數據集下7種哈希方法在不同字節數時的3種分類精度指標.

Fig.3 The diagram of three precision indexes varied with bits in NWPU VHR-10 dataset圖3 NWPU VHR-10數據集的3個精度指標隨字節變化示意圖

Fig.4 The diagram of three precision indexes varied with bits in RSOD-Dataset圖4 RSOD-Dataset數據集的3個精度指標隨字節變化示意圖

不難看出,SH、SGH方法的分類精度偏低,32字節之后精度不再提升甚至會有所下降,尤其是漢明半徑在2以內的分類精度在64字節處極低,表明漢明半徑以2為測度時加入進了過多的誤判樣本.而KSH、COSDISH、SDH則高于兩種無監督哈希方法,這一方面得益于類標簽信息的引入,另一方面則是核學習方法的優勢.然而,這兩種方法在 8字節處的精度還是偏低于后 3種方法,畢竟字節數過少難以準確地表達出樣本的特征.而RISDH、RI&SIDISH和本文方法在各字節下均保持著較高的精度,而且分類效果相對穩定,這主要得益于樣本集擴充和算法的有效性,以樣本點的成倍增加彌補了特征維數低的不足.

表5給出了兩個數據集中不同哈希方法在32字節下,各目標的分類精度以及總體分類精度(MAP).從縱向對比可以看到,NWPU VHR-10數據集在飛機、油桶、車輛等小目標的分類精度上均較高,而籃球場、橋梁、足球場等大目標的精度則偏低.這種現象的出現原因有兩個:(1) 小目標的分辨率都較高,辨識度高,降低了分類的難度;反之,大目標覆蓋范圍廣,分辨率較低,又包含了很多有用信息,無形中提高了分類的難度.(2) 從數據集的構成上看,小目標的樣本數較多,而大目標的樣本數較少.這一點無疑更加重要,從“網球場”這一類來看,同樣是大目標數據,在樣本數足夠多的情況下依然取得了不錯的效果.同樣地,對于 RSOD-Dataset而言,立交橋和操場的分類精度要低于飛機和油桶.而從橫向對比不同方法在各目標分類精度的結果來看,本文方法雖然在個別目標類的分類精度與 RIDISH不相上下(表格中加粗顯示),但是,整體分類精度的提高,尤其是籃球場和橋梁兩個“短板”精度上的提高,反映出仿射不變離散哈希在多目標分類上的優勢.

Table 5 AP and MAP of different hashing methods in 32 bits表5 不同哈希方法在32字節下各目標的分類精度和總體分類精度

最后,我們給出各參數對本文方法的影響.AIDH主要有3個參數(R、S、m),分別是旋轉系數、縮放系數以及錨點數.下面通過變化其中一個參數、固定另外兩個參數來分析各參數對算法精度的影響.旋轉系數對算法的影響是以旋轉間隔角的變化來體現的,通過變換旋轉間隔角以分析其對分類精度的影響.縮放系數方面,可以通過縮放尺度變化以分析其對分類精度的影響.而錨點數,則通過增加哈希模型中改變錨點的個數來分析其對分類精度的影響.下面以NWPU VHR-10為例,圖5給出了本文方法在哈希碼為8字節、32字節時MAP隨參數變化的影響情況,其中旋轉間隔角以 15、30、45、90、180、360完成實驗;縮放比例按照 0.75、0.5、0.25、(0.5,0.75)、(0.25,0.75)、(0.25,0.5)作對比(不作旋轉);錨點數則給出了500、1 000、1 500、2 000、4 000個錨點作為對比參數.

圖5所示實驗結果表明,當算法的3個參數在32字節時對MAP的提升幅度小于8字節時,其中不同字節下錨點數的增長對算法的精度都有穩定性提升,這是來源于SDH方法引入嵌入學習對算法精度提升的效果.在8字節時,隨著旋轉間隔角的減小,算法的精度不斷提升,直至15°后(R=12)趨于平穩;而在縮放系數方面,在0.5和0.75這兩個尺度下,達到算法精度的極值點;當縮放系數小于 0.5時,算法精度則有所降低.為此,本文選取(0.5,0.75)兩個尺度相結合作為縮放系數;而從錨點數的影響上來看,當錨點數小于2 000時,隨著錨點數的增加,分類精度穩步提升,而大于2 000后,分類精度則基本不發生變化,因此實驗中選取2 000作為錨點數.從定量上來看,錨點數可以對分類精度帶來10%~15%的穩步提升,而旋轉系數和縮放系數在8字節下對算法精度影響更大,有5%~10%的提升.分析這種現象的原因在于,本文算法能夠在低字節下更充分地挖掘樣本信息并做出更有效的哈希碼表達,而隨著字節數的增大,哈希碼承載的維度越高,表達信息就越多,算法的優勢也就不再明顯,從而MAP的提升有限.

Fig.5 MAP of the proposed method affected by the parameter in 8,32 bits圖5 在8字節、32字節下本文方法參數變化對MAP的影響

3.2.2 不同分類器方法的性能對比

為了驗證仿射不變哈希方法在分類方法上的優越性,本文選取了K-NN[12]、RF[13]、SVM[14]、SRC[15]作為對比方法以驗證算法的精度,以MAP和運算用時作為評價標準.表6給出幾種分類方法的對比情況,其中,稀疏表示分類器采用L1范數的L1-SRC測試,本文方法給出了32字節的數據.

Table 6 MAP and time consuming comparison of different classification methods表6 不同分類方法的平均分類精度和用時對比

表6給出了5種方法在兩個數據集下的MAP和所用時間對比情況.首先看MAP數據,稀疏表示分類器方法的分類精度與本文方法不相上下,而其余的經典分類方法的精度都低于這兩種方法;而在RSOD-Dataset數據集上,這種精度優勢則有所縮小.K近鄰分類方法和RF方法精度相近,K-NN在樣本數較多的RSOD-Dataset數據集上精度略高于 RF的算法精度.SVM方法以其小樣本學習的優勢具有較好的分類精度,在幾種方法中排在中間的位置,換到類別數較少的RSOD-Dataset數據集上,也很接近于SRC和AIDH.

再比較一下幾種方法運行耗時情況.比較兩個數據集后發現,RSOD-Dataset數據集比NWPU VHR-10數據集的用時要多出一倍左右,這是因為RSOD-Dataset的樣本數比NWPU VHR-10的樣本數要多出一倍;而各種方法隨著樣本數的增加,所消耗的時間也隨之成倍增加.再比較各分類算法,K-NN方法雖然精度較低,但是運行時間卻是很快的,在NWPU VHR-10數據集下只需要20多秒即完成了運算,并且兩個數據集下都很穩定.綜合考慮,在樣本數適當提高的情況下,K-NN方法在效率上是可觀的.SVM和RF都是比較耗時的方法,在小數據集上也花去了1分鐘左右的時間.而在精度上有優勢的L1-SRC方法,由于算法隨樣本數增長時運算量過大同時也更占用內存,因而運行時間也增加很多,在大數據集下花掉了將近5分鐘的時間.本文方法只在式(3)的錨點計算以及式(5)的約束平均項計算上消耗了一點時間,哈希碼迭代的次數也僅在 6次之內完成,而且哈希碼的存儲單位只在32字位上,因此,算法的運行時間很短,大約是10s左右.

此外,再比較幾種方法的機器存儲類型.幾種對比方法的特征都是 512維的特征,在 RSOD-Dataset數據集下,它們占用的存儲空間達到了15MB.即使由于仿射變換擴大了數據集構成,32位的AIDH方法的樣本存儲量也只有767KB.以32位的二值碼代替512維的浮點型數據,哈希方法的優勢是大幅降低算法用時的主要原因.

綜上所述,相比于其他幾種分類方法,本文方法以其數據存儲和編碼優化的優勢,在較短的運算時間內獲得了更高的分類精度.

4 結 論

本文首先回顧了經典分類方法在遙感圖像處理中的優勢與不足,將兼具低存儲和高效性的哈希方法引入到遙感多目標分類領域中.為解決哈希方法在仿射變換數據監測的有效性,構建仿射不變離散哈希模型.通過在監督離散哈希方法中,加入仿射不變項約束,迫使同型號目標分享相同的二值碼,增加同類目標哈希碼的相似性,實現哈希方法的仿射不變性.為了驗證算法的有效性,本文采用NWPU VHR-10和RSOD-Dataset數據集作為樣本庫進行了實驗.實驗中,以6種不同的哈希方法以及4種不同的分類方法作對比,并以平均分類精度、運算用時等作為定量指標評價.實驗結果表明,相比于各對比方法,本文方法改善了幾個樣本類別數較少的目標類的精度,從而取得了更高的總體分類精度.此外,哈希方法低存儲的優勢使得本文方法相較于經典分類方法在速度上得到了提升.

猜你喜歡
分類方法
分類算一算
垃圾分類的困惑你有嗎
大眾健康(2021年6期)2021-06-08 19:30:06
學習方法
分類討論求坐標
數據分析中的分類討論
教你一招:數的分類
用對方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
賺錢方法
給塑料分分類吧
主站蜘蛛池模板: 国产在线视频导航| 就去吻亚洲精品国产欧美| 亚洲一区二区日韩欧美gif| 国产乱人伦AV在线A| 欧美日韩资源| 国产精品va| 国产精品思思热在线| 欧美高清国产| 国产香蕉一区二区在线网站| 国产午夜不卡| 国产美女自慰在线观看| 性视频一区| 亚洲精品自拍区在线观看| 人妻无码一区二区视频| 国产成人高清亚洲一区久久| 国产精欧美一区二区三区| 91青青草视频在线观看的| 日韩人妻精品一区| 久久综合色视频| 在线观看欧美精品二区| 99久久精彩视频| 中文字幕无线码一区| 日本国产精品一区久久久| 中文字幕在线免费看| 久草视频精品| 免费AV在线播放观看18禁强制| 国产精品视频观看裸模| 免费无码网站| 日韩精品一区二区三区大桥未久| 午夜小视频在线| 亚洲av无码人妻| 国产第二十一页| 午夜一区二区三区| 精品在线免费播放| 亚洲精品手机在线| www.精品国产| 亚洲手机在线| 亚洲精品桃花岛av在线| 老司机精品一区在线视频| 国产清纯在线一区二区WWW| 91国内视频在线观看| 九色免费视频| 97视频免费在线观看| 久久婷婷五月综合97色| 欧美全免费aaaaaa特黄在线| 国产尤物视频网址导航| 91成人在线观看视频| a级毛片在线免费观看| 国产爽妇精品| 亚洲天堂高清| 国产精品自拍合集| 国产精品一线天| 久久免费成人| 日本一区二区不卡视频| 国产肉感大码AV无码| 久夜色精品国产噜噜| 日韩av在线直播| 美女内射视频WWW网站午夜 | 伊人网址在线| 亚洲一区二区无码视频| 在线看片国产| 国产精品成人一区二区不卡 | 无码中文字幕精品推荐| 国产欧美一区二区三区视频在线观看| 国产a v无码专区亚洲av| 日韩麻豆小视频| 视频一本大道香蕉久在线播放| 欧美日韩精品综合在线一区| 欧美第一页在线| 亚洲av片在线免费观看| 国产成人精品一区二区| 国产爽歪歪免费视频在线观看| 五月婷婷丁香综合| 欧美日韩激情在线| 欧美国产在线一区| 日韩精品一区二区三区大桥未久 | 国产在线第二页| 国产免费a级片| 亚洲精品成人福利在线电影| 国产女人综合久久精品视| 这里只有精品在线播放| 国产成人欧美|