999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于神經(jīng)網(wǎng)絡(luò)特征提取的SSA-SVM 船舶目標識別方法

2023-05-14 10:00:08馬玉鵬徐海潮
艦船科學技術(shù) 2023年8期
關(guān)鍵詞:特征提取船舶分類

馬玉鵬,鄭 茂,2,吳 勇,3,徐海潮

(1. 武漢理工大學 交通與物流工程學院,湖北 武漢 430000;2. 武漢理工大學 國家水運安全工程技術(shù)研究中心,湖北 武漢 430000;3. 閩江學院 物理與電子信息工程學院,福建 福州 350108;4. 華設(shè)設(shè)計集團股份有限公司,江蘇 南京 210014)

0 引 言

基于可見光圖像的船舶目標識別方法可分為非深度學習的傳統(tǒng)識別方法和基于深度學習的識別方法[1]。傳統(tǒng)目標識別方法可概括為:確定目標位置,識別目標有無。通過選取識別目標可能存在區(qū)域,對判定目標存在區(qū)域特征提取,提取特征識別分類。目標識別在視頻監(jiān)控方向取得了長足進步,其中主流的算法有:背景差分法、幀間差分法、光流法、混合方法等。傳統(tǒng)目標識別算法主要以運動目標識別為主,進而判斷有無運動區(qū)域產(chǎn)生,推斷能力較強對后續(xù)深度學習的特征提取有深遠影響。鄭繼東[2]提出了一種三幀差分法與背景消減法相結(jié)合的運動船只識別算法,并在此基礎(chǔ)上利用卡爾曼濾波器對船只位置進行了預(yù)測跟蹤,利用SIFT 匹配算法解決遮擋問題。李英文[3]利用幀間差分法分離背景和目標,設(shè)計了船舶圖像的顏色模型和灰度化去噪的主要方法。

基于深度學習的識別方法則是通過對圖像進行深層次的特征提取,利用深度神經(jīng)網(wǎng)絡(luò)實現(xiàn)對特征圖的逐層傳遞并進行合理優(yōu)化,對目標位置進行準確預(yù)測[4],進而完成船舶目標的識別。如任永梅等[5]提出了一種基于三維卷積神經(jīng)網(wǎng)絡(luò)的船舶分類法,采用6 層3D 卷積提取體素網(wǎng)格圖像的高水平特征,優(yōu)化了捕捉結(jié)構(gòu)信息。郭戰(zhàn)杰等[6]對船舶圖像進行預(yù)處理后,建立了模糊神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),在此基礎(chǔ)上進行模糊神經(jīng)網(wǎng)絡(luò)分類學習,用特征學習法提升了船舶圖像分類器的能力。谷東亮[7]將改進的Faster R-CNN 算法應(yīng)用于船舶識別,在區(qū)域全神經(jīng)網(wǎng)絡(luò)后生成一個 dropout 層,提高了識別的速率,船舶識別的準確率達到 90.4%。

上述識別方法雖然提高了船舶的識別效率,但并未考慮實際情況下船舶目標識別數(shù)據(jù)集容量且模型訓練依賴于高性能GPU 設(shè)備,并不適用于一般情況下的船舶目標實時監(jiān)測。為了解決復雜環(huán)境下的船舶目標實時識別問題,本文通過AlexNet 網(wǎng)絡(luò)與SSA-SVM 分類器聯(lián)合的方法進行船舶目標識別。為進一步解決圖像特征提取不充分的問題,使用AlexNet 網(wǎng)絡(luò)遷移學習處理船舶數(shù)據(jù)集。以SVM 分類器為基礎(chǔ),將SSA 模塊加入SVM 參數(shù)尋優(yōu)中,進一步提升分類器的判別性能。為了驗證模型效能,選取不同背景下的船舶圖像進行識別分類。結(jié)果證明,基于神經(jīng)網(wǎng)路特征提取的SSASVM 算法在降低船舶數(shù)據(jù)集容量的基礎(chǔ)上并未降低識別精度,為海事監(jiān)管提供了更為輕量化的解決方案。

1 基于遷移學習的AlexNet 圖像特征提取

1.1 AlexNet 卷積神經(jīng)網(wǎng)絡(luò)

AlexNet 網(wǎng)絡(luò)作為ISLVRC(imagenet large scale visual recognition)競賽的冠軍網(wǎng)絡(luò),在驗證數(shù)據(jù)集上錯誤率僅為16.4%,表現(xiàn)十分優(yōu)秀。AlexNet 屬于CNN 神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),包含8 層神經(jīng)網(wǎng)絡(luò),5 個卷積層和3 個全連接層,囊括6 億3 千萬個鏈接,6000 萬個參數(shù)和65 萬個神經(jīng)元。

AlexNet 作為CNN 網(wǎng)絡(luò)架構(gòu)的優(yōu)化模型,對傳統(tǒng)CNN 網(wǎng)絡(luò)進行了較多改善。激活函數(shù)方面,改用ReLU作為CNN 激活函數(shù),成功解決了Sigmoid 在網(wǎng)絡(luò)較深時的梯度彌散問題[8]。為ReLU 沒有劃分值域區(qū)間的特性,提出了局部相應(yīng)歸一化(local response norm,LRN),以生物網(wǎng)絡(luò)神經(jīng)概念側(cè)抑制小神經(jīng)元,增強模型泛化能力。數(shù)據(jù)增強方面,采用Dropout 隨機忽略部分神經(jīng)元,改善了以往CNN 特征提取中易于過擬合的問題,之后以最大池化代替CNN 網(wǎng)絡(luò)常用的平均池化,在提升特征豐富性的同時克服了平均池化帶來的模糊效果。

總的來說,AlexNet 網(wǎng)絡(luò)在LeNet 的基礎(chǔ)上加深了網(wǎng)絡(luò)的結(jié)構(gòu),學習更豐富更高維的圖像特征[9],且?guī)в蠧NN 網(wǎng)絡(luò)中感受野和共享權(quán)重特性,使得AlexNet網(wǎng)絡(luò)在訓練中速度更快、需求樣本更少,很好地解決了船舶目標識別中因圖像拍攝困難產(chǎn)生的特征提取不充分問題,為小數(shù)據(jù)集特征提取提供了更為有效的支持。

1.2 AlexNet 遷移學習特征提取

遷移學習(TL)可以把為單一任務(wù)開發(fā)的模型重新用于其他領(lǐng)域的任務(wù)中,作為其他領(lǐng)域任務(wù)模型的訓練起點,節(jié)約了訓練神經(jīng)網(wǎng)絡(luò)需要的大量計算和時間資源[10]。但仍需要新任務(wù)特征與原訓練數(shù)據(jù)集有一定的相似繼承性,否則表現(xiàn)性較差。訓練AlexNet 模型采用的ImageNet 訓練集涵蓋超過1400 萬張圖像手動注釋URL 圖像,在至少106個圖像中還提供了圖像邊界框,以確定特征的確切位置。該數(shù)據(jù)集囊括了航空母艦、飛艇、帆船、集裝箱船、游船、救生船、輪船等多種船舶特征,為本次遷移學習提供了可行性。在本文中,遷移學習策略可概括為將AlexNet 作為作為船舶特征提取器,即刪除模型的最后一個全連接層,將AlexNet 模型的其他部分作為船舶數(shù)據(jù)集的固定特征提取器,利用所提取船舶目標特征訓練分類器完成遷移學習,基于遷移學習的AlexNet 網(wǎng)絡(luò)結(jié)構(gòu)如圖1 所示,其中CL1~CL5 為卷積層,F(xiàn)CL6~FCL8 為全連接層。使用神經(jīng)網(wǎng)路作為圖像特征提取其,可在有限圖像規(guī)模下提取更加充分的識別特征。模型圖像輸入為227×227×3,F(xiàn)CL6~FCL7 全連接層神經(jīng)元個數(shù)為4096。

在通過AlexNet 進行圖像特征提取中,使用微調(diào)AlexNet 策略[11]。即使用自建圖像數(shù)據(jù)集圖像作為模型輸入,經(jīng)數(shù)據(jù)增強過程后在FCL7 層進行典型船舶特征提取,并替換模型全連接層中最后一層FCL8 的輸出,輸出量由1000 維改為4 維,修改的參數(shù)變化如表1 所示。

圖 1 AlexNet 特征提取流程Fig. 1 AlexNet feature extraction process

表 1 AlexNet 全連層替換Tab. 1 AlexNet fully cascading replacement

表1 中全連接層激活函數(shù)為softmax,是經(jīng)典二分類邏輯回歸算法應(yīng)對多樣分類的解決方式。邏輯回歸的關(guān)鍵步驟就是將線性模型輸出的實數(shù)映射到[0,1]間[12],表示概率分布的有效實數(shù)空間,而softmax 則可以預(yù)測每個類別的概率并選擇預(yù)測值最高的結(jié)果作為判斷結(jié)果,將一個K維的任意實數(shù)向量壓縮(映射)成另一個K維的實數(shù)向量,其中向量中的每個元素取值都介于[0,1]之間。Softmax 的算式表達如下:

式中:n為神經(jīng)網(wǎng)絡(luò)的的多個類別和輸出數(shù),h為輸出向量,h(x,yi) 為h中第 (x,yi) 個類別值,i為當前需要計算類別,所有類別softmax 值求值為1。Softmax 函數(shù)一般作為神經(jīng)網(wǎng)絡(luò)的最后一層,接受來自上一層網(wǎng)絡(luò)的輸入值,然后將其轉(zhuǎn)化為概率依據(jù)概率大小完成多種分類任務(wù)需求。

2 基于SSA 改進的SSA-SVM 模型

本文SVM 改進方式如圖2 所示。1)通過攝像頭獲取通航區(qū)域船舶采樣數(shù)據(jù)。自建數(shù)據(jù)共標定4 種船舶類型,分別為container,freighter,bulk freighter及pleasure ship,總計400 張圖像。圖像經(jīng)數(shù)據(jù)中心化處理,光亮度調(diào)整(gamma 校正)后調(diào)節(jié)圖像對比性,降低圖像局部光照、遮擋影響,抑制噪聲影響。確保數(shù)據(jù)集無錯漏、特征性明顯,進而使用基礎(chǔ)增廣手段進行圖像數(shù)據(jù)集擴充,數(shù)據(jù)集達1680 張圖像規(guī)模。進入AlexNet 神經(jīng)網(wǎng)絡(luò)特征提取步驟。2)AlexNet模型經(jīng)ImageNet 圖像數(shù)據(jù)庫訓練得到固定參數(shù),針對船舶目標特征識別表現(xiàn)良好。替換AlexNet 分類函數(shù)softmax 為本次訓練目標4 維度,并改換AlexNet 輸入端數(shù)據(jù)為自建船舶目標數(shù)據(jù)集。首先調(diào)整圖像尺寸為227×227×3,經(jīng)5 層雙GPU 卷積神經(jīng)網(wǎng)絡(luò)計算圖像特征,提取FCL7 層(全連接層)圖像特征得單一圖片特征表現(xiàn)為256 數(shù)量。3)通過麻雀算法優(yōu)化SVM 分類模型核函數(shù)半徑g及懲罰因子c,計算分類面方程權(quán)向量值最優(yōu)點,解最優(yōu)點問題所得分類函數(shù)即確定SVM 最優(yōu)分類面,訓練迭代模型至最優(yōu)。4)使用訓練完成的SSA-SVM 分類器對測試數(shù)據(jù)集進行分類。最后對船舶類型判別情況進行統(tǒng)計,與普通非深度學習分類模型、簡單神經(jīng)網(wǎng)絡(luò)分類模型進行結(jié)果對比,判斷圖像分類模型性能。

圖 2 SSA-SVM 優(yōu)化步驟Fig. 2 SSA-SVM optimization steps

2.1 基于麻雀搜索算法的SVM 參數(shù)搜索

2.1.1 SSA 算法

通過SSA 確定SVM 最優(yōu)參數(shù)的過程,就是通過SSA 多次迭代尋找麻雀最優(yōu)點位置坐標的過程。在SSA 中,發(fā)現(xiàn)者因適應(yīng)度較高會優(yōu)先發(fā)現(xiàn)食物[13],且由于發(fā)現(xiàn)者為整個種群提供食物,所以其需要更大的搜索范圍,在每次迭代過程中,發(fā)現(xiàn)者位置更新如下式:

其中,t為當前迭代次數(shù),m為常數(shù),表示最大的迭代次數(shù)。Xi,j表示第i只麻雀在j維中的位置信息[14]。β屬于(0,1] 之間生成的隨機數(shù), α ∈[0,1]是一個隨機數(shù),R2(R2∈[0,1] ) 和S T(ST∈[0.5,1])分別表示預(yù)警值和安全值。Q 是服從正態(tài)分布的隨機數(shù)。L表示一個1×d的矩陣,其中該矩陣內(nèi)各元素均為1。

當R2S T時,代表此時覓食環(huán)境安全未發(fā)現(xiàn)捕食者,發(fā)現(xiàn)者可以執(zhí)行廣泛的搜索操作。當R2≥S T,表示種群中的一些麻雀已經(jīng)發(fā)現(xiàn)了捕食者,并向種群中其他麻雀發(fā)出了警報,此時所有麻雀都需要迅速飛到其他安全的地方進行覓食[15]。

其中,Xbest為當前的全局最優(yōu)位置,也就是參數(shù)選項,通過2 次求取最佳位置點來確定參數(shù)。ε作為步長控制向量,服從均值為0,方差為1 的正態(tài)分布的隨機數(shù)。K是屬于[?1,1]區(qū)間的一個隨機選取,fi則是當前麻雀個體的適應(yīng)度值。fg和fω分別是當前全局最優(yōu)適應(yīng)度值和全局最差的適應(yīng)度值,τ作為最小常數(shù)出現(xiàn),避免計算過程中分母出現(xiàn)零值。

2.1.2 麻雀搜索算法(SSA)優(yōu)化支持向量機c和g參數(shù)流程

圖3 為使用SSA 優(yōu)化SVM 的c和g參數(shù)過程,SSA 算法優(yōu)化參數(shù)步驟如下:

圖 3 麻雀搜索算法優(yōu)化參數(shù)流程Fig. 3 Sparrow search algorithm optimizes parameter flow

1)確定進行圖像分類的SVM 輸入與輸出值,確定以有船/無船作為訓練分類,整理測試集、訓練集圖片,以AlexNet 神經(jīng)網(wǎng)絡(luò)為船舶特征識別法,開始模型訓練。

初始化SSA 系列參數(shù),包括種群數(shù)、發(fā)現(xiàn)者個數(shù)、加入者個數(shù)、警戒者個數(shù),最大迭代次數(shù)及安全閾值,初始化SVM 參數(shù)懲罰參數(shù)c及核函數(shù)半徑參數(shù)g。

2)進行適應(yīng)度函數(shù)選擇。在回歸評價指標中,MSE(mean squared error)均方值誤差和MAE(mean absolute error)平均絕對誤差都作為最常用的回歸損失函數(shù),均適于誤差明確情況。為了簡化計算過程,選擇MSE 作為回歸評價指標[16],如下式:

因選取的是SVM 函數(shù)訓練后的MSE 誤差,故在arg min 情況下取得MSE 最小值為理想適度定義。

步驟1通過CV 驗證法,對訓練集分類,以CV驗證法的準確率作為SSA 的最佳適度值,并進行適度值排序,保留適度值大小及相關(guān)位置信息。

步驟2更新發(fā)現(xiàn)者位置。

步驟3更新加入者位置。

步驟4計算麻雀種群警戒范圍,更新警戒者范圍。

步驟5計算麻雀種群中單個麻雀的適應(yīng)度值,更新適度值及對應(yīng)位置,比較與原位置優(yōu)略,確定為全局最優(yōu)位置,防止出現(xiàn)局部最優(yōu)。

步驟6判斷迭代是否滿足最高迭代次數(shù),如滿足條件,則輸出SVM 最優(yōu)參數(shù)c和g,如不滿足條件則重復步驟4 重新計算適度值。

步驟7更新SVM 模型參數(shù)c和g,獲得優(yōu)化后的SVM 分類模型。

3 實驗參數(shù)與數(shù)據(jù)集

一般來講,圖像數(shù)據(jù)集質(zhì)量決定后續(xù)算法表現(xiàn),數(shù)據(jù)集中的圖片越清晰、特征越明確、分類標簽越準確,則訓練出的算法模型準確率越高、泛化能力越強。由于船舶種類多樣且未出臺統(tǒng)一劃分標準,無法選擇公共數(shù)據(jù)集進行算法訓練,故本文使用視頻拍攝方法建立圖像數(shù)據(jù)集。共拍攝篩選400 張圖片,經(jīng)人工噪聲添加訓練集后,增廣得到1680 張圖片,通過 Transform 實現(xiàn)圖像數(shù)據(jù)的預(yù)處理,并將標簽保存為TXT 格式,為后續(xù)模型應(yīng)用數(shù)據(jù)及數(shù)據(jù)庫建立確立基礎(chǔ)。

3.1 圖像數(shù)據(jù)集預(yù)處理

由于目前未建立穩(wěn)定的可見光船舶圖像數(shù)據(jù)庫,訓練圖片數(shù)量無法達到預(yù)期目標。為解決該問題,通過圖像的移動、縮放、旋轉(zhuǎn)、增加噪聲等基礎(chǔ)增廣技術(shù)增加采樣樣本[17]。

采用Python 數(shù)據(jù)包中自帶的“imnoise”噪聲污染圖像函數(shù),增加訓練集圖片數(shù)量。訓練圖片為340 張,選擇“imnoise”噪聲函數(shù)中的“poisson”(泊松)噪聲、“gaussian”(高斯白)噪聲、“salt&pepper”(鹽和胡椒)噪聲3 類噪聲選項,對訓練圖片進行噪聲處理。其中,“gaussian”(高斯白)噪聲設(shè)定均值m為0.251,方差var為0.00615;“salt&pepper”(鹽和胡椒)噪聲設(shè)定噪聲密度d為0.05。經(jīng)噪聲增廣后,訓練圖片數(shù)目達模型訓練需求,經(jīng)AlexNet 模型進行圖像特征提取。

得到足夠數(shù)量的訓練圖片后,進行圖像預(yù)處理。主要處理過程為圖像灰度化處理,和Gamma 校正法。采用 Gamma 校正法,減弱圖像因光照不均勻、局部陰影產(chǎn)生的影響,由于船舶圖片采集水域光照條件較好,故在特征提取步驟中,根據(jù)時間段選常數(shù)值,γ=0.3 或γ=0.8,以適應(yīng)不同的光照條件。

經(jīng)上述預(yù)處理步驟后,最終得到1680 張圖像,按照比例隨機選取數(shù)據(jù)集中的1344 張(80%)作為訓練集供AlexNet 網(wǎng)絡(luò)進行特征提取及訓練,226 張(20%)作為測試集最后驗證模型分類效果,數(shù)據(jù)集分類情況如表2 所示。

表 2 圖像數(shù)據(jù)劃分Tab. 2 Image data division

4 實驗結(jié)果與分析

4.1 評價指標

船舶目標識別屬于多種分類問題,在此基礎(chǔ)上使用AlexNet 提取船舶目標特征完成遷移學習的評價指標,可參考訓練準確率(accuracy)和交叉熵損失(Loss)2 種方式。對于AlexNet 遷移學習,評價指標公式如下式:

4.2 實驗結(jié)果

本文使用使用神經(jīng)網(wǎng)絡(luò)特征提取聯(lián)合SSA-SVM 分類算法進行船舶目標識別,通過實驗驗證證實最佳交叉驗證準確率為 98.2143 %,交叉熵損失為0.1697%,滿足一般識別需求。

針對特征提取階段,較高的訓練準確率(accuracy)和較低的交叉熵損失(Loss)可保證船舶目標特征提取充分,為下一步的分類器算法訓練提供可靠的特征值計算依據(jù),AlexNet 遷移學習訓練效果如圖4 所示。

圖 4 準確率及交叉熵損失Fig. 4 Accuracy and cross-entropy losses

可知,訓練準確率和交叉熵損失函數(shù)隨著訓練次數(shù)的疊加越發(fā)趨于穩(wěn)定值,并最終收斂在較高水平。FC7L 層共提取1344×4096 特征向量值用于后續(xù)SSASVM 算法訓練,之后依次打印出船舶目標經(jīng)AlexNet網(wǎng)絡(luò)提取的特征矩陣及各類船舶圖樣。

AlexNet 全連接層特征提取數(shù)如表3 所示。FCL6層輸入數(shù)據(jù)的尺寸是6×6×256,采用6×6×256 尺寸的濾波器對第6 層的輸入數(shù)據(jù)進行卷積運算;每個6×6×256 尺寸的濾波器對第6 層的輸入數(shù)據(jù)進行卷積運算生成一個運算結(jié)果,通過一個神經(jīng)元輸出這個運算結(jié)果,共有4096 個6×6×256 尺寸的濾波器對輸入數(shù)據(jù)進行卷積;FCL6 層輸出的4096 個數(shù)據(jù)與第7 層的4096個神經(jīng)元進行全連接[17],經(jīng)由ReLU 和Dropout 進行處理后生成4096 個數(shù)據(jù)。本文FC7L 層共提取1344×4096 特征矩陣用以后續(xù)SSA-SVM 算法訓練,F(xiàn)CL7 層輸入的4096 個數(shù)據(jù)與第8 層的1000 個神經(jīng)元進行全連接得到訓練后數(shù)值,整體規(guī)格符合AlexNet 運行過程。由于神經(jīng)網(wǎng)絡(luò)擁有較強的信息綜合能力,較之以往HOG 特征提取的36 維特征,深度神經(jīng)網(wǎng)絡(luò)在單一全連層上包括4096 個神經(jīng)元,特征提取能力更強。

表 3 AlexNet 全連層解析Tab. 3 AlexNet full cascade parsing

為了進一步提升SSA-SVM 算法對于目標船舶識別的精度,以AlexNet 提取的特征矩陣數(shù)值為訓練基礎(chǔ),在種群尋優(yōu)SSA 算法中尋找最優(yōu)懲罰參數(shù)c及核半徑參數(shù)g,進而提升算法針對于船舶目標分類的適應(yīng)性。經(jīng)AlexNet 算法逐一提取特征后,單一圖像特征數(shù)目達4096 項。設(shè)置SSA-SVM 目標變量個數(shù)為2,最大迭代次數(shù)200 次,alpha 范圍,K范圍上下限,進行邊界控制。之后進行麻雀種群參數(shù)設(shè)置,預(yù)警值ST設(shè)定0.6,發(fā)現(xiàn)者PD設(shè)定0.6,警戒者SD設(shè)定為0.2,設(shè)定完成后即計算全局最優(yōu)適度、最佳位置點,最優(yōu)位置返回后,對適應(yīng)度值做五折交叉驗證其準確率。種群進化完成后,繪制適應(yīng)度曲線、進化曲線、懲罰因子優(yōu)化過程曲線、核參數(shù)優(yōu)化過程曲線整體如圖5 所示。最終得到SSA-SVM 算法模型及其耗時。

圖 5 SSA-SVM 模型性能曲線Fig. 5 SSA-SVM model performance curve

在船舶圖像特征提取后進行SSA-SVM 模型訓練,并采用24 張未經(jīng)特征提取的復雜環(huán)境船舶圖像測試SSA-SVM 船舶目標識別模型性能。模型經(jīng) 60745 s 后完成訓練及識別任務(wù),最佳懲罰參數(shù)為 239.8922,最佳核參數(shù)為0.027237。由圖5 可知,在SSA 種群迭代200 次中,SSA 算法在準確率98%附近出現(xiàn)最佳適應(yīng)度反饋于最佳參數(shù)c和g,準確率在50 次進化后趨于穩(wěn)定,符合SSA 搜索過程。其中懲罰參數(shù)c有明顯進化趨勢,有2 次轉(zhuǎn)折,且最終穩(wěn)定趨于950 附近,體現(xiàn)了麻雀種群搜索的最優(yōu)位置更新能力。核函數(shù)半徑g顯示出較為穩(wěn)定進化效果,其數(shù)值未出現(xiàn)較大波動,故仍需進一步思考麻雀種群對核函數(shù)g的優(yōu)化方式。測試集24 樣本中有21 樣本識別正確,說明本文提出的深度學習特征提取與SSA-SVM 算法聯(lián)合的船舶目標識別可靠性。

算法模型對典型船舶目標識別率高達 88%,證實了本文提出的深度學習特征提取與SSA-SVM 算法聯(lián)合的船舶目標識別可靠性較高,目標識別模型穩(wěn)定性較好。

為了驗證基于神經(jīng)網(wǎng)絡(luò)特征提取的SSA-SVM 船舶目標識別方法的綜合性能,將傳統(tǒng)SVM+HOG 識別分類模型、VGG19 算法模型作為對照組,統(tǒng)一使用自建船舶目標數(shù)據(jù)集進行訓練,最終對比結(jié)果如表4 所示。使用本文提出的基于神經(jīng)網(wǎng)絡(luò)特征提取與SSA-SVM聯(lián)合算法識別精度較傳統(tǒng)SVM 算法更高,提升了63%的識別精度,優(yōu)于VGG19 算法,模型訓練時間少于VGG19 算法模型,精度與訓練時長符合船舶目標識別任務(wù)需求,證明了本文所提出的算法模型的可行性。

表 4 訓練時長與準確率對比Tab. 4 Training duration versus accuracy

為了確定本文提出的基于神經(jīng)網(wǎng)絡(luò)特征提取與SSASVM 聯(lián)合算法的目標識別時長合理,能夠完成實時識別任務(wù)。利用測試集樣本中24 張復雜背景下的船舶目標圖像進行識別,同樣采用SVM+HOG 識別分類模型、VGG19 算法模型作為對照,識別時長對比如表5 所示。

表 5 識別時長對比Tab. 5 Recognition duration comparison

可知,使用傳統(tǒng)SVM+HOG 分類算法,本文提出的基于神經(jīng)網(wǎng)絡(luò)特征提取與SSA-SVM 聯(lián)合算法識別時長更短,單張圖像識別時長僅為傳統(tǒng)SVM+HOG 分類算法時長的1/4,遠超其識別時間;針對于神經(jīng)網(wǎng)絡(luò)識別,本文提出的識別算法時長也僅略長于VGG19 算法為0.163 張/s,滿足船舶目標實時識別標準。

綜上,在訓練時長、精度、識別耗時等項目對比中,基于神經(jīng)網(wǎng)絡(luò)特征提取與SSA-SVM 聯(lián)合算法滿足船舶目標識別任務(wù)需求,證明了本文算法模型的有效性。

5 結(jié) 語

本文提出一種基于遷移學習與神經(jīng)網(wǎng)絡(luò)特征提取的船舶目標識別方法。通過神經(jīng)網(wǎng)絡(luò)的特征提取提升基于小數(shù)據(jù)集的船舶目標識別能力,以預(yù)訓練好的AlexNet 深度網(wǎng)絡(luò)模型為基礎(chǔ)優(yōu)化SSA-SVM 模型參數(shù),使之適應(yīng)于船舶目標的識別。從而解決了小樣本集下利用可將光圖像進行船舶目標快速識別準確率低、訓練時間長的問題。

實驗結(jié)果表明:

1)該方法可以實現(xiàn)小樣本數(shù)據(jù)條件下船舶典型目標的快速識別,且具有較高的分類準確率。

2)AlexNet 遷移學習模型可以充分提取目標特征,一定程度上避免了模型出現(xiàn)過擬合現(xiàn)象。與傳統(tǒng)手動特征提取方法相比,AlexNet 遷移學習模型無需手動提取特征,具有更好的特征識別能力。

3)采用神經(jīng)網(wǎng)絡(luò)特征提取與SSA-SVM 分類聯(lián)合方法訓練得到的模型,訓練時長較全程深度學習模型時間更短,數(shù)據(jù)需求較低,且有較高的邏輯推理性,適用于一般設(shè)備下的船舶目標識別。

猜你喜歡
特征提取船舶分類
計算流體力學在船舶操縱運動仿真中的應(yīng)用
《船舶》2022 年度征訂啟事
船舶(2021年4期)2021-09-07 17:32:22
分類算一算
船舶!請加速
基于Gazebo仿真環(huán)境的ORB特征提取與比對的研究
電子制作(2019年15期)2019-08-27 01:12:00
分類討論求坐標
數(shù)據(jù)分析中的分類討論
教你一招:數(shù)的分類
一種基于LBP 特征提取和稀疏表示的肝病識別算法
基于MED和循環(huán)域解調(diào)的多故障特征提取
主站蜘蛛池模板: 999国产精品永久免费视频精品久久| 99久久这里只精品麻豆| 成年人国产网站| 日韩小视频在线观看| 国产精欧美一区二区三区| 亚洲视频无码| 国产成人狂喷潮在线观看2345| 一级一级特黄女人精品毛片| 91热爆在线| 伊人精品成人久久综合| 成人精品午夜福利在线播放| 波多野结衣无码中文字幕在线观看一区二区| 久久亚洲中文字幕精品一区| 波多野结衣亚洲一区| 成年A级毛片| 欧美成人国产| 精品一区二区三区水蜜桃| 亚洲无码四虎黄色网站| 国产在线视频导航| 亚洲午夜福利精品无码不卡 | 激情综合激情| 亚洲AV无码精品无码久久蜜桃| 免费在线一区| 欧美午夜理伦三级在线观看| 亚洲男人在线天堂| 91系列在线观看| 国产欧美精品一区aⅴ影院| 国产屁屁影院| 国产高清不卡| 玖玖精品在线| 亚洲日本www| 国产成人精品2021欧美日韩| 国产凹凸视频在线观看| 亚洲熟女中文字幕男人总站| 国模视频一区二区| 动漫精品啪啪一区二区三区| 久久99精品久久久久纯品| 亚洲一区二区成人| 午夜天堂视频| 国产农村妇女精品一二区| 免费毛片a| 麻豆精品在线播放| 国产激情在线视频| 国产精品熟女亚洲AV麻豆| 日韩天堂在线观看| 欧洲欧美人成免费全部视频| 亚洲精品男人天堂| 亚洲综合色婷婷中文字幕| 草逼视频国产| 日韩精品无码免费专网站| 久久综合九九亚洲一区| 四虎国产在线观看| 午夜毛片免费观看视频 | 久久久久亚洲AV成人人电影软件 | 米奇精品一区二区三区| 欧美视频在线播放观看免费福利资源| 亚洲日本www| 日韩成人免费网站| 国产精品页| 亚洲色无码专线精品观看| 91精品综合| 青青草国产一区二区三区| 少妇精品在线| yy6080理论大片一级久久| 国产精品网址你懂的| 国产欧美精品专区一区二区| 亚洲欧洲日产国码无码av喷潮| 亚洲国产在一区二区三区| 国产性爱网站| 在线看片中文字幕| 国产经典在线观看一区| av天堂最新版在线| 久久美女精品国产精品亚洲| 欧美人与动牲交a欧美精品| 综合久久五月天| 40岁成熟女人牲交片免费| 在线观看国产小视频| 日韩色图在线观看| 日韩免费中文字幕| a级毛片免费在线观看| 国产美女免费网站| 波多野结衣一级毛片|