999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于正則化理論的老人小孩高效SVM分類器的研究

2021-03-05 14:57:43王國慶李克祥鄭國華邵衛(wèi)華夏文培
科技創(chuàng)新導(dǎo)報 2021年27期
關(guān)鍵詞:機(jī)器學(xué)習(xí)

王國慶 李克祥 鄭國華 邵衛(wèi)華 夏文培

摘要:利用(基于保持稀疏重構(gòu)的半監(jiān)督字典學(xué)習(xí))中學(xué)習(xí)得到的字典,得到區(qū)域的稀疏編碼系數(shù),用該系數(shù)作為特征能夠有效地區(qū)分目標(biāo)間的形狀差異。由于SVM在分類過程中需要計算測試樣本與所有支持向量之間的核函數(shù),故實時性較差。所以采用基于正則化的集成線性SVM分類方法,既實現(xiàn)了快速分類,又能避免過擬合情況的發(fā)生,融合CNN深度學(xué)習(xí)算法更體現(xiàn)其良好性能。

關(guān)鍵詞:正則化 ?支持向量機(jī) ?分類器 ?機(jī)器學(xué)習(xí)

Research on High-Efficiency SVM Classifier for the Elderly and Children Based on the Regularization Theory

WANG Guoqing ?LI Kexiang ?ZHENG Guohua ?SHAO Weihua

XIA Wenpei

(Zhejiang Sostech Co., Ltd., Wenzhou, Zhejiang Province, 325000 China)

Abstract: By using the dictionary learned in (Semi-supervised dictionary learning based on preserving sparse reconstruction), the sparse coding coefficients of the region are obtained.We can effectively distinguish the shape difference between the targets by using this coefficient as a feature. Since the SVM needs to calculate the kernel function between the test sample and all the support vectors during the classification process, the real-time performance is poor. Therefore, the integrated linear SVM classification method based on regularization not only achieves fast classification, but also avoids the occurrence of over-fitting. The fusion of CNN deep learning algorithm more reflects its good performance.

Key Words: Regularization; Support vector machine; Classifier; Machine learning

1. 基于正則化SVM分類器

對于提取的目標(biāo)區(qū)域,需要對其進(jìn)行快速判斷是否為檢測目標(biāo)對象。SVM由于高準(zhǔn)確率而成為目標(biāo)識別分類的常用方法,然而其對新樣本進(jìn)行預(yù)測判斷時,需要計算此樣本與所有支持向量之間的核函數(shù),故實時性比較差。針對上述問題,本項目擬提出一種新型的SVM分類器,以實現(xiàn)快速、準(zhǔn)確分類,具體可分為以下幾步。

1.1正則化理論

正則化[1](Regularization)是機(jī)器學(xué)習(xí)中對原始損失函數(shù)引入額外信息,以便防止過擬合和提高模型泛化性能的一類方法的統(tǒng)稱。也就是目標(biāo)函數(shù)變成了原始損失函數(shù)+額外項,常用的額外項一般有兩種,英文稱作?1?norm?1?norm和?2?norm?2?norm,中文稱作L1正則化和L2正則化,或者L1范數(shù)和L2范數(shù)(實際是L2范數(shù)的平方)。正則化又稱為規(guī)則化、權(quán)重衰減技術(shù),在不同的方向上有不同的叫法,在數(shù)學(xué)中叫作范數(shù)。以信號降噪為例公式(1-1):

(1-1)

其中,x(i)為原始信號,或者小波或者傅里葉等系數(shù),R(x(i))為懲罰函數(shù),λ是正則項,y(i)是噪聲的信號, 為降噪后的輸出。

范數(shù),是衡量某個向量空間或矩陣中的每個向量長度或大小,范數(shù)的一般化定義為:對實數(shù)p>=1,范數(shù)定義如公式(1-2):

(1-2)

L1范數(shù):當(dāng)p=1時,是L1范數(shù)其表示某個向量中所有元素絕對值的和。

L2范數(shù):當(dāng)p=2時,是L2范數(shù)表示某個向量中所有元素平方和再開根,也就歐幾里得距離公式。

1.2 混合線性SVM分類器

對于提取的目標(biāo)區(qū)域,需要對其進(jìn)行快速判斷是否為目標(biāo)對象。SVM由于高準(zhǔn)確率而成為目標(biāo)識別分類的常用方法,然而其對新樣本進(jìn)行預(yù)測判斷時,需要計算此樣本與所有支持向量之間的核函數(shù),故實時性比較差。針對上述問題,本項目擬提出一種新型的SVM分類器,以實現(xiàn)快速、準(zhǔn)確分類。

混合線性模型(Mixed linear model)是方差分量模型中既含有固定效應(yīng),又含有隨機(jī)效應(yīng)的模型。采用最大似然估計法(maximum likelihood,ML)和約束最大似然估計法原理計算協(xié)方差矩陣。

●總的混合線性模型(Mixed effect model,MLM)的模型方程為公式(1-3):

(1-3)

MLM在GLM基礎(chǔ)上引入隨機(jī)變量設(shè)計矩陣Z。式(1-3)中Y表示反應(yīng)變量測量值的矩陣向量, 為固定效應(yīng)參數(shù)設(shè)計矩陣向量,X為固定效應(yīng)自變量設(shè)計矩陣向量, 為隨機(jī)效應(yīng)參數(shù)設(shè)計矩陣向量,Z為隨機(jī)效應(yīng)自變量設(shè)計矩陣向量,其中 服從均值向量為0,方差協(xié)方差矩陣向量為G的正態(tài)性分布,表示為 , 為隨機(jī)誤差設(shè)計矩陣向量,服從均值向量為0,方差/協(xié)方差矩陣向量為R的正態(tài)分布,即 。

●一種混合線性[2]的快速SVM分類器公式(1-4):

(1-4)

其中,x為輸入樣本, 和 分別為線性子分類器的權(quán)重系數(shù)和偏差,可以看出,分類器的輸出為 個子分類器群組的輸出之和,頁每個群組的輸出則是 個相互競爭的子分類器輸出的最大值。

根據(jù)上述優(yōu)化問題,建立一個具有層次樹結(jié)構(gòu)的SVM分類器,其基本思想是在盡可能小的函數(shù)復(fù)雜度下,用線性SVM不斷把錯分的正(負(fù))類樣本從當(dāng)前分類器所分得的負(fù)(正)類中分離出來再進(jìn)行訓(xùn)練。

2. 實驗與結(jié)果分析

2.1 線性SVM分類器實驗

實驗使用sklearn官網(wǎng)提供的Iris數(shù)據(jù)集,然后通過代碼片斷結(jié)合實驗結(jié)果進(jìn)行分析。

步驟一,數(shù)據(jù)預(yù)處理,通過Iris數(shù)據(jù)集分為兩個數(shù)組,一組存放值,另一組存放標(biāo)簽,以兩個特性為例,代碼如下所示:

iris_datas = datasets.load_iris()

x = iris_datas.data[:,:2] #value

x = iris_datas.target #label

步驟二,拆分?jǐn)?shù)據(jù)集,將數(shù)據(jù)集拆分為訓(xùn)練集和測試集驗證集,訓(xùn)練集50%,驗證集20%,測試集30%。

步驟三SVC和擬合模型參數(shù)設(shè)置,選擇SVM參數(shù),Kernel支持向量機(jī)的線性核函數(shù),C控制誤分類訓(xùn)練數(shù)據(jù)損失函數(shù)。Gamma控制模型中誤差和偏差之間誤差權(quán)衡函數(shù),代碼如下所示:

clf = svm.SVC(kernel=’rbf’,C=c,gamma=g)

clf.fit(x_train,y_train)

接著在驗證集評估以上參數(shù)設(shè)置,并檢查相應(yīng)的成功率,找到算法最優(yōu)值,代碼如下所示:

clf_predictions = clf.predict(x_validate)

clf_sc = clf.score(x_validate,y_validate)

對于不同的C值訓(xùn)練一個線性SVM,并繪制了數(shù)據(jù)和決策邊界。圖1中可看出1邊界變化是由C引起的通知SVM在每個訓(xùn)練中避免出現(xiàn)多少錯誤分類。對于較大的C值,優(yōu)化將選擇一個較小的邊界超平面,該超平面能更好地得到所有訓(xùn)練點的正確分類。

相反,一個很小的C值將導(dǎo)致優(yōu)化器尋找一個更大的邊界分隔超平面,即使這個超平面錯誤分類了更多的點。所以C值小的錯誤分辨率低,反之錯誤分辨率高。C=0.1時給出的最佳精度是77.77%。最后,選擇了C的最佳值,并在測試集上對模型進(jìn)行了評估.通過將C調(diào)整最佳后,發(fā)現(xiàn)測試的準(zhǔn)確率為83.333%為最高。

2.2 深度學(xué)習(xí)分類實驗

線性SVM分類器[3]在實驗中進(jìn)行的二分類測試,經(jīng)過幾輪的C值調(diào)整最后得到一個令人比較滿意的結(jié)果83.33%。但是,在實際復(fù)雜場景檢測中每次都是需要人工去干預(yù),調(diào)整模型的參數(shù)值,這不是一個合適的方法。所以選擇一個可定制化的環(huán)境與CNN深度學(xué)習(xí)[4]一起工作,使用一個實際參數(shù)和神經(jīng)元。為了簡化模型的構(gòu)建項目中使用tensorflow下的輕型框架Keras,實驗步驟如下。

步驟一:獲取文件目錄里老人與兒童面部圖像數(shù)所存放目錄,將數(shù)據(jù)分成兩組,一組存放轉(zhuǎn)換后的二進(jìn)制,另一存放二進(jìn)制標(biāo)簽值。然后將得到每一張圖像修改尺寸大小為64×64,最后存儲為npz文件。

步驟二:讀取npz文件獲取圖像值和標(biāo)簽值,拆分?jǐn)?shù)據(jù)集為訓(xùn)練集和測試集,訓(xùn)練集為80%,測試集為20%。

步驟三:構(gòu)建網(wǎng)絡(luò)結(jié)構(gòu)圖2分為卷積層、池化層、全連接層。網(wǎng)絡(luò)參數(shù)、訓(xùn)練參數(shù)為Batch_size=32,num_class=2,epochs=30

Batch_size是一個重要參數(shù),它是批大小,它定義了一次向前/向后傳播網(wǎng)絡(luò)的樣本數(shù)量。通常這意味著更高的批大小將為單次傳遞提供更多的示例,但也會增加內(nèi)存使用。通常較小的批大小將導(dǎo)致更好的泛化[5-6]。

步驟四:模型訓(xùn)練,通過創(chuàng)建的模型網(wǎng)絡(luò)結(jié)構(gòu)(如圖2所示)和訓(xùn)練參數(shù)設(shè)置,可以觀察到訓(xùn)練過程中精確率,驗證正確率,訓(xùn)練輪數(shù),測試結(jié)果如圖3和圖4。

圖3的模型訓(xùn)練過程精度為0.9967訓(xùn)練30輪驗證率0.9868。

圖4的模型測試結(jié)果為label=0,predict=0表示為老人,label=1,predict=1表示兒童

3 ?結(jié)語

通過以上兩組實驗對比線性SVM分類器算法,調(diào)整C值過后精確度為83.333%,而選擇與深度學(xué)習(xí)CNN搭建網(wǎng)絡(luò)模型融合訓(xùn)練得到結(jié)果0.9868%。采用這種算法雖然取得了比較好的效果,但仍然還有需要改進(jìn)的地方。例如,年齡不在老年人階段,但面臉表情特征如老年人,兒童檢測也存在類似問題。后期,計劃在人臉特征提取,人臉數(shù)據(jù)多樣性方面進(jìn)行優(yōu)化和增強(qiáng)。

參考文獻(xiàn)

[1] 劉保成,樸燕,唐悅.基于時空正則化的視頻序列中行人的再識別[J].計算機(jī)應(yīng)用,2019,39(11):3216-3220.

[2] 楊斌,王斌,吳宗敏.基于雙線性混合模型的高光譜圖像非線性光譜解混[J].紅外與毫米波學(xué)報,2018,37(5):631-641.

[3] 王福斌,潘興辰,王宜文.基于SVM的多核學(xué)習(xí)飛秒激光燒蝕光斑圖像分類[J].激光雜志,2020,41(4):86-91.

[4] 林景棟,吳欣怡,柴毅,等.卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)優(yōu)化綜述[J].自動化學(xué)報,2020,46(1):24-37.

[5] 葉俊賢.深度神經(jīng)網(wǎng)絡(luò)數(shù)據(jù)并行訓(xùn)練加速策略研究[D].成都:電子科技大學(xué),2020.

[6] 王鐸. Relu網(wǎng)絡(luò)的一種新型自適應(yīng)優(yōu)化方法研究[D].北京:北京工業(yè)大學(xué),2020.

2292501186223

猜你喜歡
機(jī)器學(xué)習(xí)
基于詞典與機(jī)器學(xué)習(xí)的中文微博情感分析
基于網(wǎng)絡(luò)搜索數(shù)據(jù)的平遙旅游客流量預(yù)測分析
時代金融(2016年27期)2016-11-25 17:51:36
前綴字母為特征在維吾爾語文本情感分類中的研究
下一代廣播電視網(wǎng)中“人工智能”的應(yīng)用
活力(2016年8期)2016-11-12 17:30:08
基于支持向量機(jī)的金融數(shù)據(jù)分析研究
基于Spark的大數(shù)據(jù)計算模型
基于樸素貝葉斯算法的垃圾短信智能識別系統(tǒng)
基于圖的半監(jiān)督學(xué)習(xí)方法綜述
機(jī)器學(xué)習(xí)理論在高中自主學(xué)習(xí)中的應(yīng)用
極限學(xué)習(xí)機(jī)在圖像分割中的應(yīng)用
主站蜘蛛池模板: 欧美日一级片| 欧美日韩中文国产va另类| 黄色国产在线| 国产久操视频| 国产91小视频在线观看| 久久亚洲AⅤ无码精品午夜麻豆| 国产成人精品一区二区免费看京| av在线人妻熟妇| 中日韩一区二区三区中文免费视频 | 国产jizzjizz视频| 久久国产精品国产自线拍| 久久精品午夜视频| 高清无码不卡视频| 青青草原偷拍视频| 国产呦视频免费视频在线观看| 久久精品视频亚洲| 国产福利大秀91| 无码人妻热线精品视频| 国产精品白浆在线播放| 伊人天堂网| 99re在线免费视频| 19国产精品麻豆免费观看| 精品国产亚洲人成在线| 欧美第二区| 在线亚洲天堂| 精品日韩亚洲欧美高清a| 亚洲精品国产首次亮相| 国产男女免费完整版视频| 国产成人av一区二区三区| 丰满人妻一区二区三区视频| 婷婷色丁香综合激情| 综合网久久| 亚洲一级毛片免费看| 亚洲中文字幕国产av| 亚洲精品亚洲人成在线| 国产美女精品一区二区| 久久这里只有精品2| 波多野结衣久久精品| 婷婷色在线视频| 无码免费视频| 免费看一级毛片波多结衣| 精品视频一区二区三区在线播| 91啪在线| 一级毛片基地| 巨熟乳波霸若妻中文观看免费 | 一级毛片基地| a级高清毛片| 熟女视频91| 亚洲视频二| 久久亚洲天堂| 欧美成人午夜影院| 婷婷伊人久久| 国产性生交xxxxx免费| 在线亚洲小视频| 国产福利一区在线| www欧美在线观看| 午夜毛片免费观看视频 | 免费人成黄页在线观看国产| 日本91在线| 亚洲一级毛片免费观看| 国产亚洲欧美另类一区二区| 精品伊人久久大香线蕉网站| 永久免费无码日韩视频| 成人午夜视频免费看欧美| 成人小视频网| 被公侵犯人妻少妇一区二区三区| 欧美人与牲动交a欧美精品| 97视频在线精品国自产拍| 国产产在线精品亚洲aavv| 欧美va亚洲va香蕉在线| 性视频久久| 一级高清毛片免费a级高清毛片| 亚洲免费毛片| 找国产毛片看| 亚洲综合18p| 免费国产小视频在线观看| 亚洲另类第一页| 久久久亚洲国产美女国产盗摄| 国产一级片网址| 高清无码一本到东京热| 自拍偷拍欧美| 久久人体视频|