999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于流形正則協同訓練模型的行為識別方法

2018-03-16 07:17:56劉向陽李陽姜樹明王帥
山東科學 2018年1期

劉向陽, 李陽, 姜樹明, 王帥

(山東省科學院情報研究所,山東 濟南 250014)

近年來,動作行為識別成為計算機視覺、模式識別等領域的一個研究熱點,廣泛應用于人機交互[1-2]、運動視頻分析[3]和視頻監控[4]等領域。目前國內外有關人體動作行為識別的研究取得了重要進展,但人體運動的多變化性,以及視角、光照、遮擋等問題使得識別的精確性成為研究難題。現有的行為識別模型大都是基于監督學習框架的,然而現實應用中,大多數都是未標記且多特征描述的數據,對樣本進行標記是一個費時費力的工作。

協同訓練算法(co-training)[5-7]是半監督學習中的重要風范(paradigm)之一,能夠很好地解決上述問題。該算法利用兩個或者多個學習器,以迭代的方式結合多視角信息。在學習過程中,挑選出置信度高的未標記樣本進行相互標記,互換信息,更新模型以提高分類器識別效果。協同訓練算法是一種非常具有研究價值的學習算法,目前協同訓練及其相關改進算法[8]已應用于自然語言處理[9]、模式識別[10]等領域,但是在人行為識別領域應用甚少。

標準協同訓練算法[6]及其相關改進算法[11-12]利用各視角上標記樣本訓練初始分類器,通常采用傳統分類方法,如支持向量機[13](support vector machine, SVM)、決策樹(decision tree)、樸素貝葉斯(naive Bayes,NB)等分類算法。當標記樣本數目較少時,僅僅利用有標記樣本訓練所得的分類器的性能較弱,容易對未標記樣本預測錯誤,如果被添加到對方標記樣本集,就給對方引入了噪聲信息,且噪聲會在迭代過程中不斷積累,會導致最終分類器性能下降,無法得到用戶滿意的結果。

本文引入流形正則化的半監督方法來訓練初始分類器,建立拉普拉斯正則化[14-15]的協同訓練(Laplacian-regularized co-training, LapCo)模型,并將其應用到動作識別中。該算法模型在訓練初始分類器時,添加laplacian正則利用大量未標記信息,更好地探索數據邊緣分布的內在幾何特性,提高初始分類器性能,避免引入噪聲從而提高動作識別的精確度。

1 流形正則協同訓練模型

半監督學習模型LapCo的目的是為了在訓練過程中利用大量未標記數據的信息來提高識別分類性能,類似于標準的協同訓練,LapCo算法也采用迭代的方式工作。首先,分別在不同的視角上利用樣本訓練初始分類器,然后初始分類器對未標記樣本進行預測,挑選出置信度高的未標記樣本添加到標記樣本集中,重新訓練分類器,迭代幾次或達到一定精確度條件后停止。

在LapCo中,本文采用的是拉普拉斯正則支持向量機(Laplacian regularized support vector machines(LapSVMs))算法來訓練分類器,該算法在標準支持向量機(support vector machines, SVMs)的基礎上加入拉普拉斯流形正則項,在訓練過程中,拉普拉斯流形正則利用大量未標記樣本的信息來提高初始分類器性能,從而避免迭代過程引入噪聲,以提高最終分類器性能。

對于核函數K:X×X→R,存在一個相關的希爾伯特再生核空間與相對應的范數‖‖K,對于SVMs,目標函數為:

(1)

其中,(1-yif(xi))+=max(0,1-yif(xi))表示邊界函數,γ為控制函數復雜度的參數。

流形假設[15]指的是當高維空間的數據映射到低維空間中,如果兩個樣本在低維流形上同處于一個局部領域內,則有較大概率有相同的性質,其標記也相似,這一假設體現了決策函數在局部空間具有平滑性。在SVMs的基礎上引入Laplacian正則懲罰項,則拉普拉斯正則支持向量機(LapSVMs)的目標函數為:

(2)

由表示定理[18]可得上述問題的解為:

(3)

引入拉格朗日乘子,得

(4)

(5)

其中,

通過在SVM目標函數中添加一個二次型范數,形成LapSVMs,將最優解β*加入(4)中,解得膨脹系數α*,值得注意的是,當膨脹系數為0時,上述就變為標準的SVMs問題。

2 行為識別實驗及結果

2.1 數據庫

為了驗證本文提出LapCo模型在行為識別中的有效性,我們在動作數據集UCF-iphone上進行了大量驗證實驗。UCF-iphone 數據集由佛羅里達中心大學提供,是由10個志愿者在腰部佩戴iphone手機,做一系列的重復動作,如跳、跑、爬樓梯、下樓梯、騎車等9個動作 (biking,climbing,descending,exercise biking,jump roping, running,standing,treadmill walking,walking),由內嵌到手機里的慣性測量裝置(Inertial measurement unit, IMU)采集數據,每個動作重復記錄5次,慣性測量裝置(60 Hz)同時記錄瞬時三維加速度(加速度計)、角速度(陀螺儀)和方向(磁力計),手動采樣500個(8.33 s)。由不同測量裝置采集的數據可以看作是不同視角。

2.2 實驗設置

我們隨機選取了UCF-iphone數據集上4類動作,采用角速度數據為一個視角,加速度數據為另一個視角。為了驗證本文提出LapCo模型的有效性,我們還與標準協同訓練算法(Std-Co)做了對比實驗。本文實驗選取任意兩類進行二分類實驗,數據集4類,共進行了6組實驗。在每組實驗中,從訓練集中隨機挑選1,5,10,15,…,50個樣本作為有標記樣本,其余的作為未標記的樣本。為了綜合評判算法的性能,我們采用平均識別正確率(average precision, AP)來展示實驗結果。

2.3 實驗結果

圖1表示的是兩種方法在4類數據集上的平均識別正確率AP值。每一個子圖代表的是一類動作的識別結果。橫軸表示有標記的樣本數,縱軸表示平均識別率。虛線表示Std-Co的識別結果,實線表示本文提出的LapCo的識別結果。隨著標記樣本數目的增加,兩種方法的識別結果都會提高。在大多數情況下,實線要高于虛線,由此可得,本文提出的LapCo識別效果要好于Std-Co。

圖1 不同方法在4類數據集上的平均精確度均值Fig.1 Average precision of different methods for four classes

3 結語

協同訓練是多視角學習中[19]典型的算法之一,能有效地結合多視角之間的信息,相互補充完善。為獲得更好的識別精確度,關鍵在于如何有效地利用大量的未標記數據信息,為此,本文提出一種基于流形正則協同訓練模型,即基于拉普拉斯正則的協同訓練(LapCo)算法,并將其應用到行為識別中。LapCo在訓練過程中,引入的拉普拉斯正則能利用大量未標記信息,更好地探索數據邊緣分布的內在幾何特性,從而提高初始分類器性能。在動作數據集UCF-iphone上的大量實驗結果表明,本文提出的LapCo能提高動作識別精確度。引入的拉普拉斯正則參數雖然不多,但參數值調整范圍比較大,采用手動調整參數到最優結果需耗費較多時間和精力。如何在較短時間內,自動獲取最好的實驗參數,提高算法效率,是下一步需要改進的問題。

[1]MOKHBER A, ACHARD C, MILGRAM M. Recognition of human behavior by space-time silhouette characterization[J]. Pattern Recognition Letters, 2008, 29(1): 81-89.

[2]POLAT E, YEASIN M, SHARMA R. Robust tracking of human body parts for collaborative human computer interaction[J]. Computer Vision and Image Understanding, 2003, 89(1): 44-69.

[3]LEWIS C, BRAND C, CHERRY G, et al. Adapting user interface design methods to the design of educational activities[M]//Proceedings of the SIGCHI conference on human factors in computing systems. New York, NY, US:ACM Press/Addison-Wesley Publishing Co., 1998: 619-626.

[4]AYERS D, SHAH M. Monitoring human behavior from video taken in an office environment[J]. Image and Vision Computing, 2001, 19(12): 833-846.

[5]周志華,王玨.機器學習及其應用[M].北京:清華大學出版社,2007.

[6]BLUM A, MITCHELL T. Combining labeled and unlabeled data with cotraining[M]//Proceedings of the eleventh annual conference on Computational learning theory. New York, NY, US:ACM, 1998: 92-100.

[7]NIGAM K, GHANI R. Analyzing the effectiveness and applicability of cotraining[M]//Proceedings of the ninth international conference on Information and knowledge management. New York, NY, US:ACM, 2000: 86-93.

[8]BALCAN M F, BLUM A, YANG K. Co-training and expansion: Towards bridging theory and practice[C]// Proceedings of the 17th international conference on neural information processing systems. Cambridge, MA, US: MIT Press ,2004: 89-96.

[9]SARKAR A. Applying co-training methods to statistical parsing[C]//Proceedings of the second meeting of the North American chapter of the association for computational linguistics on language technologies. Stroudsburg, PA, US :Association for Computational Linguistics, 2001: 1-8.

[10]PIERCE D, CARDIE C. Limitations of co-training for natural language learning from large datasets[EB/OL].[2017-03-04].. http://www.aclweb.org/anthology/W01-0501.

[11]ABNEY S.Bootstrapping[EB/OL].[2017-03-04]. http://delivery.acm.org/10.1145/1080000/1073143/p360-abney.pdf?ip=218.

57.145.1&id=1073143&acc=OPEN&key=4D4702B0C3E38B35%2E4D4702B0C3E38B35%2E4D4702B0C3E38B35%2E6D2181445

11F3437&CFID=841997444&CFTOKEN=14396075&__acm__=1513668499_91c8cfe6ab532cfec81740b5270b979c.

[12]LI Y, TAO D P, LIU W F, et al. Co-regularization for classification[C]// Proceedings 2014 IEEE International Conference on Security, Pattern Analysis, and Cybernetics (SPAC). [S.l.]:IEEE, 2014: 218-222.

[13]CORINNA C, VAPNIK V. Support-vector networks[J]. Machine learning, 1995, 20(3): 273-297.

[14]BELKIN M, NIYOGI P. Laplacian eigenmaps and spectral techniques for embedding and clustering [EB/OL].[2017-03-04]. http://papers.nips.cc/paper/1961-laplacian-eigenmaps-and-spectral-techniques-for-embedding-and-clustering.pdf .

[15]BELKIN M, NIYOGI P, SINDHWANI V. Manifold regularization: a geometric framework for learning from labeled and unlabeled examples[J]. Journal of Machine Learning Research, 2006,7:2399-2434.

[16]CHAPELLE O, SCH18LKOPF B, ZIEN A. Semi-supervised learning using semi-definite programming[M]. Cambridge, MA, US: MIT Press, 2006.

[17]SHAHSHAHANI B M, LANDGREBE D A. The effect of unlabeled samples in reducing the small sample size problem and mitigating the Hughes phenomenon[J]. IEEE transactions on geoscience and remote sensing, 1994, 32(5): 1087-1095.

[18]WARDETZKY M,MATHUR S,KALBERER F,et al. Discrete laplace operators:No free lunch[EB/OL].[2017-03-04]. http://www3.math.tu-berlin.de/geometrie/Lehre/SS12/MathVisII/nofreelunch.pdf .

[19]WU Y, CHANG E Y, CHANG K C C, et al. Optimal multimodal fusion for multimedia data analysis[C]//Proceedings of the 12th annual ACM international conference on Multimedia. New York, NY, US: ACM, 2004: 572-579.

主站蜘蛛池模板: 久青草国产高清在线视频| 欧美性色综合网| 免费高清a毛片| 在线观看无码a∨| 精品国产99久久| 亚洲三级电影在线播放| 欲色天天综合网| 777午夜精品电影免费看| 国产精品久久久久久久伊一| 色135综合网| 久久这里只有精品2| 高清无码手机在线观看| 久久久受www免费人成| 国产精品黄色片| 亚洲视频一区在线| 久久这里只有精品66| 国产成人a在线观看视频| 免费国产不卡午夜福在线观看| 亚洲国产日韩一区| 国产精品白浆在线播放| 亚洲天堂网2014| 伊人色婷婷| 国产日韩欧美精品区性色| 精品国产成人高清在线| 亚洲清纯自偷自拍另类专区| 日韩A级毛片一区二区三区| 日本亚洲成高清一区二区三区| 国产精品19p| 一本大道无码日韩精品影视| 狠狠久久综合伊人不卡| 亚洲无码精品在线播放| 欧美五月婷婷| 永久免费av网站可以直接看的| 亚洲无码视频一区二区三区 | 久久久亚洲色| 五月婷婷激情四射| 欧美日韩精品综合在线一区| 亚洲欧洲一区二区三区| 久996视频精品免费观看| 国产免费久久精品99re不卡| 亚洲狠狠婷婷综合久久久久| 青青草原国产| 亚洲国产精品成人久久综合影院| 国产美女精品一区二区| 亚洲高清中文字幕| 无码视频国产精品一区二区| 成年人福利视频| 国产成人精品男人的天堂下载| 精品无码国产自产野外拍在线| 国产精品流白浆在线观看| 97青青青国产在线播放| 国产情侣一区二区三区| 国产精品无码久久久久久| 一级毛片基地| 国产精品福利尤物youwu| 尤物国产在线| 久久不卡国产精品无码| 不卡网亚洲无码| 噜噜噜久久| 久久精品国产一区二区小说| 免费一级毛片完整版在线看| 国内视频精品| 日韩精品成人在线| 欧美在线三级| 婷婷成人综合| 麻豆AV网站免费进入| 日韩毛片基地| 亚洲午夜国产精品无卡| 91探花在线观看国产最新| 亚洲免费三区| 国产91丝袜| 久久免费看片| 美女裸体18禁网站| 亚洲成人网在线观看| 精品国产美女福到在线不卡f| 无码在线激情片| 99在线国产| 欧美a在线| 天堂中文在线资源| 就去吻亚洲精品国产欧美| 91麻豆国产视频| 国产网站黄|