999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于語義分層的行為推理框架

2016-01-15 09:22:06聶慧饒,陶霖密
智能系統學報 2015年2期

網絡出版地址:http://www.cnki.net/kcms/detail/23.1538.TP.20150302.1106.008.html

基于語義分層的行為推理框架

聶慧饒,陶霖密

(清華大學 計算機科學與技術系,北京 100084)

摘要:人類行為理解是實現“人本計算”模式的基礎,其本質在于獲取行為的語義,即由動作特征推導人體的行為,需要跨越兩者之間的語義鴻溝;為此提出了環境上下文進行隱式建模的方法,并基于此提出了語義分層的行為推理框架,該框架使用了從模糊語義到確定語義的漸近式推理。 根據知識將特征合理地分為多個層次,系統則根據當前狀態去提取所需要的特征,推理當前可能的候選行為集;并由該候選行為集指導處理模塊,更新特征集并進行新一輪的推理,反復迭代至推理完成。 應用提出的環境建模方法和漸近推理框架可以有效地實現行為理解。 使用隱式環境方法可以提高行為理解的準確率;漸近式推理框架可以避免傳統推理方法無差別地提取所有特征,從而提升了推理效率。

關鍵詞:行為理解;特征行為關系;環境上下文;語義分層;分層推理框架

DOI:10.3969/j.issn.1673-4785.201407009

中圖分類號:TP301.6 文獻標志碼:A

收稿日期:2014-07-04. 網絡出版日期:2015-03-02.

基金項目:國家“863”計劃資助項目(2012AA011602);國家自然科學基金資助項目(61272232).

作者簡介:

中文引用格式:聶慧饒,陶霖密. 基于語義分層的行為推理框架[J]. 智能系統學報, 2015, 10(2): 178-186.

英文引用格式:NIE Huirao, TAO Linmi. Inference framework for activity recognition based on multiple semantic layers[J]. CAAI Transactions on Intelligent Systems, 2015, 10(2): 178-186.

Inference framework for activity recognition

based on multiple semantic layers

NIE Huirao, TAO Linmi

(Department of Computer Science and Technology, Tsinghua University, Beijing 100084, China)

Abstract:Human activity recognition is the core of the implementation of human-centered computing(HCC), whose nature is to acquire activities′ semanteme. The basic problem is the semantic gap between observable actions and human activities. They should be bridged by environment context based inference. In this paper, a method is proposed to model the environment context implicitly. Further, a novel semanteme multilayered activity inference framework was presented, which divided the inferring process into 2 stages. One stage used to acquire fuzzy semanteme and another one to acquire accurate semanteme. The feature set was divided into different subsets according to knowledge. The system extracts the corresponding features according to the current state and obtains the possible set of candidate activities that can instruct the system to update the current feature set. Update the features set and infer it, the process continues until the inference is completed. The modeling method and progressive inference framework proposed could handle the activity-recognition problem well. Implicitly modeling the environment context could improve the accuracy of activity recognition. The progressive framework can improve the efficiency by avoiding extracting all features indistinguishably, whose validity was proven in the data set.

Keywords:activity recognition; feature activity relation; environment context; semantic layer; multilayer inference framework

通信作者:聶慧饒. E-mail:sangoblin@yeah.net.

Pantic等[1]提出了“人本計算”(human-centered computing,HCC)的概念;這種模式被認為是未來的計算模式,在該模式當中,計算被隱藏在居住空間的后臺,而其計算結果則在日常生活當中與人交織在一起。與過去“以計算機為中心”的計算模式相比,HCC使用了更接近人類交互方式的方法,如理解人類的行為和情感等,從而取代傳統的鍵盤和鼠標輸入;人類得以從過去僵化的輸入環境當中解放出來,而使用更加貼近其天性的自然方式與計算機進行交互。

HCC的研究重點在于使計算設備與傳感設備進行協同工作以便主動感知場景中的用戶信息,分析用戶需求并完成相關任務[2]。因此,利用計算設備和傳感器協同工作以理解人類的行為是HCC的核心組成部分。針對傳統行為理解系統無差別提取場景當中所有特征的弊病,本文對行為所搭載的語義進行分層,并相應地對場景中的特征進行了分類,從而提出了一個由粗至精的逐步獲取行為語義的推理框架。

1研究現狀

行為理解是計算機視覺領域的傳統問題[3],其推理方式可以大致分為基于規則的推理和基于學習的推理[4]。基于規則是指研究者根據自己對行為邏輯的認識,并利用邏輯推理的方法對行為進行理解。該方法通常包含以下步驟:1)將所有可能的需要理解的行為囊括到模型庫當中,并利用邏輯形式對這些行為進行定義和描述;2)整理所獲得的傳感信息,并將其轉換為邏輯術語和公式;3)根據上一步當中的術語和公式,進行包括演繹、歸納和推斷等的邏輯推理,以便于根據所觀察的信息尋找最匹配的行為或者行為集(模型庫的子集)[5-7]。

基于學習的推理則又可進一步細分為無監督學習和有監督學習。其中無監督的學習指的是從未進行人工標注的數據當中直接建立起模型對行為進行判別,其通用原則是根據系統當前的狀態并結合對系統的觀察對系統的狀態進行隨時更新,模型中每個動作可能發生的概率均是由人工進行賦予的;無監督學習的過程通常有:1)采集原始傳感數據(未被標注)[8];2)處理未標注的數據并將其轉換成相應特征;3)采用聚類等手段建立起判別模型[9-10]。與無監督的學習相比,有監督的學習必須基于已經標注的數據(通常是人工標注),而后根據數據和行為集建立起合理的推理模型,并通過標注數據訓練出模型的參數。當前通過有監督的學習得到推理模型參數的方法是最為常見的,并且研究者們也在此方面總結了很多有效的算法和模型,如隱馬爾可夫模型[11-13]、貝葉斯網絡[14]、條件隨機場[15]、最近鄰法[16]等。

但是當前的推理方法當中均未考慮對行為的語義進行分層,并根據需要從環境當中提取特征,而是盡可能多地從環境當中提取特征后進行行為推理。

2環境上下文模型

對行為進行推理時,若能引入人所處的環境上下文,則可以提高推理結果的精度。不少研究者在開展他們的工作時也引入了環境上下文的概念,但是他們通常是根據本體論將環境上下文顯式地建立在了模型當中[17-18],該方法的缺點是:1)模型的可擴展性差,一旦環境有更改,需要重新建立一套模型;2)難以將時間上下文同時引入到模型當中。本文當中為了使環境上下文便于計算,未將其作為顯式的模型節點,而是將其作為隱式的觀測特征用于輔助行為的推理。

2.1特征的屬性

當前的相關工作大都采用了分層模型來表示行為,并將行為定義成了語義的攜帶者[19-21];行為通常都是為了滿足用戶需求而發生的一系列動作。伴隨著行為的發生,通常可以觀測到與該行為相關的特征。而行為理解需要處理的問題就是根據所觀測的特征還原出用戶的行為。

特征作為樣本的表現形式,可以用于將一個樣本與其他樣本進行區分,例如,發生吃飯行為時,手中的餐具可以作為用來表征該行為的重要特征。因此,特征可以視作對樣本的某種屬性的觀測。理論上,若能獲取正確表達某個樣本的完整的特征集,則可以以極高的置信度識別該樣本。但是在基于視覺的處理方法當中,系統可以從視頻圖像中提取出大量不同的特征,如顏色直方圖、SIFT特征、HOG特征等,而且基于視覺特征進行分類得到的結果通常具有不確定性。因此,當樣本集的規模變得很大時,即面臨著組合爆炸的問題,特征的規模會增長得比樣本更快,很難一次性將視頻中所有的特征悉數提取出來。

在本文當中,根據特征是否被行為集中的所有元素共享將其分為:公有特征和私有特征,其中公有特征屬于某個行為集中的所有行為,即所有行為發生時該類特征都可被觀測(但是特征值不同);私有特征則是某個行為所特有,通常可以用于證明或者證偽該行為是否發生。顯然公有特征集和私有特征集的選取依賴于特定的應用場景,并且可以根據應用需要對行為集進行多層次的分層,從而實現推理層次更加豐富的推理過程。

2.2可計算的環境上下文

顯然所有的行為發生都伴隨著環境上下文,因此環境上下文應該屬于公有特征。環境上下文是一個很抽象的概念,為了能將其予以形式化的表達,需要考慮用戶在室內的交互方式以及交互對象;通常用戶在室內的交互對象主要是各色家電以及家具,而用戶的交互方式又由他當前的交互對象所決定,例如,用戶處在臥室當中,則其可能在與床進行交互,交互方式則是用戶躺在床上。而這些家具或者家電與特定行為的發生具有很強的關聯,比如餐桌附近吃飯發生的概率很高;于是可以將它們的中心作為某些行為發生的概率中心,而隨著人體逐漸的遠離該行為發生的概率會逐漸衰減。

因此,可以將家具和家電等潛在交互對象的位置予以標定(如圖1所示,圖中的圓形和方形分別代表了室內的餐桌、冰箱等交互對象),并結合人體的當前位置作為觀測的特征;在實現時,通常使用人體位置與各個交互對象間的坐標差值(或基于差值的非線性變換)作為觀測特征,而不是使用人體到交互對象中心的歐氏距離,以考慮交互對象的形狀對于行為發生的概率衰減的影響。

圖1 室內家具布置標定示意圖 Fig.1 Calibration of the indoor layout of the furniture

3分層的語義推理及實現

3.1分層的語義推理

前文當中根據特征是否被行為集中的所有元素所共享將其分成了公有特征和私有特征2類。行為是具確定語義的,但是在觀測到屬于某個行為的所有特征前,尤其若其私有特征尚未被觀測,則該行為的確定語義將無法被推斷,其所攜帶的語義將變得模糊不清,從而該行為的確定語義將退化成為模糊語義。圖2中所示,用戶分別發生了2個行為,即喝水和喝飲料;這2個行為的公有特征即為手中持有物品,且在手部在向面部運動,而喝水的私有特征則是手中物品為水杯,喝飲料的私有特征為手中物品為飲料。顯然這2個行為的公有特征是幾乎一致的,區分它們的關鍵因素在于這2個行為不同的私有特征;但是公有特征的觀測可以排除用戶發生看電視等其他行為。

圖2(a)對喝水和喝飲料的私有特征進行了模糊化處理(即不再觀測這2個行為的私有特征)后,喝水和喝飲料均退化成為語義模糊不清的動作,該動作表明人手中有物品且在向面部運動。從中可以看出,行為的公有特征即表達了行為的模糊語義,而輔以相應的私有特征后行為的語義才能被確定。

圖2 由粗至精的推理過程 Fig.2 Inference process from fuzzy semantic logic to definite semantic logic

因此,提出了一個從模糊語義逐漸到確定語義的推理框架,即首先根據觀察到的公有特征篩選出符合當前模糊語義的候選行為集合cA,然后根據cA中的成員做證據廣播,即去觀測該成員的相應私有特征,并最終得到當前用戶的行為或者行為集Acurr(用戶可以同時發生多個行為)。事實上人的推理過程也并非一次完成的,人們總是會根據當前觀測的特征對即將發生的行為作出初步的判斷,而后根據初步判斷的結果去尋找可以證明或者證偽初步判斷的新的特征。例如,甲向乙伸出手時,乙初步判斷甲想要同乙握手或者攻擊乙,此時乙開始尋找額外的特征,若甲的手向乙的運動而去,則甲想要同乙握手,反之則是要攻擊乙。

3.2基于單幀的推理方法

基于單幀的推理方法,即在推理時只使用當前視頻幀所觀測的特征進行行為理解,其優點在于推理方式相對簡單,計算量較小,可以快速地完成,而其缺點在于不使用時間上下文,從而對于噪聲的抗性較差。基于單幀的推理方法有邏輯回歸、支持向量機以及決策樹等。本文實現時使用了邏輯回歸模型作為實現單幀推理的方法,可以方便地得到對齊到(0,1)的概率值,也便于處理同一時刻下多個不同行為的發生。

圖3 分層推理流程圖 Fig.3 Flow chart of multilayer inference

3.3基于時間序列的推理方法

基于時間序列的推理方法主要有隱馬爾可夫模型和動態貝葉斯網等,由于隱馬爾可夫模型的訓練算法和測試算法都極為成熟,本文當中采用了隱馬爾可夫作為基于時間序列的推理方法。隱馬爾可夫模型的優勢在于推理時使用了時間序列,充分地利用了上下文信息,但是其訓練較邏輯回歸復雜,無法利用過多的時間幀(否則會因聯合概率較小而無法予以計算)。并且隱馬爾可夫的訓練數據使用了相同標簽下的幀序列,即訓練時所用的同一序列的幀對應的行為是相同的,而在實際過程中,同一個序列下的不同幀可能會出現不同的行為。

此外,當前的隱馬爾可夫訓練算法大都只針對一個離散觀測量或者一個連續的隨機向量的應用場景,而的觀測值中同時存在著多個離散觀測量和連續觀測量。直觀的做法是將多個離散觀測量聚合成為一個單獨的離散觀測量,但是這種做法會使模型的參數迅速增加,例如,若在HMM當中選取5個隱狀態,同時有10個離散觀測量,每個離散觀測量對應2個不同的取值,則觀測矩陣的參數個數為5×210=5120,但是若引入樸素貝葉斯假設,即觀測量之間是相互獨立的,那么觀測矩陣的總參數量則降為5×2×10=100,實際中特征維度可能會更高,若不采用樸素貝葉斯假設,則由于訓練樣本個數較少,很難得到對模型參數合理的估計。因此,的在訓練HMM模型時對于多維離散觀測值引入了樸素貝葉斯假設。

4實驗驗證

4.1實驗環境

實驗環境的設置主要用于模擬人體在室內的日常行為場景,在該場景當中,需要識別出吃飯、看電視、吃水果、喝飲料、看書、喝水、使用電腦等7種不同的行為。視頻數據的采集工作由分布在屋內的4套AV800綜合采集卡以及4個CCD攝像機完成,其中集體分辨率最高可以達到720×576,幀率可以達到25f/s。此外,采集卡的硬件壓縮功能可以直接輸出壓縮格式的視頻流。

實驗環境當中配備了圓桌、電視、冰箱、書架、辦公桌、茶幾等家具,以及水果、飲料、食品等日常生活用品,前方提及的攝像機布置在房間的4個角落當中,分別連接至數據采集服務器當中以捕獲場景當中發生的人體行為。實驗環境布置如圖4所示,其平面圖如圖1所示。

圖4 不同視角下的實驗環境 Fig.4 Experiment environments under different views

4.2實驗數據集

在該數據集當中,共需要識別吃飯、看電視、吃水果、喝飲料、看書、喝水、使用電腦等7種不同的行為。該數據集共有225551幀行為圖像。

針對該行為集,使用了2層的推理框架對其進行推理;定義公有特征集為{人體的姿勢,人體的朝向,人體的位置},其中人體的姿勢有2個觀測值,分別為站著和坐著,人體的朝向被離散成8個數值,人體的位置則由文獻[22]中介紹的算法求出。針對不同的行為,分別定義了附著于其上的私有特征,具體內容如表1所示。

由于本文側重于推理方式及效率的研究,對于如何通過對視頻進行圖像處理以獲取所需的特征并沒有進行深入探討,本文中除了人體位置外的其他特征均是通過人工予以標注。事實上,若今后針對相應特征的視覺算法成熟后可以方便地集成到本文所提出的推理框架當中。

表1 不同行為的私有特征

4.3實驗結果

本文分別使用了基于邏輯回歸和HMM的推理方式實現。在本節當中,針對這2種實現,均對比了未使用分層推理和使用分層推理的正確率。

4.3.1基于邏輯回歸的實驗結果

使用未分層的推理實現時,將所有的特征直接用于訓練得到特征-行為權重,此時針對7個不同的行為,均可以得到一組特征與行為的權重關系;此7組特征-行為權重可以用邏輯回歸訓練出的1個模型予以表示。而分層推理實現,則是先針對所有的行為使用公有特征訓練得到特征-行為權重,其后針對每個行為,結合公有特征及私有特征,訓練出相應的特征-行為權重,即分層推理實現時,最終得到1個描述公有特征與行為關系的模型以及7個描述私有特征和行為的模型。

使用環境上下文特征時,本文使用了三階多項式來擬合行為概率同人體與家具相對位置的關系;由于研究的行為共涉及到6個不同的家具,故環境上下文總共包含36維的數據,故公有特征向量總維度為38維,全部特征向量的維度為45維。其中在未分層的推理當中引入環境上下文后,推理準確率得到了提高,在不使用環境上下文時準確率為83.4%,使用環境上下文時,準確率為85.20%。

表2中選取了部分特征在不同的推理層次當中對于看書的影響。從中可以看出:1)分層推理時不同層次時同一特征的權重并不相同,并且在第2層推理時,公有特征對行為的影響變弱,這與直觀感覺相符,即公有特征在判斷模糊語義時可以起到很強的作用,但是在進行確定語義的判斷時則不會起到較強的作用;2)私有特征對相應行為的影響很大,這也充分證明了實驗中對特征的分層是比較合理的。

表2特征在不同層數對看書的影響

Table 2The influence of features on reading in different inference layers

特征第1層對看書的權重第2層對看書的權重身體姿勢0.2732600.141081身體朝向0.2663180.115331手觸碰書N/C1.743567

表3中所示為基于邏輯回歸的不同層次推理的實驗結果。從中可以得出以下結論:1)兩者的推理精度接近,但是實用時分層的推理可以不用提取環境當中的所有特征,因此可以有效地節省系統效率;2)單層推理的模型總參數量為7×45=315個,而雙層推理模型總參數量為7×38+7×39=539,雙層推理的總參數雖然更多,但是單個模型的參數量卻在減少,在待識別行為集變大,且訓練樣本不足的情況下,可以有效地降低過擬合的可能性;3)在公有特征和私有特征劃分合理的情況下,若有新的行為加入,只需要重新訓練公有特征與各個行為對應的權重,以及該行為的私有特征對應的權重即可,擴展代價較小。

表3不同層數的推理比較

Table 3The comparison of inference with different layers

推理層數準確率/%模型數量參數數量185.201315285.618539

4.3.2基于HMM實驗結果

在HMM實現當中,對人體位置和家具位置進行離散化處理,以使其符合觀測模型。未分層的HMM推理即在觀測時使用全部的特征值進行觀測序列的似然值計算,而分層的推理則首先使用公有特征對觀測序列進行似然值計算,對于過閾值的行為種類再結合其私有特征進行新一輪的似然值計算,得到最終結果。識別當中,其隱結點可能具有語義特征,但若是應用在視覺領域,則是極有可能代表一些未知的中間狀態,只有最后的分類結果才是有語義的[23]。因此,在實驗當中針對不同的序列長度均在不同的HMM當中需要注意的主要有2個參數:所取的觀測幀數和隱結點數目。HMM若是應用在語音隱結點數目下進行實驗,實驗中分別選取了5幀、10幀、15幀以及20幀,實驗結果如圖5所示。

圖5 不同長度序列在不同的隱結點數目下得到的各個行為的準確率 Fig.5 Inference accuracy of different sequences under different numbers of hidden nodes

從圖5中可以看出在序列幀數選擇較少時,節點數目對識別結果幾乎沒有影響,而且整體識別準確率相對較低,這是因為可以使用的歷史信息不夠充分。而在序列幀數較多時,隱結點數目取為幀數的一半左右為宜。對于幀數為20的序列,2層推理和1層推理的實驗結果如圖6所示。而隱結點數目為8的條件下(該條件下準確率相對較高)的實驗結果如表4所示。

圖6 2層HMM 和1層HMM的實驗結果對比 Fig.6 The comparison of 2-layer HMM and 1-layer HMM

可以得到類似于單幀推理的結論,并且還應該注意到對于某些行為,分層后的推理準確率會有所上升,這是因為分層推理模型當中不同層次下相同特征可以有不同的權重(不同層次下的HMM模型的觀測概率可以不同),該行為對應的私有特征可以更好地發揮作用,而在未分層推理時,其對應的私有特征的作用可能被其他所影響。

表420幀8個隱節點下的各行為的準確率以及總體準確率

Table 4Inference accuracy of different activities under the configuration of 20 frames and 8 hidden nodes

行為2層準確率/%1層準確率/%吃飯81.2782.18看電視62.4862.66吃水果66.5467.82喝飲料84.7090.99看書64.6467.22喝水66.5468.41使用電腦74.3276.06總體74.3276.06

5結束語

本文將環境上下文作為公有特征用于行為理解,從而實現了環境上下文的可計算性,并可以對環境信息進行更加精確的描述。此外,本文將行為推理的過程分為了獲取模糊語義和確定語義2個階段;系統在推理過程中,根據當前觀測的公有特征進行判斷,篩選出模糊語義滿足條件的候選行為集;如此迭代,直到依據候選行為集中的行為,觀測其私有特征,并做出最為精確的判斷并確定當前的語義。該框架避免了傳統算法未對語義分層而提取環境中所有特征的弊病,可以有效地提升系統性能,已經在基于真實場景的數據集中得到了初步驗證。

參考文獻:

[1]PANTIC M, PENTLAND A, NIJHOLT A, et al. Human computing and machine understanding of human behavior: a survey[C]//Proceedings of ACM International Conference on Multimodal Interfaces. Banff, Canada, 2006: 260-266.

[2]石為人, 周彬, 許磊. 普適計算: 人本計算[J]. 計算機應用, 2005, 25(7) : 1479-1484.

SHI Weiren, ZHOU Bin, XU Lei. Pervasive computing: human-centered computing[J]. Computer Applications, 2005, 25(7) : 1479-1484.

[3]陶霖密, 楊卓寧, 王國建. 行為理解的認知方法[J]. 中國圖象圖形學報, 2014, 19(2) : 167-174.

TAO Linmi, YANG Zhuoning, WANG Guojian. Cognitive reasoning method for behavior understanding[J]. Computer Applications, 2014, 19(2) : 167-174.

[4]SHARIAT S, PAVLOVIC V. A new adaptive segmental matching measure for human activity recognition[C]//Proceedings of IEEE International Conference on Computer Vision. Sydney, 2013: 3583-3590.

[5]BOUCHARD B, GIROUX S, BOUZOUANE A. A smart home agent for plan recognition of cognitively-impaired patients[J]. Journal of Computers, 2006, 1(5) : 53-62.

[6]CHEN L, NUGENT C D, MULVENNA M, et al. A logical framework for behavior reasoning and assistance in a smart home[J]. International Journal of Assistive Robotics and Mechatronics, 2008, 9(4) : 20-34.

[7]THOMSON G, TERZIS S, NIXON P. Situation determination with reusable situation specifications[C]//Proceedings of IEEE International Conference on Pervasive Computing and Communications Workshops. Pisa, Italy, 2006: 620-623.

[8]ISHIMARU S, UEMA Y, KUNZE K, et al. Smarter eyewear: using commercial EOG glasses for activity recognition[C]//Proceedings of ACM International Joint Conference on Pervasive and Ubiquitous Computing: Adjunct Publication. [S.l.], 2014: 239-242.

[9]HUNH T, SCHIELE B. Unsupervised discovery of structure in activity data using multiple eigenspaces[C]//Proceedings of Second International Workshop on Location-and Context-Awareness. Dublin, Ireland, 2006: 151-167.

[10]LIAO L, FOX D, KAUTZ H. Extracting places and activities from GPS traces using hierarchical conditional random fields[J]. The International Journal of Robotics Research, 2007, 26(1) : 119-134.

[11]WARD J A, LUKOWICZ P, TROSTER G, et al. Activity recognition of assembly tasks using body-worn microphones and accelerometers[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2006, 28(10) : 1553-1567.

[12]LIU C D, CHUNG Y N, CHUNG P C. An interaction-embedded HMM framework for human behavior understanding: with nursing environments as examples[J]. IEEE Transactions on Information Technology in Biomedicine, 2010, 14(5) : 1236-1246.

[13]SINGLA G, COOK D J, SCHMITTER-EDGECOMBE M. Recognizing independent and joint activities among multiple residents in smart environments[J]. Journal of Ambient Intelligence and Humanized Computing, 2010, 1(1) : 57-63.

[14]WANG S, PENTNEY W, POPESCU A M, et al. Common sense based joint training of human activity recognizers[C]//Proceedings of IJCAI. Hyderabad, India, 2007: 2237-2242.

[15]SMINCHISESCU C, KANAUJIA A, METAXAS D. Conditional models for contextual human motion recognition[J]. Computer Vision and Image Understanding, 2006, 104(2): 210-220.

[16]LEE S W, MASE K. Activity and location recognition using wearable sensors[J]. IEEE Pervasive Computing, 2002, 1(3) : 24-32.

[17]WANG G, JIANG J, SHI M. A context model for collaborative environment[C]//Proceedings of IEEE International Conference on Computer Supported Cooperative Work in Design. Nanjing, China, 2006: 1-6.

[18]LI M. Ontology-based Context information modeling for smart space[C]//Proceedings of IEEE International Conference on Cognitive Informatics and Cognitive Computing. Banff, Canada, 2011: 278-283.

[19]MOESLUND T B, HILTON A, KRüGER V. A survey of advances in vision-based human motion capture and analysis[J]. Computer Vision and Image Understanding, 2006, 104(2) : 90-126.

[20]AGGARWAL J K, PARK S. Human motion: modeling and recognition of actions and interactions[C]//Proceedings of IEEE International Symposium on 3D Data Processing, Visualization and Transmission. Thessaloniki, Greece, 2004. 640-647.

[21]GONZàLEZ J, VARONA J, ROCA F X, et al. aSpaces: Action spaces for recognition and synthesis of human actions[C]//Proceedings of Articulated Motion and Deformable Objects. Palma de Mallorca, Spain, 2002: 189-200.

[22]SUN L, DI H, TAO L, et al. A robust approach for person localization in multi-camera environment[C]//Proceedings of IEEE International Conference on Pattern Recognition. Istanbul, Turkey, 2010: 4036-4039.

[23]LUO Y, WU T D, HWANG J N. Object-based analysis and interpretation of human motion in sports video sequences by dynamic Bayesian networks[J]. Computer Vision and Image Understanding, 2003, 92(2) : 196-216.

聶慧饒,男,1990年生,碩士研究生,主要研究方向為模式識別、行為理解。

陶霖密,男,1962年生,副教授,主要研究方向為人機交互、計算機視覺與模式識別等。承擔的項目有國家重點基金情感計算,以及與IBM、INTEL、SIEMENS的國際合作基金等重要項目。發表論文多篇。

2015世界機器人大會

World Robot Conference 2015(WRC 2015)

為貫徹落實習總書記在2014年兩院院士大會上的講話精神,積極推動創新驅動發展戰略,實現我國機器人技術與產業的跨越發展,中國科學技術協會、工業和信息化部將于2015年11月在北京國家會議中心共同舉辦主題為“協同融合發展,引領智能社會”的2015世界機器人大會。

2015世界機器人大會將由3項內容組成,分別是:2015世界機器人論壇(World Forum on Robot 2015,WFR2015)、2015世界機器人博覽會(World Robot Exhibition 2015,WRE 2015)和2015國際青少年機器人邀請賽(World Adolescent Robot Contest 2015,WARC 2015)。

本次大會將為政府、科研機構、行業協會和和企業提供一個高端的交流平臺,共同探討、展示全球機器人的發展現狀與趨勢,研究機器人技術創新與產業化現狀以及給我國制造業發展帶來的機遇和挑戰等,對促進我國機器人產業發展,推動制造業轉型升級具有重要意義。

Website: http://www.cie-info.org.cn/index/tztg/201535/1425539003413_1.html

主站蜘蛛池模板: 亚洲国内精品自在自线官| 成年人午夜免费视频| 91在线精品免费免费播放| 久操线在视频在线观看| 国产自无码视频在线观看| 日韩国产亚洲一区二区在线观看| 国产97色在线| 亚洲精品第1页| 免费在线播放毛片| 亚洲AV无码一区二区三区牲色| 国产91九色在线播放| 欧美日韩专区| 日韩精品毛片人妻AV不卡| 日韩成人午夜| 99精品在线看| 一区二区自拍| 国产无码制服丝袜| 波多野结衣一区二区三区88| 国产又大又粗又猛又爽的视频| 日韩毛片视频| 久久福利片| 国产尹人香蕉综合在线电影| 91在线中文| 青青草a国产免费观看| 精品一区二区久久久久网站| 色婷婷色丁香| 欧美国产视频| 国产屁屁影院| 露脸一二三区国语对白| 91麻豆精品国产91久久久久| 欧美日在线观看| 91在线播放国产| 亚洲视频免费在线| 免费观看国产小粉嫩喷水 | 天天视频在线91频| 99国产精品免费观看视频| 国产亚洲精品91| 日本黄色a视频| 伊人色在线视频| 婷婷综合在线观看丁香| 久青草免费在线视频| 国产一区二区丝袜高跟鞋| 永久免费av网站可以直接看的| 日本亚洲国产一区二区三区| 亚洲品质国产精品无码| 亚洲男人天堂久久| 黄色成年视频| 午夜福利免费视频| 在线国产欧美| 国产一级做美女做受视频| 国产综合在线观看视频| 亚洲人成人无码www| 欧美日韩国产成人高清视频| 国产在线视频欧美亚综合| 亚洲国产精品成人久久综合影院| 免费播放毛片| 亚洲国产中文综合专区在| 精品人妻系列无码专区久久| 久久先锋资源| 久久久91人妻无码精品蜜桃HD| 2020国产免费久久精品99| 国产又色又刺激高潮免费看| 午夜一区二区三区| 国产成人精品男人的天堂下载 | 欧美日韩在线观看一区二区三区| 国产剧情无码视频在线观看| 国产欧美日韩在线在线不卡视频| 中文字幕无码电影| 一级爆乳无码av| 欧美精品亚洲日韩a| 99在线视频免费| h视频在线观看网站| 国产人免费人成免费视频| 青青青国产在线播放| 欧美色综合久久| 婷婷六月综合网| 永久免费av网站可以直接看的| 色综合天天娱乐综合网| 伊人久久大线影院首页| 91在线国内在线播放老师| 99热在线只有精品| 国产制服丝袜91在线|