999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

多媒體信息檢索研究與展望

2008-01-01 00:00:00孫吉紅劉偉成焦玉英
計算機應用研究 2008年3期

摘要:對近幾年在多媒體信息檢索領域的研究成果進行分析,總結了多媒體信息檢索的研究現狀,指出了該研究領域的發展方向,最后提出了多媒體信息檢索技術研究面臨的挑戰。

關鍵詞:多媒體;信息檢索;檢索技術;系統評價

中圖分類號:TP37; TP391.3文獻標志碼:A

文章編號:1001-3695(2008)03-0646-04

多媒體信息檢索(multimedia information retrieval, MIR)最早是基于計算機視覺算法的。該算法重點是對圖像、視頻、音頻進行基于特征的相似度搜索。比較流行的MIR系統是出現于20世紀90年代中期的QBIC和Virage;幾年以后,相似度搜索的基本概念便被應用到幾種Internet圖像搜索引擎中,包括Webseek和Webseer系統。其更大的影響是將基于特征的相似度搜索直接聚合到企業層數據庫(如Informix DataBlades、IBM DB2 Extenders、Oracle Cartridges)。

在當今數字化與網絡化時代,多媒體日益成為互聯網信息高速公路上傳送數據的主要部分。多學科的相互融合和交叉以及科學、藝術和文化的彼此滲透更促使了MIR的發展。因此,MIR的研究成為信息檢索研究領域中的熱點。

當前有幾個學術會議專門討論MIR領域的課題。其中包括MIR方面的ACM SIGMM學術討論會(ACM SIGMM Workshop)(http://www.liacs.nl/~mir)和圖像視頻檢索方面的國際會議(International Conference on Image and Video Retrieval)(http://www.civr.org)。關于可搜索MIR圖書館研究的組織有多媒體搜索檢索聯合會(Association for Multimedia Search and Retrieval)(http://www.amsr.org)。除此之外,一般的多媒體會議也涉足到了與MIR有關的問題。

1多媒體信息檢索研究現狀

當前的MIR系統存在極大的局限性,如無法了解更多用戶的詞匯用語和用戶的滿意度,還沒有典型可靠的真實測試集對系統進行評價或對系統進行基準調試(這顯然與用戶的滿意度相關)。總之,由于不能消除計算機和人類之間的語義鴻溝,當前的系統還不能對社會產生巨大的影響。

現在流行的研究課題的目標是通過消除語義鴻溝來提高多媒體檢索的效率,包括新特征、新媒體、評價/基準、瀏覽和摘要等。

1.1新特征和相似度量

目前的研究不僅在改善搜索算法方面展開,而且開始向產生基于顏色、紋理和形狀的新特征和相似度量方面進行。例如NF、RGB和m顏色空間等新顏色特征在照明不變性、直觀性和感知均勻性等領域都得以深入研究和充分應用。對于視頻和音頻,則向視頻和音頻內容分析方面開展研究。

近十年內,人們對圖像匹配及其結構進行了大量的研究。在紋理理解方面,Ojala等人[1]發現將簡單的紋理柱狀圖組合到一起,其性能優于如馬爾可夫特征的傳統紋理模型;JafariKhouzani等人[2]提出一種基于Radon變換方向的新的紋理特征(Radon變換方向具有旋轉不變式的重要優點);Veltkamp等人[3]從計算幾何角度對藝術級的形狀匹配進行了描述;Sebastian等人[4]提出了采用振動曲線圖進行形狀識別的方法。Foote[5]介紹了一種針對基于局部自相似度的音頻特征,這種特征的重要優點是能被計算出任何音頻信號,并且它在各種各樣的音頻分割和檢索應用中都有良好作用。Bakker和Lew[6]提出了幾種新的音頻特征,稱為頻譜微分和微分交換率。他們在講話、音樂、樂器、汽車、爆炸或安靜等聲音樣本自動標記的環境中對這些新音頻特征進行了評價,并達到了預期的效果。

對各種新特征來說,同等重要的是決定它們之間相似度的方法。Sebe等人[7]對假定一個訓練集如何得到一個最佳相似度量作了論述。他們發現距離平方和是最差的相似度量,而柯西度量優于一般使用的距離度量。Beretti等人[8]提出一種相似度量的算法,該算法依賴圖表的匹配;Cooper等人[9]建議采用時間和圖片內容度量圖像相似度。針對音頻分析,Foote[5]曾利用可視化方法對音頻的時間結構進行分析,以尋找音樂中的自相似特點;李超等人[10]在此基礎上進一步提出了一種基于特征提取和圖像分割的聲音相似性度量方法。該方法是通過特征提取構造特征空間,進而繪制特征向量間的距離相關圖;通過對該圖的可視化分析判斷最大相似方向,并分別計算出局部相似性和全局相似性。關于視頻內容,圖像檢索中的顏色、紋理和形狀等低級特征的提取直接可以用于視頻關鍵幀的提取。

1.2新媒體

在MIR初期,大部分的研究側重于基于內容的圖像檢索。最近,人們開始將注意力轉移到除文本、音頻、圖像和視頻之外的一些新媒體,如3D模型。Funkhouser等人[11]研發出一個基于形狀匹配的三維模型的搜索引擎,該搜索引擎是用球形和聲學計算識別的相似度量。Assfalg等人[12]討論用旋轉圖像(spinimage)在二維空間中對投影的復雜頂點的密度進行編碼,最終生成一個二維柱狀圖。另一個引人注意的領域是生物數據庫,該數據庫由可見光譜內的微粒子圖像組成。其應用范圍從理解生命機理到細菌和病毒菌素的快速辨別。其中,怎樣將不同成像法得到的數據結合到一起是最令人感興趣的。這些方法包括電子顯微鏡、MRI、X射線等,每一種成像法都采用一種完全不同的技術,但它們的基本內容是一樣的。Haas等人[13]采用了一種學習方法與其他知識資源相結合的遺傳算法對病毒數據庫和視頻集進行搜索。為了有效地對生物數據庫進行不精確查詢,Chen等人采用了模糊等價類對生物圖像集進行查詢[14]。

1.3瀏覽和摘要

隨著多媒體信息數量和種類的不斷擴大,為了使人們能快速準確地檢索到自己所需的信息,國內外研究者開始將研究方向轉向多媒體信息的瀏覽和摘要。現在已經存在大量的創新性方法對多媒體信息進行瀏覽和摘要。

Spierenburg等人[15]提出一種將圖像數據庫轉換成電影的方法。Uchihashi等人[16]提出一種方法;將電影轉換成日本動漫形式(Manga)的卡通帶;Liu等人[17]解決了對來自WWW圖像搜索引擎的圖像進行有效概括總結的問題;Snoek等人[18]提出了幾種對視頻進行概括總結的方法,如按類別進行分組和瀏覽。程文剛等人[19]在視頻結構化的基礎上,從減少信息冗余和保持本質內容兩個角度出發分別定義了鏡頭(場景)的冗余度和語義重要度,據此推導出視頻內容縮減和保持的原則;然后綜合可理解性的要求,給出了一種自上而下的視頻摘要生成方法——一種概要序列形式的視頻摘要生成方法。文獻[20]根據不同的視頻分解粒度,提出了不同層次的對象重要度判定模型,從而生成有意義的視頻摘要,并設計實現了有效的視頻摘要生成系統,融合多種技術和方法,形成完整的檢索視頻索引生成系統。

由于家庭用戶擁有的視頻資料不斷增加且家庭視頻多數還是以原始的、未經編輯存放的,這使得家庭用戶對視頻的瀏覽和欣賞極為不便。家庭用戶迫切需要一種考慮到家庭視頻特點、針對家庭用戶的視頻摘要系統來滿足他們的需要。為此,出現了許多用于家庭視頻摘要的方法[21]。

1.4語義和反饋

在MIR領域,以往的檢索系統的檢索過程是以計算機為中心,使得查詢結果不能很好地滿足用戶的需求。如何讓計算機了解用戶的興趣,從用戶搜索結果的滿意度來學習用戶的興趣,提高用戶的檢索準確率,成為目前MIR領域的又一個研究熱點。

1.4.1語義

在MIR領域中,語義是一個非常重要的概念,但目前語義的定義還不完善。人們對語義的理解是人能夠從圖像、視頻或音頻等多媒體中所得到的信息,包括多媒體中存在的重要物體和它們之間的時間和空間關系以及所隱含的內容。最近MIR正在從基于例子和關鍵詞的檢索到使用語義進行查詢,用戶能夠通過具有語義信息的關鍵詞進行查詢,也必須根據多媒體特征表示這些語義結構特性。文獻[22]詳細分析了視頻語義層的語義模型,從各方面分析了物體、事件和行為的語義模型。Naphade[23]提出了視頻檢索語義概念訓練的三步驟,即標注集的界面、基于標號樣本的語義概念表示框架和基于關鍵詞的查詢系統。張全等人[24]針對色彩與情感映射模型復雜且難以實現的問題,提出一種利用多維語義空間表征色彩的方法,并提出消除由語義維度和粒度沖突而引起的語義空洞的算法。徐駿等人[25]從分析新聞視頻場景所特有的結構特征入手,提出了一種基于語義信息提取的新聞視頻場景分割新方法。

1.4.2相關反饋

相關反饋可以看成是自發語義的特例,又可稱為精練查詢、交互式搜索等。通過對相關反饋技術的研究發現,反饋技術不僅可用于提高檢索的效率,而且可通過對反饋信息的學習積累獲取數據對象的語義信息并用于指導檢索。相關反饋的基本思想是:先為用戶列出很多待處理多媒體信息;然后請用戶確定每個對象是否相關;最后根據反饋結果修改參數空間、語義空間、特征空間或分類空間來對相關和不相關的對象作出反應。在過去十年左右的時間里,相關反饋技術的研究逐漸成為一個比較活躍的研究方向,各種相關反饋算法不斷涌現,研究者對各種算法進行了總結和比較研究。文獻[26]將基于內容圖像檢索的相關反饋算法分為基于距離度量、基于概率框架和基于機器學習的三種方法,并據此對近年來有代表性的一些算法進行了分析和探討。一般認為將多個相關反饋策略相結合會得到更優的結果,而對于任何一個單一策略都不能得到很好的結果。

近三年又涌現了許多新的相關反饋算法。Dy等人[27]介紹了一種新的無監督學習方法,將該方法用于一組肺部圖像的檢索,結果顯示精度提高了一倍;Haas等人[13]描述了一個普通范例,將相關反饋機制與外部知識源相結合并應用到真實測試集,結果證明外部知識可充分改善檢索結果的相關性;楊建武等人[28]提出了語義拓撲網的概念以及基于語義拓撲網的反饋學習方法。實驗表明,基于語義拓撲網的反饋系統具有良好的學習能力與記憶能力,能有效地提高檢索系統的性能。胡瑩等人[29]提出了一種改進的支持向量機的相關反饋圖像檢索方法,該方法在樣本集非常小的情況下仍可以檢索出較多的相關圖像,在有限訓練樣本情況下具有良好的推廣能力。

1.5系統評價

近十年內最成功的評價工程是TRECVID(TREC video)評價。在TRECVID中,私人企業與某個學術研究緊密聯系在一起,首先搜集信息形成一個真實的具有特定任務的測試集;然后對其進行討論研究并確定下來;最后大量的研究團隊努力為這個測試集研發出最好的視頻檢索系統。測試集包括一些視頻,這些視頻有講話抄本、非英語語言的機器翻譯、隱藏字幕、元數據、鏡頭邊界、一般慣用關鍵幀和一組自動抽取的特征加上一組多媒體主題(文本、圖像、視頻)。TRECVID評價每年舉行一次,在真實測試集的構造和測試相關性等方面也在不斷完善中。

關于評價基準的最新研究是改進或完善性能圖表,Huijsmans等人[30]解釋了典型精度—召回率圖表的局限性,開發了一種附加性能指示器來補償這些局限性。

好的評價標準會引導相關技術向正確的方向發展。鑒于對基于內容的圖像檢索系統進行評價的重要性,研究者已開發了一些用于評價檢索系統性能的系統,如Benchathlon網站就是一個典型的基于內容的檢索系統的評價系統。韋娜等人[31]從測試數據集的建立、量化的評價方法、相關性評價的獲取三個方面對基于內容的圖像檢索系統的性能評價問題進行了綜述。Semeaton和Over[32]研究了對視頻檢索系統進行全面評價的方法和標準;Silva等人[33]討論了為家用攝像機的錄像作出的視頻摘要的評價。

2多媒體檢索研究發展方向

2.1以人為本的方法和基于神經系統科學的學習模式

通常,用戶是多媒體計算鏈(包括多媒體的產生、表達、檢索和傳送)中的重要部分,并且在不同的環節中,用戶的角色也是不同的。因此,應該把研究的焦點盡可能地放在那些對多媒體進行探究的用戶身上。由于對用戶需求的研究使研究者充分理解了用戶的想法和要求,這方面的研究會引起研究者的極大關注。用于多媒體的人本方法要考慮用戶怎樣理解和解釋多媒體信息(特征、認知和情感層),還要考慮用戶之間怎樣自然地相互作用(指文化、社會背景及情感、情緒、態度和注意力等個人因素)。毫無疑問,這就意味著要考慮神經系統科學、心理學、認知科學和其他一些領域中的研究工作。

將人工智能的研究與基于神經的學習范例和模式學習的研究融合到一起還存在很大的潛力。將不同層次上抽取的多媒體相結合的學習方法也很有發展前景。值得注意的是,當前的搜索引擎(如Yahoo!、Google等)只是用文本對圖像和視頻進行索引。因此,論證文本與圖像和視頻特征相互作用的方法也具有很重要的研究意義。

2.2多媒體協作

隨著世界通過有線或無線越來越緊密地連接在一起,找到更多的有效方法來實現人與人之間通過計算機進行交互變得越來越重要。在多模式的協作環境中存在很多問題[34]:人們怎樣找到其他人;個人怎樣發現會議或協作;在這些環境下,對于不同的目的、個人或團體,哪些是最有效的多媒體接口?多模式處理還有許多潛在的任務,從轉錄并摘要會議和將聲音、姓名、人臉聯系起來,到通過跟蹤個體(或團體)注意力和意圖,這些任務廣泛存在著。對協作環境謹慎巧妙的使用和評價將是更多地學習關于人們如何進行合作的關鍵。

協作環境對于查詢模塊很重要。因此,可以采用基于時間的查詢方法,這種查詢方法能通過環境模式的領域知識為用戶提供一種更可行的途徑來訪問相關媒體內容。當處理現場直播多媒體時,這種方法也非常重要。現場直播時,通過現實存在的各種不同傳感器獲取多媒體信息并形成信息流傳給中央處理器。

2.3分眾分類法(Folksonomy)[35]

迄今為止,自動提取基于內容的多媒體數據相對困難,即使對于文本,人們也無法完全自動提取。目前的搜索引擎要么只是簡單使用基于關鍵詞的方法,要么僅僅對用于特定領域的方法進行改進。對于一個無結構的大型信息集來說,將基于分類的方法用于搜索導航可能太呆板。由于發展逆向文件結構來搜索大型數據集中的關鍵詞相對來說過于簡單,研究者提出了有趣的標簽思想,即所謂的分眾分類法[36]。該思想就是通過某種方式分配標簽,人們可將相對無結構的文件組織起來并進行搜索。由此很容易提出這樣的論斷:標簽是人分配的,是一個團體分配的,那么這些標簽就是明智的標簽,這種方法比傳統的分類法更好。這樣,這種標簽思想就容易讓人們接受。

主要問題是,這種方法真的有用嗎?舉例來說,如果每個人都給同一幅相片分配幾個適當的標簽,那么這個團體的智慧可能就起作用了。但如果主頁更新軟件很少分配標簽,在某種情況下,閱讀器分配的標簽更少,那么就不存在分配標簽的團體了,也就沒有集體的智慧了。基于Ad hoc分析,在flickr.com中上傳圖像的用戶好像很少為相片分配標簽,由閱讀器分配的標簽就更少了;而且如果沒有導航系統,人們不知道怎樣分配標記[36]。由此看來,將傳統分類法與分眾分類法相結合才可能成功。

3多媒體信息檢索技術研究面臨的挑戰

1)高層概念和低層特征的關聯目前,低層可視特征和高層語義概念之間存在巨大鴻溝。受限于多媒體理解技術的

2)發展水平和對認知的理解水平,基于高層語義的描述目前還無法由計算機自動建立。具有自動語義描述能力和語義檢索能力并結合低層特征的內容檢索系統是未來的發展趨勢之一。

2)交互搜索和相關反饋技術多媒體檢索中的人機交互仍然是未來幾年研究的重點。在交互過程中如何快速地通過少量的反饋樣本集進行學習以改進檢索精度;如何從反饋中積累知識;如何實現功能強大并且友好的智能化查詢界面,充分地表達用戶的要求,與用戶進行更好的交互等都是需要進一步研究和探索的。要解決這些問題還需要結合其他學科,如人工智能和機器學習等方法的進一步發展。

3)高維檢索技術在基于內容的檢索中,特征矢量的維數可能高達數十甚至上百維,要實現快速檢索,需要研究新的索引結構和檢索算法。

除此之外,復雜背景中媒體概念檢測的語義搜索、用于在不同媒體(包括文本和上下文信息)間進行協同的多模式分析和檢索算法、關于典型測試集和使用模式的評價、維度災難等也是當前國內外該領域研究人員研究的重要方向。

4結束語

綜上所述,隨著網絡和信息的不斷發展,國際上大量研究機構和眾多專家對多媒體信息檢索進行了深入和全面的研究,除了對傳統的文本、圖像、音頻和視頻的多媒體信息檢索的研究外,還將神經系統科學、心理學(如用戶的情感、情緒、態度和注意力等)、認知科學等學科納入了MIR的體系,并促進了科學、藝術和文化的彼此滲透。可以斷言,在不久的將來,多媒體信息檢索發展會越來越快;人們對多媒體信息進行檢索的方法和工具將會更加完善和多樣化;檢索速度和檢索的準確率將達到一個新的臺階。

參考文獻:

[1]OJALA T, PIETIKAINEN M, HARWOOD D.Comparative study of texture measures with classification based on feature distributions[J].Pattern Recognition,1996,29(1):51-59.

[2]JAFARIKHOUZANI K, SOLTANIANZADEH H. Radon transform orientation estimation for rotation invariant texture analysis[J].IEEE Trans on Pattern Analysis and Machine Intelligence,2005,27(6):10041008.

[3]VELTKAMP R C, HAGEDOORN M. State of the art in shape matching: visual information retrieval[C]//Proc ofthe 3rd International Conference on Visual Infornation Systems. London:SpringerVerlag,2001:87119.

[4]SEBASTIAN T B, KLEIN P N, KIMIA B B. Recognition of shapes by editing their shock graphs[J]. IEEE Trans on Pattern Analysis and Machine Intelligence,2004,26(5):550-571.

[5]FOOTE J. Automatic audio segmentation using a measure of audio novelty[C]//Proc of IEEE International Conference on Multimedia and Expo(ICME).Los Alamitos:IEEE Computer Society Press,2000:452-455.

[6]BAKKER E M,LEW M S. Semantic video retrieval using audio analysis[C]//Proc ofthe 1st Internationa Conference on Image and Video Retrieval.London:SpringerVerlag, 2002:262-270.

[7]SEBE N, LEW M S, HUIJSMANS D P.Toward improved ranking metrics[J].IEEE Trans on Pattern Analysis and Machine Intelligence,2000,22(10):11321143.

[8]BERETTI S, DELBIMBO A, VICARIO E. Efficient matching and indexing of graph models in contentbased retrieval[J].IEEE Trans on Pattern Analysis and Machine Intelligence,200

1,23(10):10891105.

[9]COOPER M, FOOTE J, GIRGENSOHN A,et al.Temporal event clustering for digital photo collections[J].ACM Trans on Multimedia Computing, Comm and Applications,2005,1(3):269-288.

[10]李超,熊璋,朱成軍.基于距離相關圖的音頻相似性度量方法[J].北京航空航天大學學報,2006,32(2):224-227.

[11]FUNKHOUSER T, MIN P, KAZHDAN M,et al.A search engine for 3D models[J].ACM Trans on Graphics,2003,22(1):83105.

[12]ASSFALG J, DEL BIMBO A, PALA P. Retrieval of 3D objects by visual similarity[C]//Proc of the 6th ACM SIGMM International Workshop on Multimedia Information Retrieval.New York:ACM Press,2004:77-83.

[13]HAAS M, RIJSDAM J, LEW M. Relevance feedback: perceptual learning and retrieval in biocomputing, photos, and video[C]//Proc of the 6th ACM SIGMM International Workshop on Multimedia Information Retrieval.New York:ACM Press, 2004:151156.

[14]CHEN Yangjun, CHE Duren, ABERER K.On the efficient evaluation of relaxed queries in biological databases[C]//Proc of the 11th International Conference on Information and Knowledge Management.McLean, Virginia:ACM Press,2002:227-236.

[15]SPIERENBURG J A, HUIJSMANS D P. VOICI:video overview for image cluster indexing a swift browsing tool for a large digital image database using similarities[EB/OL]. (1997).[2007].http://www.bmva.ac.uk/bmvc/1997/papers/029/newarticle.html.

[16]UCHIHASHI S, FOOTE J, GIRGENSOHN A,et al.Video manga:generating semantically meaningful video summaries[C]//Proc of the 7th ACM International Conference on Multimedia.Orlando, Florida:ACM Press,1999:383-392.

[17]LIU Hao, XIE Xing, TANG Xiaoou,et al.Effective browsing of Web image search results[C]//Proc ofthe 6th ACM SIGMM International Workshop on Multimedia Information Retrieval.New York:ACM Press, 2004:84-90.

[18]SNOEK C G M, WORRING M,van GEMERT J,et al.MediaMill:exploring news video archives based on learned semantics[C]//Proc ofthe 13th ACM International Conference on Multimedia.Singapore:ACM Press,2005:225-226.

[19]程文剛,須德,蔣軼瑋,等.一種新的動態視頻摘要生成方法[J].電子學報,2005,33(8):14611466.

[20]朱志輝.基于視頻摘要生成技術的研究[J].微電子學與計算機,2006,23(2):7682.

[21]智敏,蔡安妮.一種家庭視頻摘要生成的新方法[J].計算機工程,2006,32(6):226227.

[22]AGIUS H W, ANGELIDES M C.Modeling content for semanticlevel querying of multimedia[J].Multimedia Tools and Applications,2001,15(1):3-37.

[23]NAPHADE M R, LIN C Y,SMITH J R. Learning semantic multimedia representations from a small set of examples[C]//Proc of IEEE International Conference on Multimedia and Expo.New York: IEEE Computer Society Press, 2002:15131516.

[24]張全,陸長德,余隋懷,等.基于多維情感語義空間的色彩表征方法[J].計算機輔助設計與圖形學學報,2006,18(2):289-294.

[25]徐駿,李玲青,周洞汝.基于語義信息提取的新聞視頻場景分割方法[J].計算機工程與應用,2003,39(4):204-206,221.

[26]吳洪,盧漢清,馬頌德.基于內容圖像檢索中相關反饋技術的回顧[J].計算機學報,2005,28(12):19691979.

[27]DY J G, BRODLEY C E, KAK A,et al.Unsupervised feature selection applied to contentbased retrieval of lung images[J].IEEE Trans on Pattern Analysis and Machine Intelligence,2003,25(3):373-378.

[28]楊建武,萬小軍.基于語義拓撲網的反饋學習技術[J].計算機工程,2005,31(1):68.

[29]胡瑩,王昱,丁明躍,等.一種改進的SVM相關反饋圖像檢索方法[J].計算機應用研究,2005,22(1):251-254.

[30]HUIJSMANS D P, SEBE N. How to complete performance graphs in contentbased image retrieval:add generality and normalize scope[J].IEEE Trans on Pattern Analysis and Machine Intelligence,2005,27(2):245-251.

[31]韋娜,耿國華,周明全.基于內容的圖像檢索系統性能評價[J].中國圖象圖形學報,2004,9(11):12711276.

[32]SMEATON A F, OVER P. Benchmarking the effectiveness of information retrieval tasks on digital video[C]//Proc of the 2nd International Conference on Image and Video Retrieval.London:SpringerVerlag, 2003:10-27.

[33]SILVA G C,De YAMASAKI T,AIZAWA K.Evaluation of video summarization for a large number of cameras in ubiquitous home[C]//Proc ofthe 13th ACM International Conference on Multimedia.New York:ACM Press,2005:820-828.

[34]EROL B, LI Ying. An overview of technologies for emeeting and electure:[C]//Proc of IEEE International Conference on Multimedia and Expo.Amsterdam, Netherlands:IEEE Computer Society Press, 2005:10001005.

[35]SMITH G. Folksonomy: social classification [EB/OL].(2004).[2007].http://atomiq.org/archives/2004/08/folksonomy_social_classification.html.

[36]MICHEL B, GAEL C, FABIEN G,et al.SweetWiki:semantic Web enabled technologies in Wiki [EB/OL].(2006).[2007].ftp://ftpsop.inria.fr/acacia/fgandon/research/semwiki2006/BuffaGandon_SemWiki2006.pdf.

“本文中所涉及到的圖表、注解、公式等內容請以PDF格式閱讀原文”

主站蜘蛛池模板: 999国内精品视频免费| 免费国产小视频在线观看| 中文字幕有乳无码| 亚洲精品成人福利在线电影| 一边摸一边做爽的视频17国产| 久久99国产综合精品女同| 国产一区二区三区精品欧美日韩| 自拍偷拍欧美日韩| 人人爱天天做夜夜爽| 99视频在线观看免费| 中文字幕免费播放| 欧美一级在线看| 日韩无码视频播放| 91啦中文字幕| 成人精品视频一区二区在线| 欧美亚洲综合免费精品高清在线观看| 国产精品无码AV中文| 日本精品中文字幕在线不卡| 亚洲中文字幕国产av| 中文字幕亚洲精品2页| 国产网友愉拍精品| 国产在线观看91精品| 亚洲精品亚洲人成在线| 自偷自拍三级全三级视频| 四虎成人精品| 在线观看91精品国产剧情免费| 成人在线天堂| 又黄又湿又爽的视频| 成人噜噜噜视频在线观看| 四虎国产永久在线观看| 亚洲人成高清| 91亚洲精选| 国产精品亚洲综合久久小说| 久久精品无码一区二区国产区| 国产麻豆va精品视频| 永久在线精品免费视频观看| 国产精品主播| 国产精欧美一区二区三区| 日韩免费毛片视频| 青草娱乐极品免费视频| 久久久久无码精品| 97超爽成人免费视频在线播放| 国产精品永久免费嫩草研究院| 亚洲成人动漫在线| 欧美国产三级| 亚洲黄色视频在线观看一区| а∨天堂一区中文字幕| 国产永久在线观看| 中文字幕天无码久久精品视频免费 | 日韩色图在线观看| 国产精品浪潮Av| 色哟哟国产精品| 又大又硬又爽免费视频| 国产精品七七在线播放| 一级毛片免费观看久| 婷婷色丁香综合激情| 免费 国产 无码久久久| 五月婷婷综合色| 久草中文网| 青青网在线国产| 国产va免费精品观看| 蜜桃视频一区二区三区| 亚洲第一成网站| 成人一区在线| 成人无码区免费视频网站蜜臀| 国产一区二区三区在线精品专区| 国产不卡一级毛片视频| 五月六月伊人狠狠丁香网| 88av在线播放| 久热re国产手机在线观看| 久久久成年黄色视频| 亚洲av中文无码乱人伦在线r| 国产95在线 | 亚洲动漫h| 免费看的一级毛片| 中国毛片网| 亚洲精品制服丝袜二区| 国内丰满少妇猛烈精品播| 亚洲国产精品久久久久秋霞影院| 午夜福利在线观看成人| 中文精品久久久久国产网址| www.91在线播放|