999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于改進(jìn)語義分層的無人飛行器場景理解?

2017-11-28 01:58:20
艦船電子工程 2017年10期
關(guān)鍵詞:語義詞匯模型

任 民

(江蘇南京半山園 南京 210016)

基于改進(jìn)語義分層的無人飛行器場景理解?

任 民

(江蘇南京半山園 南京 210016)

隨著無人飛行器的大范圍普及,針對其場景理解的技術(shù)和應(yīng)用也變得越來越重要。論文采用BOO原理建立語義標(biāo)注模型,利用地圖軟件中顯示的瓦片金字塔技術(shù),結(jié)合事件識別領(lǐng)域提供的訓(xùn)練數(shù)據(jù)集和測試數(shù)據(jù)集,提出了一種新的語義分層方法。實驗仿真證明該方法能夠使無人機在不同高度拍攝的場景中識別出相應(yīng)的景物。

場景理解;視覺字典;語義標(biāo)注;語義分層;瓦片金字塔

1 引言

圖像理解、事件理解、場景理解是圖像分析的三部曲,圖像標(biāo)注是基礎(chǔ),事件理解是目的,場景理解是關(guān)鍵。理解的主要媒介就是視頻,相當(dāng)于人的眼睛或鏡頭捕捉到的畫面,而事件識別是人類大腦的圖像分析或機器模擬人類的圖像分析技術(shù)[1]。

視覺場景理解的定義為在環(huán)境數(shù)據(jù)感知的基礎(chǔ)上,結(jié)合視覺分析與圖像處理識別等技術(shù)手段,從計算統(tǒng)計、行為認(rèn)知以及語義等不同角度挖掘視覺數(shù)據(jù)中的特征與模式,從而實現(xiàn)場景有效分析、認(rèn)知與表達(dá)。

自然場景具有非結(jié)構(gòu)化特性和隨機性。由于光照、地形及運動等多種因素會使得自然景物在視覺系統(tǒng)中的成像有顯著差異,加上結(jié)構(gòu)化建筑物和室外道路這些特定人造場景,增加了對非規(guī)則自然景物識別與理解的難度。

現(xiàn)今的研究大多集中于自適應(yīng)地對場景進(jìn)行快速理解,并利用多傳感器信息融合技術(shù)提高自然場景理解的魯棒性。近年來,結(jié)合數(shù)據(jù)挖掘、機器學(xué)習(xí)、生物認(rèn)知和統(tǒng)計建模等技術(shù),包括以圖像處理為主的多層次場景圖像表達(dá),基于不同學(xué)習(xí)策略的場景信息有效學(xué)習(xí),確保視覺系統(tǒng)魯棒性的系統(tǒng)知識結(jié)構(gòu)與視覺控制策略,以及與生物認(rèn)知學(xué)相結(jié)合,為場景辨識和識別提供了許多解決方案[2~3]。其中最具代表性的是由美國國防高級研究計劃局主辦的野外無人車挑戰(zhàn)賽,參賽無人車在室外復(fù)雜場景下的深層環(huán)境感知和穩(wěn)定運行推動了自然場景理解在實際平臺上的技術(shù)轉(zhuǎn)化。

本文結(jié)合無人機飛行時期場景識別的應(yīng)用背景,利用地圖軟件中顯示的瓦片金字塔技術(shù)與現(xiàn)有的圖像識別技術(shù)相結(jié)合,提出一種語義分層的場景識別方法,不同的層級,其標(biāo)注的事件也會不同。通過仿真實驗,可以看出這個方法可以提高無人機在不同情況下場景識別的實時性和準(zhǔn)確性,具有應(yīng)用前景。

2 Texton特征提取

Texton特征提取的流程如下:

圖1 Texton特征提取流程

首先將RGB像素圖轉(zhuǎn)變成Lab矢量圖。為了使圖像更符合人腦接收視覺信息的標(biāo)準(zhǔn),使用Gauss濾波器、高斯拉普拉斯濾波器和高斯一階微分濾波器對Lab顏色空間進(jìn)行濾波,使用不同的濾波器,可以檢測出圖像不同方面的信息。而這些圖像中的基本信息能夠?qū)ψ詈蟮膱D像子塊結(jié)構(gòu)進(jìn)行很好的模擬和重構(gòu)。濾波函數(shù)如下所示:

然后使用k-means聚類算法將通用的像素點結(jié)構(gòu)進(jìn)行篩選,經(jīng)過n次迭代,得到圖像中有效的基本結(jié)構(gòu)的點。這些點構(gòu)成的集合就是Texton字典[4]。獲得了圖像的Texton字典后,即可進(jìn)行BOO模型構(gòu)建了。

3 BOO模型

如果將場景圖像理解按照低、中、高三種表達(dá)層次進(jìn)行劃分,可對應(yīng)分為圖像特征識別、圖像語義標(biāo)注和圖像分類注釋三個層次。其中作為中間層的圖像語義標(biāo)注是利用圖像低層的顏色、紋理、Texton等特征來形成圖像不同區(qū)域的語義信息。該信息是連接低層和高層的橋梁,可克服高低兩層之間表達(dá)跨度較大所產(chǎn)生的弊端[5]。

本文采用Bag of Objects(BOO)模型。在圖像理解中,一張圖像會被描述成很多物體對象的集合,只考慮對象出現(xiàn)次數(shù),而不考慮出現(xiàn)位置,這樣的一張圖像如同裝滿了物體對象的袋子。BOO模型的最大特征就是借助了主題對象語義這個中間鍵,縮短了高層圖像事件與底層圖像特征之間存在的語義鴻溝,如圖2所示。將BOO引入圖像語義標(biāo)注檢索技術(shù),一般都是將每幅圖像看作一個文檔,圖像中對象對應(yīng)的詞就是文檔語義。結(jié)合前文使用的Texton字典特征,可以提高BOO模型對語義檢索的準(zhǔn)確性。

圖2 對象語義中間鍵

通過BOO模型進(jìn)行圖像語義標(biāo)注有兩個過程——訓(xùn)練模型過程為測試標(biāo)注圖像過程。

1)訓(xùn)練模型過程

訓(xùn)練模型過程的核心步驟分為以下三點[6]:

(1)找到圖像中的主題詞匯;

(2)通過主題詞匯這個橋梁找到待標(biāo)注圖像中的主題詞匯概率分布;

(3)通過語義詞匯在主題中的概率分布計算出測試圖像語義詞匯的概率分布。

這個過程與人類認(rèn)知圖像的過程非常相似[7]。訓(xùn)練模型過程其實就是模仿人類的學(xué)習(xí)過程,目的在于讓計算機學(xué)會圖像中都有什么樣的主題特征,并且讓計算機記住每種主題包含的詞匯分布。

2)測試標(biāo)注圖像過程

基于BOO模型的圖像標(biāo)注系統(tǒng)的整體結(jié)構(gòu)是將圖像集分為訓(xùn)練集圖像(被手工標(biāo)注的圖像)和測試圖像(待系統(tǒng)標(biāo)注圖像)[8]。將訓(xùn)練圖像通過處理得到訓(xùn)練圖像的視覺詞匯特征,這樣訓(xùn)練圖像集就成了兩種詞匯的集合,即語義詞匯和視覺詞匯。接著對圖像集進(jìn)行LDA建模,分為以下四個步驟:

(1)得到P(w|z)和P(z|d)兩個關(guān)于主題詞匯的概率分布[9~10];

(2)針對視覺詞匯建模,結(jié)合上次得到的P(z|d)可以得到P(v|z),即視覺詞匯在主題詞匯中的分布規(guī)律;

(3)測試圖像只有視覺詞匯特征,結(jié)合訓(xùn)練得到的P(v|z)可以計算出P(z|d),即測試圖像中隱藏的主題詞匯[11];

(4)最后可以由P(z|d)和P(w|z)計算出測試圖像的P(w|d),即標(biāo)注結(jié)果,語義詞匯的概率分布。

4 語義分層標(biāo)注

通過飛行中的無人機中的攝像頭拍攝到的場景往往具有很大的不確定性,除了天氣因素造成相同的場景不同的呈現(xiàn)之外,無人機在不同的高度拍攝到的相同場景也會有不同呈現(xiàn)。由于各種不確定因素的存在,對于場景中的景物辨識具有一定的模糊性,并經(jīng)常導(dǎo)致分類的錯誤。

為解決這類問題,需要對構(gòu)建場景的知識庫,對語義進(jìn)行分類、約束和分層[12]。分類可以借助有已的語義庫,約束主要涉及到物體間的關(guān)聯(lián)信息,如圖3所示。

圖3 語義的分類和約束

語義分層主要是將語義由“概括”向“具體”的層次劃分,參考地圖顯示中的瓦片金字塔技術(shù),在無人機離場景距離遠(yuǎn)時,僅識別公園、小區(qū)、樹林、湖泊等大目標(biāo),在無人機離場景距離近時,可以識別樹木、房屋等小目標(biāo)。識別大目標(biāo)到小目標(biāo)之間的切換通過無人機上配備的距離測量儀測量的距離遠(yuǎn)近動態(tài)轉(zhuǎn)換。

分層語義模型如下。

上層語義:無人機在高空時,主要語義為城市、農(nóng)田、河流、湖泊等

中層語義:無人機在中空時,主要語義為小區(qū)、公園、樹林、道路等。

下層語義:無人機在低空時,主要語義為樹木、房屋、橋梁、地標(biāo)等。

如圖4所示。

圖4 分層語義模型

5 結(jié)果驗證

本文采用模擬仿真的方法,對本文提出的算法進(jìn)行仿真驗證。

為了提高開發(fā)效率,實驗數(shù)據(jù)通常并不需要自己構(gòu)建,而是采用成熟的數(shù)據(jù)集,本文采用分類領(lǐng)域影響非常大的Standford background數(shù)據(jù)集,包括572張訓(xùn)練樣本和143張測試樣本,共有包括建筑物、水、天空等在內(nèi)的8個類別,能基本涵蓋無人機飛行時所處的場景信息。然后,將這些圖片分為遠(yuǎn)景、中景、近景三層。通過在Matlab仿真軟件上采用本文所述的Texton特征提取、分層語義算法,用搜索算法遍歷整個數(shù)據(jù)集,最終輸出最符合特征的語義。具體過程如下:

1)輸出一張場景圖片;

2)在單選框中選擇使用哪一層的語義;

3)用鼠標(biāo)劃定需要理解識別的區(qū)域;

4)通過后臺計算,在識別結(jié)果中顯示對應(yīng)的語義。

本文所采用分層語義算法所完成的近景、中景、遠(yuǎn)景語義標(biāo)注效果分別見圖5、圖6、圖7所示。

圖5 近景語義標(biāo)注

由圖4、圖5、圖6可以看出,在圖片與語義級數(shù)匹配的情況下,系統(tǒng)可以準(zhǔn)確地識別出指定的圖像,并將輸出相應(yīng)的語義。

6 結(jié)語

本文只是對場景語義進(jìn)行了粗略的分層,在實驗仿真時也只是放入靜態(tài)圖片進(jìn)行測試并證明方法有效,但是對實時性、魯棒性都沒有進(jìn)行優(yōu)化和仿真,也尚未實現(xiàn)圖片縮放時識別層次的自動切換,離實用化尚有一段距離。下一步,作者希望能沿襲這個分層語義的思路,使用視頻進(jìn)行實時性檢測,并進(jìn)行語義跨層時的切換平滑度研究,使整個程序在操作時更加流暢和人性化。

圖6 中景語義標(biāo)注

圖7 遠(yuǎn)景語義標(biāo)注

[1]Heitz G,Gould S,Saxena A,Koller D.Cascaded classiflcation models:combining models for holistic scene understanding[C]∕In:Proceedings of the Conference on Neural Information Processing Systems.Vancouver,Canada:NIPS,2008.1-8.

[2]蔡自興,鄒小兵.移動機器人環(huán)境認(rèn)知理論與技術(shù)的研究[J].機器人,2004,26(1):87-91.

[3]Bay H,Ess A,Tuytelaars T,van Gool L.SURF:speeded up robust features[J].Computer Vision and Image Understanding,2008,110(3):346-359.

[4]Brostow G J,F(xiàn)auqueur J,Cipolla R.Semantic object classes in video:a high-deflnition ground truth database[J].Pattern Recognition Letters,2009,30(2):88-97.

[5]李夢縈宋海玉王澤宇.場景理解在實時監(jiān)視中的應(yīng)用研究[J].中國高新技術(shù)企業(yè),2016.2:45-46.

[6]Bosch A,Munoz X,F(xiàn)reixenet J.Segmentation and description of natural outdoor scenes[J].Image and Vision Computing,2007,25(5):727-740.

[7]Hadsell R,Sermanet P,Ben J,Erkan A,Sco-er M,Kavukcuoglu K.Learning long-range vision for autonomous off-road driving[J].Journal of Field Robotics,2009,26(2):120-144.

[8]莊嚴(yán)陳東王偉韓建達(dá)王越超.移動機器人基于視覺室外自然場景理解的研究與進(jìn)展[J].自動化學(xué)報,2010.36(1):1-11.

[9]Socher R,Lin CC,Ng AY,eds.Parsing natural scenes and natural language with recurisve neural networks[C]∕∕The International Conference on Machine Learning,Bellevue,2011.

[10]Liu B,F(xiàn)an HQ.Semantic labeling of indoor scenes from RGB-D images with discriminative learning[C]∕The international Conference on Machine Vision,London,2013.

[11]孫麗坤劉波.基于分層區(qū)域合并的自然場景理解[J]. 計算機系統(tǒng)應(yīng)用,2014.23(11):116-121.

[12]莊嚴(yán)陳東等.移動機器人基于視覺室外自然場景理解的研究與進(jìn)展[J].自動化學(xué)報,2010.36(1):1-11.

UAV Flight Scene Understanding Based on Improved Semantic Layering

REN Min
(Banshanyuan,Nanjing 210016)

With the widespread popularity of UAV,UAV scene understanding technology is more and more important.In this paper,BOO principle is used to establish semantic annotation model,and the tile-pyramid technology of map software is used and the training dataset and test dataset provided in event recognition field are combined,and a new semantic layering method is proposed.The experimental simulation proves that the proposed method can identify the corresponding objects in the scene of the UAV photographed at different heights.

scene understanding,texton map,semantic annotation,semantic layering,tile-pyramid

V279

10.3969∕j.issn.1672-9730.2017.10.019

Class Number V279

2017年4月7日,

2017年5月26日

任民,男,碩士,副教授,研究方向:海軍兵種戰(zhàn)術(shù)。

猜你喜歡
語義詞匯模型
一半模型
本刊可直接用縮寫的常用詞匯
一些常用詞匯可直接用縮寫
重要模型『一線三等角』
重尾非線性自回歸模型自加權(quán)M-估計的漸近分布
語言與語義
本刊可直接用縮寫的常用詞匯
3D打印中的模型分割與打包
“上”與“下”語義的不對稱性及其認(rèn)知闡釋
認(rèn)知范疇模糊與語義模糊
主站蜘蛛池模板: 99久久亚洲综合精品TS| 亚洲欧美自拍中文| 97视频在线精品国自产拍| 欧美成人亚洲综合精品欧美激情| 亚洲动漫h| 国产精品久线在线观看| 久久女人网| 国产靠逼视频| 99无码中文字幕视频| 综合久久五月天| 91青青草视频在线观看的| 无码中文字幕乱码免费2| 制服丝袜国产精品| 国产喷水视频| 国产真实乱子伦视频播放| 欧美成人综合在线| 欧美日韩国产在线观看一区二区三区| 国产凹凸一区在线观看视频| 尤物亚洲最大AV无码网站| 福利在线不卡一区| 亚洲性影院| 四虎成人精品在永久免费| 久草性视频| 欧美a在线看| 亚洲系列无码专区偷窥无码| 茄子视频毛片免费观看| 毛片网站观看| 国产精品手机在线播放| 色综合久久88色综合天天提莫 | 国产人妖视频一区在线观看| 欧美黄网在线| 中文字幕在线永久在线视频2020| 一区二区三区在线不卡免费| 呦女亚洲一区精品| 欧美第九页| 无遮挡国产高潮视频免费观看 | 老色鬼久久亚洲AV综合| 午夜综合网| 中文字幕欧美日韩| 成人毛片免费在线观看| 欧美97色| AⅤ色综合久久天堂AV色综合| 在线亚洲精品自拍| 国产午夜无码片在线观看网站| 日本在线免费网站| AV无码国产在线看岛国岛| 国产欧美日韩91| 四虎影院国产| 男人天堂亚洲天堂| 人妻夜夜爽天天爽| 色首页AV在线| 伊在人亚洲香蕉精品播放| 91精品啪在线观看国产91九色| 很黄的网站在线观看| 欧美在线视频不卡| …亚洲 欧洲 另类 春色| 国产又大又粗又猛又爽的视频| 国产成人精品免费av| 真实国产乱子伦高清| 久久综合色播五月男人的天堂| 在线中文字幕日韩| 一级毛片免费的| 伊人久久综在合线亚洲91| 免费一级全黄少妇性色生活片| 欧美综合一区二区三区| 欧美日一级片| 国产香蕉在线视频| 亚洲精品大秀视频| 亚洲精品天堂自在久久77| 91精品啪在线观看国产| 99re经典视频在线| 中文字幕永久视频| 久久精品66| 色AV色 综合网站| 香蕉久久国产精品免| 中日韩一区二区三区中文免费视频| 国产精品刺激对白在线 | 国产麻豆aⅴ精品无码| 欧美成人日韩| 精品国产成人高清在线| 69视频国产| 亚洲无卡视频|