摘要:針對(duì)固定監(jiān)控場(chǎng)景提出了一種運(yùn)動(dòng)目標(biāo)檢測(cè)與跟蹤方案。在運(yùn)動(dòng)目標(biāo)檢測(cè)中,利用像素梯度及色度均值、方差分布建立并實(shí)時(shí)更新背景模型。在目標(biāo)跟蹤模塊,引入卡爾曼濾波器預(yù)測(cè)目標(biāo)參數(shù),合并目標(biāo)碎片,建立幀間目標(biāo)匹配矩陣完成目標(biāo)匹配。通過實(shí)際圖像序列測(cè)試,算法能較好地實(shí)現(xiàn)運(yùn)動(dòng)目標(biāo)跟蹤,獲得運(yùn)動(dòng)目標(biāo)的軌跡,具有良好的實(shí)時(shí)性和適應(yīng)環(huán)境變化的能力。
關(guān)鍵詞: 背景模型;目標(biāo)跟蹤; 卡爾曼濾波;匹配矩陣
中圖法分類號(hào):TP391.41文獻(xiàn)標(biāo)識(shí)碼:A
文章編號(hào):1001-3695(2007)01-0199-04
運(yùn)動(dòng)目標(biāo)的檢測(cè)、跟蹤是智能視覺監(jiān)控的重要課題,是各種后續(xù)高級(jí)處理,如目標(biāo)分類、行為理解等的基礎(chǔ)。近年來,它得到了日益廣泛的研究,其難點(diǎn)在于:
①圖像序列具有復(fù)雜性。光線、目標(biāo)動(dòng)態(tài)變化使得獲取背景圖像困難,背景的實(shí)時(shí)變化需要?jiǎng)討B(tài)更新,而如何從視頻幀中正確分割背景和檢測(cè)運(yùn)動(dòng)物體(前景目標(biāo))是后續(xù)跟蹤、識(shí)別處理的基礎(chǔ)。
②跟蹤過程中在物體暫時(shí)消失、相互遮擋時(shí)丟失目標(biāo)信息,如何在這些復(fù)雜情況中跟蹤目標(biāo)、獲得目標(biāo)的運(yùn)動(dòng)軌跡。
已有的解決方法有:用多個(gè)攝像機(jī)構(gòu)建系統(tǒng)來處理多個(gè)運(yùn)動(dòng)目標(biāo)相互遮擋的問題[1];用EM算法將被跟蹤人體依據(jù)顏色信息建立跟蹤[2];基于區(qū)域的跟蹤[3]、基于模型的跟蹤[4]、基于活動(dòng)輪廓的跟蹤[5]等。為了提高跟蹤實(shí)時(shí)性,降低算法復(fù)雜度,本文采用將運(yùn)動(dòng)目標(biāo)符號(hào)化的方法[6],即對(duì)檢測(cè)出的目標(biāo)用其外接矩形框標(biāo)注,目標(biāo)跟蹤建立在矩形框?qū)哟紊希瑥亩岣吡怂惴ǖ膶?shí)時(shí)性,改進(jìn)了文獻(xiàn)[7]中提出的通過建立幀間矩陣實(shí)現(xiàn)目標(biāo)匹配的方法,將跟蹤情況分為五種狀態(tài)分別進(jìn)行處理,并且引入Kalman濾波器實(shí)時(shí)預(yù)測(cè)目標(biāo)外接矩形框參數(shù),在目標(biāo)暫時(shí)消失、相互遮擋等復(fù)雜情況下可恢復(fù)其運(yùn)動(dòng)信息。
1檢測(cè)運(yùn)動(dòng)目標(biāo)
目標(biāo)檢測(cè)流程如圖1所示。
圖1運(yùn)動(dòng)目標(biāo)檢測(cè)流程圖
根據(jù)不包含目標(biāo)的一段時(shí)間內(nèi)的背景幀得到背景圖像中每個(gè)像素的均值、方差參數(shù),建立背景模型[8]:
模型參數(shù)分別為R,G,B通道的均值和方差。
假設(shè)光線變化相對(duì)于物體運(yùn)動(dòng)為緩慢變化。背景模型中均值和方差用遞歸算法更新,并只用于非目標(biāo)區(qū)域中,目標(biāo)區(qū)域?qū)?yīng)到背景模型中的區(qū)域其均值、方差參數(shù)不變。已知在t+1時(shí)刻的背景中某像素值z(mì)t+1,則
場(chǎng)景中由于光線變化引起陰影變化被視為目標(biāo)區(qū)域,從而影響目標(biāo)的正確檢測(cè)。根據(jù)陰影區(qū)域在亮度上的變化大于色度,則任何亮度突變而色度無突變的情況都是由陰影引起的。像素色度計(jì)算如下:
分割前景目標(biāo)時(shí),當(dāng)背景色度與前景目標(biāo)色度差別不大時(shí),前景目標(biāo)內(nèi)會(huì)出現(xiàn)空洞或目標(biāo)碎片,影響下一步的聚類分析。在這種情況下,不能基于零階、像素級(jí)上檢測(cè)目標(biāo),而需要結(jié)合一階圖像梯度信息得到較為準(zhǔn)確的目標(biāo)分割。
本文采用基于色度、梯度建立背景模型檢測(cè)目標(biāo),如像素的梯度或色度信息滿足式(6)或式(7),則像素標(biāo)記為前景點(diǎn)。
背景減除后的圖像采用3×3中值濾波器、形態(tài)學(xué)閉運(yùn)算去噪聲及連通像素區(qū)域標(biāo)記法,得到目標(biāo)個(gè)數(shù)及其外接矩形框參數(shù);然后計(jì)算目標(biāo)間中心點(diǎn)的歐式距離,若X,Y方向的距離均小于閾值Td(實(shí)驗(yàn)中設(shè)Td=15),則目標(biāo)合并;將得到的目標(biāo)依次判斷它的面積是否小于閾值Tarea(實(shí)驗(yàn)中設(shè)Tarea=20),如小于面積閾值則丟棄。通過目標(biāo)檢測(cè),可得到目標(biāo)的個(gè)數(shù),及其外接矩形框的中心點(diǎn)、左上點(diǎn)坐標(biāo)和長(zhǎng)、寬。
目標(biāo)檢測(cè)結(jié)果如圖2所示,視頻序列中取a=2。圖2(a)是視頻序列中某幀圖像;圖2(b)是對(duì)圖2(a)的檢測(cè)結(jié)果,背景模型采用像素RGB值建立,無法消除陰影;圖2(c)是對(duì)圖2(a)的檢測(cè)結(jié)果,背景模型采用像素的梯度、色度值建立,可有效消除陰影,從而分割出前景目標(biāo),如圖2(d)所示。檢測(cè)出的目標(biāo)用不同顏色矩形框標(biāo)注,基本上達(dá)到目標(biāo)檢測(cè)的要求。
圖2目標(biāo)檢測(cè)
2運(yùn)動(dòng)目標(biāo)跟蹤
跟蹤等價(jià)于在連續(xù)的圖像幀間創(chuàng)建基于位置、速度、形狀、紋理、色彩等有關(guān)特征的對(duì)應(yīng)匹配問題。對(duì)于單個(gè)目標(biāo),可以通過獲得目標(biāo)在每一幀中的位置得到運(yùn)動(dòng)軌跡,即建立跟蹤;但對(duì)于多個(gè)目標(biāo),情況較為復(fù)雜,在運(yùn)動(dòng)目標(biāo)遮擋、暫時(shí)消失等情況下目標(biāo)信息丟失使跟蹤失敗。
目標(biāo)跟蹤流程如圖3所示。本文采用Kalman濾波器預(yù)測(cè)目標(biāo)在下一幀中的參數(shù),以此合并目標(biāo)碎片,建立目標(biāo)匹配,確定當(dāng)前幀中的目標(biāo)所屬序列,從而得到運(yùn)動(dòng)軌跡,實(shí)現(xiàn)多運(yùn)動(dòng)目標(biāo)跟蹤。
圖 3多目標(biāo)跟蹤流程圖
下面將分別闡述利用Kalman濾波器預(yù)測(cè)目標(biāo)參數(shù),根據(jù)預(yù)測(cè)參數(shù)聚類(進(jìn)一步合并目標(biāo)碎片)及建立相鄰幀間目標(biāo)匹配。
2.1基于Kalman濾波器的運(yùn)動(dòng)目標(biāo)參數(shù)估計(jì)及預(yù)測(cè)
本文將Kalman濾波器應(yīng)用于預(yù)測(cè)目標(biāo)在下一幀中的參數(shù),算法如下:
對(duì)于實(shí)時(shí)視頻序列,每?jī)蓭瑫r(shí)間間隔Δt比較小,可以認(rèn)為目標(biāo)在相鄰幀間運(yùn)動(dòng)變化緩慢,近似為勻速運(yùn)動(dòng),由動(dòng)力學(xué)公式可得
2.2基于預(yù)測(cè)參數(shù)的目標(biāo)聚類
目標(biāo)正確分割是建立目標(biāo)匹配、實(shí)現(xiàn)目標(biāo)跟蹤的基礎(chǔ),基于像素梯度、色度的背景模型能有效地分割出前景目標(biāo)。由于目標(biāo)位置引起目標(biāo)內(nèi)部部分空洞(如被背景物體遮擋)造成目標(biāo)碎片,從而在目標(biāo)檢測(cè)模塊標(biāo)記為不同目標(biāo),影響后續(xù)處理,因此必須在當(dāng)前幀中識(shí)別目標(biāo)碎片屬于哪個(gè)運(yùn)動(dòng)目標(biāo)。
本文利用Kalman濾波器得到的當(dāng)前幀目標(biāo)預(yù)測(cè)參數(shù),將預(yù)測(cè)范圍內(nèi)的目標(biāo)碎片合并,從而得到完整的外接矩形框來標(biāo)志目標(biāo)。
假設(shè)運(yùn)動(dòng)目標(biāo)在最初兩幀內(nèi)未發(fā)生相互遮擋,并且目標(biāo)出現(xiàn)的第一幀未被背景物體遮擋,即能分割出完整目標(biāo)。該假設(shè)是符合實(shí)際情況的,則可獲得目標(biāo)狀態(tài),即外接矩形框大小和位置,由Kalman濾波器得到其在下一幀中的預(yù)測(cè)值。
在當(dāng)前幀中得到可能包含有目標(biāo)碎片的多個(gè)目標(biāo)外接矩形框,將讀取的上一幀目標(biāo)在當(dāng)前幀中的預(yù)測(cè)值(目標(biāo)預(yù)測(cè)大小、位置),依次與當(dāng)前幀中每個(gè)目標(biāo)求交集。如果相交面積大于目標(biāo)面積的80%,則認(rèn)為該目標(biāo)與預(yù)測(cè)參數(shù)對(duì)應(yīng)的目標(biāo)屬同一目標(biāo)序列,可基本識(shí)別出碎片所屬目標(biāo),得到運(yùn)動(dòng)目標(biāo)外接矩形框,并得到初匹配結(jié)果,即當(dāng)前幀目標(biāo)已與上一幀目標(biāo)建立對(duì)應(yīng)標(biāo)號(hào),但對(duì)于出現(xiàn)目標(biāo)遮擋、消失等復(fù)雜情況需要進(jìn)行后續(xù)匹配以實(shí)現(xiàn)跟蹤。
實(shí)驗(yàn)結(jié)果如圖4所示。圖4(a)為當(dāng)前幀圖像;圖4(b)的背景模型準(zhǔn)確度不高,提取的目標(biāo)1斷裂為兩個(gè)目標(biāo),檢測(cè)出有三個(gè)運(yùn)動(dòng)目標(biāo);圖4(c)在圖4(b)的結(jié)果上標(biāo)注目標(biāo),目標(biāo)1由于斷裂,被認(rèn)為發(fā)生分離,算法判斷跟蹤狀態(tài)錯(cuò)誤;圖4(d)根據(jù)上一幀分割出的完整的目標(biāo)1得到的預(yù)測(cè)參數(shù),合并其碎片,得到正確的檢測(cè)結(jié)果;圖4(e)虛線矩形框代表當(dāng)前幀檢測(cè)出的三個(gè)目標(biāo),實(shí)線矩形框是上一幀中目標(biāo)1在當(dāng)前幀中的預(yù)測(cè)位置;當(dāng)前幀目標(biāo)1,2與其相交面積達(dá)到閾值,則判斷是目標(biāo)1在當(dāng)前幀中的目標(biāo)碎片,合并后得到外接矩形框如圖4(f)中的目標(biāo)1,以及目標(biāo)2在當(dāng)前幀中的實(shí)際位置(虛線矩形框)、預(yù)測(cè)位置(實(shí)線矩形框)所示。
圖4根據(jù)預(yù)測(cè)參數(shù)合并目標(biāo)碎片
2.3目標(biāo)匹配及跟蹤算法
2.3.1目標(biāo)跟蹤算法
跟蹤即為在相鄰幀間建立目標(biāo)匹配的過程,本文引入Kalman濾波器預(yù)測(cè)目標(biāo)參數(shù),建立匹配矩陣以實(shí)現(xiàn)相鄰幀間的目標(biāo)匹配。跟蹤算法如下:
(1)在當(dāng)前幀中檢測(cè)目標(biāo),結(jié)構(gòu)數(shù)組Objects_info將每個(gè)目標(biāo)用四個(gè)域值描述:State,Label,Retangle,Special。其中State表示目標(biāo)匹配狀態(tài),分為Old(一般情況),Merged(遮擋),Split(分離),New(出現(xiàn)新目標(biāo)),Disappear(目標(biāo)消失);Label為目標(biāo)標(biāo)號(hào),同一目標(biāo)序列應(yīng)具有相同標(biāo)號(hào);Retangle存儲(chǔ)目標(biāo)外接矩形框參數(shù);Special為目標(biāo)遮擋時(shí)各個(gè)目標(biāo)標(biāo)號(hào)或目標(biāo)分離時(shí)的分離目標(biāo)標(biāo)號(hào)。
(2)如果為目標(biāo)運(yùn)動(dòng)的第一幀,則轉(zhuǎn)到(4)執(zhí)行;如果為后續(xù)幀則讀取當(dāng)前幀的預(yù)測(cè)參數(shù),即目標(biāo)外接矩形框的大小和位置,合并目標(biāo)碎片,完成初匹配,得到更新后的Objects_info,Label為匹配的上一幀目標(biāo)標(biāo)號(hào)。
(3)將當(dāng)前幀目標(biāo)(Objects_info)和上一幀目標(biāo)(Objects_infoo)建立匹配矩陣(2.3.2節(jié)闡述矩陣建立及匹配過程),判斷目標(biāo)匹配的五種狀態(tài),得到匹配后的當(dāng)前幀目標(biāo)(Info_new)和上一幀目標(biāo)(Info_old):
①如Info_new(i).State=Merged, 則當(dāng)前幀第i個(gè)目標(biāo)為目標(biāo)遮擋形成,Info_new(i).special中存儲(chǔ)遮擋目標(biāo)標(biāo)號(hào),并且在第i個(gè)目標(biāo)的狀態(tài)變?yōu)镾plit前,其State,Special域值不變。根據(jù)標(biāo)號(hào)記錄遮擋目標(biāo)在后續(xù)幀中的預(yù)測(cè)參數(shù)(目標(biāo)外接矩形框中心點(diǎn)坐標(biāo)X,Y值及寬度、高度預(yù)測(cè)參數(shù)數(shù)組Preonex, Preoney, Preonew, Preoneh),便于為目標(biāo)分離時(shí)建立匹配。
②如果Info_old(i).label=Spilit 且 Info_new(i).label=Old, 表明上一幀第i個(gè)目標(biāo)在當(dāng)前幀中分離,Objects_infoo中第i個(gè)目標(biāo)由分離目標(biāo)參數(shù)代替,從Preonex, Preoney, Preonew, Preoneh中讀取其參數(shù),再通過建立與當(dāng)前幀目標(biāo)Objects_info的匹配矩陣,確定Objects_info 中每個(gè)目標(biāo)的匹配情況,即得到更新后的Info_new,并使Objects_infoo=Info_new(存儲(chǔ)當(dāng)前幀信息以便下一幀建立匹配)。
(4)由Kalman濾波器得到當(dāng)前幀目標(biāo)外接矩形框在下一幀中的預(yù)測(cè)參數(shù),得到預(yù)測(cè)數(shù)組Prex(左上點(diǎn)X坐標(biāo)),Prey(左上點(diǎn)Y坐標(biāo)),Prew(寬度),Preh(高度),程序轉(zhuǎn)到(1),直到視頻圖像序列結(jié)束。
2.3.2目標(biāo)匹配
文獻(xiàn)[7]只根據(jù)匹配矩陣確定了當(dāng)前幀的目標(biāo)運(yùn)動(dòng)情況,并未更新上一幀的目標(biāo)運(yùn)動(dòng)情況,無法判斷是否出現(xiàn)上一幀目標(biāo)消失、分離成新目標(biāo)的情況。因此,本文改進(jìn)了文獻(xiàn)[6]提出的匹配矩陣算法。
多目標(biāo)在視場(chǎng)中的運(yùn)動(dòng)可分為五種情況:出現(xiàn)新目標(biāo)、目標(biāo)遮擋、目標(biāo)消失、遮擋目標(biāo)分離和除此以外的一般情況下的目標(biāo)匹配。本文分兩步掃描匹配矩陣以確定當(dāng)前幀目標(biāo)和更新上一幀目標(biāo)的運(yùn)動(dòng)狀態(tài)。
(1)按列掃描匹配矩陣(確定當(dāng)前幀目標(biāo)匹配狀態(tài)),可合并成三種情況處理,具體判斷準(zhǔn)則如下:
①若第k列的每個(gè)元素都為0。當(dāng)前幀的第k個(gè)目標(biāo)為新出現(xiàn)目標(biāo), State更新為New。
②第k列中只有第h行一個(gè)元素非零。當(dāng)前幀中的第 k個(gè)目標(biāo)與上一幀中的第h個(gè)目標(biāo)匹配,加入第h個(gè)目標(biāo)的目標(biāo)鏈,賦予與上一幀中第h個(gè)目標(biāo)相同的標(biāo)號(hào), State更新為Old;但如上一幀中的第h個(gè)目標(biāo)為遮擋情況下形成的合并矩形框,即Objects_infoo(h).State=Merged, 則State,Special域值不變。
③第k列中有多個(gè)元素非零(如第h行、第h+1行非零)。上一幀中第h和h+1個(gè)目標(biāo)在當(dāng)前幀中發(fā)生遮擋,記錄下發(fā)生遮擋的目標(biāo)標(biāo)號(hào)(目標(biāo)分離時(shí)的匹配需要此信息),并把最小的目標(biāo)標(biāo)號(hào)作為當(dāng)前幀遮擋目標(biāo)的標(biāo)號(hào),將State更新為Merged。
(2)再按行掃描關(guān)系矩陣(更新上一幀目標(biāo)狀態(tài)):
①若第K行每個(gè)元素都為0,上一幀中的第K個(gè)目標(biāo)消失,刪除目標(biāo)鏈,State更新為Disappear。
②若第K行中有多個(gè)元素非零(如第h列、第h+1列非零),則上一幀中目標(biāo)K在當(dāng)前幀發(fā)生分離,為避免誤判,需滿足條件:目標(biāo)K在匹配前的State為Merged,則表明確為遮擋目標(biāo)分離,應(yīng)將State更新為Split。
跟蹤結(jié)果如圖5所示。場(chǎng)景中有三個(gè)運(yùn)動(dòng)目標(biāo),分別為目標(biāo)1(實(shí)線矩形框標(biāo)注)、目標(biāo)2(虛線矩形框標(biāo)注)、目標(biāo)3(點(diǎn)劃線矩形框標(biāo)注),目標(biāo)分別用不同標(biāo)號(hào)對(duì)應(yīng)到不同矩形框識(shí)別。表1給出了目標(biāo)1在一般情況下(狀態(tài)為Old)、遮擋情況下(狀態(tài)為Merged)及被遮擋后分離情況下(狀態(tài)為Split)的跟蹤數(shù)據(jù)。第472~476幀數(shù)據(jù)表明實(shí)際值、預(yù)測(cè)值間誤差較小,Kalman算法預(yù)測(cè)參數(shù)是可靠的。第477幀原目標(biāo)1被遮擋,其參數(shù)丟失,跟蹤過程則建立在預(yù)測(cè)值上。第514幀目標(biāo)1分離出,根據(jù)預(yù)測(cè)參數(shù)和實(shí)際值識(shí)別目標(biāo)1。
第470幀為一般情況下的跟蹤,即目標(biāo)未發(fā)生遮擋、消失等情況。第477幀目標(biāo)1,2部分遮擋,檢測(cè)到兩個(gè)目標(biāo),目標(biāo)1由原目標(biāo)1,2形成,則原目標(biāo)1,2的信息丟失。跟蹤采用Kalman濾波器對(duì)原目標(biāo)的預(yù)測(cè)參數(shù)記錄目標(biāo)參數(shù),直到第514幀,目標(biāo)1重新被檢測(cè)出,跟蹤預(yù)測(cè)參數(shù)恢復(fù)其丟失信息進(jìn)行匹配,得到正確的跟蹤結(jié)果。外接矩形框?yàn)閷?shí)線矩形框,屬于目標(biāo)1的運(yùn)動(dòng)序列,圖5中其余兩個(gè)目標(biāo)也建立了有效的跟蹤。
圖5跟蹤結(jié)果
表1目標(biāo)1外接矩形框(實(shí)線矩形框)中心點(diǎn)X坐標(biāo)值跟蹤數(shù)據(jù)
3結(jié)論
本文針對(duì)固定監(jiān)控場(chǎng)景實(shí)現(xiàn)了一種多運(yùn)動(dòng)目標(biāo)檢測(cè)、跟蹤方法,建立了基于梯度、色度的背景模型檢測(cè)目標(biāo),詳細(xì)闡述了Kalman濾波器在預(yù)測(cè)目標(biāo)信息中的應(yīng)用,建立匹配矩陣分別針對(duì)不同運(yùn)動(dòng)狀態(tài)跟蹤,在目標(biāo)遮擋、暫時(shí)消失的情況下能較好地實(shí)現(xiàn)多個(gè)運(yùn)動(dòng)目標(biāo)跟蹤。
該算法將改進(jìn)的是:需要更為完整、準(zhǔn)確地分割前景目標(biāo);在目標(biāo)匹配階段約束條件少并直接用矩形框代替物體(目標(biāo)符號(hào)化);在復(fù)雜情況下的跟蹤,如視場(chǎng)中有四個(gè)以上的目標(biāo)、目標(biāo)運(yùn)動(dòng)情況復(fù)雜多變時(shí),算法準(zhǔn)確度降低。下一步工作將在利用目標(biāo)顏色信息提高匹配算法精度等方面作進(jìn)一步研究。
參考文獻(xiàn):
[1]S L Dockstader, A M Tekalp.Multiple Camera Fusion for Multiobject Tracking[C]. Proc. of IEEE Workshop on MultiObject Tracking, 2001.95102.
[2]S Khan, M Shah. Tracking People in Presence of Occlusion[C]. Taipei: Asian Conference on Computer Vision,1998.156161.
[3]Wren C, Azarbayejani A, Darrell T,et al. Realtime Tracking of the Human Body[J]. IEEE Trans. on Pattern Analysis and Machine Intelligence,1997,19(7):780785.
[4]Karaulova I, Hall P, Marshall A. A Hierarchical Model of Dynamics for Tracking People with a Single Video Camera[C]. Bristol: British Machine Vision Conference, 2000.352361.
[5]Paragios N, Deriche R. Geodesic Active Contours and Level Sets for the Detection and Tracking of Moving Objects[J]. IEEE Trans. Pattern Analysis and Machine Intelligence,2000,22(3):266280.
[6]王栓,艾海舟,何克忠.基于差分圖像的多運(yùn)動(dòng)目標(biāo)的檢測(cè)與跟蹤[J].中國圖像圖形學(xué)報(bào),1999,4(6):470474.
[7]L Marcenaro, M Ferrari, L Marchesotti,et al.Multiple Object Trac ̄king under Heavy Occlusions by Using Kalman Filters Based on Shape Matching[C]. International Conference on Image Processing, 2002.341344.
[8]Stephen J McKenna, Sumer Jabri,Zoran Duric, et al. Tracking Groups of People[J]. Comput.Vis.Image Understanding, 2000,8(1):4256.
[9]馬頌德,張正友.計(jì)算機(jī)視覺——計(jì)算理論與算法基礎(chǔ)[M]. 北京:科學(xué)出版社,2003.133148.
作者簡(jiǎn)介:
萬琴(1980),女,重慶萬州人,博士研究生,主要研究方向?yàn)橛?jì)算機(jī)視覺監(jiān)控、數(shù)字圖像處理;
王耀南(1957),男,教授,博導(dǎo),主要研究方向?yàn)橹悄芸刂评碚撆c應(yīng)用、智能信息處理與融合、模式識(shí)別與圖像處理、智能機(jī)器人系統(tǒng)。
注:本文中所涉及到的圖表、注解、公式等內(nèi)容請(qǐng)以PDF格式閱讀原文