999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于Faster R-CNN的顏色導(dǎo)向火焰檢測

2020-06-07 07:07:12巢夏晨語董翔宇尚偉偉
計(jì)算機(jī)應(yīng)用 2020年5期
關(guān)鍵詞:特征區(qū)域檢測

黃 杰,巢夏晨語,董翔宇,高 云,朱 俊,楊 波,張 飛,尚偉偉*

(1.國網(wǎng)安徽省電力有限公司檢修分公司,合肥230061; 2.中國科學(xué)技術(shù)大學(xué)信息科學(xué)技術(shù)學(xué)院,合肥230027;3.國網(wǎng)安徽省電力有限公司,合肥230022)(?通信作者電子郵箱wwshang@ustc.edu.cn)

0 引言

隨著計(jì)算機(jī)視覺的發(fā)展,基于計(jì)算機(jī)視覺的火焰檢測技術(shù)得到了大量的研究。從圖像中檢測火焰比煙霧報警器更快,從而能夠?qū)馂?zāi)進(jìn)行提前預(yù)警。目前,基于機(jī)器視覺的火焰檢測方法(后簡稱為火焰檢測)主要分為基于人工設(shè)計(jì)的圖像特征與基于卷積神經(jīng)網(wǎng)絡(luò)提取的深度特征兩大類。在基于深度特征的方法中,一種廣泛使用的方法是將卷積神經(jīng)網(wǎng)絡(luò)作為分類器應(yīng)用于火焰檢測,這種方法僅能判斷出圖像中是否存在火焰,而無法給出火焰所在的位置,因此僅能用于火災(zāi)的預(yù)警。而對于需要自動滅火的場合,如自動滅火機(jī)器人[1]、大空間自動射流裝置[2]等,需要首先確定火焰所在圖像中的位置,才能進(jìn)一步計(jì)算與火焰之間的距離,從而實(shí)現(xiàn)自動撲滅火焰。

在傳統(tǒng)的火焰檢測方法中,一般采用人工設(shè)計(jì)的特征進(jìn)行火焰識別。T?reyin等[3]訓(xùn)練一個高斯混合模型作為火焰的顏色模型,結(jié)合運(yùn)動檢測算法來提取候選區(qū)域,再對這些區(qū)域進(jìn)行時域與空域上的小波分析,從而判斷各區(qū)域是否為火焰區(qū)域;Foggia等[4]使用背景減法來獲取候選區(qū)域,再利用顏色、形態(tài)變化、運(yùn)動這三種圖像特征,建立三個評價模塊來對各個區(qū)域進(jìn)行判別,并使用一個有權(quán)重的投票策略進(jìn)行綜合決策。這兩種方法僅能用于固定的攝像頭上,無法應(yīng)用于自身存在運(yùn)動的視覺系統(tǒng)中;Chino等[5]構(gòu)建了BoWFire數(shù)據(jù)集,同時提出了一個顏色特征與超像素紋理辨別相結(jié)合的火焰檢測算法框架,其局限性在于對圖像中火焰的召回率不能滿足實(shí)際應(yīng)用的需求。

由于深度特征在多個領(lǐng)域取得了比人工特征更好的效果,深度特征也被應(yīng)用在了火焰檢測領(lǐng)域。Muhammad等[6]訓(xùn)練了一個二分類的GoogleNet用于檢測火焰,在數(shù)據(jù)集[5]上取得了較好的準(zhǔn)確度(84%~92%),且能展現(xiàn)較好的魯棒性;Frizzi等[7]使用卷積神經(jīng)網(wǎng)絡(luò)來獲取圖像的特征圖,再在特征圖上以12×12大小的滑動窗口判斷是否存在火焰或煙霧,其局限性在于沒有在更大規(guī)模的數(shù)據(jù)集中進(jìn)行測試;Maksymiv等[8]使用局部二值模式(Local Binary Pattern,LBP)特征與AdaBoost算法來獲取圖像中可能存在火焰的區(qū)域,再使用一個卷積神經(jīng)網(wǎng)絡(luò)對各區(qū)域進(jìn)行判別;王華秋等[9]提出一種基于雙曲正割函數(shù)的變步長最小均方算法(Least Mean Square,LMS)改進(jìn)的小腦模型神經(jīng)網(wǎng)絡(luò)(Cerebellar Model Articulation Controller,CMAC),使用最優(yōu)閾值搜尋算法分割圖像后,提取區(qū)域的特征向量輸入CMAC進(jìn)行判別。隨著基于深度特征的目標(biāo)檢測方法的興起,先進(jìn)的通用目標(biāo)檢測方法被應(yīng)用在火焰檢測上。Barmpoutis等[10]訓(xùn)練一個更快速的區(qū)域卷積神經(jīng)網(wǎng)絡(luò)(Faster Region-based Convolutional Neural Network,F(xiàn)aster R-CNN)[11]模型來獲取圖像中潛在的火焰區(qū)域,使用線性動態(tài)系統(tǒng)(Linear Dynamical System,LDS)提取這些區(qū)域的紋理特征,再使用局部聚合描述向量(Vector of Locally Aggregated Descriptors,VLAD)算法對特征編碼,并最終判別各個區(qū)域是否為火焰區(qū)域;Kim等[12]使用Faster R-CNN檢測可能的火焰區(qū)域,隨后由長短期記憶(Long Short-Term Memory,LSTM)網(wǎng)絡(luò)在一個時間區(qū)間內(nèi)累積該區(qū)域的特征,并判別區(qū)間內(nèi)該區(qū)域是否存在火焰,最后利用多個時間區(qū)間的判別結(jié)果進(jìn)行投票得到最終的檢測結(jié)果。

針對上述研究,本文提出一種由顏色引導(dǎo)的Faster RCNN模型,利用掩膜卷積技術(shù),使錨僅生成在顏色與火焰相近的區(qū)域,提高了Faster R-CNN火焰檢測的效率。本文主要工作包括以下方面:

1)提出顏色引導(dǎo)的拋錨策略,使用簡單的顏色模型有效減少了Faster R-CNN在火焰檢測任務(wù)中初始錨生成的數(shù)量。

2)提出了掩膜RPN(Region Proposal Network),利用掩膜卷積技術(shù),改進(jìn)Faster R-CNN的區(qū)域生成網(wǎng)絡(luò),使得Faster RCNN在火焰檢測任務(wù)上的速度相較于原Faster R-CNN提高了10.1%。

3)將提出的方法在BoWFire與Corsician數(shù)據(jù)集上進(jìn)行了實(shí)驗(yàn),并與最新的火焰檢測方法進(jìn)行了比較,驗(yàn)證了本文方法的有效性。

中國旅游節(jié)由國家林業(yè)和草原局主辦,廣州市人民政府、廣東省林業(yè)局、廣東省文化和旅游廳共同承辦,主題是“綠水青山就是金山銀山——粵森林、悅生活”。

1 Faster R-CNN

Faster R-CNN[11]是一種在區(qū)域卷積神經(jīng)網(wǎng)絡(luò)(Regionbased Convolutional Neural Network,R-CNN)[13]和快速區(qū)域卷積神經(jīng)網(wǎng)絡(luò)(Fast Region-based Convolutional Network,F(xiàn)ast RCNN)[14]的基礎(chǔ)上改進(jìn)得到的通用目標(biāo)檢測方法,它與另外兩種R-CNN的主要不同在于使用區(qū)域生成網(wǎng)絡(luò)(Region Proposal Network,RPN)來獲取初始的候選框,以代替耗時的選 擇 性 搜 索 算 法 。Faster R-CNN 在 COCO[15]與 PASCAL VOC[16]目標(biāo)檢測任務(wù)上取得了很好的效果,因此,本文選擇Faster R-CNN作為文中方法的基礎(chǔ)。

Faster R-CNN的檢測框基于錨生成,錨是在目標(biāo)檢測過程中生成的最初的一批候選框。依據(jù)人為確定的m種大小比例(Scale)與n種橫縱比(Aspect Ratio),將這些比例與橫縱比進(jìn)行組合,可以在每個錨點(diǎn)處獲得m×n種形狀確定的錨。圖1展示了一個錨點(diǎn)以及該點(diǎn)處生成的所有錨候選框,圖片中心處的點(diǎn)為錨點(diǎn),其周圍的方框即為錨。錨點(diǎn)以一定間隔分布在整張圖像上,因此錨可以覆蓋整幅圖像。

圖1 一個錨點(diǎn)以及該點(diǎn)處的錨候選框Fig.1 An anchor point and theanchor candidate boxesgenerated at that point

本文使用的Faster R-CNN模型結(jié)構(gòu)如圖2所示,主要分為三部分,分別是特征提取器、區(qū)域生成網(wǎng)絡(luò)和R-CNNhead。其中,特征提取器主要由一系列卷積層構(gòu)成,輸入圖像經(jīng)過特征提取器后可以得到該圖像的一系列特征圖。隨后,這些特征圖被送入RPN中,RPN是一個滑動窗口形式的物體檢測器,它的本質(zhì)是3個卷積層,輸入特征圖后,經(jīng)過3×3卷積層將特征圖映射到一個較低維的空間,并由兩個并聯(lián)的1×1大小卷積核的卷積層在特征圖的每個點(diǎn)處生成各個錨中是否包含物體的置信分?jǐn)?shù)S與各個錨的修正量,RPN輸出的錨修正量為其中與代表錨中心位置在圖像X、Y方向上的偏移量代表錨長寬的變化量。將錨經(jīng)過對應(yīng)的修正后得到一系列候選框,再對這些候選框進(jìn)行非最大值抑制,濾除與置信度最高的候選框面積交叉過大的候選框。經(jīng)過非最大值抑制后,對每個候選框分別進(jìn)行感興趣區(qū)域(Region of Interest,RoI)池化,得到各候選框?qū)?yīng)的特征圖,最后由R-CNNHead的線性層分別輸出每個候選框的分類預(yù)測p與進(jìn)一步的候選框修正量R-CNNHead輸出的修正量與RPN輸出的修正量的物體意義完全相同。

圖2 Faster R-CNN模型結(jié)構(gòu)Fig.2 Structureof Faster R-CNNmodel

2 顏色引導(dǎo)的拋錨策略

在Faster R-CNN中,為了使錨點(diǎn)分布在盡可能廣的圖像位置上,保證各個區(qū)域都被大小合適的錨所覆蓋,其錨點(diǎn)是密集分布的,錨生成在特征圖的每一個點(diǎn)上。在通用目標(biāo)檢測中,沒有特定的目標(biāo)種類,所以需要密集的拋錨策略。但是在火焰檢測任務(wù)上,圖像區(qū)域的種類僅剩下兩種:火焰或者背景,密集的拋錨策略會使得錨生成在很多沒有火焰的圖像區(qū)域。再考慮到火焰在圖像上存在的顯著特性,這使得Faster R-CNN的檢測可以在引導(dǎo)下進(jìn)行。本文中,受到文獻(xiàn)[17]中導(dǎo)向性拋錨的啟發(fā),提出了一種稀疏的拋錨策略,在Faster RCNN中使用火焰自身的圖像特性來引導(dǎo)錨的生成,代替原本密集的拋錨策略,從而提升檢測火焰的效率與準(zhǔn)確度。

在火焰的圖像特征中,顏色特征較為容易獲取,也是在火焰檢測中被廣泛使用的火焰特征。為了使得錨能夠生成在圖像中所有與火焰顏色相近的區(qū)域,且錨框盡量不會遺漏火焰區(qū)域,本文使用了一個較為寬松的顏色模型。這個顏色模型覆蓋了一般火災(zāi)情形下的火焰顏色,不考慮特殊材料燃燒時產(chǎn)生的火焰的顏色(藍(lán)色等),其定義為式(1):

其中:M(x,y)表示生成的火焰顏色掩膜;fR、fG、fB指圖像的R、G、B三通道的圖像值;TR表示R通道上設(shè)置的閾值。在該模型中,TR的取值依據(jù)于本文中使用的數(shù)據(jù),其典型值為150~200,TR取值過大會使得模型過于嚴(yán)格,導(dǎo)致一些火焰區(qū)域存在被漏檢的可能,TR取值過小則模型偏向于寬松,RPN中錨的生成數(shù)量增加,導(dǎo)致檢測效率的下降。

通過這個顏色模型,可以獲得一個較為寬松的顏色掩膜,這個掩膜中包含了火焰,以及所有與火焰顏色相近的圖像區(qū)域。本文中,將Faster R-CNN原本的密集錨生成策略,改變?yōu)橛深伾龑?dǎo)的拋錨策略:僅將錨點(diǎn)設(shè)置在掩膜中的感興趣區(qū)域,而掩膜的其他區(qū)域則不生成任何錨,這樣可以大大減少初始生成的錨數(shù)量,且錨都分布在與火焰顏色相近的物體周圍,這也提高了錨的平均質(zhì)量。圖3展示了由顏色引導(dǎo)的拋錨策略的錨點(diǎn)位置,圖3(c)中分布在火焰附近的點(diǎn)即為錨點(diǎn)。為了實(shí)現(xiàn)以上說明的拋錨策略,本文主要對Faster R-CNN的核心,即RPN進(jìn)行了改進(jìn),稱之為掩膜RPN,它接受一個與特征圖大小一致的額外掩膜作為輸入,從而可以結(jié)合掩膜信息,使得錨僅在感興趣的區(qū)域生成。

圖3 顏色引導(dǎo)的拋錨策略的錨點(diǎn)生成Fig.3 Anchor generation of color-guided anchoringstrategy

模型的整體結(jié)構(gòu)如圖4所示。首先,將圖像輸入特征提取器,得到特征圖;同時將輸入圖像通過顏色模型,獲取輸入圖像的火焰顏色掩膜;將特征圖與縮放到相同大小的掩膜輸入掩膜RPN,得到經(jīng)過篩選與修正的區(qū)域;最后,將各區(qū)域輸入分類與回歸兩個分支網(wǎng)絡(luò),即R-CNN Head,得到最終的檢測框。圖4中展示了掩膜RPN的具體結(jié)構(gòu),在Faster R-CNN的基礎(chǔ)上,將各個卷積層均替換為掩膜卷積(masked convolution)[18-19]層,掩膜卷積僅在掩膜的感興趣區(qū)域進(jìn)行卷積,其他區(qū)域均置零,從而可以減少一部分矩陣點(diǎn)乘運(yùn)算。通過使用掩膜卷積來實(shí)現(xiàn)顏色引導(dǎo)的拋錨策略,可以提高模型計(jì)算的效率。

此外,上述顏色引導(dǎo)的拋錨策略對于其他基于錨的目標(biāo)檢測算法同樣適用,如 YOLOV2[20]、YOLOV3[21]、SSD(Single Shot multibox Detector)[22]、特征金字塔網(wǎng)絡(luò)(Feature Pyramid Network,F(xiàn)PN)[23]等,由于這些方法均在特征圖的每一個點(diǎn)上生成錨,故與本文中提出的方法相同,在拋錨策略中加入火焰顏色掩膜即可,即將對應(yīng)的普通卷積層替換為掩膜卷積層。

圖4 由顏色引導(dǎo)的Faster R-CNN模型結(jié)構(gòu)與掩膜RPNFig.4 Model structureof color-guided Faster R-CNNand masked RPN

3 Faster R-CNN的訓(xùn)練

對于Faster R-CNN的訓(xùn)練,本文參照文獻(xiàn)[11]中的訓(xùn)練策略:每一張訓(xùn)練圖像中,選取64個正樣本候選框與64個負(fù)樣本候選框,若正樣本候選框數(shù)量達(dá)不到64個,則使用負(fù)樣本候選框補(bǔ)齊,保持總數(shù)為128個。誤差的來源有四個,分別是RPN、R-CNN Head的分類誤差與定位誤差。對于RPN輸出的候選框的分類誤差與R-CNNHead輸出的候選框的分類誤差,均采用交叉熵計(jì)算損失,而對于候選框的定位誤差,則使用平滑L1損失函數(shù)。相較于文獻(xiàn)[11]的四步交替迭代訓(xùn)練方法,本文使用近似聯(lián)合訓(xùn)練,從而使得訓(xùn)練以端到端的形式進(jìn)行,速度更快。訓(xùn)練的主要困難來源于掩膜RPN,即掩膜卷積層的誤差反向傳播問題。為了解決這個問題,本文使用以下方案:在訓(xùn)練時,將掩膜RPN各層替換為普通卷積層,對于掩膜RPN層輸出的候選框,將中心在掩膜感興趣區(qū)域外的候選框全部濾除。

RPN的損失函數(shù)設(shè)計(jì)為:

其中:表示交叉熵函數(shù);表示平滑L1函數(shù);s i是RPN輸出的第i個候選框的置信度分?jǐn)?shù),表示該候選框中是否包含物體的置信度;s*i是該候選框?qū)?yīng)的ground truth候選框的置信標(biāo)簽;t ri是RPN輸出的第i個候選框的修正量,t ri*為該候選框移動到對應(yīng)的ground truth候選框所需的修正量。其中,修正量包括候選框中心在X、Y方向上的偏移量與候選框長、寬的變化量。

R-CNNHead的損失函數(shù)設(shè)計(jì)為:

與RPN的損失計(jì)算相似的,p i是R-CNN Head輸出的第i個候選框的分類分?jǐn)?shù),表示該候選框中的物體為火焰或其他,是該候選框?qū)?yīng)的ground truth候選框的分類標(biāo)簽是RCNNHead輸出的第i個候選框的修正量,是該候選框相對于對應(yīng)的ground truth候選框所需的修正量。最后,F(xiàn)aster RCNN的整體損失計(jì)算方法為式(2)與式(3)的相加,即RPN與R-CNNHead的損失之和。

4 實(shí)驗(yàn)結(jié)果與分析

本文中使用了來源不同的多個數(shù)據(jù)集,包括ImageNet、BoWFire、Corsician Fire[24]這3個公開的火焰數(shù)據(jù)集,以及利用Google與Baidu搜索引擎下載的一些火焰圖像,表1展示了實(shí)驗(yàn)中使用的各數(shù)據(jù)集名稱以及各數(shù)據(jù)集中的圖像數(shù)量。訓(xùn)練Faster R-CNN的數(shù)據(jù)集來自 Baidu、Google以及 ImageNet,共1525張圖像。本文的測試在BoWFire數(shù)據(jù)集與Corsician Fire數(shù)據(jù)集上進(jìn)行,共822張圖像,測試數(shù)據(jù)集不參與模型的訓(xùn)練。

表1 實(shí)驗(yàn)中使用的數(shù)據(jù)集名稱及圖像數(shù)量Tab.1 Different datasetsand their numbersof imagesused in experiments

一般目標(biāo)檢測任務(wù)中衡量模型性能的指標(biāo)為平均精度均值(Mean Average Precision,MAP),由于火焰檢測是單目標(biāo)檢測,該指標(biāo)與平均精度(Average Precision,AP)等價。但是,火焰目標(biāo)檢測中,火焰的標(biāo)注沒有一個確定的標(biāo)準(zhǔn),不同人的標(biāo)注風(fēng)格不盡相同,因此,以往的研究中,火焰檢測的性能評判標(biāo)準(zhǔn)都是按幀計(jì)算的,而不使用AP值來衡量。但在Faster R-CNN的訓(xùn)練中,仍需要通過AP指標(biāo)來確定模型是否向正確的方向收斂,為了能夠在BoWFire數(shù)據(jù)集與Corsician Fire數(shù)據(jù)集上計(jì)算AP指標(biāo),本文對這兩個數(shù)據(jù)集進(jìn)行了標(biāo)注。同時,為了與其他火焰檢測方法進(jìn)行比較,衡量本文模型性能的指標(biāo)也按幀計(jì)算:對于一幅火焰圖像,當(dāng)圖像中的火焰均被檢測框覆蓋,則認(rèn)為這張圖像的檢測結(jié)果正確。

首先,本文在BoWFire數(shù)據(jù)集上研究本文方法在火焰檢測任務(wù)上的性能,并與基于人工特征的方法[5]、基于卷積神經(jīng)網(wǎng)絡(luò)的先進(jìn)方法[6]進(jìn)行了比較。表2在精度、召回率與F值三個方面與Chino等[5]和Muhammad等[6]的方法進(jìn)行了比較。其中:文獻(xiàn)[5]中使用樸素貝葉斯模型構(gòu)建火焰顏色模型,并使用超像素的方法將圖像分塊并進(jìn)行紋理分析;文獻(xiàn)[6]訓(xùn)練一個二分類的GoogleNet來辨別圖像中是否存在火焰,并使用遷移學(xué)習(xí)方法進(jìn)一步提高了網(wǎng)絡(luò)在火焰檢測上的性能。

表2 各方法的性能比較Tab.2 Performancecomparison of different methods

從表2中可以看到:由顏色引導(dǎo)的拋錨機(jī)制可以小幅提升火焰檢測的召回率,97.48%的火焰圖像中的火焰都被正確檢出,達(dá)到了各種方法中的最優(yōu),但是這也會帶來一些精度上的下降。綜合上述效果,火焰檢測的F值略有上升。

隨后,本文也進(jìn)行了效率上的測試,結(jié)果如表3所示。由于在掩膜卷積中,掩膜中不感興趣的區(qū)域都被忽略,故計(jì)算速度較原來提高了10.1%,而提高不是特別明顯的原因是僅掩膜RPN中的普通卷積層替換為了掩膜卷積層,若將特征提取器的卷積層也進(jìn)行替換,則可以進(jìn)一步提高檢測速度。此外,掩膜的計(jì)算也需要耗費(fèi)一些時間(在BoWFire數(shù)據(jù)集上約耗費(fèi)3 s)。

表3 各方法的運(yùn)行時間對比 單位:sTab.3 Comparison of running time of different methods unit:s

最后,在Corsician Fire數(shù)據(jù)集上進(jìn)行了測試,以進(jìn)一步檢驗(yàn)對火焰的檢測效果,表4展示了Corsician Fire數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果。可以看到使用了顏色引導(dǎo)的拋錨機(jī)制的Faster RCNN達(dá)到了更優(yōu)的準(zhǔn)確度,Barmpoutis等[10]的方法在該數(shù)據(jù)集上達(dá)到了最優(yōu)的檢測結(jié)果。在Faster R-CNN后串聯(lián)紋理分析會使得火焰檢測更加可靠,但顯然會進(jìn)一步增加計(jì)算量,因此本文方法也可以應(yīng)用于文獻(xiàn)[10]的方法中,提高其火焰檢測的速率。

表4 各方法在Corsician Fire數(shù)據(jù)集上的準(zhǔn)確度對比Tab.4 Accuracy comparison of different methodson Corsician Firedataset

本文實(shí)驗(yàn)所使用的硬件平臺均為英特爾I7-9700K八核CPU與有12 GB顯存的GeForce GTX TITAN X GPU。實(shí)驗(yàn)軟件開發(fā)環(huán)境為python,使用的模型通過pytorch框架搭建。實(shí)驗(yàn)中,F(xiàn)aster R-CNN使用的骨干網(wǎng)絡(luò)為ResNet101。圖5展示了仿真環(huán)境下一些火焰圖像的檢測結(jié)果,可以看到圖中一些較小的火焰沒有被檢出,其余均被正確檢出。

圖5 檢測結(jié)果示例Fig.5 Samples of detection results

5 結(jié)語

本文提出了由顏色引導(dǎo)的火焰檢測方法,一個新穎的顏色引導(dǎo)的拋錨策略。該策略易于實(shí)現(xiàn),并可以提高Faster RCNN在火焰檢測中的效率與召回率。通過在BoWFire數(shù)據(jù)集上與兩個現(xiàn)有工作進(jìn)行的比較,本文方法可以達(dá)到最高的召回率(97.48%)。同時,通過在BoWFire數(shù)據(jù)集上進(jìn)行的速度測試,顏色引導(dǎo)的拋錨策略可以將Faster R-CNN的檢測速度提升10.1%。最后,在Corsician Fire數(shù)據(jù)集上進(jìn)行的實(shí)驗(yàn)驗(yàn)證了本文方法的魯棒性。本文方法的良好性能來自兩個原因:一是Faster R-CNN中卷積層的強(qiáng)大特征提取能力,另一個是訓(xùn)練數(shù)據(jù)集的豐富性。未來的工作中,將研究在特征提取層使用掩膜卷積來進(jìn)一步提升檢測效率,并將本文的方法移植到消防機(jī)器人上,在實(shí)踐中測試其有效性。

猜你喜歡
特征區(qū)域檢測
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
如何表達(dá)“特征”
不忠誠的四個特征
抓住特征巧觀察
小波變換在PCB缺陷檢測中的應(yīng)用
關(guān)于四色猜想
分區(qū)域
基于嚴(yán)重區(qū)域的多PCC點(diǎn)暫降頻次估計(jì)
電測與儀表(2015年5期)2015-04-09 11:30:52
主站蜘蛛池模板: 亚洲人成人无码www| 91视频99| 人人看人人鲁狠狠高清| 97精品国产高清久久久久蜜芽| 成人在线欧美| 欧美成人免费| 久久国产亚洲偷自| 亚洲国产综合自在线另类| 国产精品白浆无码流出在线看| 五月天福利视频| 她的性爱视频| 国产成人一区免费观看| 一级毛片免费的| 久久黄色小视频| 在线一级毛片| 欧美一区二区三区香蕉视| 国产综合精品日本亚洲777| 国产主播一区二区三区| 国产色婷婷| 亚洲高清资源| 91在线精品麻豆欧美在线| 亚洲成在线观看 | 国产精品午夜电影| 99国产精品一区二区| 超薄丝袜足j国产在线视频| 婷婷伊人久久| 久久动漫精品| 青青操国产视频| 亚洲日韩精品伊甸| a毛片在线播放| 久久99国产综合精品1| 成人国产精品一级毛片天堂 | 亚洲欧美日韩中文字幕在线| 久久99精品久久久大学生| 国产成人精品免费视频大全五级| av色爱 天堂网| 亚洲精品爱草草视频在线| 国产综合色在线视频播放线视| 免费人成视网站在线不卡| 亚洲男人在线天堂| 日本一区高清| 日本福利视频网站| 日本人妻丰满熟妇区| 91福利在线看| 亚洲天堂精品视频| 久久这里只有精品2| 国产精品视频第一专区| 国产黄在线免费观看| 国产剧情一区二区| 欧美在线视频a| 毛片在线播放网址| 老司国产精品视频| 十八禁美女裸体网站| 亚洲欧洲日产无码AV| 国产福利一区视频| 亚洲性网站| 国产女人在线| 国产精品综合色区在线观看| 少妇人妻无码首页| 久久男人资源站| 老熟妇喷水一区二区三区| 亚洲天堂视频在线观看| 国产成人91精品免费网址在线| 国产啪在线91| 一级毛片不卡片免费观看| 在线观看国产精品第一区免费| 欧美一区日韩一区中文字幕页| 丰满的熟女一区二区三区l| 亚洲Va中文字幕久久一区| 天天操天天噜| 亚洲国产日韩欧美在线| 99九九成人免费视频精品| 最新日韩AV网址在线观看| 欧美亚洲综合免费精品高清在线观看| 亚洲第一精品福利| 亚洲第一视频免费在线| 91综合色区亚洲熟妇p| 亚洲日韩精品欧美中文字幕| 91年精品国产福利线观看久久| 日韩福利在线视频| 毛片网站观看| 91久久国产综合精品女同我|