999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于SIFT-SVM的發動機主軸承蓋識別與分類

2020-08-27 06:19:16石志良張鵬飛李曉垚
圖學學報 2020年3期
關鍵詞:關鍵點發動機分類

石志良,張鵬飛,李曉垚

基于SIFT-SVM的發動機主軸承蓋識別與分類

石志良,張鵬飛,李曉垚

(武漢理工大學機電工程學院,湖北 武漢 430070)

機械零部件的識別與分類任務是制造業自動化生產線的關鍵環節。針對發動機主軸承蓋混合清洗后的分類,通過分析發動機主軸承蓋零件的實際特征,提出基于SIFT-SVM的主軸承蓋分類識別方法。該方法首先提取訓練數據集圖像的所有尺度不變(SIFT)特征向量,采用K-means聚類方法,將所有的特征向量聚類成K個分類,并將其代入詞袋模型(BoW)中,使用K個“詞匯”來描述每一張訓練圖像,從而得到圖像的BoW描述。且以每張圖像的BoW描述作為訓練輸入,使用支持向量機(SVM)訓練主軸承蓋的分類模型。實驗結果表明:在標定的照明條件下,主軸承蓋零件的識別率可達100%,單個零件識別時間為0.6 s,驗證了該算法的有效性和高效性。

零件識別與分類;機器視覺;SIFT;詞袋模型;支持向量機分類器

汽車發動機主軸承蓋用于發動機曲軸定位,是汽車發動機的重要零部件之一。由于發動機的尺寸、造型及動力性能存在多樣化,導致發動機主軸承蓋的形狀及尺寸有所不同。企業在實際生產過程中,通常是一條生產線同時生產幾種類型的主軸承蓋,經過混合清洗工序后,需要將不同種類的主軸承蓋零件進行分類包裝。目前通常是人工目視分類,工人需要長時間在生產一線工作,工作環境差、強度高、易疲勞甚至個人情緒都會降低分類的可靠性。通過引入機器視覺方法進行主軸承蓋自動分類,有助于減輕一線工人繁重的體力勞動,同時提高零件分類的效率及可靠性。

隨著圖像識別算法的不斷更新與優化,基于機器視覺的識別與分類系統受到越來越多國內外專家學者的關注。BHAT等[1]提出一種基于機器學習的機械加工車刀狀態識別方法,該方法通過灰度共生矩陣提取加工表面的紋理特征,利用支持向量機(support vector machine,SVM)識別加工表面的質量,最終由加工表面質量與車刀狀態的關系,完成車刀3種銳利狀態的識別;OLGUN等[2]將基于SIFT-SVM的機器視覺系統應用于小麥的自動識別中,通過提取圖像中小麥的尺度不變特征(scale- invariant feature transform,SIFT),然后在詞袋模型(bag of word model,BoW)中得到小麥圖像的詞袋描述,最后使用SVM分類器得到了有效的分類結果,類似的方法還被應用于蠟染圖像識別[3]、車輛識別[4]、手語圖像識別[5]、三維人臉面部表情識別[6]等領域;KRüGER等[7]利用渦輪機零部件自身的形狀特征,通過構建帶殘差塊的卷積神經網絡ResNet-152進行識別訓練,實驗結果表明:對于50種形狀差異明顯的渦輪機零部件,其識別正確率可達96%,基于深度神經網絡的方法還被應用于電子板缺陷圖像分類[8]、水果和花卉圖像分類[9]等領域。在結合圖像分類方法及應用的基礎上,本文提出一種基于機器視覺的機械零部件識別方法,用于發動機主軸承蓋零件的識別與分類,實驗結果證明了該方法的實用性和有效性。

1 基于SIFT-SVM的主軸承蓋識別

在實際生產中,同一時段生產的多種主軸承蓋零件,在不同的鑄造生產線加工完成后,會合并到同一條生產線統一進行清洗、除銹,接著進入識別分類工序。對于不同種類主軸承蓋零件,其外觀尺寸差異小,底部半圓孔尺寸完全相同,因此選取零件的頂部側邊支撐面作為分類識別的目標區域,如圖1所示。

發動機主軸承蓋識別分類方法的具體流程如圖2所示。在模型訓練過程中,訓練數據集全體主軸承蓋圖像的SIFT特征向量組合成特征矩陣,通過無監督聚類方法形成BoW模型的詞匯集并保存,最終,以每張圖像的詞袋描述作為輸入數據,由SVM分類器得到主軸承蓋識別分類模型。

圖1 5種發動機主軸承蓋零件分類所依據的形狀特征

圖2 發動機主軸承蓋零件識別方法流程圖

在進行實際分類識別時,將實時拍攝的主軸承蓋圖像,直接輸入到識別系統中,通過SIFT方法提取圖像的關鍵點,并結合訓練時已保存的BoW模型詞匯集,得到該主軸承蓋圖像的BoW描述,由此利用已經訓練完成的識別模型,即可完成對當前主軸承蓋的識別與分類。

2 發動機主軸承蓋的具體識別過程

2.1 發動機主軸承蓋識別系統的硬件組成

發動機主軸承蓋識別系統的硬件部分,主要由物料傳送、圖像采集、輔助光源和識別處理4個模塊組成。其簡化模型如圖3所示。

圖3 主軸承蓋識別系統的硬件組成

物料傳送模塊由驅動電機、差速器和傳送帶組成,差速器用于調整傳送帶的傳輸速度,控制生產節拍,并驗證該節拍下的識別系統準確率。圖像采集模塊由單通道工業CCD相機、漫反射光電觸發器組成,經過標定后的光電觸發器,會在主軸承蓋零件傳送至靠近觸發器的固定位置處,觸發CCD相機進行圖像捕捉,從而獲得質量良好的主軸承蓋零件圖像。輔助光源模塊由環形LED光源、電源和輔助遮光罩組成,采用的環形多角度照明方式,照射面積大、光照均勻、可展現各種類主軸承蓋零件的差異性細節。另外,輔助遮光罩的設置,有效抑制了外界環境光照的影響,提升了采集圖像的品質,提高了系統識別的準確率。識別處理模塊主要由工業計算機組成,通過構建基于Visual Studio平臺和OpenCV計算機視覺庫的零件識別系統,在計算機上執行具體的識別與分類程序,實現識別模型的訓練和應用。

2.2 主軸承蓋圖像關鍵點的提取

從主軸承蓋圖像中提取目標區域的有效關鍵點是完成其識別分類的根本依據,使用目標區域關鍵點信息來描述不同種類主軸承蓋之間的差異,并將該描述作為分類輸入是發動機主軸承蓋識別方法的主要思路。理想的關鍵點應該集中于主軸承蓋側邊支撐面形狀的邊緣或是幾何中心等位置,以便突出不同種類主軸承蓋側邊形狀上的差異。

提取主軸承蓋目標區域形狀差異的關鍵點采用SIFT算法。SIFT是由LOWE[10]提出的一種局部特征描述子,其基于圖像多尺度金字塔,綜合考慮了各像素點處梯度的大小和方向,使得SIFT特征在旋轉、尺度縮放、光照明暗變化等方面保持良好的不變性,并將檢測多尺度空間下的局部極值點作為潛在關鍵點。首先將圖像逐步下采樣構成圖像金字塔,其次,對每層圖像,通過計算得到多張不同尺度的圖像,形成尺度金字塔。SIFT方法通過二維高斯函數(,,),將圖像的尺度空間(,,)定義為原圖像(,)與高斯函數(,,)的卷積,即

式中,*表示圖像卷積運算,高斯函數(,,)為

為提高局部極值點檢測的效率與穩定性,SIFT使用高斯差分函數(difference of Gaussian,DoG)代替高斯-拉普拉斯算子(Laplacian of Gaussian,LoG),并由此計算出用于局部極值點求解的高斯差分圖像(,,),即

其中,為2個相鄰尺度圖像的分離系數。

尺度空間下的極值點,最終是由該樣本點與當前圖像相鄰的8個像素點,以及上下兩層尺度圖像的各9個像素點,共26個最鄰近像素點相比較得到的(圖4)。

但是,由上述方法從離散尺度空間得到的極值點并不都是穩定的關鍵點,因為某些極值點可能存在于對比度較低區域,而且DoG算子具有較強的邊緣突出效應,易受圖像噪聲影響。因此,需要對極值點進行進一步的插值和2篩選。

圖4 高斯差分圖像局部極值檢測示意圖

SIFT特征利用極值點的Hessian矩陣計算主曲率,篩選出處于不穩定邊緣處或噪聲處的極值點

實驗表明:取=10時,且僅保留滿足上式的極值點,可以有效增強極值點的穩定性[10]。

經過篩選后的極值點,即確定為主軸承蓋目標區域的穩定關鍵點。不同種類主軸承蓋零件圖像在側邊支撐面區域所提取的關鍵點如圖5所示。

由圖5可知,實際提取的關鍵點大部分穩定地集中于頂部側邊支撐面的邊緣位置,同時對于中間圓形螺栓孔的定位非常精準。這些關鍵點可以很好地描述不同種類主軸承蓋零件間的形狀差異,為組建BoW模型提供了穩定的“詞匯”信息。

圖5 提取主軸承蓋頂部側邊支撐面區域的關鍵點

2.3 主軸承蓋圖像關鍵點的描述

從發動機主軸承蓋圖像中提取的關鍵點是實際的像素點,僅包含單張圖像的具體空間位置信息,因此需要進一步將關鍵點轉化為特征向量,以此作為關鍵點的數學表達,才能充分反映任意一張主軸承蓋圖像在該點處的像素梯度及方向信息。

通過圖像的梯度信息,為每一個關鍵點確定一個方向,并且在后續的關鍵點描述中包含這些方向信息,使得SIFT特征獲得有效的旋轉不變性。對于任一個關鍵點(,),其梯度大小(,)和方向(,)可表示為

描述主軸承蓋圖像關鍵點的具體方法如圖6所示。在實際拍攝的圖像中取與關鍵點相鄰的8×8像素塊,計算每個像素點的梯度大小及方向。再將該像素塊分成16個2×2的子像素塊,對每個2×2子塊中的4個像素點的梯度做高斯加權,并投影至8個方向,即,每個2×2子塊描述成一個1×8維的向量(共16個子塊)。由此,一個關鍵點最終由一個1×128維的特征向量描述。

2.4 構建主軸承蓋零件的BoW模型

由主軸承蓋圖像得到的SIFT特征向量是針對每一個具體關鍵點的描述,是該關鍵點周圍局部特征的體現。將這些關鍵點使用K-means聚類算法分成個分類,并以這些分類組成的詞匯模型來描述主軸承蓋圖像,可以突出不同種類主軸承蓋之間所包含的關鍵點的差異,同時也降低了圖像特征向量的維度。

K-means算法[11]是一種基于樣本間相似性度量的無監督分類方法。此方法首先將所有樣本數據隨機分類成個簇,然后執行迭代:將簇中全體樣本的位置均值設定為簇的中心,重新將樣本劃分為距離最近的簇中,完成一次迭代計算。通過重復的迭代完成樣本的聚類。在汽車發動機主軸承蓋分類識別方法中,所有主軸承蓋訓練圖像中提取的SIFT特征,聚類成個分類,作為BoW模型的輸入。

BoW模型最初應用于自然語言處理和信息檢索中,將文本看作是無序單詞的組合,建立詞匯表,統計每個文本中的詞匯信息實現文本的分類與檢索。隨著新的更穩定的圖像特征提取算法的提出,BoW模型方法開始被引入機器視覺的任務中[12],例如衛星圖像分類[13]等。

本文將K-means聚類方法得到的個分類,抽象為BoW詞匯表中的個詞匯,每一個訓練數據集圖像均可由這個詞匯表述,形成的描述向量經過L2歸一化,得到圖像最終的BoW描述。通過構建BoW模型,將圖像的描述向量維度降低為[1×],提高了識別系統的運行效率。同時,基于關鍵點詞匯表的圖像描述,可以突出不同種類零件關鍵點的差異,有利于提高系統的識別效率。

將所有訓練數據集合的關鍵點特征向量進行無監督聚類,使得具有相似描述的關鍵點,成為一類相似特征的組合。其中,描述關鍵點的特征向量,是由主軸承蓋圖像在該關鍵點的鄰域內的像素點所決定的。因此,某一類關鍵點的組合,可以直觀的理解為主軸承蓋圖像的某個具體形狀特征,如圖7所示。

由圖7可知,每一張主軸承蓋圖像均可由聚類形成的中心詞匯集表示,這種圖像的表達形式稱為圖像的BoW模型描述。假設通過K-means聚類方法得到個詞匯,則對于任意一張主軸承蓋圖像,均可由一個[1×]的詞袋描述向量來表示,該向量內的每一個元素表示:描述指定圖像時,對應“詞匯”出現的次數。圖像的BoW描述作為SVM分類器訓練時的輸入信息。

圖6 利用鄰域的像素梯度和方向來描述主軸承蓋的關鍵點

圖7 由主軸承蓋圖像關鍵點特征向量聚類形成的BoW模型“詞匯”

2.5 構建SVM分類器

SVM[14]是一種基于統計學習理論的機器學習算法,根據有限的樣本信息,綜合考量模型的復雜性和學習能力,針對小樣本、非線性分類以及高維模式問題具有突出優勢。SVM將圖像分類問題簡化為一個二分類模型,其核心思想是尋找一個使得最小分類間隔最大化的分類超平面。

對于已知的樣本空間(x,y),=1,2,···,,?R,?{±1},其超平面為wx+=0,如果該樣本空間線性可分,并且考慮添加合頁損失函數以考慮少數柔性不可分樣本,則SVM二分類問題的數學模型可表示為如下所示的凸二次規劃問題,即

對于實際應用中更普遍存在的線性不可分樣本空間,SVM運用核函數將低維樣本空間映射到高維特征空間,并在高維空間中構建超平面以完成分類。核函數是SVM的重要手段,可避免直接求解非線性映射函數的具體形式,有效解決高維空間計算帶來的“維數災難”問題,可極大擴展SVM的實際應用場景。常用的核函數有

線性核函數:(,x)=·x

多項式核函數:(,x)=[(·x)+1]

Sigmoid核函數:(,x)=tanh((·x)+)

3 識別方法驗證及分析

3.1 驗證實驗的基礎環境及數據集

基于SIFT-SVM的發動機主軸承蓋識別分類方法中,識別準確率的影響參數包括:①SVM分類器的核函數;②K-means聚類算法的類別數。在該方法的驗證中,本文進一步探究了上述參數在實際識別過程中的具體影響。實驗的評價指標為:分類模型對于同一測試集數據的識別準確率以及單張圖像的識別時間。驗證實驗的數據集圖像來源于實際拍攝的主軸承蓋圖像,主軸承蓋零件共有5個種類,訓練集共采集500張圖像,每小類100張;測試集共采集200張圖像,每小類40張;圖像尺寸大小為2048×2048。

3.2 SVM分類器不同核函數的影響

分別構建4種常用核函數下的SVM分類器,進行模型訓練。同時,為了突出不同核函數對識別結果的影響,將聚類類別數取較小值=50,以使識別準確率處于較低水平,各核函數下的整體識別結果見表1,其中,依次列舉線性核函數以及RBF核函數分類器所對應的識別結果混淆矩陣,見表2和表3。

表1 采用不同核函數的SVM分類器識別結果

表2 K=50與線性核函數組合下的識別結果混淆矩陣

表3 K=50與RBF核函數組合下的識別結果混淆矩陣

由表1結果可知,基于RBF核函數的SVM分類器識別準確率最高,且單張圖像識別時間滿足在線識別要求。綜合比較表2和表3的結果,采用線性核函數的SVM分類器,主要在第1類和第2類、第3類和第4類零件的識別上存在錯誤,而采用RBF核函數可以有效改善識別準確率。是因為線性核函數對原樣本空間僅進行線性映射,對于線性不可分的數據模型存在較大誤差,上述4類主軸承蓋的特征區域圖像,兩兩之間較為相似,關鍵點分布趨近,使得SVM分類器難以通過簡單的線性分割平面進行分類,而RBF核函數則可以將主軸承蓋零件的原始特征映射至多維空間,使得原本分布趨同的特征描述在高維空間中分離,求解出更準確的分割超平面,有效提升了主軸承蓋零件的識別準確率。

同時,RBF核函數也含有2個主要參數:高斯參數和懲罰系數。高斯參數與樣本分類的精細程度有關,的值越小,分類越精確,即分類器力求將每個樣本都分類,因此存在過擬合的風險;的值越大,則分類越粗糙,可能導致分類模型欠擬合。懲罰系數的直觀理解是允許SVM模型錯分樣本的程度,直接影響到分類模型的適應性。的值越大,表示模型對錯分樣本的關注度越高,允許的錯分樣本越少,而要求每個樣本都被準確分類會存在過擬合的風險,模型的適應性也隨之越低;相反,的值越小,表示模型允許的錯分樣本多,同時,追求最大的分類間隔會導致欠擬合,優化算法難以收斂。針對上述2個參數,驗證實驗采用網格搜索法[15]探究不同參數組合的實際影響,同樣取聚類類別數=50。實驗結果以“識別準確率-單張圖像識別時間”格式記錄于表4。

表4 不同高斯參數和懲罰系數的識別結果(識別準確率-單張圖像識別時間(s) )

由表4可知,高斯參數和懲罰系數對主軸承蓋零件識別結果影響差異較小,其原因是本文方法提取的目標區域關鍵點穩定、有效,且存在明顯的分類差異,使得分類結果趨于穩定。結合上述實驗驗證,最終選取高斯參數=1,懲罰系數=1,此時分類模型識別率最高,且識別時間損耗較小。

3.3 聚類類別數K的影響

根據實際經驗,聚類的類別數越大,則詞匯模型中用于描述圖像的“基本詞匯”越充足,描述越詳細,因此通常會取得更好的識別效果。但由于主軸承蓋圖像目標區域有效的關鍵點數目有限,因此,當超過一定值時,識別系統的效果將不再變化,甚至因為冗余描述導致分類錯誤。因此,進行對照組實驗,見表5。

表5 不同聚類類別數的識別結果

由表5結果可知,對于主軸承蓋零件的分類,聚類類別數的最優選擇是=150,此時零件識別的準確率達到100%,且單張圖像的識別時間為0.60 s。綜合比較表3和表6,通過增大聚類類別數,可以將各種類主軸承蓋零件間的差異性關鍵點,劃分為不同的基礎特征,避免了相似分布的關鍵點僅被簡單聚集成一個特征,因此,擴展了SVM分類器的識別依據,從而有效提升識別準確率。

表6 K=150與RBF核函數組合下的識別結果混淆矩陣

綜合相關參數對識別結果影響的驗證實驗,可以得到發動機主軸承蓋識別方法的最優參數為:SVM分類器的核函數確定為RBF核函數,其高斯系數=1,懲罰系數=1,聚類類別數150。經實際數據測試,基于SIFT-SVM的發動機主軸承蓋識別分類方法的識別準確率為100%,單張識別時間為0.60 s。

4 結束語

本文提出的基于SIFT-SVM的發動機主軸承蓋識別方法,結合了各種類零件之間的形狀差異,有效的實現了識別與分類。該方法將機器視覺相關理論應用到工業生產,其基本組件包括工業相機、環形LED光源、光電傳感器、電源和計算機,硬件組成簡單易實現,成本低廉。通過實驗進一步驗證了該方法的有效性,在參數組合為:SVM分類器采用RBF核函數,其高斯參數=1,懲罰系數=1,聚類類別數=150的情況下,該方法的識別正確率可以達到100%,單個零件的識別時間為0.60 s。

在實際應用中,該方法對獲取圖像時的拍攝環境有一定的要求,需要額外設置光線遮擋裝置,以保證工作光源可以正常有效地照亮主軸承蓋零件上特定的目標區域。當外部干擾光線將零件分類特征區域以外的部分打亮時,會對識別系統產生嚴重干擾,導致圖像有效的SIFT關鍵點發生改變,由此造成識別錯誤。因此,識別系統的下一步改進方向應當考慮采用更穩健的關鍵點提取方案,以提高識別系統的靈敏性。

[1] BHAT NAGARAJ N, DUTTA S, VASHISTH T, et al. Tool condition monitoring by SVM classification of machined surface images in turning[J]. The International Journal of Advanced Manufacturing Technology, 2016, 83(9-12): 1487-1502.

[2] OLGUN M, ONARCAN AHMET O, ?ZKAN K, et al. Wheat grain classification by using dense SIFT features with SVM classifier[J]. Computers and Electronics in Agriculture, 2016, 122: 185-190.

[3] AZHAR R, TUWOHINGIDE D, KAMUDI D, et al. Batik image classification using SIFT feature extraction, bag of features and support vector machine[J]. Procedia Computer Science, 2015, 72: 24-30.

[4] MANZOOR MUHAMMAD A, MORGAN Y. Vehicle Make and Model classification system using bag of SIFT features[C]//2017 IEEE 7th Annual Computing and Communication Workshop and Conference (CCWC). New York: IEEE Press, 2017: 1-5.

[5] 楊全, 彭進業. 采用SIFT-BoW和深度圖像信息的中國手語識別研究[J]. 計算機科學, 2014, 41(2): 302-307. YANG Q, PENG J Y. Chinese sign language recognition research using SIFT-BoW and depth image information[J]. Computer Science, 2014, 41(2): 302-307 (in Chinese).

[6] BERRETTI S, BEN AMOR B, DAOUDI M, et al. 3D facial expression recognition using SIFT descriptors of automatically detected keypoints[J]. The Visual Computer, 2011, 27(11): 1021-1036.

[7] KRüGER J, LEHR J, SCHLüTER M, et al. Deep learning for part identification based on inherent features[J]. CIRP Annals, 2019, 68(1): 9-12.

[8] IWAHORI Y, TAKADA Y, SHIINA T, et al. Defect classification of electronic board using dense SIFT and CNN[J]. Procedia Computer Science, 2018, 126: 1673-1682.

[9] NAJVA N, EDET BIJOY K. SIFT and tensor based object classification in images using Deep Neural Networks[C]//2016 International Conference on Information Science (ICIS). New York: IEEE Press, 2016: 32-37.

[10] LOWE DAVID G. Distinctive image features from scale-invariant keypoints[J]. International Journal of Computer Vision, 2004, 60(2): 91-110.

[11] JAIN ANIL K. Data clustering: 50 years beyond K-means[J]. Pattern Recognition Letters, 2010, 31(8): 651-666.

[12] SILVA FERNAND B, WERNECK RAFAEL DE O, et al. Graph-based bag-of-words for classification[J]. Pattern Recognition, 2018, 74: 266-285.

[13] YUAN Y, HU X Y. Bag-of-words and object-based classification for cloud extraction from satellite imagery[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2015, 8(8): 4197-4205.

[14] CORTES C, VAPNIK V. Support-vector networks[J]. Machine learning, 1995, 20(3): 273-297.

[15] 奉國和. SVM分類核函數及參數選擇比較[J]. 計算機工程與應用, 2011, 47(3): 123-124. FENG G H. Parameter optimizing for support vector machines classification[J]. Computer Engineering and Applications, 2011, 47(3): 123-124 (in Chinese).

Classification of engine main bearing cap parts using SIFT-SVM method

SHI Zhi-liang, ZHANG Peng-fei, LI Xiao-yao

(Mechanical and Electrical Engineering, Wuhan University of Technology, Wuhan Hubei 430070, China)

The recognition and classification of mechanical components is a key process on the manufacturing automation line. In terms of the classification of the mixed and cleaned engine main bearing cap, through the analysis of the actual characteristics of the main bearing cap parts, the classification and recognition method for the main bearing cap based on SIFT-SVM was proposed. The method first extracted all scale-invariant feature transform (SIFT) feature vectors of the training dataset image, then employed the K-means clustering method to cluster all feature vectors into K classifications, and substituted the obtained K clustering results into the bag of word model (BoW). “Vocabulary” was utilized to describe each training image, thereby obtaining a BoW description of the image. The BoW description of each image served as a training input, and the classification model for the main bearing cap was trained using a support vector machine (SVM). The experimental results show that under the calibrated lighting conditions, the recognition rate of the main bearing cap parts can reach 100%, and the recognition time for a single part was 0.6 seconds, which verified the effectiveness and efficiency of the algorithm.

parts recognition and classification; machine vision; scale-invariant feature transform; word bag model; support vector machine classifier

TP 391.4

10.11996/JG.j.2095-302X.2020030382

A

2095-302X(2020)03-0382-08

2019-11-07;

2020-02-25

石志良(1974-),男,湖北武漢人,副教授,博士,碩士生導師。主要研究方向為3D打印、計算機視覺等。E-mail:shizhiL998@163.com

猜你喜歡
關鍵點發動機分類
聚焦金屬關鍵點
肉兔育肥抓好七個關鍵點
今日農業(2021年8期)2021-11-28 05:07:50
分類算一算
發動機空中起動包線擴展試飛組織與實施
分類討論求坐標
數據分析中的分類討論
教你一招:數的分類
新一代MTU2000發動機系列
醫聯體要把握三個關鍵點
中國衛生(2014年2期)2014-11-12 13:00:16
鎖定兩個關鍵點——我這樣教《送考》
語文知識(2014年7期)2014-02-28 22:00:26
主站蜘蛛池模板: 亚洲国产清纯| 国产黄网永久免费| 99人妻碰碰碰久久久久禁片| 在线国产91| 国产视频欧美| 免费一级毛片在线播放傲雪网| 精品一区二区三区无码视频无码| 青青青国产精品国产精品美女| 在线无码九区| 亚洲久悠悠色悠在线播放| 亚洲天堂免费在线视频| 少妇露出福利视频| 热99精品视频| 亚洲,国产,日韩,综合一区| 日韩专区欧美| 亚洲色图欧美激情| 欧美va亚洲va香蕉在线| 日韩欧美91| 国产精品吹潮在线观看中文| 91最新精品视频发布页| 无遮挡国产高潮视频免费观看| 欧美一区中文字幕| 国产午夜在线观看视频| 尤物特级无码毛片免费| 一级高清毛片免费a级高清毛片| 国产经典在线观看一区| 久久综合色88| 久久成人免费| 国产1区2区在线观看| 久久96热在精品国产高清| 亚洲精品欧美日韩在线| 全部免费毛片免费播放| m男亚洲一区中文字幕| 中文字幕天无码久久精品视频免费| 日韩在线网址| 国产欧美在线视频免费| 亚洲国产一成久久精品国产成人综合| 亚洲毛片一级带毛片基地| 亚洲婷婷在线视频| 亚洲天堂精品在线观看| 欧美激情一区二区三区成人| 嫩草国产在线| 中文一区二区视频| 国产尤物在线播放| 呦系列视频一区二区三区| 亚洲成人在线网| 91免费观看视频| 欧美日韩免费在线视频| 国产爽歪歪免费视频在线观看| 欧美α片免费观看| 成人午夜视频免费看欧美| 国产乱人免费视频| 欧美.成人.综合在线| 久久精品无码一区二区日韩免费| 中文字幕亚洲电影| 一级做a爰片久久免费| 美女视频黄又黄又免费高清| 亚洲熟女偷拍| 97国产精品视频自在拍| 在线观看欧美国产| 精品国产免费观看| 日韩av资源在线| 国产成本人片免费a∨短片| 国产精品对白刺激| 亚洲成人精品| 高清不卡毛片| 妇女自拍偷自拍亚洲精品| 99在线观看精品视频| 国产视频你懂得| 三级欧美在线| 99精品在线看| 伊人久久婷婷五月综合97色| 国产不卡国语在线| 国产伦精品一区二区三区视频优播 | 欧美激情,国产精品| 91福利在线看| 日日碰狠狠添天天爽| 国产视频一区二区在线观看| 视频二区亚洲精品| 99久久精品美女高潮喷水| 一级黄色网站在线免费看| 亚洲日韩久久综合中文字幕|