999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

一種聯合陰影和目標區域圖像的SAR目標識別方法

2015-07-05 16:46:53軍劉宏偉王英華王正玨齊會嬌時荔蕙
電子與信息學報 2015年3期
關鍵詞:區域方法模型

丁 軍劉宏偉 王英華 王正玨 齊會嬌 時荔蕙

(西安電子科技大學雷達信號處理國家重點實驗室 西安 710071)

一種聯合陰影和目標區域圖像的SAR目標識別方法

丁 軍*劉宏偉 王英華 王正玨 齊會嬌 時荔蕙

(西安電子科技大學雷達信號處理國家重點實驗室 西安 710071)

地面目標的SAR圖像中除了包含目標散射回波形成的區域,還包括由目標遮擋地面形成的陰影區域。但是由于這兩種區域中的圖像特性不相同,所以傳統的SAR圖像自動目標識別主要利用目標區域信息進行目標識別,或者單獨使用陰影區域進行識別。該文提出一種陰影區域與目標區域圖像聯合的稀疏表示模型。通過使用12ll范數最小化方法求解該模型得到聯合的稀疏表示,然后根據聯合重構誤差最小準則進行SAR圖像目標識別。在運動和靜止目標獲取與識別(MSTAR)數據集上的識別實驗結果表明,通過聯合稀疏表示模型可以有效地將目標區域與陰影區域信息進行融合,相對于采用單獨區域圖像的稀疏表示識別方法性能更好。

SAR;目標識別;聯合稀疏表示;12ll范數最小化

1 引言

目前,各式各樣合成孔徑雷達(SAR)系統獲取的高分辨率圖像越來越多,各國對SAR圖像理解特別是自動目標識別(Automatic Target Recognition, ATR)技術的研究需求也越來越迫切。傳統的SAR圖像自動目標識別一般利用圖像中的單一信息進行目標識別,例如:基于模板匹配[1]的方法,基于支持向量機(Support Vector Machine, SVM)分類器的方法[2]。為了進一步提高SAR圖像目標識別性能,除了完善預處理方法以及改進現有分類器性能等手段外,融合SAR圖像中多種與類別相關的信息也是一種可行的途徑。Sun等人[3]使用Adaptive Boosting(AdaBoost)框架將多個弱分類器融合起來進行SAR目標識別。Papson等人[4]利用多幅SAR圖像中陰影區域進行目標識別。文獻[5]中通過融合目標輪廓和陰影輪廓信息進行SAR圖像目標識別。文獻[6]中通過多層編碼器對目標圖像與陰影輪廓進行聯合特征提取并用于SAR目標識別。另外,Zhang等人[7]利用多幅SAR目標圖像的聯合稀疏表示進行目標識別,并取得較好效果。

SAR目標識別可以看作是一個模式識別問題。近年來,稀疏表示在模式識別領域得到了廣泛的應用[5-10]。稀疏表示方法將觀測信號分解為給定字典中少數信號(又叫做原子)的線性組合。類似于傳統的最小二乘解,稀疏表示也是追求對觀測信號的最佳重構。但不同的是,所使用的表示系數中只有少量元素具有非零值,而其他元素均為0。在很多模式識別應用中[7-12],由于信號的稀疏表示可以較好地重構原始信號,稀疏表示被視為與原始信號對應的某種特征使用。例如:Wright等人[8]提出的基于稀疏表示的識別方法(Sparse Representation-based Classification, SRC)在人臉識別方面取得較好效果。該方法將訓練樣本數據作為字典,通過測試數據在該字典下的稀疏表示進行識別。Zhang等人[9]通過求解多視角數據的動態聯合稀疏表示進行人臉識別。Maurer等人[10]通過稀疏表示模型進行多任務學習和遷移學習;Gu等人[11]在行為識別中也引入了非負稀疏表示模型。最近,Wang等人[12]從最大化間隔角度將SRC方法解釋為一種間隔分類器。

在上述方法的啟發下,本文提出一種陰影區域與目標區域圖像聯合的稀疏表示模型。通過使用12ll范數最小化方法求解該模型得到聯合的稀疏表示,再根據聯合重構誤差最小準則進行SAR圖像目標識別。在MSTAR數據集上的試驗表明,通過聯合稀疏表示模型可以有效地將目標區域與陰影區域信息融合起來,比僅使用單獨區域圖像的稀疏表示識別方法識別精度更高。甚至在只使用一幅SAR圖像的情況下識別性能可接近Zhang等人[7]通過多幅SAR圖像聯合識別的結果。另外,采用聯合稀疏表示模型的識別方法對SAR圖像分割質量魯棒性強,因此具有較好的推廣性。

2 聯合稀疏表示

2.1 共享字典聯合稀疏表示模型

文獻[7]中,將N幅同一目標的SAR圖像集=Y [y1,y2,…,yN]融合為如式(1)所示的聯合稀疏表示模型:

2.2 獨立字典的聯合稀疏表示模型

我們知道,地面目標的SAR圖像中除了包含目標散射回波形成的區域,還包括由目標遮擋地面形成的陰影區域。通過稀疏表示進行分類的方法主要利用了圖像中強度值較大區域的信息(一般情況下為目標散射的回波形成),而對于陰影部分的信息并未加以利用。而文獻[4]表明陰影中具有對識別可用的信息。一方面,目標區域和陰影區域圖像產生原理不同,其圖像特性也不相同;另一方面,同一目標的目標區域與陰影區域又具有一一對應的關系。于是本文將具有相同稀疏模式的約束應用于目標區域和陰影區域圖像,提出如式(2)所示的基于獨立字典的聯合稀疏表示模型以融合圖像中的目標區域和陰影區域信息:

其中,ty表示目標區域圖像,sy表示陰影區域圖像,Dt為目標區域所使用的字典,Ds為陰影區域所使用的字典;X=[xt,xs]為聯合稀疏表示矩陣,xt對應為目標區域的稀疏表示,xs為陰影區域的稀疏表示;表示矩陣的l1l2混合范數,即:先對矩陣的行向量求2l范數,然后再對結果向量求1l范數。由于將原有的02ll混合范數松弛為12ll混合范數,該模型可以采用凸優化方法進行求解。通過引入拉格朗日乘子λ,上述模型可以進一步轉化為

上述模型中聯合稀疏表示系數分別對應不同的字典,所以稱該模型為獨立字典的聯合稀疏表示模型。

3 JSRI(Joint Sparse Representation with Independent dictionary)算法

雖然對于獨立字典的聯合稀疏表示模型可以采用傳統的“內點法”進行求解,但在實際應用中,出于對計算效率和問題規模的考慮,需要采用只用向量矩陣乘積操作的一階方法。文獻[13]證明,FISTA(Fast Iterative Shrinkage Thresholding Algorithm)方法可以達到O(1/k2)的收斂率,為目前一階方法中可以證明的最優收斂率。

3.1 優化求解

本節給出基于FISTA方法的獨立字典聯合稀疏表示求解算法。

表1 JSRI算法

由于算法收斂速度較快,上述JSRI算法可采用固定迭代次數的方式,或者設定kX相對變化門限的方式作為停止條件。另外,算法的收斂性證明可以參考文獻[13]。

3.2 應用FISTA求解聯合稀疏表示模型

定義1 (按矩陣行的軟閾值操作RST(Row based Soft-Thresholding))給定矩陣M∈?n×m,閾值v>0,則對矩陣MRSTv(?)操作定義為

Mi?表示矩陣的第i行。

由于獨立字典的聯合稀疏表示模型為凸優化問題,通過對偶原理及文獻[14,15]中相似的推導過程可得到如下定理:

3.3 JSRI算法復雜度分析

本節將討論文中提出的JSRI算法的時間復雜度。對于式(3)的問題,本文主要運行時間消耗在計算鄰近點操作pL(Zk)上。假定模型中所使用的字典Dt,Ds∈,那么求解梯度?f (Zk)的復雜度為O(dn)。而用于進行RST操作的復雜度為O(d)。總體進行pL(Zk)操作的復雜度為O(dn)。若算法循環次數為k次,那么JSRI算法的時間復雜度為O(kdn)。在實際應用過程中,通常只需較少迭代次數算法就可以收斂,故JSRI算法的運行時間只與數據維度d和字典中原子個數n有關。

4 聯合陰影區域與目標區域圖像的SAR目標識別

4.1 陰影區域和目標區域提取

此時外面雨勢稍減,方從云朝張位拱了拱手,閃身便出了轎子,張位連忙掀開窗簾去看,哪里還有方從云的影子?倒是一直在旁邊躲雨的二管家嚇了一跳,迎上前來:“老爺可有什么吩咐?這雨太大了,我讓轎夫們先歇歇……”

目前有許多SAR圖像分割方法可用于提取目標與陰影區域,如基于條件三元馬爾科夫場的方法[16]等。由于本文的重點并不是尋找一種最優的分割方法,而是關注所提出的JSRI模型融合目標與陰影信息后,與單獨使用某種信息相比,對識別效果所帶來的改善。所以文中采用比較簡單的閾值分割方法進行SAR目標和陰影區域的提取。在SAR圖像中,目標區域像素一般具有較高的強度值,而陰影區域具有較低的強度值。我們首先根據預先設定的閾值a,b∈[0,1],將SAR圖像中像素值按照從大到小排序,選取比例為[0,a]的大像素作為目標區域,同時選取比例為[,1]b的小像素作為陰影區域。為了去除孤立點,接著對得到的目標區域和陰影區域二值圖像進行形態學濾波。圖1給出了一幅BMP2目標SAR圖像經過分割后得到的結果。其中,圖1(a)為原始圖像,圖1(b)為使用閾值a分割出目標區域后得到的目標區域圖像,圖1(c)為使用閾值b分割出陰影區域后得到的陰影區域圖像。由于陰影區域的實際回波值強度較小,為了增強陰影區域對分類的影響,將陰影區域像素值置為1減去原始幅值,背景像素值賦為0。

4.2 隨機投影降維

將分割得到的圖像數據列向量化后得到的數據維度通常較高,需要采用有效的降維方法對其進行處理。本文采用稀疏表示分類方法中常用的隨機投影法[17]。給定原始的特征向量維數d和降維后的維數r,產生一個具有獨立同標準正態分布的隨機矩陣P∈,將矩陣P左乘原始的特征向量S,以得到降維后的向量=PS∈。訓練數據和測試數據采用相同的隨機投影矩陣P進行降維。

圖1 SAR圖像目標區域與陰影區域提取示意圖

4.3 字典構造

由于目標區域與陰影區域圖像不同,我們采用獨立字典的聯合稀疏表示模型,因此需要對陰影區域和目標區域圖像分別構造字典。給定u類訓練樣本,第i類訓練樣本個數為in。將降維后的第i類目標區域特征按列拼接成一個大小為r×ni的矩陣,稱為第i類目標區域子字典。然后將所有目標區域子字典連接起來就是所用的目標區域字典。按照與目標區域相同的順序將降維后的第i類陰影區域特征拼接成一個大小為r×ni的矩陣,稱為第i類陰影區域子字典。接著將所有連接成。最后將字典中每一列原子按照l2范數進行能量歸一化。

4.4 分類準則

4.5 聯合陰影與目標區域圖像的SAR目標識別過程

聯合陰影與目標區域圖像的SAR目標識別方法的流程如圖2所示,下面對訓練階段與測試階段分別進行介紹。

(1)訓練階段 首先,通過分割算法提取出SAR圖像中的目標區域圖像數據St和陰影區域圖像數據Ss。然后根據原始樣本維數d和設定的降維維數r生成一個隨機高斯矩陣P∈。計算降維后的目標區域特征數據=PSt和陰影區域數據= PSs。最后,將降維后的數據矩陣和進行能量歸一化得到數據字典Dt和Ds,同時記錄各原子對應的類別標號。

(2)測試階段 采用與訓練階段相同的分割算法提取測試圖像y對應的目標區域圖像數據yt和陰影區域圖像數據ys。接著使用訓練階段生成的隨機高斯矩陣P對yt和ys進行降維。然后通過JSRI算法求解得到聯合稀疏表示系數xt和xs。最后根據聯合稀疏表示系數xt和xs計算各子類聯合重構誤差,按照4.4節的分類準則得到分類結果c。為了敘述方便,我們將采用JSRI算法的分類方法記為JSRC (Joint Sparse Representation with independent dictionary based Classification)。

5 實驗結果與分析

圖2 聯合陰影與目標區域圖像的SAR目標識別方法流程圖

本節所用的實驗數據是美國國防預研計劃署和空軍研究實驗室(DARPA/AFRL)聯合資助的運動和靜止目標獲取與識別(MSTAR)計劃錄取的實測SAR地面靜止目標數據。該數據是由X波段聚束式SAR采集得到。圖像大小為128×128像素,分辨率為0.3 m×0.3 m。該數據集包含了俯仰角為15°和17°下的3類目標共7種型號:BMP2(包含3個型號:SNC21, SN9563, SN9566), BTR70(包含1個型號:C71), T72(包含3個型號:SN132, SN812, SNS7)。本節實驗主要涉及兩種典型的目標識別場景:3類目標識別場景和7種型號識別場景。其中,3類目標識別場景主要驗證識別算法對屬于同一類型但不同型號的目標的識別能力;7種型號識別場景主要驗證在不同類別數據具有較大相似情況下算法的識別能力。各場景使用的具體樣本數目如表2和表3所示。兩種場景中均使用俯仰角17°下的圖像數據作為訓練數據,俯仰角15°下的圖像數據作為測試數據。

為了驗證本文算法的有效性,將本文JSRC方法與只使用目標區域數據的SRC方法(記為SRCT),只使用陰影區域數據的SRC方法(記為SRC-S)以及SVM算法在兩種SAR目標識別場景上進行性能比較。其中,SVM分類實驗采用LIBSVM算法包[18]進行求解,多類分類策略采用一對多策略[19]。懲罰參數C從集合[10-4,10-2,…,102,103]中,通過10折交叉驗證選取。如無特別說明,實驗中所用分割閾值a=0.05, b=0.20。文中所有結果均為獨立進行5次實驗以后取平均值得到。

5.1 聯合陰影和目標區域的SAR目標識別

本節選取兩種實驗場景設置,對比JSRC和SRC-T, SRC-S以及SVM算法的識別性能。實驗中降維維度r選取[50, 100, 200, 300, 500],圖3給出了實驗結果。由圖可知,在各種降維維度下JSRC識別性能是4種算法中性能最好的。如圖3所示,無論是3類識別場景還是7種型號識別場景,JSRC算法要都比SRC-T算法識別率高出大約2個百分點。并且在3類識別場景中,數據維度為500維時本文提出的JSRC算法已可達到93.6%的識別率。在文獻[7]中,通過將3幅方位角度間隔為1°~3°的同目標圖像聯合進行識別,并且在降維維度為512時才可達到94.1%。而本文提出的JSRC算法只需要一幅目標圖像就可以達到相近的識別結果。可見采用獨立字典的聯合稀疏表示模型可以有效地利用陰影區域信息,從而提升識別性能。

我們知道,陰影區域不包含強度信息,只是目標形狀遮擋地面反射回波形成。所以即使各類目標的散射特性有所差異,但如果在雷達視線方向投影出的形狀大體相似,則成像后形成的陰影區域也會很相似。因此單純借助陰影區域進行識別的性能較差,且對目標姿態變化敏感(文獻[4])。而單純采用目標區域進行識別雖然可以達到較好的識別結果,卻損失了陰影區域中的有用信息。由于目標區域與陰影區域這兩種信息在識別性能方面的差異較大,使得傳統的融合方法(如:投票法)很難奏效。要想將陰影信息合理有效地融合進目標識別任務中,就必須采用保守的融合方式,即:只利用兩種信息之間的必然聯系。為了進一步說明,我們給出某幅BMP2圖像在SRC-T, SRC-S以及JSRC算法中求得的稀疏表示系數示意圖(見圖4)。其中虛線將圖像劃分成的3個區域分別對應3個不同的類別,從左到右依次為BMP2, BTR70和T72。如圖4所示,若單從目標區域的稀疏表示來看,該類型應該屬于BTR70,但是與BMP2類別之間的差異并不顯著。而單從陰影的稀疏表示來看,該類型會被判定屬于T72。可見單純依賴某種信息得到的判決結果之間存在矛盾。本文JSRC算法在構造字典時對tD和sD使用了相同的拼接順序,測試時通過12ll混合范數強迫聯合稀疏表示系數中tx和sx所選原子具有相同的位置(如圖4(c)所示)。因此利用了目標與陰影之間應該具有的對應關系,使得到的聯合稀疏表示更加合理,從而提升了識別性能。

表2 3類目標識別場景使用的訓練和測試數據個數

表3 7種型號識別場景使用的訓練和測試數據個數

圖3 聯合陰影和目標區域的SAR目標識別結果

圖4 某幅BMP2測試圖像在3種算法中求得的稀疏表示系數

5.2 分割閾值對識別性能的影響

本節選取3類識別場景,測試JSRC算法受圖像分割質量影響的程度。本節實驗中隨機降維維度固定為500維,高強度分割閾值a取值范圍為[0.03, 0.04,0.05,0.06,0.07],低強度分割閾值b取值范圍為[0.30,0.25,0.20,0.15,0.10]。如圖5所示,識別率隨分割閾值的變化情況不大,平均識別率達到93.26%,標準差為0.0088。由此我們可看出JSRC算法受分割質量的好壞影響不大,因此可更好地應用于SAR目標識別任務。

6 結束語

圖5 識別率隨分割閾值的變化

地面SAR目標圖像由目標區域和陰影區域兩部分組成,如何充分而合理地利用SAR圖像中的信息是提升SAR目標識別性能的關鍵。本文提出了一種聯合陰影區域與目標區域圖像的SAR目標識別方法。該方法通過引入獨立字典的聯合稀疏表示模型達到了陰影區域與目標區域信息的有效融合。實驗表明,該方法不僅可以進一步提高SAR目標識別精度,并且受SAR圖像分割質量影響較小,具有較好的推廣性。另外,本文模型中的字典是由訓練樣本直接構成的,如何通過機器學習的方法學習出識別性能更好,結構更緊湊的字典是需要進一步研究的問題。

[1] 張紅, 王超, 張波, 等. 高分辨率SAR圖像目標識別[M]. 北京: 科學出版社, 2009: 5.2節.

Zhang Hong, Wang Chao, Zhang Bo, et al.. High Resolution SAR Image Target Recognition[M]. Beijing: Science Press, 2009: Chapter 5.2.

[2] Zhao Qun and Principe J C, et al.. Support vector machines for SAR automatic target recognition[J]. IEEE Transactions on Aerospace and Electronic Systems, 2001, 37(2): 643-655.

[3] Sun Yi-jun, Liu Zhi-peng, Todorovics S, et al.. Adaptive boosting for synthetic aperture radar automatic target recognition[J]. IEEE Transactions on Aerospace and Electronic Systems, 2007, 43(1): 112-125.

[4] Scott P and Narayanan R M. Classification via the shadow region in SAR imagery[J]. IEEE Transactions on Aerospace and Electronic Systems, 2012, 48(2): 969-980.

[5] 尹奎英, 金林, 李成, 等. 融合目標輪廓和陰影輪廓的SAR圖像目標識別[J]. 空軍工程大學學報(自然科學版), 2011, 12(1): 24-28.

Yin Kui-ying, Jin Lin, Li Cheng, et al.. An SAR ATR based on fusion of target contour and shadow contour[J]. Journal of Air Force Engineering University (Natural Science Edition), 2011, 12(1): 24-28.

[6] 孫志軍, 薛磊, 許陽明, 等. 基于多層編碼器的SAR目標及陰影聯合特征提取算法[J]. 雷達學報, 2013, 2(2): 203-209.

Sun Zhi-jun, Xue Lei, Xu Yang-ming, et al.. Shared representation of SAR target and shadow based on multilayer auto-encoder[J]. Journal of Radars, 2013, 2(2): 203-209.

[7] Zhang Hai-chao, Nasrabadic N M, Zhang Yan-ning, et al.. Multi-view automatic target recognition using joint sparse representation[J]. IEEE Transactions on Aerospace and Electronic Systems, 2012, 48(3): 2481-2497.

[8] Wright J, Yang A Y, et al.. Robust face recognition via sparse representation[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2009, 31(2): 210-227.

[9] Zhang Hai-chao, Nasrabadic N M, Zhang Yan-ning, et al.. Joint dynamic sparse representation for multi-view face recognition[J]. Pattern Recognition, 2012, 45(4): 1290-1298. [10] Maurer A, Pontil M, and Romera-Paredes B. Sparse coding for multitask and transfer learning[C]. Proceedings of the International Conference on Machine Learning, Atlanta, 2013: 343-351.

[11] Gu H T and Ward R K. Learning sparse representations for human action recognition[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2012, 34(8): 1576-1588.

[12] Wang Zhao-wen, Yang Jian-chao, et al.. A max-margin perspective on sparse representation-based classification[C]. Proceedings of the IEEE International Conference on Computer Vision, Sydney, 2013: 1217-1224.

[13] Amir Beck and Marc Teboulle. A fast iterative shrinkagethresholding algorithm for linear inverse problems[J]. Society for Industrial and Applied Mathematics Journal on Imaging Sciences, 2009, 2(1): 183-202.

[14] Chen Xi, Lin Qi-hang, et al.. Smoothing proximal gradient method for general structured sparse regression[J]. The Annals of Applied Statistics, 2012, 6(2): 719-752.

[15] Francis B, Rodolphe J, et al.. Structured sparsity through convex optimization[J]. Statistical Science, 2012, 27(4): 450-468.

[16] Lian Xiao-jie, Wu Yan, Zhao Wei, et al.. Unsupervised SAR image segmentation based on conditional triplet markov fields[J]. IEEE Geoscience and Remote Sensing Letters, 2014, 11(7): 1185-1189.

[17] Baraniuk R and Wakin M. Random projections of smooth manifolds[J]. Foundations of Computational Mathematics, 2009, 9(1): 51-77.

[18] Chang Chih-chung and Lin Chih-jen. LIBSVM: a library for support vector machines[J]. ACM Transactions on Intelligent Systems and Technology, 2011, 2(3): 1-27.

[19] Bishop C M. Pattern Recognition and Machine Learning [M]. New York: Springer, 2008: 200-201.

丁 軍: 男,1982年生,博士生,研究方向為雷達目標識別.

劉宏偉: 男,1971年生,教授,博士生導師,實驗室主任,研究方向為自適應信號處理、雷達信號處理、雷達目標識別等.

王英華: 女,1982年生,副教授,碩士生導師,研究方向為SAR圖像目標檢測與識別.

SAR Target Recognition by Combining Images of the Shadow Region and Target Region

Ding Jun Liu Hong-wei Wang Ying-hua Wang Zheng-jue Qi Hui-jiao Shi Li-hui
(National Laboratory of Radar Signal Processing, Xidian University, Xi’an 710071, China)

SAR image of the ground target contains the target region formed by the scattered echoes of the target as well as the shadow area. However, the characteristics of the two areas are essentially different, therefore the traditional SAR image Automatic Target Recognition (ATR) methods use mainly target area information alone or shadow region only for recognition. This paper presents a joint sparse representation model by combining images of the shadow region and target region. By using the 12ll norm minimization method to solve the joint sparse representation model, the SAR image target recognition is achieved by minimizing the joint reconstruction error. Recognition results on Moving and Stationary Target Acquisition and Recognition (MSTAR) data sets show that the joint sparse representation model can effectively fuse the information within the target region and shadow region, and it has much better recognition performance than the methods using only the target or shadow area information of the image.

SAR; Target recognition; Joint sparse representation; 12ll-norm minimization

TN957.51

A

1009-5896(2015)03-0594-07

10.11999/JEIT140713

2014-05-23收到,2014-09-17改回

國家自然科學基金(61201292, 61322103, 61372132),全國優秀博士學位論文作者專項資金(FANEDD-201156),國家部委基金和中央高校基本科研業務費專項資金資助課題

*通信作者:丁軍 dingjun410@gmail.com

猜你喜歡
區域方法模型
一半模型
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
3D打印中的模型分割與打包
關于四色猜想
分區域
用對方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
捕魚
基于嚴重區域的多PCC點暫降頻次估計
電測與儀表(2015年5期)2015-04-09 11:30:52
主站蜘蛛池模板: 尤物特级无码毛片免费| 成人av手机在线观看| 日韩在线1| 在线亚洲天堂| 国产久草视频| 999福利激情视频| 国内精品伊人久久久久7777人| 99热这里只有精品2| 国产XXXX做受性欧美88| 中文字幕色站| 亚洲视频在线青青| 成年人免费国产视频| 国内精品久久人妻无码大片高| 亚洲高清国产拍精品26u| 国产精品久久久久久久久kt| 人妻精品全国免费视频| 亚洲国产中文欧美在线人成大黄瓜| 精品第一国产综合精品Aⅴ| 综合天天色| 午夜欧美理论2019理论| 99热免费在线| 欧美国产日韩在线| 最新国产午夜精品视频成人| 国外欧美一区另类中文字幕| 黄色网站不卡无码| 国产一区二区福利| 91美女视频在线观看| 精品久久高清| 高清欧美性猛交XXXX黑人猛交| 国产精品天干天干在线观看| 欧美啪啪一区| 强奷白丝美女在线观看| 欧美成一级| 麻豆国产精品视频| 亚洲国产欧美自拍| 亚洲视频影院| 干中文字幕| 福利在线一区| 精品一区国产精品| AⅤ色综合久久天堂AV色综合 | 亚洲日韩精品综合在线一区二区| 国产迷奸在线看| 最新亚洲av女人的天堂| h网站在线播放| 欧美日韩国产系列在线观看| 国产视频 第一页| 亚洲av中文无码乱人伦在线r| 国产亚洲高清视频| 久久国产精品无码hdav| 亚洲欧洲日产国码无码av喷潮| 国产尤物jk自慰制服喷水| 91口爆吞精国产对白第三集| 亚洲欧美人成人让影院| 精品福利视频导航| 制服丝袜一区二区三区在线| 国产91丝袜在线播放动漫 | 久久精品中文无码资源站| 亚洲欧美成人在线视频| www.亚洲国产| 久久夜色精品| 亚洲一级毛片免费看| 国产香蕉国产精品偷在线观看| 九九久久精品国产av片囯产区| 免费看av在线网站网址| 91无码人妻精品一区| 91久久青青草原精品国产| 成人午夜免费观看| 国产精品尹人在线观看| 女人av社区男人的天堂| 中文字幕在线欧美| 国产亚洲视频播放9000| 在线一级毛片| 91麻豆精品国产91久久久久| 99尹人香蕉国产免费天天拍| 91po国产在线精品免费观看| 999福利激情视频| 手机成人午夜在线视频| 日韩高清欧美| 日韩A级毛片一区二区三区| 亚洲成人精品| 中国黄色一级视频| 无码AV高清毛片中国一级毛片 |