999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

無人機語義分割雙分支范圍松弛匹配學習

2024-11-30 00:00:00麥超云吳易博張洪燚王倩洪曉純柯曉鵬
現(xiàn)代電子技術 2024年23期
關鍵詞:深度學習

摘" 要: 先前工作在雙分支網(wǎng)絡利用蒸餾的方式使具有較高語義信息的語義分支引導空間分支學習,但是由于語義分支和空間分支之間仍然存在差異性,在部分數(shù)據(jù)集上效果不理想。為了解決該問題,文中提出范圍松弛匹配學習策略,通過松弛匹配方式使學生模型不用費力匹配教師的精準輸出結果,從而減小空間分支和語義分支之間的差異。相較于之前精準知識傳遞方式,采用范圍松弛匹配方式,避免出現(xiàn)精準匹配對空間分支學習過于苛刻的現(xiàn)象,也避免了線性匹配出現(xiàn)過于松弛導致學習過程中梯度爆炸的現(xiàn)象。為了驗證文中方法的有效性和泛化性,將在BiSeNetV1、BiSeNetV2、STDC三個雙分支網(wǎng)絡上進行驗證,凸顯該方法的有效性。通過實驗結果表明文中方法較基線網(wǎng)絡、雙分支共享引導式學習、松弛匹配等方法,在UVAid和UDD兩個數(shù)據(jù)集上都有提升效果,體現(xiàn)出范圍松弛匹配的泛化性。通過對比實驗表明文中改進后的方法較其他方法有一定的競爭力。

關鍵詞: 深度學習; 語義分割; 無人機場景; 雙分支網(wǎng)絡; 范圍松弛匹配; 精準匹配

中圖分類號: TN919?34; TP751" " " " " " " " " "文獻標識碼: A" " " " " " " " " " " 文章編號: 1004?373X(2024)23?0181?06

Semantic segmentation dual?branch range relaxation matching learning

for unmanned aerial vehicles

MAI Chaoyun, WU Yibo, ZHANG Hongyi, WANG Qianwen, HONG Xiaochun, KE Xiaopeng

(School of Electronics and Information Engineering, Wuyi University, Jiangmen 529020, China)

Abstract: In previous research, a distillation method was utilized in a dual?branch network to facilitate spatial branch learning by incorporating a semantic branch with richer semantic information. However, these performance results were unsatisfactory on a part of datasets due to inherent differences between the semantic and spatial branches. In view of this, this paper introduces a learning strategy called range relaxation matching. This strategy enables the student model to closely approximate the teacher′s accurate output with minimal effort, effectively minimizing the discrepancy between the semantic and spatial branches. In contrast to the previous method involving precise knowledge transfer, this paper employs a range relaxation matching technique to alleviate the rigid requirement of precise matching in spatial branch learning. This method prevents excessive relaxation caused by linear matching, which can lead to gradient explosion during the learning process. Validation experiments are conducted on three dual?branch networks named BiSeNetV1, BiSeNetV2 and STDC to assess the effectiveness and generalization performance of the proposed method. These experiments serve to highlight the efficacy of the proposed method. Experimental results show that the method is better than those methods of baseline networks, dual?branch shared?guidance learning and relaxation matching on the two datasets of UAVid and UDD, demonstrating the generalizability of the range relaxation matching. Comparative experiments demonstrate the competitive nature of the proposed method in comparison with the other methods.

Keywords: deep learning; semantic segmentation; unmanned aerial vehicle scenario; dual?branch network; range relaxation matching; accurate matching

0" 引" 言

近年來,由于無人機遙感較衛(wèi)星遙感和航空遙感具備更高的分辨率、特定區(qū)域內(nèi)信息詳細、拍攝靈活等特點,無人機相關領域逐漸成為廣泛關注的熱點之一。無人機圖像已廣泛應用于各個領域,如:應急檢測方面[1]重點研究了無人機應急響應和檢測應用,提出了一個輕量級網(wǎng)絡EmergencyNet對建筑物倒塌、洪水、火災等航空影像進行應急檢測。在精準農(nóng)業(yè)方面[2]針對向日葵倒伏,通過融合可見光圖像和增強的多光譜圖像獲取具備豐富空間分辨率的多光譜圖像,并提出了一種基于無人機遙感圖像的深度語義分割向日葵倒伏識別方法。通過日益增長的無人機相關領域研究,體現(xiàn)了無人機應用場景有巨大潛力。

語義分割是無人機后續(xù)研究的基礎,因此好的語義分割方法對后續(xù)研究尤為重要。在先前工作中,針對雙分支網(wǎng)絡存在的問題,利用知識蒸餾的方法引導空間分支學習空間信息,促進兩個分支之間的信息交互。但是之前的工作在部分數(shù)據(jù)集上表現(xiàn)不理想。通過分析發(fā)現(xiàn)語義分支和空間分支之間存在信息差異,因此語義分支傳遞給空間分支的知識難以理解,尤其是在經(jīng)過強訓練策略后,語義分支和空間分支之間的差異增大,導致先前方法不適用。

針對雙分支之間的差異,本文提出了一種范圍松弛匹配學習的雙分支知識交互方式。利用范圍松弛匹配替代先前工作知識蒸餾的精準匹配,從而避免對學生模型過于嚴苛。在雙分支網(wǎng)絡上驗證其有效性,在兩個無人機數(shù)據(jù)集上驗證了本文方法的泛化性。

1" 工作回顧

1.1" DBCG網(wǎng)絡

雙分支網(wǎng)絡通過額外的分支學習空間信息,彌補U型網(wǎng)絡通過跳躍連接產(chǎn)生的空間信息丟失問題。經(jīng)典的雙分支網(wǎng)絡與本文改進的雙分支網(wǎng)絡如圖1所示。本文先前工作通過回顧雙分支網(wǎng)絡的缺點:空間分支對高分辨率圖像空間信息提取有限;雙分支間訓練時,分支之間相互獨立,限制模型的信息交流;雙分支輸入圖像一致缺乏對比多樣性。針對以上問題,對雙分支網(wǎng)絡進行改進。

對于空間分支和上下文分支之間應當采用不同的學習策略,最后再通過融合進行對比校準。因此,提出了SCEFM模塊。該模塊首先對給定圖像進行轉變,轉變的目的是使空間分支和上下文分支獲取不同噪聲情況下的空間特征。

轉變的過程描述見公式(1):

[x'=IFFTFFT(x)×DM] (1)

式中:[x]表示原始圖像特征;[x']表示處理后的具有不同噪聲情況的圖像特征。通過快速傅里葉變換將圖像特征轉變到頻域與轉換矩陣[DM]相乘之后,經(jīng)過快速傅里葉逆變換獲取轉換后的圖像特征[x']。

轉換矩陣的主要作用是濾除邊緣噪聲,經(jīng)過濾除后獲取不同噪聲情況下的特征輸入。構造矩陣見公式(2)和式(3):

[DM=11+Ldisd2n] (2)

[Ldis=(Ci-xi)+(Cj-xj)] (3)

式中:[d]和[n]表示超參數(shù);[Ldis]表示每個點到中心點的距離,即歐氏距離;[C]表示中心點值;[xi]和[xj]表示其他點的值。

對獲取的圖像特征[x']設計不同于語義分支的學習策略。首先,由于原始圖像在空間上高度冗余,因此需要對圖像[x']進行壓縮,通過初始化操作獲取初始化特征圖[xinit],再通過空洞卷積得到特征圖[x'e];然后將[x'e]與語義分支經(jīng)過第一層卷積輸出的特征圖[xs1]進行拼接,得到特征圖[xspa];再經(jīng)過激活函數(shù),最后獲得空間信息特征[xssp]。整個過程描述如公式(4)所示:

[xssp=σConcatconvFinit(x'),xs1] (4)

1.2" 共享雙分支引導式學習

共享雙分支引導學習損失函數(shù)網(wǎng)絡如圖2所示,用于提取深度語義特征的語義分支,具有相較于空間分支更為復雜的結果和更多的先驗知識。

因此,通過在線的方式將語義分支看作是教師模型,將空間分支看作學生模型,利用蒸餾將語義分支知識進行精煉壓縮,引導空間分支學習。因此,整體損失函數(shù)可以描述為:

[?=?oral(pd,gd)+λ?KD(pc,ps)] (5)

式中:[?oral(?)]表示模型原始損失函數(shù);[pd]表示模型最終預測結果;[gd]表示真實標簽;[λ]為超參數(shù);[pc]和[ps]分別表示上下文分支輸出層結果經(jīng)過“softmax”轉變后的類別概率,見公式(6),表示蒸餾的損失函數(shù)。通常采用KL散度作為損失函數(shù),具體見公式(7)。

[pi=exp(zi τ)jexp(zj τ)] (6)

[?KD=KLpcps=i=1Cpcilogpcipsi] (7)

2" 范圍松弛匹配學習

在不同訓練策略的情況下,教師模型和學生模型之間的差異會增大。差異較大時,采用嚴苛的蒸餾方式即精準蒸餾會干擾學生的判斷。此時,采用較為松弛的蒸餾方式更容易匹配教師和學生之間的關系。

用[d(a,b)]表示實現(xiàn)的匹配方式,例如,在傳統(tǒng)知識蒸餾中表示KL散度。因此,精準匹配通過該方式可以表示為當[a=b]時,[d(a,b)=0]。其中,[a]和[b]可以表示為兩個分支產(chǎn)生的結果[Y(s)i,:]和[Y(t)i,:],具體表示見公式(8)。文獻[3]提出了線性匹配的方式,表示為式(9)。

[Y(s)i,:=softmax(zsi,:τ)Y(t)i,:=softmax(zti,:τ)] (8)

[dφ(a),φ(b)=d(a,b)," " ?a,b] (9)

式中[φ(?)]表示匹配方式。

文獻[3]中選擇正線性匹配,即[φ(?)=m1a+n1]。該匹配方式可以表示為:

[d(m1a+n1,m2b+n2)=d(a,b)] (10)

然而經(jīng)過分析得出,線性匹配的松弛范圍會導致出現(xiàn)過度松弛的情況,直接放入到雙分支之間反而限制了模型的效果。為了解決該問題就需要另一種有限制的匹配方式,在保持松弛匹配的情況下,避免出現(xiàn)松弛范圍過大。因此,本文提出了范圍松弛匹配的方式,即將原匹配方式[φ(?)=m1a+n1]更改為新的匹配方式,即:[φr(?)=m11-a2],其中[m1]表示比例系數(shù)。式(10)則可以表示為:

[dm11-a2,m21-b2=d(a,b)] (11)

為了滿足式(11),采用廣泛的皮爾遜相關系數(shù)替代共享雙分支引導學習中的KL散度,具體見式(12)、式(13)。

[dp(u,v)=1-ρ(u,v)] (12)

式中:[u]和[v]代表匹配后特征,[u=m11-a2],[v=m21-b2]。

[ρp=Cov(u,v)Std(u)Std(v)=i=1B(u-u)(v-v)i=1B(ui-u)2j=1C(vj-v)2] (13)

式中:[Cov]表示協(xié)方差;[Std]表示標準差。通過一種松弛的方式保持教師和學生之間的有限制匹配關系,稱為范圍松弛類間匹配,表示為式(14),同時還需要考慮范圍松弛類內(nèi)匹配,見公式(15)。

[Linter=1Bi=1Bdp(Y(s)i,:,Y(t)i,:)] (14)

[Lintra=1Cj=1Cdp(Y(s):, j,Y(t):, j)] (15)

因此,整體的損失函數(shù)可以表示為:

[?=?oral(pd,gd)+λ?inter(pc,ps)+β?intra(pc,ps)] (16)

式中:[λ]和[β]表示超參數(shù)。

3" 實驗結果

3.1" 數(shù)據(jù)集

實驗將在兩個公開數(shù)據(jù)集上進行驗證,兩個數(shù)據(jù)集分別是UDD、UAVid。

為了方便訓練,將兩個數(shù)據(jù)集的原始圖像剪切為512×512大小的圖像。UDD數(shù)據(jù)集中3 880張圖片作為訓練集,1 280張圖片作為驗證集。UAVid數(shù)據(jù)集用3 456張圖片作為訓練集,2 016張圖片作為驗證集。

3.2" 評估指標

訓練網(wǎng)絡時,采用Ubuntu 20.04操作系統(tǒng),基于mmsegmentation,Python 3.11.5,RTX GeForce 3080,PyTorch 2.1.2,CUDA 11.8,CuDNN 8.7。使用SGD優(yōu)化器,學習率設置為0.01,動量設置為0.9,最小學習率為1×10-4,訓練周期為300epoch。

評價指標采用mIoU(Mean Intersection over Union)。mIoU具體見公式(17),類別平均像素準確率(mAP)具體見式(18)。

[mIoU=1ki=1kTPFN+FP+TP] (17)

[mAP=1k+1i=0kTPTP+FP] (18)

式中:TP表示真正例,模型預測為實例,實際為實例;FP表示假正例,模型預測為正例,實際為反例;FN表示假反例,模型為反例,實際為反例。

3.3" 消融實驗

對本文所提出方法進行消融實驗,旨在驗證所提出方法的有效性,消融實驗將分別在BiSeNetV1[4]、BiSeNetV2[5]、STDC[6]上進行驗證。通過將范圍松弛匹配嵌入到三個網(wǎng)絡中,對基線網(wǎng)絡進行對比,從而驗證本文方法的有效性。測試的具體效果如表1所示。

表中前四行為BiSeNetV1上的消融實驗,其中SGL表示共享雙分支引導式學習,DIST表示原線性松弛匹配,RRM表示范圍松弛匹配。在UDD數(shù)據(jù)集上,范圍松弛匹配效果最佳,達到了82.1%,mAP達到了88.8%,較基線BiSeNetV1的mIoU提升了3.4%,較SGL提升1.5%,較DIST提升3%。值得注意的是,更改為DIST之后較之前工作SGL提升效果較差,從而可以表現(xiàn)出經(jīng)過DIST改進后的提升效果。在UAVid數(shù)據(jù)集上,SGL、DIST可以看出提升效果不佳,且DIST較原來有減少。而經(jīng)過改進后的范圍松弛匹配提升效果明顯。較BiSeNetV1mIoU提升了2.2%。

其次是范圍松弛匹配在BiSeNetV2上的效果,從表1中整體可以看出,RRM在BiSeNetV2上的提升效果明顯。首先是UDD數(shù)據(jù)集上的消融實驗,從表中可以看出,本文方法mIoU達到了78.3%,mAP達到了86.1%。RRM較基線提升了3.6%,較SGL提升了1.1%,較DIST提升了1.5%,mAP較基線提升2.9%。在UDD數(shù)據(jù)集上,整體可以看出較基線及SGL和RRM有提升。后四行為STDC數(shù)據(jù)集上的消融實驗。整體較基線方法提升效果明顯。在UDD數(shù)據(jù)集上mIoU達到了85.8%,mAP達到了91.8%。在UAVid數(shù)據(jù)集上mIoU達到了73.8%,mAP達到了82.1%。

3.4" 對比實驗

在UDD和UAVid數(shù)據(jù)集上的對比實驗見表2和表3。對比實驗的主要目的是通過將經(jīng)過改進后的方法與現(xiàn)有其他方法進行對比,體現(xiàn)出本文方法相較于大部分方法的競爭力。

表2為UDD數(shù)據(jù)集上的對比效果,從整體上看本文方法較其他方法效果要好。其中mIoU達到了85.8%。在Veg.和Roof類別達到了最高,F(xiàn)ac.和Roa.接近最高,與最高相差0.1。在Veh.方面精度較低。但從整體可以看出本文方法有一定競爭力。表3為UAVid數(shù)據(jù)集上的對比實驗,從對比實驗中可以看出本文較大部分方法效果要好,從而體現(xiàn)出了本文方法的優(yōu)勢。

4" 結" 語

本文提出了一種用于雙分支語義分割網(wǎng)絡之間的范圍松弛匹配方式。通過范圍松弛匹配學習提高了模型的性能,避免了之前精準匹配導致的空間分支與語義分支之間存在差異導致部分數(shù)據(jù)集性能不理想的問題,且避免了線性匹配在雙分支之間出現(xiàn)過于松弛而導致的梯度爆炸,從而使空間分支有效地學習到語義分支凝練的知識,且在知識蒸餾過程中,知識凝練必然會導致部分信息丟失,通過精準匹配會導致學習到錯誤信息,范圍松弛匹配可以避免該問題。本文通過實驗驗證了范圍松弛匹配的有效性和泛化性,并且在UDD數(shù)據(jù)集上mIoU達到了85.8%,在UAVid數(shù)據(jù)集上mIoU達到了73.8%,較基線網(wǎng)絡都有提升,較其他語義分割網(wǎng)絡有一定的優(yōu)勢。

注:本文通訊作者為麥超云。

參考文獻

[1] KYRKOU C, THEOCHARIDES T. EmergencyNet: Efficient aerial image classification for drone?based emergency monitoring using atrous convolutional feature fusion [J]. IEEE journal of selected topics in applied earth observations and remote sensing, 2020, 13: 1687?1699.

[2] SONG Z S, ZHANG Z T, YANG S Q, et al. Identifying sunflower lodging based on image fusion and deep semantic segmentation with UAV remote sensing imaging [J]. Computers and electronics in agriculture, 2020, 179: 105812.

[3] HUANG T, YOU S, WANG F, et al. Knowledge distillation from a stronger teacher [C]// Advances in Neural Information Processing Systems 35: Annual Conference on Neural Information Processing Systems 2022. [S.l.: s.n.], 2022: 33716?33727.

[4] YU C Q, WANG J B, PENG C, et al. BiSeNet: Bilateral segmentation network for real?time semantic segmentation [C]// Proceedings of the European Conference on Computer Vision (ECCV). Heidelberg: Springer, 2018: 334?349.

[5] YU C Q, GAO C X, WANG J B, et al. BiSeNet V2: Bilateral network with guided aggregation for real?time semantic segmentation [J]. International journal of computer vision, 2021, 129(11): 3051?3068.

[6] FAN M Y, LAI S Q, HUANG J S, et al. Rethinking BiSeNet for real?time semantic segmentation [C]// Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. New York: IEEE, 2021: 9716?9725.

[7] ZHENG S X, LU J C, ZHAO H S, et al. Rethinking semantic segmentation from a sequence?to?sequence perspective with transformers [C]// Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. New York: IEEE, 2021: 6881?6890.

[8] ZHANG Y M, HSIEH J W, LEE C C, et al. SFPN: Synthetic FPN for object detection [C]// 2022 IEEE International Conference on Image Processing (ICIP). New York: IEEE, 2022: 1316?1320.

[9] KIRILLOV A, WU Y X, HE K M, et al. Pointrend: Image segmentation as rendering [C]// Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. New York: IEEE, 2020: 9796?9805.

[10] POUDEL R P K, LIWICKI S, CIPOLLA R. Fast?SCNN: Fast semantic segmentation network [EB/OL]. [2021?02?03]. http://arxiv.org/abs/1902.04502.

[11] LIU Z, MAO H Z, WU C Y, et al. A ConvNet for the 2020s [C]// Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. New York: IEEE, 2022: 11966?11976.

[12] CHEN L C, ZHU Y K, PAPANDREOU G, et al. Encoder?decoder with atrous separable convolution for semantic image segmentation [C]// Proceedings of the European Conference on Computer Vision (ECCV). Heidelberg: Springer, 2018: 833?851.

[13] ZHU Z, XU M D, BAI S, et al. Asymmetric non?local neural networks for semantic segmentation [C]// Proceedings of the IEEE/CVF International Conference on Computer Vision. New York: IEEE, 2019: 593?602.

[14] FU J, LIU J, TIAN H J, et al. Dual attention network for scene segmentation [C]// Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. New York: IEEE, 2019: 3146?3154.

[15] WU H K, ZHANG J G, HUANG K Q, et al. FastFCN: Rethinking dilated convolution in the backbone for semantic segmentation [EB/OL]. [2019?04?02]. http://arxiv.org/abs/1903.11816.

[16] ZHAO H S, QI X J, SHEN X Y, et al. ICNet for real?time semantic segmentation on high?resolution images [C]// Proceedings of the European Conference on Computer Vision (ECCV). Heidelberg: Springer, 2018: 418?434.

[17] HE J J, DENG Z Y, ZHOU L, et al. Adaptive pyramid context network for semantic segmentation [C]// Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. New York: IEEE, 2019: 7519?7528.

[18] ROMERA E, ALVAREZ J M, BERGASA L M, et al. ERFNet: Efficient residual factorized ConvNet for real?time semantic segmentation [J]. IEEE transactions on intelligent transportation systems, 2018, 19(1): 263?272.

[19] ZHANG H, DANA K J, SHI J P, et al. Context encoding for semantic segmentation [C]// Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. New York: IEEE, 2018: 7151?7160.

[20] HOWARD A, SANDLER M, CHU G, et al. Searching for MobileNetV3 [EB/OL]. [2021?05?27]. http://arxiv.org/abs/1905.02244.

[21] YUAN Y H, CHEN X L, WANG J D. Object?contextual representations for semantic segmentation [C]// Proceedings of 16th European Conference on Computer Vision. Heidelberg: Springer, 2020: 173?190.

[22] CHEN Y, WANG Y, LU P, et al. Large?scale structure from motion with semantic constraints of aerial images [C]// Proceedings of First Chinese Conference on Pattern Recognition and Computer Vision. Heidelberg: Springer, 2018: 347?359.

[23] XIE E Z, WANG W H, YU Z D, et al. SegFormer: Simple and efficient design for semantic segmentation with transformers [C]// Advances in Neural Information Processing Systems 34: Annual Conference on Neural Information Processing Systems 2021. [S.l.: s.n.], 2021: 12077?12090.

[24] ZHAO H S, ZHANG Y, LIU S, et al. PSANet: Point?wise spatial attention network for scene parsing [C]// Proceedings of the European Conference on Computer Vision (ECCV). Heidelberg: Springer, 2018: 270?286.

作者簡介:麥超云(1989—),男,廣東江門人,博士研究生,副教授,研究方向為信號與信息處理。

吳易博(1997—),男,河南洛陽人,碩士研究生,研究方向為低空域無人機語義分割。

張洪燚(1999—),男,河南洛陽人,碩士研究生,研究方向為圖像處理。

王倩文(2001—),女,安徽阜陽人,碩士研究生,研究方向為圖像處理。

洪曉純(1999—),女,廣東潮州人,碩士研究生,研究方向為圖像處理。

柯曉鵬(2000—),男,廣東汕頭人,碩士研究生,研究方向為信號處理。

猜你喜歡
深度學習
從合坐走向合學:淺議新學習模式的構建
面向大數(shù)據(jù)遠程開放實驗平臺構建研究
基于自動智能分類器的圖書館亂架圖書檢測
搭建深度學習的三級階梯
有體驗的學習才是有意義的學習
電子商務中基于深度學習的虛假交易識別研究
利用網(wǎng)絡技術促進學生深度學習的幾大策略
考試周刊(2016年94期)2016-12-12 12:15:04
MOOC與翻轉課堂融合的深度學習場域建構
大數(shù)據(jù)技術在反恐怖主義中的應用展望
深度學習算法應用于巖石圖像處理的可行性研究
軟件導刊(2016年9期)2016-11-07 22:20:49
主站蜘蛛池模板: 国产精品久久国产精麻豆99网站| 亚洲无码精彩视频在线观看| 欧美伦理一区| 成人av手机在线观看| 中文字幕在线日本| 中文字幕资源站| 亚洲视频在线观看免费视频| 农村乱人伦一区二区| 色婷婷电影网| 狠狠ⅴ日韩v欧美v天堂| 国产97色在线| 女高中生自慰污污网站| 精品三级网站| 亚洲人成网址| 亚洲日韩精品无码专区97| 亚洲第一视频免费在线| 亚洲中文字幕国产av| 香蕉精品在线| 国产成人免费观看在线视频| 一本色道久久88亚洲综合| 久久国产精品娇妻素人| 大陆国产精品视频| 欧美在线中文字幕| 免费看a毛片| 中文字幕亚洲专区第19页| 欧美三级不卡在线观看视频| 中文字幕亚洲电影| 久久五月视频| 91无码人妻精品一区二区蜜桃| 91精品专区| 日韩二区三区| 亚洲一区二区三区国产精品 | 国产理论一区| 国产自无码视频在线观看| 在线播放真实国产乱子伦| 91麻豆精品国产高清在线| 2021国产v亚洲v天堂无码| 精品免费在线视频| 欧美日韩在线国产| 欧美第二区| 婷婷伊人五月| 国产一二三区视频| 伊人福利视频| 国产成人精品一区二区| 91久久天天躁狠狠躁夜夜| 伊人久久大线影院首页| 性69交片免费看| 欧美中文字幕在线二区| 5555国产在线观看| 青草国产在线视频| 九九热精品视频在线| 日本伊人色综合网| 玖玖精品在线| 国产成人在线小视频| 欧美日一级片| 亚洲成人高清无码| 又污又黄又无遮挡网站| 国产亚洲精品自在久久不卡 | 九色91在线视频| 国产精品综合色区在线观看| 免费一看一级毛片| 日日拍夜夜操| 国产aⅴ无码专区亚洲av综合网| 999福利激情视频| m男亚洲一区中文字幕| 国产视频欧美| 亚洲精品午夜无码电影网| 色综合热无码热国产| 黄片在线永久| 2021无码专区人妻系列日韩| 热99精品视频| 依依成人精品无v国产| 成人无码区免费视频网站蜜臀| 超清人妻系列无码专区| 免费无码在线观看| 88av在线播放| 国产精品久久久久鬼色| 国产一二视频| 91九色视频网| 四虎影视永久在线精品| 日韩高清在线观看不卡一区二区| 制服丝袜 91视频|