999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于Transformer的交通標志檢測模型研究

2024-04-11 17:23:55嚴麗平張文剝宋凱蔡彧王靜徐嘉悅
華東交通大學學報 2024年1期

嚴麗平 張文剝 宋凱 蔡彧 王靜 徐嘉悅

摘要:【目的】為了解決在復雜環境下,對小目標特征困難以及對小目標檢測效果不佳等問題,提出了一種基于Transformer的交通標志檢測基干模型?!痉椒ā客ㄟ^充分利用卷積和Transformer的優勢,構建了一種注意力融合的多尺度特征提取基干模型,能夠使基干網絡以全局上下文信息為支撐,有選擇地增強有用信息的特征,并抑制不重要的特征。此外,為了在增強特征融合的同時防止網絡退化,還加入了類池連接。最后,在TT100K數據集上進行實驗。【結果】實驗結果表明,以該模型為骨干的元體系結構取得了最高84%的mAP,與基線模型相比mAP最大提升約7%?!窘Y論】模型在提高特征提取效果的同時,也為交通標志檢測提供了一種新的思路。

關鍵詞:交通標志檢測;自動駕駛;Transformer;注意力融合

中圖分類號:TU391.41;U463.6 文獻標志碼:A

本文引用格式:嚴麗平,張文剝,宋凱,等. 基于Transformer的交通標志檢測模型研究[J]. 華東交通大學學報,2024,41(1):61-69.

Research on Traffic Sign Detection Model Based on Transformer

Yan Liping1, Zhang Wenbo1, Song Kai2, Cai Yu1, Wang Jing1, Xu Jiayue1

(1. School of Software, East China Jiaotong University, Nanchang 330013, China;

2. School of Information Engineering, East China Jiaotong University, Nanchang 330013, China)

Abstract: 【Objective】 In order to solve the difficulties such as small target feature extraction, a transformer-based traffic sign detection model was proposed.【Method】Through fully utilizing the advantages of convolution and Transformer, a multi-scale feature extraction backbone model was established with attention fusion, which could enable the backbone network to selectively enhance the features of useful information and suppress the unimportant ones with the support of global context information. In addition, pooling-like connection are incorporated in order to prevent network degradation while enhancing feature fusion. Finally, experiments were conducted on the TT100K dataset. 【Result】The experimental results show that the meta-architecture with this model as the backbone achieves the highest mAP of 84%, and the maximum improvement of mAP is about 7% compared with the baseline model. 【Conclusion】 The model provides a new idea for traffic sign detection while improving feature extraction.

Key words: traffic sign detection; automatic driving; Ttransformer; attention fusion

Citation format:YAN L P, ZHANG W B, SONG K, et al. Research on traffic sign detection model based on Transformer[J]. East China Jiaotong University, 2024, 41(1): 61-69.

【研究意義】作為自動駕駛和高清地圖環境感知的關鍵技術之一,交通標志檢測對于為車輛提供道路信息判斷和實時安全預警具有重要意義。由于道路條件和自然環境的不同,交通標志檢測的結果受到光線變化、惡劣天氣和運動模糊等諸多因素的限制,大大增加了這項任務的難度。

【研究進展】大多數傳統的交通標志檢測方法都依賴于人工從顏色信息[1]和幾何形狀[2]中提取特征。但是,由于傳感器在運動中傳輸,交通標志區域的比例變化、遮擋等問題阻礙了這些方法的實際應用。

為了在準確性和效率之間取得平衡,先進的物體檢測算法開始使用深度卷積神經網絡(CNN)[3]代替人工特征提取。經典的兩階段檢測模型如Faster R-CNN[4]、Cascade R-CNN[5]等,雖然檢測精度高,但其復雜的結構導致檢測效率低下。與兩階段模型相比,單階段模型,如RetinaNet[6]、SSD[7]系列以及YOLO[8]系列的結構相對簡單,其檢測效率較高,但檢測精度卻不盡如人意。

最近,基于Transformer的新模型表明端到端的標準轉換器可以執行目標檢測[9]、分類[10]、分割等任務[11]。如ViT、PVT[12]等在各種計算機視覺任務中取得了令人鼓舞的成果并迅速成為基干模型,這是因為Transformer擁有強大的建模能力。

【創新特色】然而,Transformer將圖像視為序列,在對局部窗口中的視覺特征以及尺度變換進行建模時,缺乏獲取通道維度信息的能力,隨著網絡深度的加深,導致每個通道之間的信息逐漸丟失,因此Transformer無法直接用于復雜環境下的小目標特征提取。然而卷積卻可以為Transformer提供必要的通道維度信息。

【關鍵問題】本文提出了基于類池化連接的注意力融合轉換器(transformer based on attention fusion with pooling-like connection, AFPC-T),通過將可縮放的卷積注意力模塊(scalable convolutional attention block, SCAB)嵌入到標準的Transformer中構建雙注意力融合模塊(dual attention block, DAB),并通過類池化連接(pooling-like connection, PC)模塊來加強特征融合,然后通過高度集成的PAB(pooling-like attention block, PAB)模塊建立分層式網絡基干模型,來解決在復雜的交通環境下對小目標特征提取困難等問題。

1 AFPC-T整體架構

圖1展示了高度集成的AFPC-T網絡架構及其組件。AFPC-T是四階段特征提取基干模型,即輸入1幅圖像輸出4張不同尺度的特征圖用于后續的分類和回歸。在第一階段開始之前,需要對輸入圖像進行特征編碼(Patch embedding)。例如,給定一幅大小為[H×W×3]的二維圖像特征,其中[H]為特征高度,[W]為特征寬度,3為通道數,將其劃分為每個大小為[4×4×3]的[HW42]個一維序列。然后,對一維序列進行線性投影,得到大小為[HW42×C1]的序列,其中[C1]為映射維度,之后序列進入第一階段。嵌入的序列在PAB模塊中進行特征提取后,一方面通過維度轉換(Reshape),得到大小為[H4×W4×C2]的二維特征圖F1,其中[C2]為通道維度,一方面通過特征融合后得到最終的一維序列。同樣,使用前一階段的序列映射作為輸入,可以得到以下特征輸出:F2,F3,F4。它們相對于輸入圖像的步長分別為8、16像素和32像素。最終的4個特征圖{F1,F2,F3,F4},其大小分別為[H4×W4×C2],[H8×W8×2C2],[H16×W16×4C2],[H32×W32×8C2],再經過多尺度特征融合后,最終作為分類和檢測模型的輸入。

2 PAB整體結構

PAB結構主要包括雙注意力模塊(DAB)和嵌入DAB的可縮放的卷積注意力模塊(SCAB)。隨后,DAB、PC和其他模塊被集成到PAB中,以減少結構冗余。因此,高度集成的PAB模塊構建AFPC-T四階段分層網絡結構以生成不同尺度特征圖用于不同任務。

2.1 SCAB結構

卷積在深度學習中被廣泛應用,因為它能夠有效地捕捉數據的空間結構,提取重要特征。所以,為了增強網絡的表征能力,SCAB模塊被用來模擬通道之間的關系。具體方法是先壓縮空間信息,再通過激勵生成標量值來代表每個通道的重要性。圖1(d)展示了這一過程,輸入的圖像特征先通過通道全局平均池化(global average pooling, GAP)來進行空間壓縮,再通過一維卷積(conv1d, Conv)進行局部跨通道交互以取代原來的多層感知機(multilayer perceptron, MLP)來降低模型的復雜度。設[x∈?H×W×C2]為輸入的圖像特征,則通道權重可以寫成

式中:[gx=1WHi=1,j=1W,Hxij]是GAP;[σ]是Sigmoid激活函數;[α]是平衡因子,用于平衡通道注意力的影響,其值設為0.1。設[y=gx],那么[Conv]可以寫成

式中:[C1DS]表示一維卷積,[S]表示一維卷積的卷積核大小,其值設為3。通過激活通道權重[ω],對特征[x]的每個通道下的特征映射[xC2∈?H×W]進行重新縮放,從而得到最終輸出。具體表達式可寫為

式中:[X=x1,x2,…,xC2]是通道注意的輸出,即帶有通道注意力的特征圖并且[X∈?H×W×C2];[FscalexC2,ωC2]是標量[ωC2]與特征圖[xc2∈?H×W]之間的通道乘法。小目標通常具有相對較低的信噪比,可能會被背景干擾,而SCAB通過學習每個通道的權重,可以使網絡在處理小目標時更靈敏,更有針對性地捕捉小目標的特征。

2.2 DAB結構

為了改進模型的表示,本文在標準轉換器(圖2(a))中添加了一個基于通道注意力的模塊SCAB。在這種改進的架構中(圖2(b)),在LN模塊之后,輸入的特征先通過SCAB模塊得到帶有通道注意力的特征后,再進入(S)W-MHSA模塊中得到通道注意力與空間注意力融合后的特征,之后進入隨后的LN模塊和MLP模塊。此外,需要注意的是,如圖2(c)所示,每個由W-MHSA模塊組成的DAB之后都必須帶有一個由SW-MHSA模塊組成的DAB。因此,對于給定的輸入特征[x],連續的DAB可以精確描述如下

式中:[i]表示第[i]個DAB模塊;[xi]和[xi]分別表示[SW-MHSA]和[SCAB]融合后的特征輸出以及[MLP]的輸出特征;[W-MHSA]和[SW-MHSA]分別表示使用常規和滑動窗口的多頭自注意力。對于給定的輸入特征[x∈?H×W×C2],將其劃分為大小為[M×M]的[HWM2]個局部窗口,其中[M]為窗口大小,值為7。然后,在每個局部窗口內計算自注意力,對于某個局部窗口特征[xw∈?M2×C1],使用MHSA(multi-head self-attention, MHSA)對其依賴關系建模,則基于窗口的自注意力可以表示為

式中:查詢向量[Q]、鍵向量[K]和值向量[V]由線性映射計算得出,即[Q,K,V=xwWQ,xwWK,xwWV]。其中[WQ,WK,WV∈?C1×Dh]分別表示查詢矩陣、鍵矩陣和值矩陣。[Dh]通常設為[Dh],[D]表示序列映射維度,[h]是自注意力的頭數。單頭自注意力重復[h]次,并將[h]個頭的輸出特征沿通道維度串聯起來,形成多頭自注意力。[SoftMax]表示Softmax激活函數,自注意力的實現采用了相對位置編碼,[B]表示相對位置編碼,[T]表示轉置。SCAB模塊產生的帶有通道注意力特征是作為(S)W-MHSA模塊的輸入,所以經過(S)W-MHSA模塊建模后的特征即是最終的雙注意力融合的特征[xd]。[xd]在LN模塊之后進入MLP模塊,MLP模塊由兩層神經網絡組成,其精準表達為

式中:[W1∈?C1×Dmlp],[W2∈?Dmlp×C1]是學習到的線性變換;[Dmlp]表示線性映射維度;[GELU]是激活函數。最后,雙注意力融合的特征映射在經過特征交互后,進入下一個DAB模塊或一方面通過Reshape操作得到一個二維的特征圖輸出,一方面進入序列合并(patch merging, PM)。

Transformer雖然擁有對每個元素間的相似性權重建模的強大能力,但是卻缺少了建模通道間的關系。而本文將可以建模通道間關系的SCAB模塊嵌入到(S)W-MHSA模塊之前,利用Transformer和卷積優勢互補,形成了雙注意力融合的特征映射,使得模型一方面可以利用全局上下文信息,加強對小目標特征增強的同時減少背景信息的干擾,另一方面雙注意力映射可以同時關注不同通道不同位置的特征,以提高模型對小目標的敏感性。

2.3 PAB結構

如圖1(b)所示,PAB集成了3個主要組件:DAB模塊、PM模塊和PC模塊。特征提取是通過在PAB中堆疊一個或多個DAB模塊來實現的。DAB提取后的特征映射,一方面通過Reshape操作獲得二維特征圖用于后續的多尺度特征融合,一方面通過PM模塊進行下采樣以實現分層式結構,最后加入PC模塊以增強特征提取。PC模塊用序列合并取代了原始卷積操作,在增強特征融合的同時,還避免了融合不同結構特征的問題。AFPC-T可以提供不同尺度的特征,以幫助完成分類和回歸任務。在進入第一階段之前,給定的二維圖像特征[x∈?H×W×3]經過序列編碼和映射后變成大小為[x∈?H1×W1×C1]的一維序列,其中[H1=H/4],[W1=W/4],[C1]是映射維度,默認為96。那么PAB模塊可以被寫為

式中:[PM]和[PC]均為Patch merging操作;[yj]表示第[j]個PAB模塊的一維特征輸出;[xj]表示第[j]個PAB模塊的一維特征輸入,這里[j]等于1,[DABl]表示含有l個[DAB]。輸入序列[x∈?H1×W1×C1]通過[DAB]獲得用于注意力融合的特征映射,然后經過一個或多個[DAB]后進入[PM]。在[PM]中,一維序列將被重塑為二維特征,然后將寬度和高度減半,維度變為原來的2倍,即[x]的大小變為[H2×W2×2C2],其中[H2=H1/2],[W2=W1/2]。之后,二維特征被轉換回一維序列。最后,轉換的序列與[PC]生成的特征融合,然后進入下一個PAB模塊。

3 實驗數據預處理及實施細節

TT100K數據集是最受歡迎的交通標志數據集之一,它包含各種場景下的交通標志,更能反映真實的交通狀況。該數據集包含3個大類,共221種,基本覆蓋中國所有交通標志。如圖3所示展示了部分交通標志:指示標志,禁止標志,警告標志。照片數量超過100 000張,分辨率為2 048×2 048像素。

為了提高檢測效果,本文從數據集中刪除了未標記和重復的交通標志圖像,并選取了42種交通標志類別,每個類別的圖像都大于100張,其中有6 105張訓練圖像和3 071張測試圖像。

此外,為了提高模型的預測性能,還采用了數據增強技術來擴展數據集。如圖4所示,通過4(b)亮度變化,4(c)添加噪聲和4(d)翻轉等至少一種或多種效果,使得每個類別都超過500個實例。經過數據擴充后,最終的訓練數據集包含17 704幅圖像。表1顯示了最終的訓練和測試圖像數量。需要注意的是,訓練集以及測試集中都包含了各種各樣的環境以及場景,本文沒有專門區分特定的場景。

本文使用了Microsoft COCO基準中提到的相同檢測指標,這有助于發現檢測器對不同大小物體的檢測能力。包括小型物體(面積小于32×32像素)、中型物體(面積大于32×32像素小于96×96像素)和大型物體(面積大于96×96像素)。平均精度(mean average precision, mAP)和每秒幀數(frames per second, FPS)也用于衡量每種方法的性能。對于多類檢測,mAP表示所有類別中AP的平均值。此外,本文在計算mAP時使用的IoU(intersection over union, IoU)值為0.5和0.75。

本文使用了3種具有代表性的元架構和ResNet-101作為基線來評估AFPC-T的性能。元架構主要包括兩個兩階段模型Faster R-CNN和Cascade R-CNN,以及一個單階段模型RetinaNet。具體來說,使用AFPC-T構建這些框架的骨干,所有以AFPC-T為骨干的模型的深度均為[2,2,6,2],均使用AdamW優化器。對于Faster R-CNN和Cascade R-CNN,初始學習率設定為0.000 1,對于RetinaNet,初始學習率設定為0.000 05。所有模型的預熱迭代次數都設定為1 000,在第8次和第11次迭代時學習率遞減為前學習率的0.1倍。此外,所有模型都加載了默認的預訓練權重以減少訓練時間。

所有實驗均在Ubuntu 20.04系統上進行,GeForce RTX 3 090 ti GPU配有24 GB內存,使用編程語言Python 3.8、深度學習框架PyTorch 1.12和MMdetection框架進行實驗和評估。由于TT100K中的圖像均為2 048×2 048像素,不便于訓練,因此使用默認的圖像縮放為(1 333, 800)。此外,每個骨干模型都提供了四階段特征輸出,經過特征融合后進入分類和回歸模型。

4 實驗分析

4.1 結果分析

如圖5所示,展示了以AFPC-T為基干模型在訓練集上訓練12個epoch的Loss圖像,可以看到在迭代次數為25 000次左右(即12 epoch)Loss趨于穩定,之后將訓練好的元架構用于測試集測試。

通過在3種元架構中添加不同模型作為骨干進行了對比實驗,表2報告了在測試集上測試的實驗結果,其中mAP50和mAP75分別表示0.5和0.75的IoU,S、M和L分別表示對應于小、中和大型物體群的mAP。從這些結果中可以看出,在所有元架構方法中,以AFPC-T為骨干的模型都優于基線模型,且FPS沒有明顯下降。與基線模型相比,以RetinaNet為模型的mAP50的最大提升幅度約為7%。此外,其APsmall提高了約3%,APmedium提高了約6%,APlarge提高了約8%。雖然RetinaNet有了顯著提高,但CascadeRCNN取得了最佳結果。在只訓練了12個epoch的情況下,其mAP50達到了84.0%,而mAP75達到了78.7%。實驗結果表明,在略微降低FPS的情況下大大提高了不同物體尺寸下的mAP,在一定程度上體現了檢測精度和推理速度之間的平衡。

4.2 消融分析

消融實驗進一步驗證AFPC-T的有效性,通過將通道注意力模塊(CA)和類池連接(PC)逐一添加到基線模型中,以證明它們的效果。表3報告了消融實驗的結果,+CA表示在Swin-T中添加SCAB。+CA,+PC表示在Swin-T中加入SCAB的同時加入PC。通過添加CA模塊來激活更多重要維度,Faster R-CNN和Cascade R-CNN以及RetinaNet的性能得到了顯著提高,尤其是在大中小型范圍內。Cascade R-CNN+CA使其mAP50、mAP75、S、M分別從83.8%、78.5%、45.1%、74.3%提高到85.0%、79.8%、47.2%、75.1%。在FPS僅從19.8下降到18.2的情況下,CA的有效性得到了證明。

為了探索每個模 塊的作用,還對PC的效果進行了評估。如表3所示,PC在一定程度上提高了檢測器的性能。采用Faster R-CNN+CA+PC后,其mAP50、mAP75、S、M和L分別從78.6%、73.4%、37.2%、71.9%和74.9%提高到80.4%、75.3%、40.7%、73.2%和75.6%。實驗結果表明,CA和PC都提高了AFPC-T的性能,而且它們的組合達到了最佳性能。為了進一步探討PC的影響,制作了Epoch和損失之間的關系圖。如圖6所示,加入PC后,在相同損失范圍內,訓練次數略微減少,證明了PC的有效性。

4.3 可視化分析

為了探索雙重注意力融合對特征的具體影響,本文對部分特征圖進行了可視化處理,以便對AFPC-T進行定性檢查。圖7展示了3種元架構的特征可視化結果。每個元架構中的上組均為基線模型Swin-T,下組基于AFPC-T??梢钥闯?,在這3種元架構中,AFPC-T比基線模型Swin-T能更準確地覆蓋圖像中的單個或多個物體,而對背景的關注較少。觀察結果表明,引入通道注意力有助于AFPC-T聚焦更重要的物體。顯然,通道注意力和空間注意力可以分別幫助模型更好地關注圖像的重要特征和位置信息。將這兩種注意力結合起來可以進一步提高模型的性能。

為了檢測AFPC-T在實際交通場景中的效果,本文對部分實驗結果進行了可視化展示。如圖8所示,Cascade R-CNN,Faster R-CNN和RetinaNet 都使用AFPC-T作為TT100K數據集上部分檢測結果的骨干。檢測結果包括交通標志的類別和置信度。圖8的放大圖像部分顯示,AFPC-T能夠很好地適應多分類問題(42 個類別),并能準確檢測小尺寸目標。

5 結論

本文通過對TT100K數據集進行擴充,對不同大小的交通標志進行檢測得出以下結論。

1)本文提出一種基于Transformer交通標志檢測模型。在特征提取階段通過將全局通道注意力引入到Transformer中,使網絡學會利用全局信息,選擇性地增強包含有用信息的特征,抑制不重要的特征。

2)實驗結果表明,在較少epoch的訓練下以AFPC-T為基干的模型均取得最高的mAP。其中以Cascade R-CNN為元架構的AFPC-T的mAP50精度達到了84.0%,與基線模型相比提高了約7%。

參考文獻:

[1]? ?HUANG Z, YU Y, GU J, et al. An efficient method for traffic sign recognition based on extreme learning machine[J]. IEEE Transactions on Cybernetics, 2016, 47(4): 920-933.

[2]? ?PANG Y, YUAN Y, LI X, et al. Efficient HOG human detection[J]. Signal Processing, 2011, 91(4): 773-781.

[3]? ?QIN Z, ZHANG P, WU F, et al. Fcanet: Frequency channel attention networks[C]//Montreal: 2021 IEEE/CVF International Conference on Computer Vision (ICCV), 2021.

[4]? ?REN S Q, HE K M, GIRSHICK R, et al. Faster R-CNN: Towards real-time object detection with region proposal networks[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017,39(6): 1137-1149.

[5]? ?CAI Z, VASCONCELOS N. Cascade R-CNN: Delving into high quality object detection[C]//Salt Lake: 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2018.

[6]? ?LIN T Y, GOYAL P, GIRSHICK R, et al. Focal loss for dense object detection[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2020, 42(2): 318-327.

[7]? ?LIM J S, ASTRID M, YOON H J, et al. Small object detection using context and attention[C]//Jeju Island: 2021 International Conference on Artificial Intelligence in Information and Communication (ICAIIC), 2021.

[8]? ?CHEN Y, WANG J, DONG Z, et al. An attention based YOLOv5 network for small traffic sign recognition[C]//Anchorage: 2022 IEEE 31st International Symposium on Industrial Electronics (ISIE), 2022.

[9]? ?CHU X, TIAN Z, WANG Y, et al. Twins: Revisiting the design of spatial attention in vision transformers[J]. Advances in Neural Information Processing Systems, 2021, 34: 9355-9366.

[10] HUANG G, WANG Y, LYU K, et al. Glance and focus networks for dynamic visual recognition[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2022, 45(4): 4605-4621.

[11] CHEN X, WANG X, ZHOU J, et al. Activating more pixels in image super-resolution transformer[C]//Vancouver: 2023 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), 2023.

[12] WANG W H, XIE E, LI X, et al. Pyramid vision transformer: A versatile backbone for dense prediction without convolutions[C]//Montreal: 2021 IEEE/CVF International Conference on Computer Vision (ICCV), 2021.

通信作者:嚴麗平(1980—),女,副教授,博士,碩士生導師,研究方向為智能交通、人工智能。E-mail: csyanliping@163. com。

主站蜘蛛池模板: jizz亚洲高清在线观看| 喷潮白浆直流在线播放| 呦系列视频一区二区三区| 九九这里只有精品视频| 色成人综合| 欧美va亚洲va香蕉在线| 毛片在线播放网址| 一区二区三区在线不卡免费| 欧美日本在线播放| 亚洲日本中文字幕乱码中文 | 成年人国产网站| 老司机久久99久久精品播放 | 亚洲欧美综合精品久久成人网| 国产特级毛片| 有专无码视频| 国产男女XX00免费观看| 国产精欧美一区二区三区| 亚洲欧洲国产成人综合不卡| 麻豆AV网站免费进入| 高清无码一本到东京热| 伊人蕉久影院| 成人午夜视频网站| 日韩精品免费在线视频| 91小视频在线| 伊人五月丁香综合AⅤ| 国产午夜福利在线小视频| 国产手机在线观看| 91精品国产综合久久不国产大片| 久久综合九九亚洲一区| 午夜精品福利影院| 国产精品男人的天堂| 狠狠色噜噜狠狠狠狠奇米777| 欧美中文字幕一区二区三区| 国产真实乱了在线播放| 欧美翘臀一区二区三区 | 国产高清在线精品一区二区三区 | 久久午夜影院| 免费国产不卡午夜福在线观看| 亚洲精品无码专区在线观看| 欧美精品高清| 精品偷拍一区二区| 日韩 欧美 国产 精品 综合| 亚洲人成在线精品| 欧美在线免费| 2021国产在线视频| 欧美成人手机在线观看网址| 久久99蜜桃精品久久久久小说| 国产浮力第一页永久地址| 波多野结衣一区二区三区四区| 九九热在线视频| 亚洲毛片在线看| 亚洲精品少妇熟女| 久久人搡人人玩人妻精品 | 日本亚洲国产一区二区三区| 国产在线专区| 第一区免费在线观看| 永久免费精品视频| 欧美精品啪啪一区二区三区| 国产黄色免费看| 国产在线视频自拍| 全色黄大色大片免费久久老太| 狂欢视频在线观看不卡| 亚洲成av人无码综合在线观看| 日韩精品视频久久| jizz亚洲高清在线观看| 成年看免费观看视频拍拍| 久久国语对白| 亚洲精品成人片在线播放| 日韩精品专区免费无码aⅴ| 国产精品太粉嫩高中在线观看| 国产高潮流白浆视频| 精品国产香蕉伊思人在线| 毛片在线播放网址| 久久婷婷色综合老司机| 国产91小视频在线观看| 91在线一9|永久视频在线| 亚洲人成人伊人成综合网无码| a毛片免费在线观看| 找国产毛片看| 中文字幕有乳无码| 久久精品无码专区免费| 国产69精品久久久久孕妇大杂乱|