999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于改進YOLOv10n算法的課堂行為識別研究

2025-07-20 00:00:00張婷
電腦知識與技術 2025年17期

摘要:針對當前課堂行為識別技術檢測精度不足的問題,文章提出了一種基于三階段優化策略的改進YOLOv10n算法,以提升檢測性能:首先,在主干網絡中采用自適應核卷積(Adaptive Kernel Convolution, AKConv) 替代標準卷積模塊,以適應目標的多尺度變化;其次,在C2f結構后集成卷積塊注意力模塊(Convolutional Block Attention Module, CBAM) ,以增強關鍵特征的表達;最后,針對教學場景中密集小目標檢測需求,重構特征金字塔網絡結構——移除20×20大目標檢測層,強化160×160小目標檢測能力。實驗結果表明,該方法在自建課堂行為數據集上的mAP@0.5(mean Average Precision) 可達84.4%,較基準YOLOv10n提升了9.0個百分點。該改進算法可以準確識別學生課堂行為,也為智能教育場景下的課堂行為分析提供了有效的技術實現路徑。

關鍵詞:課堂行為識別;YOLOv10n;注意力機制;可變核卷積;損失函數

中圖分類號:TP18" "文獻標識碼:A

文章編號:1009-3044(2025)17-0009-06

開放科學(資源服務) 標識碼(OSID)

0 引言

大學課堂普遍采用一對多的班級授課模式,周課時密度低,通常每周僅進行一至兩次,教師難以全面熟悉每位學生,精細化課堂管理面臨較大挑戰。學生的課堂行為特征既是學習成效的外顯指標,也是教師教學能力評估的重要依據[1]。傳統的學生課堂行為識別主要依賴教師的主觀判斷和經驗,需要教師花費大量時間精力,且在準確性與效率上存在一定局限性[2],亟須智能化解決方案。

當前,人工智能技術在教育領域的深度應用正推動教學評估體系革新,其中,基于深度學習的課堂行為識別技術為教學管理的智能化轉型提供了系統性解決方案。通過構建智能課堂管理系統,采用YOLO目標檢測算法與OpenPose姿態識別技術,實現對學生課堂行為的無感知采集與有效識別。這種數據驅動的教學評估體系不僅為教師提供精準的學情診斷依據,顯著提升課堂質量評估的客觀性,為構建智能化教育生態提供技術支撐,推動教育數字化轉型向縱深發展[1-4]。《教育強國建設規劃綱要(2024-2035年) 》明確提出要“建立基于大數據和人工智能支持的教育評價和科學決策制度”[5]。

隨著人工智能技術在教育領域應用的迅猛拓展,眾多學者正積極致力于將深度學習技術深度融入學生課堂行為識別的具體實踐中,以期提高課堂管理的客觀性和學生學習效果。董琪琪等[6]通過改良SSD算法,成功實現了對智慧教室環境下學生舉手、睡覺、回答問題、書寫筆記及認真聽講這五種典型課堂行為狀態的智能識別,為課堂行為分析提供了有力支持。黃勇康等[7]結合目標檢測與跟蹤算法,并引入深度殘差3D卷積行為識別算法以挖掘時空特性,有效應對了復雜課堂場景中的行為識別挑戰,提升了準確性與魯棒性。Filipe Dwan Pereira等[8]利用黑箱預測模型在學生行為識別方面取得了進展,但其模型設計在準確率上存在一定局限性,特別是未能充分考慮到預測模型和解釋模型的累積誤差,從而影響了識別的精確度和實用性。

與此同時,YOLO(You Only Look Once) 系列目標檢測算法在不斷持續迭代與升級[9],基于YOLO算法的課堂行為識別技術研究也在不斷深入。李雅紅等[1]基于改進YOLOv5算法,創新性地引入CBAM注意力機制,從通道和空間兩個維度精準提取學生課堂行為特征,顯著增強了模型的魯棒性與識別能力。楊明遠等[3]則在改進YOLOv5算法的基礎上加入注意力機制,成功識別了低頭、玩手機、舉手、記筆記、睡覺、交頭接耳等七類學生課堂行為,為課堂管理提供了更為細致、全面的技術支持。馬瑞珵等[10]利用YOLOv5算法實現了班級同學計數與學習行為識別兩大功能,精準識別了低頭寫字、低頭看書、聽課、轉頭、舉手、站立、小組討論等七種課堂行為,為教學評價提供了更為客觀、科學的依據。針對智慧教室中前后排學生圖像尺寸差異大、后排小目標檢測難的問題,陳晨等[4]提出了一種基于YOLOv8的學生課堂行為識別方法,有效提升了識別的準確性與實用性。楊樹元等[11]為實現教室使用率與學生出勤情況的高效管理,設計并實現了基于YOLOv8的端到端實時教室人數統計系統,為教務管理提供了智能化、自動化的技術支持。這些研究不僅推動了YOLO系列算法在課堂行為識別領域的應用,也展示了其在提升識別精度與效率方面的巨大潛力。

然而,盡管YOLO系列算法在課堂行為識別中已取得一定進展,但針對YOLO新版本的優化及其在特定課堂場景(如小目標、密集目標) 下的適應性仍有提升空間,關鍵行為的識別準確率亟待進一步提高。基于此,本研究采用改進YOLOv10n算法,針對學生課堂抬頭聽課、低頭玩手機兩種典型行為進行了識別率的提升研究,有效提高了檢測的準確度與實用性,為智慧課堂的學生行為管理提供了更為精準、高效的技術支持,也為未來智慧課堂的發展提供了有益的參考與啟示。

1" YOLOv10n模型

YOLOv10是清華大學研究團隊于2024年5月推出的目標檢測模型,在YOLOv8的基礎上進行了深度優化與改進。該模型通過提出一致的雙重分配策略,成功消除了YOLO系列對非極大值抑制(NMS) 的依賴,同時提出整體效率-準確性驅動的模型設計策略,顯著提升了YOLO的綜合性能[12]。YOLOv10系列包含6種變體(YOLOv10n、YOLOv10s、YOLOv10m、YOLOv10b、YOLOv10l和YOLOv10x) ,其中YOLOv10n作為最輕量化的版本,在保證較高檢測精度的同時,具有更快的推理速度和更低的計算資源需求[13]。針對課堂場景中學生人數多、目標密集的特點,選用YOLOv10n模型進行學生抬頭行為的檢測研究,以平衡檢測效率與精度需求,為課堂行為識別提供高效、輕量化的解決方案。

YOLOv10n算法的網絡架構由四個核心模塊構成:輸入模塊(Input) 、骨干網絡(Backbone) 、頸部網絡(Neck) 和檢測頭(Head) ,如圖1所示。其工作流程如下:

輸入模塊:對原始圖像進行數據增強(如Mosaic、MixUp等) 和標準化預處理,生成高質量數據并輸入骨干網絡;

骨干網絡:該網絡采用緊湊倒置殘差塊(Compact Inverted Residual Block) 作為基礎單元,通過跨階段梯度分流,減少重復計算(CSP思想) ,提取特征;

頸部網絡:特征圖通過特征金字塔網絡(FPN) 與路徑聚合網絡(PAN) 實現多層次特征融合,增強小目標檢測能力;

檢測頭:創新性地采用一對一(One-to-One) 和一對多(One-to-Many) 輕量級檢測頭并行預測機制,在保證檢測精度的同時顯著降低計算復雜度。

2 YOLOv10n改進算法

為提升課堂行為識別與檢測的性能,本文對YOLOv10n算法進行了改進,其整體結構如圖2所示。該算法在YOLOv10模型的基礎上進行了多項優化:首先,在Backbone部分,采用可變核卷積AKConv(Adaptive Kernel Convolution) 替代傳統的固定正方形卷積,并在C2f模塊后引入CBAM卷積注意力(Convolutional Block Attention Module) ,以增強特征提取能力;其次,在Head部分,針對課堂場景中小目標檢測精度低和漏檢的問題,移除了大目標檢測分支,專注于小目標檢測,從而提升了檢測效果。

2.1" AKConv可變核卷積

在課堂場景下,由于學生姿態、空間位置及成像距離的多樣性,采集圖像中目標對象呈現出顯著的多尺度特性,具體表現為目標尺寸差異大、形狀變化復雜(包含正面、側面及俯視等多種視角) 以及空間分布不均勻等,傳統固定采樣形狀和正方形卷積核難以有效適應這種復雜的尺度變化,導致特征提取不充分,影響檢測精度[14]。

針對上述問題,本研究引入AKConv機制,通過動態調整卷積核的采樣形狀和感受野,實現對多尺度目標的魯棒特征提取。具體而言,AKConv通過學習不同尺寸或形狀的卷積核的權重,動態地聚合來自不同感受野的特征,從而自適應地調整其等效感受野以匹配目標尺度[15]。這種可變卷積機制使模型能夠根據目標尺度自適應調整感受野,在課堂行為檢測任務中表現出優異的特征提取能力。

2.2" 引入CBAM注意力機制

在YOLOv10n的骨干網絡優化中,本研究在C2f模塊后引入卷積注意力模塊CBAM,通過動態調整特征圖的通道和空間維度,增強模型的特征選擇能力[16]。如圖3所示,CBAM采用串行結構設計[17],依次包含通道注意力模塊(CAM,Channel Attention Module) 和空間注意力模塊(SAM,Spatial Attention Module) 。具體而言,給定輸入特征圖[F∈RH×W×C]與通道注意力映射[MC∈R1×1×C]相乘,再與空間注意映射[MS∈RH×W×1]相乘,得到顯著特征映射[F∈RH×W×C],具體為[18]:

[F=MC(F)F] (1)

[F=MS(F)F] (2)

式中,[F]表示經過通道注意力后得到的特征圖;[]表示逐元素乘法。

2.3 刪除大目標檢測頭并添加小目標檢測頭

YOLOv10模型采用多尺度檢測架構,包含20×20、40×40和80×80三個檢測層,其中20×20檢測層具有較大感受野,主要適用于大目標檢測。然而,學生在課堂場景中的大部分行為特征(如手勢、面部表情、書寫動作等) 在圖像中的像素面積較小,屬于典型的小目標檢測范疇[19]。因此,移除20×20大目標檢測層,降低模型計算冗余度;新增160×160小目標檢測層,提升了對更小目標的檢測能力(檢測范圍從20×20層的32×32降至160×160層的8×8) 。

3 實驗結果與分析

3.1 實驗環境與參數設置

實驗基于Ubuntu 20.04操作系統,GPU為NVIDIA RTX A5000,顯存24GB,內存DDR5 90GB,Pytorch 2.2.1框架,Python 3.11.4版本編程語言,在Pycharm開發環境下進行訓練和測試。實驗模型設定參數如表1所示。

3.2" 實驗數據集準備

采用的數據集來源于四川某高校2024年下半年課堂教學監控視頻的靜態幀提取,原始數據集包含820張課堂場景圖像,涵蓋學生抬頭聽課、低頭使用手機等典型課堂行為。為提升模型的泛化能力和魯棒性,研究采用數據增強策略對原始數據集進行擴展:通過圖像翻轉(水平、垂直) 、隨機旋轉、平移變換、尺度縮放以及高斯噪聲添加等空間變換方法增加樣本多樣性,同時引入Mixup數據混合技術提升樣本間的特征關聯性[20]。經過數據增強后,數據集規模擴展至2 600張圖像。

使用labelimg工具對圖像中的抬頭聽課、低頭使用手機等行為進行精確標注,并按照8∶1∶1的比例將數據集劃分為訓練集、驗證集和測試集,確保模型訓練的科學性和評估的可靠性。

3.3" 實驗評價指標

實驗采用的模型性能評價指標選用目標檢測常用的5個指標:模型參數量[Params](Parameters)、精確率[P](Precision)、召回率[R](Recall)、平均檢測準確率[mAP](mean Average Precision)、每秒傳輸幀數FPS(Frames Per Second)作為模型檢測的效率指標。各項指標介紹如下[21]:

1) 參數量Params(Parameters):表示網絡的參數量,評估模型的容量,反映網絡的復雜性與資源消耗;

2) 準確率[P]:表示被檢測為正類的樣本中,實際為正類的比例,反映算法檢測結果的準確性,定義公式(3) :

[P=TPTP+FP]" " " " " " " (3)

式中,[TP]為模型預測為正樣本實際是正樣本,[FP]為模型檢測為正樣本實際是負樣本。

3) 檢測目標召回率[R]表示檢測目標召回率,指預測為正樣本的概率,見公式(4) ;

[R=TPTP+FN]" " " " " "(4)

式中,[FN]為預測為負樣本其實是正樣本。

4) 平均檢測準確率[mAP]:表示所有類別檢出正確率的均值,大小在0到1之間,[mAP]指越大越好;

[AP=01PRdR]" " " " " " " " (5)

[mAP=1ni=1nAPi]" " " " " " " " (6)

式中,[P(R)]表示[P-R]曲線,[n]為類別數,[APi]為第[i]個類目標的[AP]。

(5) 檢測速度[FPS],反映模型訓練速度的刷新率,[FPS]越大,模型實時性越好;

[FPS=FrameNumTime]" " " " " " " " " (7)

式中,[FrameNum]表示檢測圖像總數,[Time]為檢測圖像總時間。

3.4" 實驗結果分析

采用Labelimg工具對課堂場景圖像進行精細化標注,將學生行為劃分為抬頭聽課和低頭使用手機兩類典型狀態。基于標注后的數據集,按照表1所示的超參數配置對改進模型進行系統性訓練。訓練過程中,改進后的模型和原模型所得的P-R(Precision-Recall curve) 曲線如圖5、圖6所示,可以看出,改進后的模型相較于原始YOLOv10n模型,最終的收斂值更高于原模型。

3.4.1 消融實驗

以YOLOv10n為基礎架構構建基準模型(Method 0) ,設置三組核心改進模塊:Method 1(引入AKConv可變核卷積) 、Method 2(引入CBAM注意力機制) 、Method 3(移除20×20大目標檢測層,新增160×160高分辨率檢測頭,增強小目標檢測能力) ,以及四組組合實驗(Method 4-7) 驗證模塊協同效應。實驗標記采用“√”表示啟用改進模塊,“×”表示禁用。實驗配置與結果詳見表2。

分析表2可知,如表2消融實驗結果所示,各改進模塊在基準模型上展現出差異化的優化效果。具體如下:

1) 單模塊改進方面,在精度維度上,AKConv通過動態核參數調整使mAP@0.5提升了4.8%(vs基準模型) ,優于CBAM(+1.9%) 和增加小目標檢測(+1.1%) ,證實了可變核卷積在特征表達能力上的優勢;在輕量化維度上,CBAM模塊憑借通道注意力機制實現了19%的參數量壓縮,優于AKConv(10%) 和增加小目標檢測(10.9%) ,體現了注意力機制在特征篩選中的有效性;在速度維度上,增加小目標檢測使FPS提升9.9%,優于CBAM(9.6%) 與AKConv(6.7%) ,說明增加小目標檢測優化對計算效率有直接影響。

2) 模塊組合效應方面,AKConv+CBAM聯合優化使mAP@0.5提升5.2%,參數量減少24.9%,FPS提升14.6%,體現了可變卷積與注意力機制在空間-通道雙域的特征增強協同效應;綜合改進模型實現mAP@0.5絕對提升7%,FPS提升17.5%,參數量降低26.5%,驗證了多維度優化策略的疊加增益效應。

3) 應用場景方面,改進模型在教室人臉行為識別任務中展現出顯著優勢,特別是在光照變化、局部遮擋等復雜場景下,通過消融實驗證實了改進方案對小目標檢測魯棒性的增強作用,為教育場景下的實時行為分析提供了可靠的技術支撐。

3.4.2 對比實驗

為驗證改進YOLOv10n算法的有效性,在嚴格保持實驗環境與數據集一致性的條件下,設計了系統性對比實驗。實驗選取了以下具有代表性的目標檢測模型作為對比基準:最新發布的YOLOv10n算法、主流輕量化模型YOLOv5s、YOLOv7-tiny[22]、YOLOv8n及經典兩階段算法Faster R-CNN[23]與單階段算法SSD[24]。通過覆蓋不同代際(YOLO系列迭代版本) 及架構類型(單階段/兩階段) 的對比策略進行實驗分析,結果如表3所示。

根據表3的實驗結果分析,提出的改進YOLOv10n算法相較于傳統目標檢測算法展現出顯著優勢。具體如下:

1) 性能方面,與Faster R-CNN和SSD相比具有明顯優勢;與YOLO系列相比,除FPS略低于YOLOv8n外,其余指標均有優勢。

2) 平均檢測精度方面,改進YOLOv10n在mAP@0.5上相較于YOLOv5s、YOLOv7-tiny、YOLOv8n和YOLOv10n分別提升了15.5%、9.9%、7.8%和9.0%。

3) 模型復雜度方面,改進YOLOv10n在參數量上表現最優,較YOLOv5s、YOLOv7-tiny、YOLOv8n和YOLOv10n分別減少了18.2%、11.7%、29.6%和26.5%,顯著降低了模型復雜度。

4) 檢測速度方面,改進YOLOv10n的FPS達到40.2 (f·s-1),相較于Faster R-CNN和SSD,分別高出17.7和11.8;與YOLOv5s、YOLOv7-tiny、YOLOv10n相比,分別高出11、4.9和6。在保持較高檢測速度的同時,實現了更佳的精度與模型壓縮平衡。需要指出的是,YOLOv8n雖然檢測速度最快,但其精度和模型容量均不及改進YOLOv10n。

5) 與最新發布的YOLOv10n相比,改進YOLOv10n在mAP@0.5和參數量方面均表現出明顯優勢,實現了更高的檢測精度和更小的模型體積。

為了進一步驗證改進模型的有效性,在實驗環境和數據集保持一致的條件下,將其與YOLOv10n進行對比,四組實驗可視化效果對比如圖6、圖7所示。

從對比圖可以看出,改進后的模型在小目標場景識別中表現優異。特別是在存在遮擋的情況下,相較于原始YOLOv10n算法,本模型顯著降低了誤檢和漏檢率,展現了在小目標檢測場景下的優越性能。

綜上所述,改進YOLOv10n在檢測精度、模型復雜度和推理速度之間實現了良好平衡,特別是在小目標檢測場景下表現出色,驗證了改進YOLOv10n在精度、速度、復雜度三維度上的綜合優勢。

4 結束語

針對課堂場景中學生行為檢測需求,提出了一種改進YOLOv10n目標檢測模型。通過引入AKConv可變核卷積增強特征提取能力,結合CBAM注意力機制優化關鍵信息聚焦,同時增強小目標檢測模塊。實驗數據表明,改進后模型在保持實時性的前提下,檢測準確率(mAP@0.5)達到84.4%,較基準YOLOv10n提升7個百分點,模型參數存儲大小壓縮至10.01MB。與當前主流輕量化檢測模型(YOLOv8n) 相比,該模型在準確率與參數量的綜合指標上具有顯著優勢。

本研究驗證了YOLOv10n模型在智慧教室場景的應用可行性,其輕量化特性適配嵌入式設備部署需求,可實現課堂學生行為的實時精準檢測。實際應用中,該系統可生成細粒度課堂行為分析報告,輔助教師動態調整教學策略,并為教學效果評估提供數據支撐。進一步地,通過整合教務系統數據建立多維度教學分析模型,可拓展應用于學習預警、個性化指導等教育智能化場景,具有重要的實踐價值。

后續研究將圍繞以下方向展開:1) 優化模型壓縮策略以適配更低功耗設備;2) 構建多模態行為識別框架,融合姿態估計與表情識別;3) 開發基于檢測結果的課堂教學質量評估指標體系,完善教育智能化的技術生態。

參考文獻:

[1] 李雅紅,薛元杰.基于改進YOLOv5算法的學生課堂行為識別研究[J].長江信息通信,2024,37(12):122-124.

[2] 劉晨怡,邢雪凱,奚文欣,等.基于改進YOLOv5s的課堂學生行為檢測算法設計與實現[J].黑龍江工業學院學報(綜合版),2024,24(9):81-86.

[3] 楊明遠,左棟.基于改進YOLOV5算法的學生課堂行為識別研究[J].信息記錄材料,2022,23(12):51-53,57.

[4] 陳晨,保文星,陳旭,等.改進YOLOv8的學生課堂行為識別算法:DMS-YOLOv8[J].計算機工程與應用,2024,60(24):222-234.

[5] 中共中央 國務院印發《教育強國建設規劃綱要(2024-2035年) 》[EB/OL](2025-01-19) .https://www.gov.cn/zhengce/ 202501/content_6999913.htm.

[6] 董琪琪,劉劍飛,郝祿國,等.基于改進SSD算法的學生課堂行為狀態識別[J].計算機工程與設計,2021,42(10):2924-2930.

[7] 黃勇康,梁美玉,王笑笑,等.基于深度時空殘差卷積神經網絡的課堂教學視頻中多人課堂行為識別[J].計算機應用,2022,42(3):736-742.

[8] PEREIRA F D,FONSECA S C,OLIVEIRA E H T,et al.Explaining individual and collective programming students’ behavior by interpreting a black-box predictive model[J].IEEE Access,2021,9:117097-117119.

[9] TERVEN J,CóRDOVA-ESPARZA D M,ROMERO-GONZáLEZ J A.A comprehensive review of YOLO architectures in computer vision:from YOLOv1 to YOLOv8 and YOLO-NAS[J].Machine Learning and Knowledge Extraction,2023,5(4):1680-1716.

[10] 馬瑞珵,陳繼,王炳懷,等.基于YOLOv5算法的學生課堂行為識別研究[J].現代計算機,2024,30(8):62-65,71.

[11] 楊樹元,陶卓,劉天萌,等.基于YOLOv8的實時教室人數統計系統[J].軟件工程,2024,27(12):1-4.

[12] WANG A,CHEN H,LIU L H,et al.YOLOv10:real-time end-to-end object detection[EB/OL].2024:2405.14458. https://arxiv.org/abs/2405.14458v2.

[13] 高立鵬,周孟然,胡鋒,等.基于REIW-YOLOv10n的井下安全帽小目標檢測算法[J/OL].煤炭科學技術,2024:1-13.(2024-09-20). https://kns.cnki.net/kcms/detail/11.2402.td.20240919.1902.003.html.

[14] ZHANG X,SONG Y Z,SONG T T,et al.LDConv:Linear deformable convolution for improving convolutional neural networks[J].Image and Vision Computing,2024,149:105190.

[15] 周夢雯, 李海濤, 張俊虎. 基于GS-YOLOv8的輕量化水下生物目標檢測算法[J]. 計算機測量與控制, 2024, 32(5): 104-110.

[16] 彭家旭,顧亦然.基于深度學習的橋梁裂縫的智能識別與分類[J].現代電子技術,2023,46(24):135-140.

[17] 黃智淵,方遒,郭星浩.融合注意力機制的YOLOv8-TS交通標志檢測網絡[J].現代電子技術,2025,48(1):179-186.

[18] 余光浩,陳潤霖,徐金燕,等.可變形卷積與注意力的SAR艦船檢測輕量化模型[J].中國圖象圖形學報,2025,30(3):724-736.

[19] 王玲,向北平,張曉勇.改進YOLOv7的PCB缺陷檢測算法[J].機械科學與技術,2025,44(1):9-18.

[20] 鄭果,姜玉松,沈永林.基于改進YOLOv7的水稻害蟲識別方法[J].華中農業大學學報,2023,42(3):143-151.

[21] 齊向明,嚴萍萍,姜亮.基于YOLOv8n的航拍圖像小目標檢測算法[J].計算機工程與應用,2024,60(24):200-210.

[22] WANG C Y,BOCHKOVSKIY A,LIAO H M.YOLOv7:trainable bag-of-freebies sets new state-of-the-art for real-time object detectors[C]//2023 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR).June 17-24,2023,Vancouver,BC,Canada.IEEE,2023:7464-7475.

[23] REN S Q,HE K M,GIRSHICK R,et al.Faster R-CNN:towards real-time object detection with region proposal networks[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2017,39(6):1137-1149.

[24] LIU W,ANGUELOV D,ERHAN D,et al.SSD:single shot MultiBox detector[M]//Computer Vision-ECCV 2016.Cham:Springer International Publishing,2016:21-37.

【通聯編輯:唐一東】

主站蜘蛛池模板: 国产麻豆福利av在线播放| 91蝌蚪视频在线观看| 日韩欧美一区在线观看| 日韩色图区| 五月六月伊人狠狠丁香网| 久久熟女AV| 国产在线视频福利资源站| 欧美精品亚洲精品日韩专区va| 国产成人综合在线视频| 91国内在线观看| 欧美一区中文字幕| 乱人伦中文视频在线观看免费| 免费激情网站| 久久99国产综合精品女同| 国产手机在线ΑⅤ片无码观看| 亚洲色图另类| AV片亚洲国产男人的天堂| 国产成人艳妇AA视频在线| 精品久久人人爽人人玩人人妻| 国产精品熟女亚洲AV麻豆| 亚洲成a∧人片在线观看无码| 人人爱天天做夜夜爽| 91成人试看福利体验区| 亚洲h视频在线| 天堂网亚洲系列亚洲系列| 亚洲无码视频一区二区三区| 国产呦精品一区二区三区下载| 中文字幕免费在线视频| 亚洲成人精品久久| 欧美成人区| 国产性生大片免费观看性欧美| 国产女人18毛片水真多1| 国产免费黄| 国产拍在线| 国产a在视频线精品视频下载| 亚洲免费人成影院| 538精品在线观看| 性喷潮久久久久久久久| 精品人妻无码中字系列| 成年看免费观看视频拍拍| 亚洲精品不卡午夜精品| 思思热精品在线8| 欧美国产日韩一区二区三区精品影视| 乱人伦视频中文字幕在线| 91福利一区二区三区| 久久精品欧美一区二区| 久久精品无码一区二区日韩免费| 91九色视频网| 97久久免费视频| 免费在线成人网| 青青草91视频| 欧美国产在线精品17p| www成人国产在线观看网站| 伊人精品成人久久综合| 强奷白丝美女在线观看| 国产精品开放后亚洲| 欧美不卡视频一区发布| 欧美啪啪网| 久久公开视频| 久久精品电影| 国产打屁股免费区网站| 成人福利在线免费观看| 在线观看欧美精品二区| 国产网站一区二区三区| 18禁高潮出水呻吟娇喘蜜芽| 国产黄色免费看| 国产一区二区免费播放| 色噜噜综合网| 国产精品永久不卡免费视频| 国产精品99一区不卡| 一本色道久久88综合日韩精品| 极品国产在线| 亚洲欧州色色免费AV| 亚洲一区二区日韩欧美gif| 午夜精品国产自在| 国产精品偷伦视频免费观看国产| 波多野结衣国产精品| 中文字幕亚洲综久久2021| 好紧太爽了视频免费无码| 欧美影院久久| 欧美人与牲动交a欧美精品| 亚洲激情99|