999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于改進YOLO v5的寧夏草原蝗蟲識別模型研究

2023-01-05 03:55:42馬宏興董凱兵魏淑花王順霞
農業機械學報 2022年11期
關鍵詞:特征融合檢測

馬宏興 張 淼 董凱兵 魏淑花 張 蓉 王順霞

(1.北方民族大學電氣信息工程學院,銀川 750021;2.寧夏農林科學院植物保護研究所,銀川 750002;3.寧夏回族自治區草原工作站,銀川 750002)

0 引言

蝗蟲是造成全球農業和草原畜牧業經濟損失的重要原因之一,每年因蝗蟲造成的經濟損失高達千億美元[1-3]。

對蟲情的預測和防控,較為先進的方法是利用遙感、地理信息系統等技術宏觀上對蝗蟲蟲群進行監測,但這種方法成本較高,監測精度受限于遙感影像的分辨率,只適合大面積的蝗災檢測,且這種檢測是在蝗蟲已泛濫成災之后,沒有預見性[4-6]。近些年來,部分學者利用機器學習技術,在微觀方面對蝗蟲識別進行了研究。例如通過訓練神經網絡模型來自主學習蝗蟲的生物特征[7-9]。LIMA等[10]提出了將蟲類特征與支持向量機(Support vector machine,SVM)相結合的方法,建立了一個能分類64科的昆蟲分類系統,識別率為93%。YE等[11]提出的ResNet-Locust-BN模型能夠識別三齡幼蟲,準確率為77.20%,識別五齡幼蟲準確率為88.40%,識別成蟲準確率為93.8%。這些分類模型能對蝗蟲進行分類,但不能確定蝗蟲的具體位置信息。武英潔等[12]提出了基于Faster RCNN的野外蝗蟲快速識別網絡,準確率為75.6%。李林等[13]設計了K-SSD-F算法,可對視頻數據中的東亞飛蝗進行檢測,平均精度為88.94%。這些方法雖然能夠確定蝗蟲的位置,但對蝗蟲的檢測精度較低,且只能對單類蝗蟲進行檢測。

在微觀上對蝗蟲的檢測識別精度不高的原因是自然環境中蝗蟲圖像背景復雜,很難對蝗蟲進行有效的分割,而且由于蝗蟲樣本收集困難,不同種類的蝗蟲樣本分布不均勻,拍攝所獲取的蝗蟲圖像尺度不一,這都造成了蝗蟲圖像檢測識別的困難。為有效解決蝗蟲圖像樣本少、小目標和目標多尺度等識別難點,基于YOLO v5網絡,擬提出一種復雜背景下多尺度蝗蟲目標檢測識別模型。該模型可利用生成式對抗網絡CycleGAN來擴充數據集[14],使用ConvNeXt來保留小目標蝗蟲特征[15],使用Bi-FPN結構增強網絡提取蝗蟲特征的能力[16]。并將改進后的網絡模型結合研發的草原生態環境數據采集設備,構建基于Web的蝗蟲識別檢測平臺,提高對自然環境中蝗蟲檢測和識別精度,應用在寧夏草原地區的蝗蟲實時檢測中,為寧夏草原蟲情防治等提供生態信息和決策依據。

1 蝗蟲數據集建立

寧夏荒漠草原中常見蝗蟲有亞洲小車蝗、短星翅蝗、中華劍角蝗等,主要分布在寧夏中衛、鹽池、固原等地[17-18]。

由于蝗蟲在自然環境中與背景高度相似,不利于蝗蟲特征的研究與分析,為豐富蝗蟲數據多樣性,提高識別模型泛化能力,在不同角度、不同光照環境下,在自然環境、捕蟲網、仿真草皮和粘蟲板上采集了蝗蟲圖像數據,如圖1所示。

圖1 蝗蟲圖像

在采集過程中,共得到寧夏草原常見蝗蟲圖像335幅,刪除圖像數據集中拍攝模糊、枝葉遮擋等特征不明顯的蝗蟲圖像,最終得到208幅有效圖像。該數據集屬于少樣本數據集,需對蝗蟲數據集進行預處理。

2 圖像預處理

為了擴充數據集,提高識別的準確性,采用生成對抗網絡生成新的蝗蟲圖像,對蝗蟲樣本進行擴充,并采用馬賽克數據增強來提高識別網絡的泛化能力。

2.1 數據集擴充

生成對抗網絡(Generative adversarial network,GAN)由生成網絡和判別網絡組成,通過兩個神經網絡相互博弈進行非監督學習。判別網絡輸入真實樣本,生成網絡盡可能的誤導判別網絡,兩個網絡不斷調整參數,相互對抗,生成以假亂真的圖像數據,盡量模仿訓練集中的真實樣本,完成少樣本數據集擴充[19-21]。

CycleGAN結構如圖2所示,其中X表示輸入的真實樣本,Y表示生成的對抗樣本,G、F為生成網絡,DX、DY為對抗性網絡。

圖2 CycleGAN網絡結構

采用生成對抗網絡CycleGAN對寧夏草原蝗蟲圖像進行數據擴充,擴充前后蝗蟲圖像數據對比效果如圖3所示。

圖3 使用CycleGAN擴充數據樣本

2.2 數據增強

除了使用對抗網絡擴充數據樣本外,還可以采用馬賽克數據增強和傳統圖像增強相結合的方法,擴展蝗蟲圖像樣本的豐富度。

在對蝗蟲圖像增強時,將4幅蝗蟲圖像進行隨機裁剪拼接,并對蝗蟲圖像進行位移、大小變換、剪切、復制粘貼等操作,增強結果如圖4所示。

圖4 數據增強結果

通過對數據集進行馬賽克數據增強,能夠增加模型每次訓練所選取的樣本數,間接降低計算開銷。

2.3 數據標注

為使網絡模型能夠學習蝗蟲的特征與位置信息,提高模型輸出的準確性,可對圖像中的蝗蟲進行標注。在此使用標注工具LabelImg對圖像中的蝗蟲進行矩形標注,標注結果如圖5所示。

圖5 圖像標注

對自然環境中的蝗蟲圖像標注時盡可能使邊界框最小,以減小背景的影響。標注完成,得到記錄蝗蟲位置和種類信息的文件,圖像和標注文件均作為模型的訓練集。

3 基于YOLO v5的蝗蟲識別模型設計

YOLO v5模型更適合中、大型目標檢測,對于復雜背景和尺度變化較大的蝗蟲等小目標圖像檢測效果達不到預期目標。為了正確識別復雜背景中小目標,本文首次通過將YOLO v5原主干網絡Darknet改進為ConvNeXt,來解決Darknet對小目標特征提取能力不足的問題;同時,將Neck特征融合部分改進為雙向融合特征網絡Bi-FPN,來解決多尺度特征融合問題。通過這些改進,來提升網絡模型對復雜背景中不同尺度蝗蟲目標的識別能力。改進后的網絡模型命名為YOLO v5-CB。

3.1 YOLO v5結構模型

目標檢測算法中,YOLO v5因運算速度較快,識別正確率較高等原因,應用范圍較廣。YOLO v5由特征提取(Backbone)、特征融合(Neck)和檢測頭(Head)3部分組成,結構模型如圖6所示。

圖6 YOLO v5結構模型

YOLO v5對于大中型、顯著性目標的檢測具有良好的效果,但對于小目標、少樣本且背景復雜的蝗蟲圖像,YOLO v5的檢測識別性能并不理想,需要在特征信息提取和特征融合方面進行改進,使其適應自然背景中蝗蟲的檢測和識別。

3.2 特征提取

由于數據集中存在小目標的蝗蟲圖像,在特征提取時,YOLO v5的下采樣方式會丟失小目標蝗蟲特征。為有效解決小目標蝗蟲圖像特征提取不充分的問題,本文改進模型YOLO v5-CB在特征提取部分采用性能更為優異的ConvNeXt網絡。

ConvNeXt是一種純卷積網絡,在相同的計算開銷下,擁有更快的推理速度和更高的準確率,網絡結構如圖7所示。其中h、w、dim分別表示特征圖的高、寬和層數。

圖7中,ConvNeXt網絡將原ResNet模塊堆疊block的次數從(3, 4, 6, 3)調整成(3, 3, 9, 3),通過一個卷積核尺寸等于步長的卷積層進行下采樣,采用深度可分離卷積平衡精確率與計算開銷,調整通道數到96;ConvNeXt Block采用倒瓶頸層設計,使用3×3深度可分離卷積用于提取特征后,先用1×1卷積升維,將通道數由96升到384,再用1×1卷積降維,將通道數從384降到96,用以減少高維信息的損失;ConvNeXt通過4個階段的特征提取,得到尺寸為7×7×768的特征圖,通過全局平均池化和LN層,最終通過線性分類器輸出。

圖7 ConvNeXt網絡結構圖

ConvNeXt模型因其特殊的倒置瓶頸層結構,有效地避免了降采樣過程中小目標蝗蟲特征信息的丟失。ConvNeXt在每次降采樣前后和全局均值池化之后的位置都添加了一個LN層,這種歸一化策略使得模型更加穩定,減少了梯度的振蕩。此外,由于借鑒了Swin Transformer[22]的結構,減少激活函數和BN層的使用,ConvNeXt模型不僅提升了蝗蟲目標檢測的準確率,也使網絡降低了浮點運算次數。

3.3 特征融合

網絡訓練過程中,隨著網絡層數越深,獲得的特征信息越高級,但是目標的位置信息會變得越弱,對小目標的位置損失就越大。因此在提取蝗蟲特征后,需要通過Neck進行特征融合提高檢測頭(Head)對蝗蟲位置與類別信息預測的準確性。

YOLO v5使用不同尺度來預測并用特征金字塔(Feature pyramid network,FPN)結合像素聚合網絡(Pixel aggregation network,PAN)結構對特征進行多尺度融合。由于拍攝獲得的寧夏草原蝗蟲目標尺度變化較大,使用YOLO v5的PANet結構會破壞不同尺度蝗蟲特征的一致性。為解決蝗蟲目標多尺度檢測問題,本文改進模型YOLO v5-CB在特征融合部分采用Bi-FPN結構,通過引入權值,來解決不同尺度的特征圖對特征融合的貢獻不同的問題。PANet結構如圖8所示,Bi-FPN結構如圖9所示。

圖8 PANet 結構圖

圖9 Bi-FPN結構圖

Bi-FPN結構為了學習不同分辨率特征圖對特征融合的重要程度,反復進行多尺度特征融合。

Bi-FPN帶權特征融合公式為

(1)

式中Ii——輸入特征

wi、wj——權值,用于衡量不同分辨率的特征對特征融合的貢獻情況

e——數值極小的學習率,用以約束數值的振蕩

O——輸出,加權特征融合的值

Bi-FPN在第6層融合特征的計算公式為

(2)

(3)

Pin——對輸入進行下采樣操作

Resize——上采樣函數

ω——學習到的參數

Pout——融合的輸出特征

Conv——卷積運算函數

Bi-FPN在融合不同尺度的特征圖中,因其特有的雙向交叉尺度連接結構,能夠高效融合到更多的蝗蟲特征;同時運用加權特征融合的設計,通過學習不同層輸入特征的權重,得到不同尺度的輸入特征對輸出特征的貢獻情況,從而解決了蝗蟲圖像尺度變化較大的問題。

4 蝗蟲圖像識別結果與分析

4.1 實驗環境

模型在服務器上完成訓練,服務器配置為Intel(R)Core(TM)i7-7820x CPU,GeForce RTX 2080Ti 11GB GPU。軟件環境采用Python 3.7,深度學習框架采用Pytorch 1.8.1。

4.2 識別結果

采用本文改進模型YOLO v5-CB對寧夏草原蝗蟲圖像進行檢測和識別,結果如圖10所示。從圖中可以看出,YOLO v5-CB能夠對圖像中的亞洲小車蝗、短星翅蝗和中華劍角蝗進行準確定位和識別。

圖10 寧夏草原蝗蟲圖像識別結果

為進一步驗證改進模型YOLO v5-CB的性能,選擇與Faster R-CNN[23]、YOLO v3[24]、YOLO v4[25]和YOLO v5模型進行比較,結果如圖11所示。

圖11 不同網絡識別結果

圖11中,存在亞洲小車蝗、短星翅蝗兩類蝗蟲,背景復雜且蝗蟲尺度變化較大。Faster R-CNN 能夠定位所有蝗蟲,但存在亞洲小車蝗與短星翅蝗錯檢和重復檢測的情況;YOLO v3網絡與YOLO v4網絡存在亞洲小車蝗漏檢,將非蝗蟲錯檢成短星翅蝗的情況;YOLO v5網絡能夠識別出多數蝗蟲,但對目標較小的短星翅蝗存在漏檢的情況;本文改進模型YOLO v5-CB能夠準確定位并識別出亞洲小車蝗、短星翅蝗,且無錯檢漏檢情況。說明改進模型YOLO v5-CB能有效提高復雜背景中多尺度蝗蟲檢測和識別的準確率。

4.3 網絡模型性能指標

為了客觀評估模型性能,對Faster R-CNN、YOLO v3、YOLO v4、YOLO v5和本文改進模型YOLO v5-CB的精確率、召回率、平均精度均值(mAP)、F1值進行比較[26],如表1所示。

表1 網絡模型評價指標

由表1可見,在對寧夏草原常見亞洲小車蝗、短星翅蝗和中華劍角蝗檢測識別時,YOLO v3、YOLO v4與Faster R-CNN相比,網絡性能有了較大的改善,但略遜于YOLO v5。YOLO v5對小目標蝗蟲的識別精確率和平均精度均值偏低;YOLO v5-CB的精確率、召回率、平均精度均值和F1值均為最優,其中,精確率比Faster R-CNN提高27個百分點,比YOLO v3提高9.1個百分點,比YOLO v4提高11.9個百分點,比YOLO v5提高5.8個百分點;召回率比 Faster R-CNN提高13.3個百分點,比YOLO v3提高6個百分點,比YOLO v4提高8.2個百分點;比YOLO v5提高6.1個百分點;F1值比Faster R-CNN提高21個百分點,比YOLO v3提高8個百分點,比YOLO v4提高10個百分點,比YOLO v5提高6個百分點。

為了得到亞洲小車蝗、短星翅蝗和中華劍角蝗的平均精度,使用Faster R-CNN、YOLO v3、YOLO v4、YOLO v5和YOLO v5-CB在訓練過程中得到的精確率和召回率繪制亞洲小車蝗、短星翅蝗和中華劍角蝗精確率-召回率曲線,如圖12所示。

圖12 精確率-召回率曲線

由Faster R-CNN、YOLO v3、YOLO v4、YOLO v5和本文模型YOLO v5-CB的精確率-召回率曲線可得,亞洲小車蝗、短星翅蝗和中華劍角蝗的平均精度如表2所示。

由圖12和表2可以得出,本文模型YOLO v5-CB檢測亞洲小車蝗的平均精度比Faster R-CNN提高9.9個百分點,比YOLO v3提高2.7個百分點,比YOLO v4提高2.8個百分點,比YOLO v5提高3.7個百分點;檢測短星翅蝗的平均精度比

表2 不同蝗蟲的平均精度

Faster R-CNN提高 27.5個百分點,比YOLO v3提高14.8個百分點,比YOLO v4提高24.1個百分點;比YOLO v5提高11.4個百分點;檢測中華劍角蝗的平均精度比Faster R-CNN提高10.8個百分點,比YOLO v3提高0.8個百分點,比YOLO v4提高0.9個百分點;比YOLO v5提高0.5個百分點。綜上所述,本文改進網絡模型YOLO v5-CB對亞洲小車蝗、短星翅蝗、中華劍角蝗檢測的平均精度表現最優。

為了進一步驗證本文模型YOLO v5-CB的有效性和實用性,在訓練時長和檢測時間上與YOLO v5進行了對比實驗。

在訓練時長的對比實驗中,訓練150個迭代周期后,得到的YOLO v5和YOLO v5-CB的蝗蟲類別損失值和蝗蟲位置損失值如圖13和圖14所示。

圖13 類別損失值對比

圖14 位置損失值對比

由圖13、14可知,由于改進模型YOLO v5-CB引入了ConvNeXt網絡和Bi-FPN結構,導致收斂速度略慢于YOLO v5,訓練時長增加,但充分訓練后,收斂結果優于YOLO v5。

檢測時間對比實驗中,選取50幅復雜背景下的小目標蝗蟲圖像,對訓練好的YOLO v5和YOLO v5-CB網絡進行對比,為了消除偶然性,使結果更加準確,將50個結果每10個分成一組,共分成5組,分別記為T1~T5,求得每一組檢測時間的平均值,結果如表3所示。

由表3可知,訓練后YOLO v5-CB的檢測時間最多比YOLO v5增加了0.004 s,對實際應用基本沒有影響。

表3 檢測時間對比

為了更好地模擬蝗蟲真實的生存環境,驗證模型的實際應用效果,針對含有負樣本的圖像,YOLO v5和YOLO v5-CB的檢測結果如圖15所示。

圖15 引入噪聲檢測結果

由圖15可見,對于含有負樣本的復雜背景下小目標蝗蟲檢測,YOLO v5存在錯檢,而YOLO v5-CB檢測更加準確。

由此可知,YOLO v5-CB因其主干部分的深度可分離卷積,只增加了空間維度上的信息混合,配合其特殊的倒置瓶頸層結構,有效地平衡了準確度與計算量,部署在服務器端是可行的。

4.4 消融實驗及分析

為了驗證改進方案的有效性,需要通過消融實驗進行對比分析,結果如表4所示。

表4 消融實驗結果

模型1是YOLO v5網絡;模型2是將YOLO v5的特征提取部分替換為ConvNeXt后得到的網絡;模型3是將YOLO v5的特征融合部分替換為Bi-FPN得到的網絡;模型4是本文改進網絡YOLO v5-CB。實驗時,各網絡模型訓練100個周期。

由表4可知,相比YOLO v5,模型2的精確率提高0.8個百分點,召回率提高3.4個百分點,F1值提高2個百分點,平均精度均值提高3.7個百分點,說明采用ConvNeXt網絡,能夠較好地提取小目標特征,有效提高網絡對蝗蟲的檢測性能。相比YOLO v5,模型3的精確率提高4個百分點,召回率提高7.4個百分點,F1值提高5個百分點,平均精度均值提高4.19個百分點,說明采用Bi-FPN,可增加網絡對多尺度蝗蟲特征的融合能力,保留了不同尺度蝗蟲特征的一致性。相比YOLO v5,模型4的精確率提高5.8個百分點,召回率提高6.1個百分點,F1值提高6個百分點,平均精度均值提高5.48個百分點。說明本文改進方法YOLO v5-CB可更好地檢測和識別多目標、尺度不一的蝗蟲圖像,提高蝗蟲目標檢測的準確性。

5 蝗蟲識別系統平臺設計與應用

為了探索蝗蟲數量與生態因子之間的內在聯系,需要對觀測點的蝗蟲圖像進行長期采集并檢測。在實際應用中設計了分布式可擴展生態環境數據采集系統[27-28],結構如圖16所示。

圖16 分布式可擴展生態環境數據采集系統架構圖

系統主要由邊緣端數據采集模塊和云端處理模塊兩部分組成。邊緣端數據采集模塊實物如圖17所示,主要完成各類生態環境數據采集并通過4G網絡發送至云端處理模塊,云端處理模塊不僅對邊緣端數據采集模塊數據進行接收、校驗、存儲,還對邊緣端進行監控、分析、反饋與調控。

圖17 邊緣端數據采集模塊實物

分布式可擴展生態環境數據采集系統主要應用于山地、荒漠、草原、戈壁等惡劣環境中的生態數據監測,可完成觀測點光照強度、降雨量、空氣溫濕度、土壤主要元素及不同深度溫濕度等10余類生態環境數據的實時監測和跟蹤,同時可對觀測點圖像數據進行實時采集并進行昆蟲、植物識別。

為了對觀測點的圖像進行實時采集并查看,通過Flask構建Web界面,通過邊緣端數據采集模塊的高清圖像采集設備,使用RTMP推流的方式,結合螢石云開放平臺,可實時獲取寧夏草原蝗蟲圖像,利用部署在云端處理模塊中的YOLO v5-CB模型,可完成觀測點蝗蟲圖像的實時識別。生態環境圖像采集界面如圖18所示。

圖18 生態環境圖像采集界面

目前,該設備已安裝在寧夏回族自治區鹽池縣大水坑、黃記場和麻黃山等地,主要用于長期跟蹤觀測點各類生態環境數據。

為了測試本文改進模型YOLO v5-CB在Web端的實際識別效果,選取60只蝗蟲,其中亞洲小車蝗25只、中華劍角蝗20只、短星翅蝗15只,并與YOLO v5模型進行對比測試,結果如表5所示。

表5 改進前后模型識別檢測結果

由表5可以看出,YOLO v5網絡存在將短星翅蝗錯檢成亞洲小車蝗的情況,而本文模型YOLO v5-CB可以正確檢測3類蝗蟲,且無漏檢錯檢情況。

在草原蝗蟲實時識別時,對采集設備區域地面進行平整并鋪上比較單一的草皮背景,結果如圖19所示,在此僅顯示某段視頻中第256~270幀的識別結果。

圖19 運動蝗蟲圖像識別結果

由于YOLO v5顯示蝗蟲種類的標簽是拼音字母,在視覺上不夠友好,不利于應用的擴展,因此在YOLO v5-CB中采用Unicode編碼方式,將視頻中的蝗蟲檢測結果以中文輸出。

6 結論

(1)針對寧夏草原蝗蟲樣本較少、尺度大小不一,目標與背景相近等識別難題,提出了一種復雜背景下多尺度蝗蟲目標檢測識別模型YOLO v5-CB,通過CycleGAN擴充數據集,使用ConvNeXt提取特征,結合Bi-FPN結構進行特征融合,構建了復雜背景下的寧夏草原蝗蟲檢測模型,并采用對比實驗和消融實驗對改進模型的性能進行評估與分析。

(2)在寧夏草原蝗蟲檢測識別時,本文改進模型YOLO v5-CB識別精確率為98.6%,召回率為96.6%,F1值為98%,平均精度均值為96.8%。與Faster R-CNN、YOLO v3、YOLO v4、YOLO v5模型相比,本文改進網絡模型對寧夏蝗蟲具有更好的檢測性能。

(3)設計并開發了分布式可擴展生態環境數據采集平臺,通過Flask構建Web界面,基于YOLO v5-CB+平臺,實現了對寧夏草原包括蝗蟲圖像在內的生態環境數據實時檢測和長期跟蹤。

猜你喜歡
特征融合檢測
村企黨建聯建融合共贏
今日農業(2021年19期)2022-01-12 06:16:36
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
融合菜
從創新出發,與高考數列相遇、融合
《融合》
現代出版(2020年3期)2020-06-20 07:10:34
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
主站蜘蛛池模板: 91视频青青草| 天天色天天操综合网| 日本精品αv中文字幕| 欧美激情第一欧美在线| 不卡视频国产| 真实国产乱子伦视频| 欧美日韩在线亚洲国产人| 欧美色图久久| 国产精品成人一区二区不卡| 国产在线拍偷自揄拍精品| 国产午夜福利片在线观看| 亚洲水蜜桃久久综合网站 | 人人爽人人爽人人片| 国产va在线观看| 久久特级毛片| 欧美www在线观看| 亚洲色大成网站www国产| 国产精品香蕉| 1769国产精品视频免费观看| 97精品久久久大香线焦| 亚欧美国产综合| 香蕉eeww99国产在线观看| 欧美福利在线观看| 久久这里只有精品66| 午夜福利亚洲精品| 成人午夜福利视频| 91亚洲精品国产自在现线| 精品色综合| 丁香婷婷激情网| 日韩a在线观看免费观看| 亚洲资源站av无码网址| 欧美日本中文| 欧美国产精品拍自| 亚洲视频在线网| 波多野结衣亚洲一区| 亚洲视频影院| 日韩天堂视频| a天堂视频| 国产成人久久综合一区| 国产午夜无码专区喷水| 免费AV在线播放观看18禁强制| www.亚洲一区二区三区| 一级毛片免费观看久| 日韩精品一区二区三区中文无码| 国产精品一线天| 99精品国产高清一区二区| 国产网友愉拍精品| 亚洲成a人片77777在线播放| 久久午夜夜伦鲁鲁片不卡| 亚洲精品日产精品乱码不卡| 永久免费无码日韩视频| 欧美在线视频a| 国内丰满少妇猛烈精品播| 亚洲欧美日韩另类在线一| 久久这里只有精品66| 巨熟乳波霸若妻中文观看免费| 啪啪国产视频| 亚洲一区免费看| 欧美第九页| 日本黄色a视频| 激情午夜婷婷| 久久永久精品免费视频| 67194亚洲无码| 夜夜拍夜夜爽| 国产精品永久免费嫩草研究院| 欧美一区福利| 国产精品性| 国产成人精品一区二区秒拍1o| 在线无码av一区二区三区| 色天天综合久久久久综合片| 国产在线精品网址你懂的| 国产精品免费露脸视频| 日韩AV无码免费一二三区| 精品一区二区三区四区五区| 亚洲一级色| 亚洲熟妇AV日韩熟妇在线| 国产精品毛片在线直播完整版| 国产精品久久久久久久伊一| 99视频精品全国免费品| 美女扒开下面流白浆在线试听| 亚洲无码视频图片| 亚欧成人无码AV在线播放|