999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于機器視覺的口岸尾隨行為檢測方法研究

2025-08-18 00:00:00李潤涵張梅
現代信息科技 2025年12期
關鍵詞:方向區域人員

中圖分類號:TP391.4;TP397 文獻標識碼:A 文章編號:2096-4706(2025)12-0063-06

Research on Port Tailgating Behavior Detection Method Based on Machine Vision

LIRunhan',ZHANGMei2 (1.Graduate College,China People'sPoliceUniversity,Langfang O65ooo,China; 2.College ofImmigration Management, China People's Police University,Langfang O65ooo,China)

Abstract:To detect the behavior of unauthorized individuals tailgating legitimate passengers at self-service border control gates,thispaper studies thedetectionoftailgating behaviorusingaschemeofanalyzingpedestrian motionattribute characteristicsbyTargetDetectionandtargetrackingmethod.First,thebehaviorisdefiedthroughaninterdisciplinaryotent. Then,a Target Detectionalgorithm isused to identifythelegitimate individuals passngthrough thegates.Atargetracking algorithmisappliedtoextractthemovement tajectoriesofthesubjects,obtainingthespatialrelationshipbetweensuspicious individualsandlegitimatepassngers.Themovementatributesofthetargetsarequantitativelystudied,thethresholdisset, the movementcharacteristicsof individuals are analyzed,and the folow-up judgmentresultsareobtained.This enables the representationof tailgatingbehaviorandtheconstructionofanautomaticrecognitionmodelfor tailgatingbehaviorin specific scenarios.Experimentalresultsshowthatthisalgorithmcanefectivelydetecttailgaters inborderinspectionhallandachieve safe management and control of risky behaviorswithin the area.

Keywords: Machine Vision; Target Detection; movement analysis; abnormal behavior

0 引言

在出入境安全管控中,尾隨行為對口岸安全造成極大威脅。針對口岸人員通關場景下,風險行為自動識別準確率低、預警難的問題。本文對于口岸通關人員尾隨行為展開了研究,主要內容為:口岸人員風險行為范式構建;邊檢大廳通關尾隨行為風險識別;閉路電視融合口岸場景人員進行非接觸式行為檢測。實現通關人員風險行為識別與預警,獲取人員行為信息。通過口岸通關人員尾隨行為范式的研究和構建非接觸式監控體系,對可疑行為進行精準判定。該過程與傳統的口岸管控人員進行現場排查的方式相比,完成了實時自動化風險行為檢測。

針對區域內尾隨行為的研究主要有數字圖像處理方法和利用計算機視覺的目標檢測與跟蹤算法。圖像處理方法利用特征描述子提取目標輪廓開展目標檢測,再使用卡爾曼濾波進行目標跟蹤[1。但該算法受環境影響所帶來的誤差較大,不具備邊檢大廳場景適用性。計算機視覺方法進行尾隨判別利用了YOLOv5算法進行行為識別,其方法較落后且只考慮了人體間距情況,并不適用于口岸上的尾隨情景[2。針對邊檢大廳場景下通關人員風險行為具有突發性高、隱蔽性強等特點,研究采用YOLOv8算法和ByteTrack算法對自助通關區域內的個體進行目標檢測與跟蹤,設定尾隨風險行為的范式定義和模式定義,利用數學、視頻偵查技術方法分析其運動屬性。對滿足定義的運動風險特征進行非接觸式組合檢測,實時精準地識別出檢測區域內的尾隨行為風險人員。

1 尾隨行為的定義

尾隨行為的描述與界定決定了其計算機識別算法的設計,研究主要工作為:對尾隨風險行為范式進行構建、提取出尾隨行為的特征集描述。

從犯罪學視角考慮:邊檢大廳尾隨嫌疑人會在擁擠區域發生徘徊猶豫行為并伺機尾隨。尾隨行為作為人-人交互行為,其最顯著行為學特征就是人際距離,人際距離縮短[3],極易出現尾隨行為。

基于尾隨行為的各項特征,國際上的行為管控研究將尾隨行為分為兩種,一種是被尾隨人主觀上不知道自己被尾隨,這種情況稱為Tailgating[4,即未授權人跟在合法人員的后方來規避檢測系統。第二種是被尾隨人主觀上知道自己被尾隨,且有意讓尾隨人跟在其身后,這種情況稱為Piggybacking[5],即未授權人得到了合法通關人員的許可躲避門禁檢測系統。通過風險行為范式的研究,挖掘風險行為的標志性動作組成,對各項尾隨行為特征進行行為定義。

2 尾隨行為的識別過程

本文對尾隨行為的識別過程如圖1所示,先進行行為定義、再開始目標檢測與跟蹤、劃定檢測區域、區域計數操作。當區域內個體大于1時,開始方向判定,對區域內運動方向為靠近閘機的多個目標進行歐氏距離檢測。當這些目標之間的歐氏距離小于閾值,則判定為尾隨。當區域內個體數量小于等于1時,在該區域內停止尾隨檢測。如果區域內單個目標運動方向表現為遠離閘機時,對該離開目標取消尾隨檢測。

圖1尾隨行為檢測流程

2.1 行為定義

邊檢大廳通關人員的尾隨行為定義為:在閘機入口檢測區域內,存在被尾隨目標向閘機靠近,尾隨目標與被尾隨目標運動方向一致,且尾隨間隔距離小于閾值,這樣的行為稱為尾隨。其中尾隨目標指尾隨的一個及以上對象。被尾隨目標指閘機附近準備通關的人員。

定義由幾個關鍵部分組成:

1)閘機入口處劃定尾隨檢測區域。

2)區域內有目標向閘機靠近。

3)尾隨目標和被尾隨目標方向相同。

4)尾隨目標與被尾隨目標間隔距離小于閾值。

閘機入口處的尾隨檢測區域,標定了尾隨行為發生的地點,即在準備通關的合法人員周邊和閘機附近發生的動作。在該區域內,尾隨人可能出現猶豫,徘徊的行為特征。區域內向閘機靠近的目標,標定了目標的犯罪意圖。尾隨目標與被尾隨目標方向相同,標定了尾隨人針對被尾隨人持續性地跟追。尾隨目標與被尾隨目標的間隔小于閾值,體現了尾隨行為最根本的特征,持續性距離過近。

邊檢大廳通關人員符合以上四個運動和空間特征的行為,被定義為尾隨行為。滿足如上定義的尾隨行為在邊檢大廳常常表現為兩種形式,在口岸人員通關實際場景中,根據實踐將邊檢大廳存在的尾隨行為分為路徑重合尾隨和側方位尾隨,如圖2所示。

圖2尾隨行為類別

圖3算法架構圖

2.2 目標檢測與跟蹤

研究采用YOLOv8算法和ByteTrack算法對口岸行人目標進行檢測與跟蹤。首先識別出邊檢大廳場景下的所有通關人員,再通過運動特征提取識別出在通關中存在尾隨行為的風險人員。YOLOv8算法與ByteTrack算法相結合的算法架構圖如圖3所示。

2.2.1 目標檢測

YOLOv8算法是基于Darknet神經網絡框架和卷積神經網絡進行目標檢測與分類的目標檢測算法[。算法側重關鍵人員局部特征,基于卷積神經網絡完成目標檢測。利用單次前向傳播算法判斷目標的位置和類別。對于輸入的圖像,通過多個卷積層進行處理,生成不同的特征圖。再經過池化層提取圖像特征。為后續構建通關人員異常動作檢測和異常行為識別模型,實現對邊檢大廳通關人員風險行為的準確識別做鋪墊。

2.2.2 目標跟蹤

為了準確追尋人員移動軌跡,實現通關人員跟蹤及軌跡分析。研究使用多目標跟蹤技術領域表現較好的ByteTrack算法進行多目標行人跟蹤。傳統的目標跟蹤方法檢索置信度分數高于閾值的檢測框預測目標移動軌跡,舍棄低于閾值的檢測結果。該算法將高置信度檢測結果與低置信度檢測結果同時保留用來預測軌跡,該算法相對于傳統跟蹤算法的效果較好,滿足了實時跟蹤的要求,與其他算法在MOTA(跟蹤準確度)、MOTP(跟蹤精度)、FPS(跟蹤速度)三個方面指標的效果比較如表1所示[7]。

表1跟蹤算法效果對比

MOTA衡量的是跟蹤算法的整體表現,包括精確度、誤報及身份切換的錯誤。MOTP則專注于跟蹤的準確性,表示標注框與預測框間的不匹配程度。FPS指跟蹤速度,即每秒跟蹤多少張圖片,FPS超過30為實時跟蹤。ByteTrack算法在處理同一個目標在跟蹤場景下消失后又出現這方面有較好的表現,滿足了未來研究中跨攝像頭多視頻多場景風險行為管控要求[8]。

2.3 運動屬性分析

2.3.1 獲取目標質點

在人群密度高的口岸邊檢場景,利用感知設備所采集到的數據存在稀疏性、覆蓋范圍不足、信息片面等特點,對人員難以進行全面跟蹤定位和關鍵風險行為提取。本文采用了提取人體目標檢測框質點的方式分析人員運動特征。

提取目標人體檢測框的質點,即檢測框中心點坐標[。每一組檢測框由左上角點和右下角點的坐標表示,這些坐標共同確定了行人檢測框的質心坐標,進而確定每個行人檢測框的瞬時質點位置。在目標開始運動時,繪制每一時刻的質點軌跡,質點軌跡反映被檢測目標的運動路徑。

2.3.2 檢測區域劃定

在閘機附近劃定檢測區域,于區域內檢測通關人員和閘機周邊存在的距離過近的可疑人員。區域長度起始點為行人等待處,終點為閘機口處。成年人平均步長在70到80厘米左右,場地一塊地磚的長度為80厘米。區域寬度設置為上方包含行人全身,下方包括一塊地磚的長度。在本實驗中,圖像上的二維檢測區域的像素長度設置為 700px ,像素寬度為 550px 。

圖4展示檢測區域內行人正常通關時的場景,檢測框中心點為目標質點。目標移動時,質點產生一段運動軌跡。檢測框上方的標注為行人運動方向,檢測區域內的行人正在通關。

圖4實驗中劃定的檢測區域

2.3.3 區域入侵檢測與人員計數

對于管控區域異常入侵的探測預警,使用光學圖像對檢測區域進行通道入侵檢測[10]。在檢測區域劃定周界。將劃定的檢測區域作為區域入侵檢測的邊框,檢測其中的目標,進行人員侵入預警及行為研判。

在劃定的檢測區域內,進入區域的人員分為合法目標和可疑目標。可疑目標被認為存在尾隨風險。當第一個目標進入區域時,算法認定該人員正在進行自助通關操作。檢測區域內的目標計數加一。該目標被判斷為合法目標,不做標記。

后續多個目標進入計數區域時,區分第一個進入區域的目標和后續進入區域的目標[1],同時顯示區域內的個體數量。區域外的目標不做檢測,進而識別通關人員尾隨行為。

2.3.4 運動方向檢測

基于試驗場地上標定的相機位置,將目標的運動方向分為靠近閘機(Upward)、遠離閘機(Downward)。研究采用目標軌跡在 x 軸上的投影變化分析目標運動方向。在圖像上定義垂直坐標軸,坐標原點O位于視頻左上角,x軸正方向和y軸正方向分別沿圖像上邊沿向右和圖像左邊沿向下延伸。視頻分辨率為1 280px×720px 。 軸的像素值長度為 1280px ,y軸的像素值長度為 720px 。

閘機在視頻監控左方,將向左運動的目標判定為靠近閘機的目標。用保留的質點繪制軌跡,取前 k 個軌跡點的連線作為目標的運動方向向量[12]。取該向量在 x 軸方向上的投影,用質點在當前保留的軌跡于x 軸分量的始末位置的橫坐標差值標定目標的投影方向。質點當前幀的 x 坐標值減去質點起點的 x 坐標值,差記為 dx ,如下所示:

dx=xc-xk

其中, xc 表示檢測框中心質點橫坐標, xk 表示保留的第 k 個質點。當 dxgt;0 時,目標向左運動,判定為遠離閘機方向;當 dxlt;0 時,目標向右運動,判定為靠近閘機方向。

2.3.5 尾隨間隔管理

尾隨間隔管理技術[13]作為一種越界檢測分析最早應用在機場航班管制領域。在行人越界檢測方面,其界限分為時間界限和空間界限。時間界限指:控制每隔一段時間才允許個體或物體通過,該方案需要綜合考慮到通關物體的步長變化和移動速度,主要針對公共交通工具設定。空間界限指每個通關個體之間的距離差值要大于一定閾值,可以應用在人際尾隨間隔管理方面。空間間隔距離是尾隨行為中最顯著的特征,可以通過計算兩個個體之間的歐氏距離值來衡量。研究利用區域內其他目標質心到被尾隨目標質心的歐氏距離[14]來進行越界識別。相當于為每個目標設定了可移動的開放周界。在目標進行自助通關時,對其他進入該周界的目標進行行為識別,判定風險行為。劃定周界進行尾隨間隔管理的歐氏距離計算式為:

其中, d 表示歐氏距離, n 表示 n 維空間, (xi yi, )表示空間內兩個點的坐標。后方同向目標與當前目標尾隨間隔距離小于 d 時,將該組目標判定為尾隨。

2.3.6 尾隨行為認定

第一個進入口岸檢測區域的目標為靶向目標。當靶向目標通關后,第二個進入檢測區域的目標成為靶向目標。靶向目標后方與其間隔距離小于閾值的,運動方向和靶向目標相同且向閘機靠近的目標判定為尾隨目標。尾隨的認定情形有兩種:

1)尾隨目標從側后方靠近靶向目標,企圖尾隨。

2)尾隨目標從正后方靠近靶向目標,企圖尾隨。

針對這兩種尾隨情形,開始實驗仿真。

3 實驗結果分析

3.1 數據集

模型使用了公開評價的COCO數據集進行訓練。COCO數據集針對復雜場景構建了多種姿態,情形下的行人監測圖片數據,包括80種物體類別。COCO數據集中小目標圖像較多,滿足了對遮擋下的人員異常動作識別的要求。其在人-人互動行為的檢測中表現出了優越性[15-16]。其中約有285 000 個行人標注實例,研究中數據以9:1劃分為訓練集與測試集。

3.2 參數設置

實驗中需要確定的參數值分別為 k 值(保留質點數)、 d 值(歐氏距離閾值)。參數的大小由實驗確定。

3.2.1 k 值確定

k 值表示保留人體檢測框中心質點的個數,通過影響保留軌跡的長短影響方向檢測。 k 的大小影響運動方向檢測的靈敏度和準確率,用恒定運動的人體在檢測中的方向誤判頻率來確定 k 值的大小。當 k=2 時,相當于用質心的當前幀位置和前一幀位置的差值判斷運動方向。當 k 取較大值時,相當于用目標當前幀位置和目標出現的初始幀位置差值判斷運動方向,該方法會導致對目標轉向判斷的靈敏度下降。實驗中誤判次數記為 n , n 隨 k 變化的圖像如圖5所示。

圖5 k 值與方向變化誤差

縱坐標為誤判次數,橫坐標為 k 值。 k 取40時,對運動方向的誤差判斷為0。隨著視頻幀數的增加,保留的質點軌跡會不斷縮短。當軌跡縮短到一定范圍內后,隨著人體姿態的變化,會產生方向誤判。

3.2.2 (204 d 值確定

d 值在實驗中設置為剛好可以保證合法通關人員通過的值,該值設置為 75px 像素距離。像素距離低于閾值的向閘機方向運動的人員判定存在尾隨風險。

3.3 實驗過程

實驗采用相機型號為奧林巴斯E-M5三代,視頻拍攝幀速率為1秒25幀,視頻分辨率為 1 280px× 720px ,計算機處理器型號為i710700。顯卡型號為GTX1650。在口岸邊防檢查實驗室進行尾隨行為算法檢測實驗,實驗分為側方位尾隨、后方尾隨。

3.3.1相機位置和檢測區域在實際空間中的坐標

邊檢大廳人員密集,行人容易受到遮擋、檢測精度等因素的影響,再加上監控圖像拍攝的時間、地點隨機,且光線、角度、姿態不同,為通關人員軌跡和行為的實時感知帶來巨大挑戰。為了避免行人遮擋,提高檢測精度,固定拍攝位置,將防尾隨相機固定。尾隨相機與閘機在空間內的關系如圖6所示。

其中,點G代表相機位置,為Camera。檢測區域為ABCD連成的矩形區域。閘機腳為點T(Tumstiles)。F為點G在水平地面上的投影。

圖6相機與閘機試驗場地位置關系

3.3.2 后方尾隨檢測

風險人員正在尾隨通關人員,待閘門開啟后伺機尾隨通關人員進入閘機。實驗結果如圖7所示,算法識別出尾隨行為并標注尾隨人員。

圖7區域內后方尾隨檢測

3.3.3 側方尾隨檢測

一名人員正常通關,其正后方人員在檢測區域內的等候區等待,一名風險人員從側方位進入閘機企圖尾隨通關人員。實驗結果如圖8所示,算法識別出尾隨行為并標注被尾隨人員。

圖8區域內側方尾隨檢測

3.3.4實驗的虛警率與漏檢率

對口岸自助通關過程的尾隨過程進行仿真模擬,進行100組實驗,計算虛警率與漏檢率。算法參數為:距離閾值75,保留40個質點。系統檢測出紅色尾隨標記框為報警依據。其中,虛警率與漏檢率的算式為:

其中, NFA 表示誤報的次數(FalseAlarms), NA

表示報警的總次數(TotalAlarms)。

其中, NMD 表示漏檢的次數(MissedDetections), NT 表示目標實際出現的總次數(TotalActual Targets)。

根據表3可得出:100組實驗中,算法的虛警率為 27% ,漏檢率為 23% ,準確率為 67‰ 實驗仿真表明,算法在檢測實驗室場景下的標準尾隨存在一定的準確率。但嫌疑人對算法有初步了解的情況下進行的間距控制尾隨,速度控制尾隨的檢測中仍然存在較高的虛警率與漏檢率。

表3虛警率與漏檢率

4結論

本文設計了一種口岸尾隨行為檢測算法,算法對識別邊檢大廳的人-人交互風險行為具有初步的準確率。后續應當進一步對具備對抗意識的潛在違法人員和刻意保持距離的尾隨人員進行研究,利用多源智能分析與預警技術,提取尾隨行為的更多行為特征,建立面向高效通關和安全防控的智慧通關系統。

參考文獻:

[1]金玥佟.基于視頻的行人異常行為檢測方法研究[D].

北京:華北電力大學,2021.

[2]劉繼紅.視頻監控區人員異常行為視覺檢測及智能分

析技術研究[D].重慶:重慶理工大學,2022.

[3]林舜躍.白云空港口岸出入境自助通關的問題與對策

研究[D].廣州:暨南大學,2021.

[4]CHANTW.Tailgating/PiggybackingDetection Security

System[D].KualaLumpur:UTAR,2013.

[5]AKATI J,CONRAD M.Anti-tailgating Solution Using

Biometric Authentication,Motion Sensorsand Image Recognition

[C]//2021 IEEE Intl Conf on Dependable,Autonomic and Secure

Computing,Intl Conf on Pervasive Intelligence and Computing,

Intl Conf on Cloud and BigData Computing,Intl Conf on Cyber

Scienceand Technology Congress (DASC/PiCom/CBDCom/

CyberSciTech).Alberta:IEEE,2021:825-830.

[6]WANGC-Y,YEHI-H,LIAO H-YM.YOLOv9:

LearningWhatYouWanttoLearnUsingProgrammableGradient

Information[J/OL].arXiv:2402.13616[cs.CV]. (2024-02-21).

https://arxiv.org/abs/2402.13616v2.

[7]ABOUELYAZID M. Comparative Evaluation of SORT,

DeepSORT,and ByteTrack forMultiple Object TrackinginHighway

Videos[J].InternationalJournalof Sustainable Infrastructurefor

Citiesand Societies,2023,8(11):42-52.

[8]王子依,周斌,胡波.基于重疊視域的跨相機多目標跟蹤[J].中南民族大學學報:自然科學版,2023,42(5):702-711.

[9]劉小波,肖肖,王凌,等.基于無錨框的目標檢測方法及其在復雜場景下的應用進展[J].自動化學報,2023,49(7):1369-1392.

[10]WANGX,WANGX,YANYL,et al.RF-Access:Barrier-free Access Control Systemswith UHF RFID[J].AppliedSciences,2022,12(22):11592.

[11]陶晶,吳浩,金鐘楊,等.面向庭院式住宅的周界入侵綜合識別技術[J].科學技術與工程,2024,24(9):3747-3755.

[12]ZHUFY,HWANGJ-N,MAZY,etal.UnderstandingObjectsin Video:Object-oriented Video Captioningvia Structured Trajectory and Adversarial Learning[J].IEEEAccess,2020,8:169146-169159.

[13]趙琴,趙團結,鄭新橋,等.基于運動歷史圖像的異常行為識別算法研究[J].智能計算機與應用,2023,13(10):56-59.

[14]張瀚月.基于數據驅動的尾隨間隔管理策略研究[D].唐山:華北理工大學,2021.

[15]ICLODEANC,VARGABO,CORDOSN.Autonomous Driving Systems [M]//Autonomous Vehicles forPublic Transportation.Cham:Springer International Publishing,2022:69-138.

[16]DIASC,GAZALHM,ALHAJYASEENW,etal.ExploringDriverBehaviorsDuringTailgatingSituations:ADriving Simulator Study[J].Procedia Computer Science,2024,231:103-110.

作者簡介:李潤涵(2001一),男,漢族,安徽蕪湖人,碩士在讀,研究方向:機器視覺;通信作者:張梅(1983—),女,漢族,安徽淮北人,副教授,博士,研究方向:信號與系統。

猜你喜歡
方向區域人員
關于推進企業退休人員社會化管理服務工作的思考
中國經貿(2025年9期)2025-08-18 00:00:00
事業單位檔案人員職業素養提升路徑研究
蘭臺內外(2025年21期)2025-08-18 00:00:00
新形勢下財政部門內部審計人員專業能力提升的途徑和方法
中國經貿(2025年8期)2025-08-18 00:00:00
人員密集場所消防安全隱患及解決對策探討
消防界(2025年4期)2025-08-18 00:00:00
2022年組稿方向
計算機應用(2022年2期)2022-03-01 12:33:42
2021年組稿方向
計算機應用(2021年4期)2021-04-20 14:06:36
2021年組稿方向
計算機應用(2021年1期)2021-01-21 03:22:38
關于四色猜想
分區域
基于嚴重區域的多PCC點暫降頻次估計
電測與儀表(2015年5期)2015-04-09 11:30:52
主站蜘蛛池模板: 国产av剧情无码精品色午夜| 韩日午夜在线资源一区二区| 就去色综合| 久久久91人妻无码精品蜜桃HD| 天天躁夜夜躁狠狠躁图片| 欧亚日韩Av| 91欧美亚洲国产五月天| 欧美性精品不卡在线观看| 无遮挡国产高潮视频免费观看| 老司机久久精品视频| 中文字幕永久视频| 国产高清在线观看| 2021国产精品自产拍在线观看 | 欧美在线天堂| 91麻豆国产视频| 免费一级毛片在线播放傲雪网| 欲色天天综合网| 日韩无码视频播放| 国产精品一区二区在线播放| 最新国产精品鲁鲁免费视频| 日韩福利视频导航| 国产精品55夜色66夜色| 亚洲精品高清视频| 欧美精品v欧洲精品| 亚洲日本在线免费观看| 久久黄色一级视频| 99视频在线免费| 国产麻豆精品久久一二三| 日本久久网站| 亚洲精品国产综合99| 福利姬国产精品一区在线| 久久综合伊人77777| 国产成人AV综合久久| 久久精品免费看一| 超碰aⅴ人人做人人爽欧美 | 无码一区18禁| 亚洲欧美综合在线观看| 在线毛片免费| 亚洲人在线| 亚洲天堂视频网站| 亚洲色图欧美一区| 欧美一级在线| jijzzizz老师出水喷水喷出| 狠狠干综合| 国产精品手机在线播放| 亚洲视频三级| 在线国产资源| 亚洲欧美成人网| 国产欧美日韩18| 视频在线观看一区二区| 国产精品亚洲一区二区在线观看| 免费又爽又刺激高潮网址| 国产精品观看视频免费完整版| 亚洲永久精品ww47国产| 亚洲AV无码乱码在线观看裸奔| 欧美色图久久| 成人第一页| 亚洲第一黄色网| 日韩精品亚洲一区中文字幕| 欧美成人怡春院在线激情| 欧美日韩国产在线观看一区二区三区| 永久免费av网站可以直接看的| 国产日产欧美精品| 丁香六月综合网| 99青青青精品视频在线| 韩日免费小视频| 日韩一级毛一欧美一国产| 亚洲免费福利视频| 亚洲国产理论片在线播放| 国产精品网址在线观看你懂的| 玖玖精品视频在线观看| 无码区日韩专区免费系列| 黄色网在线| 日本久久网站| 91福利在线观看视频| 日韩专区欧美| 国产99欧美精品久久精品久久| 国产成人啪视频一区二区三区| 国产成a人片在线播放| 久久久波多野结衣av一区二区| 热热久久狠狠偷偷色男同| 99中文字幕亚洲一区二区|