999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于改進殘差學習的東巴象形文字識別

2022-02-18 08:13:16駱彥龍畢曉君吳立成李霞麗
智能系統學報 2022年1期
關鍵詞:實驗模型

駱彥龍,畢曉君,吳立成,李霞麗

(1.哈爾濱工程大學 信息與通信工程學院, 黑龍江 哈爾濱 150001; 2.中央民族大學 信息工程學院, 北京100081)

東巴象形文字由納西族祖先創造,至今已有兩千多年的歷史。2003年,東巴古籍文獻被聯合國教科文組織列為“世界記憶遺產”名錄,成為人類共同擁有的寶貴財富。東巴象形文字的識別一直是研究的熱點和重點。早期的東巴象形文字識別研究一般采用傳統算法提取東巴象形文字特征進行識別,關鍵步驟一般包括圖像去噪、特征提取和分類器識別3個步驟。常用的圖像去噪方法有中值去噪、自適應去噪和小波去噪[1];在特征提取方面,方向元素、粗網格[2-3]等統計特征比分析東巴象形文字的結構、筆畫等結構特征取得的效果更好;常用的分類器模型包括支持向量機[4]、隨機森林[5]等。代表性的研究有2017年徐小力等采用拓撲特征法和投影法相結合的特征提取方法,取得了84.4%的識別準確率[6]。2019年楊玉婷等通過結合東巴象形文字的結構和形態,提出了基于網格分辨率的東巴象形文字相似度測量算法,能夠檢索和識別不同形狀的東巴象形文字[7]。上述研究雖然取得了一定的成果,但實現過程復雜且效率較低,算法的識別準確率有待提高。直到2019年,隨著人工智能技術的發展,國內外開始出現基于深度學習的東巴文識別文章,2019年張澤暉建立了包含30 592張圖片的東巴象形文字數據集,設計了孿生網絡并協同進行文字語義識別,對956個東巴象形文字測試,取得了85.6%識別準確率[8];同年,Wu[9]在訓練集圖像3 800張,測試集圖像200張的條件下,使用VGGNet取得了95.8%的識別準確率;2021年謝裕睿等提出了基于ResNet網絡的東巴象形文字識別方法,建立了包含536個東巴象形文字的數據集,并對94個東巴象形文字測試,取得了93.58%的識別準確率[10]。

以上研究對東巴象形文字識別做出較大的貢獻,但目前還存在一些問題:1)東巴象形文字大多包含多個異體字,且在東巴經典中廣泛存在;但現有的數據集都沒有涉及異體字,導致東巴經典中的大量文字不能識別;2)現有的東巴象形文字數據集規模較小,影響了算法識別的準確率;3)所采用的深度學習模型較為初級,無法適應東巴象形文字的隨機性和手寫不確定性,識別準確率有待進一步提高。

為了解決上述問題,本文主要做了以下兩個方面的工作:

1)根據東巴象形文字字典[11-12],采用人工仿寫的方法建立了1 387個東巴象形文字(包括異體字)、圖像規模達22萬余張的東巴象形文字數據集,有效解決了異體字問題,大幅增加了可識別東巴象形文字的數量,并有效擴充了數據集的規模。2)根據東巴象形文字的圖像特點,選擇應用效果最好的ResNet模型作為改進的網絡結構,設計了殘差跳躍連接方式和卷積層的數量,并通過加入最大池化層實現了下采樣的改進,有效提高了算法識別的準確率。

1 東巴象形文字數據集建立

1.1 東巴象形文字圖像獲取

深度學習模型能夠取得較好的識別效果,其前提是需要大量帶標注的訓練數據。為此本文首先研究如何建立大規模的東巴象形文字數據集,來保證識別的東巴象形文字更多,并可輔助提高算法識別的準確率。

東巴象形文字的特點可總結如下。1)內容廣泛、字數多。按照屬性可分為天文、地理、建筑等十八大類,共有2000余字(包括異體字)[11]。2)相似度高。結構相似的東巴象形文字因其細節部分不同,其字義亦不同。3)書寫隨意性較大。不同人書寫的東巴象形文字都會有不規則的形變。4)異體字多。大多數東巴象形文字都有多個異體字。

上述特點增加了東巴象形文字的識別難度,因此為了獲得更好的識別效果,數據集中每個東巴象形文字大約需要150張圖像,才能滿足訓練的要求。但是僅通過東巴古籍來獲取遠遠不能達到數量的要求,常用的數據增強方法主要是幾何變換[13-15],但由于東巴文本身象形字的圖畫特點,相近的形狀可表達不同的含義,通過幾何變換可能變成其他文字,所以這種數據增強的方法難以適用東巴象形文字。

為此本文根據東巴象形文字手寫或刀刻的書寫習慣,提出采用人工仿寫東巴象形文字字典的方法建立大規模數據集,再通過圖像預處理方法提高數據集的圖片質量,這樣可以保證數據集中東巴象形文字的數量足夠多,既可以最大幅度地增加算法可識別的東巴象形文字字數,又可以輔助提高算法識別的準確率。本文建立的東巴象形文字數據集示例如圖1所示,其中每一行的5幅圖片同屬異體字,共有相同的釋義,第一列為統一的文字釋義,從中可以看出異體字之間的差別較大。

圖1 東巴象形文字數據集示例Fig.1 Samples of Dongba pictographs datasets

1.2 東巴象形文字圖像預處理

人工仿寫的東巴象形文字受光照以及拍照設備等的影響,往往會產生極大的噪聲,影響東巴象形文字數據集的質量,因此必須對其進行一系列的圖像預處理。圖2給出了本文建立東巴象形文字數據集的技術路線,具體步驟如下。

圖2 東巴象形文字數據集建立技術路線Fig.2 Technical route for Dongba pictographs dataset establishment

1)字符裁剪。對人工仿寫的原始圖像進行字符裁剪,使得每張圖像中僅包含一個東巴象形文字。具體過程如算法1所示。

算法1符裁剪算法

輸入未裁剪的手寫東巴象形文字圖像X;

輸出僅包含一個東巴象形文字的圖像Y。

①Xh←圖像X的高度;

②Xw←圖像X的寬度;

③Yh←1/3Xh?2/3Xh;

④Yw←1/3Xw?2/3Xw;

⑤Y←Yh?Yw。

2)灰度化。黑白兩種顏色反差較大,可提高東巴象形文字識別的效果。為此,使用加權平均值法進行圖像灰度化,去除圖像的顏色信息,將三通道的彩色圖像轉換成單通道的灰度圖像。灰度化公式如式(1)所示:

式中:Ri,j、Gi,j、Bi,j分別代表圖像在 (i,j)處的紅、綠、藍3種顏色分量像素值; G rayi,j代表圖像在(i,j)處的灰度值。

3)二值化。為了極大程度減少圖像數據量,通過全局閾值二值化減少圖像無關像素信息,并使整個圖像呈現出明顯的黑白效果,凸顯東巴象形文字輪廓,圖像二值化公式如式(2)所示:

式中bi,j表示圖像二值化后圖像在 (i,j)處的像素值。

4)尺寸歸一化。常用的圖像尺寸歸一化方法是雙線性插值法,但是當原圖像與尺寸歸一化圖像尺寸相差過大時,尺寸歸一化后的圖像紋理特征易損壞,不利于深度學習模型識別。而像素區域關系重采樣法能夠保留完整圖像信息的條件下,將輸入圖像尺寸最大程度減小,大幅度減少圖像像素數以及數據量,在保證深度學習模型識別準確率不變的前提下,加快模型的訓練速度。根據其他數據集圖像尺寸大小設置的經驗以及多次對比實驗驗證,我們發現當圖像尺寸歸一化為64×64時,可以取得最好的識別效果,并且模型訓練速度快。本文對像素區域關系重采樣法和雙線性插值法在東巴文字圖像上的效果進行了簡單的實驗對比,分別將圖像尺寸歸一化為 6 4×64。圖3給出了實驗結果。

圖3 兩種尺寸歸一化方法示例Fig.3 Samples of two size normalization methods

從圖3中可以看出,雙線性插值法后的東巴象形文字紋理特征有殘缺,而像素區域關系重采樣可獲得更好的尺寸歸一化效果。

因此本文選擇像素區域關系重采樣法進行尺寸歸一化操作,其公式如式(3)所示:

式中:B表示圖像某區域內像素值矩陣; α 是與B相對應的像素值系數矩陣,其取值取決于原圖像與尺寸歸一化圖像的尺寸大小關系; ⊙ 表示Hadamard積;fi,j表示圖像B區域通過尺寸歸一化后的像素值。

5)數據標注。通過數據編碼標注,將第i個東巴象形文字的所有圖像I統一編碼為i,使計算機將圖像和編碼相互對應,如式(4)所示:

式中F(·)表示編碼標注算法,具體過程如算法2所示。

算法2編碼標注算法

輸入train,test (其中有命名為i(包含圖像I)的文件夾)

輸出圖像I與其編碼i相互對應的txt文檔

① fori∈train,test;

②forI∈i;

③將I的絕對地址和i寫入txt文檔;

④換行;

⑤重復迭代2)~4);

⑥返回圖像I與其編碼i相互對應的txt文檔

通過上述一系列的圖像預處理,本文建立了東巴象形文字數據集,該數據集包含1 387個東巴象形文字(包括異體字),每個東巴象形文字對應160余張書寫各異的圖片,數據集圖片總量為223 050張。

2 改進殘差學習神經網絡

近年來,深度學習成功應用于圖像識別[16-19]領域,提出了一系列性能優異的網絡模型,其中ResNet模型首次提出殘差跳躍連接(residual shortcut connection)結構[20],解決了網絡加深帶來的梯度消失問題以及神經網絡深度與識別準確度之間的矛盾,可有效提取更多的圖像細節特征,目前已成為圖像識別的主流深度學習模型。

考慮到東巴象形文字識別的具體問題,不僅字數多、書寫隨意性較大,而且有些字形較為相似,因此需要提取細節特征能力強的網絡結構,為此本文選擇ResNet模型作為本文改進的網絡結構,設計了殘差跳躍連接方式和卷積層的數量,并通過加入最大池化層實現了對下采樣的改進,更好地提取了東巴象形文字的紋理分布特征。本文設計的網絡主要框架如圖4所示。下面將詳細介紹設計思路和改進方法。

圖4 東巴象形文字識別網絡結構Fig.4 Network structure of Dongba pictographs recognition

2.1 殘差跳躍連接

殘差跳躍連接可以解決神經網絡隨著深度增加出現性能退化的問題。深層神經網絡難以擬合的原因是恒等映射H(x)=x的學習比較困難,但當把網絡設計為H(x)=F(x)+x時,可以把學習恒等映射轉化為更加容易學習的殘差映射F(x)=H(x)?x,并且F(x)對輸出變化更加敏感,參數的調整幅度更大,從而可以加快學習速度,提高網絡的優化性能。殘差跳躍連接的一般定義如式(5)所示:

其中Ws主要是用1 ×1卷積[21]來匹配殘差跳躍連接輸入x和輸出y的通道維度。F(x,{Wi})為網絡需要學習的殘差映射。而當殘差跳躍連接輸入和輸出維度相同時,可將其定義如式(6)所示:

文獻[22]證明了越是接近當前卷積層的前層輸出對當前層的特征提取效果影響越大,可以使網絡更容易訓練。為此本文僅將相鄰堆疊的卷積層組成殘差跳躍連接結構,在有效重復利用特征圖的同時,降低網絡參數量和復雜度。本文殘差跳躍連接結構如圖5所示。圖5中殘差映射F(x)如式(7)所示,輸出y和輸入x的關系式如式(8)所示:

圖5 本文殘差跳躍連接模塊Fig.5 Residual skip connection module of this paper

式中:σ均表示ReLU激活函數,W1和W2分別表示卷積層學習的參數。

2.2 卷積層的選擇

網絡模型卷積核的選擇與網絡計算量大小密切相關。盡管大的卷積核可以直接增大感受野,但是會帶來網絡計算量的暴增,而多個 3 ×3卷積核可以在降低計算量的前提下實現 5 ×5或 7 ×7乃至更大卷積核的效果。由式(9)可以發現,3個3×3卷積核實現 7 ×7卷積核效果時,其參數量可以減少到55%。

其中C指輸入和輸出的通道數。

除了能夠降低網絡模型的計算量,單個3×3卷積核還可以捕獲特征圖像素四周的信息,多個3×3卷積核的疊加還可以直接增加網絡深度[23],使網絡模型的特征提取能力更強,從而取得更好的識別效果。

東巴象形文字具有字數多、字形相似等特點,因此需要提取特征能力強的網絡結構,而多個卷積層的疊加能夠在參數量最少的前提下實現最好的特征提取能力。因此本文設計了32層 3 ×3的卷積層,再加1層全連接層,構成33層網絡模型,用以獲得東巴象形文字最好的識別效果。

同時,為了防止網絡過擬合,加快網絡訓練速度,本文對每一個卷積層執行批量歸一化(batch normalization)[24]操作。然后再使用修正線性單元ReLU[25](rectified linear units)f(x)=max(0,x)作為激活函數,增強網絡的非線性表達能力,在x>0時保持梯度不衰減,從而緩解網絡出現的梯度消失問題。

2.3 下采樣改進

下采樣可以降低特征圖維度,保留圖像主要特征的同時減少網絡模型的參數量,防止過擬合現象的發生。在ResNet模型中通常采用令卷積步長 S tride=2來實現下采樣的效果,但是由于本文建立的東巴象形文字數據集經過灰度歸一化后,其前景像素值遠遠大于背景像素值,用這種方法實現下采樣獲得的東巴象形文字紋理特征不夠豐富,影響了識別效果,因此有必要對下采樣進行改進。

最大池化層通過提取特征圖局部區域內的像素最大值,可以最大程度降低特征圖背景的無關信息,使網絡模型提取更多有用的前景特征,降低背景特征干擾。因此,本文對ResNet模型中的下采樣方式進行了改進,通過采用最大池化層來獲得豐富的紋理特征。最大池化層的公式如式(10)所示:

其中:rk(k=1,2,···,K)為特征圖所 劃分的多個區域,ai表示第i區域內的像素值。

而網絡深層的平均池化層通過提取特征圖的像素加權值,可以保留更加完整的特征圖信息。并且通過平均池化將特征圖下采樣為1 ×1后再與全連接層相連接,可以減少網絡參數。池化層的池化區域為特征圖中的連續區域,對小的形態改變具有不變性,不僅能夠逐步減少特征圖的空間大小、參數數量、內存占用和計算量,而且擁有更大的感受野,可有效控制過擬合現象的發生。

3 實驗結果及分析

為驗證本文創新工作的有效性與先進性,實驗部分主要做了3個方面的工作:1)本文建立的東巴象形文字數據集對比實驗及分析;2)本文提出的東巴象形文字識別方法對比實驗及分析,包括網絡改進前后的對比實驗;3)結合實驗結果,分析歸納了目前仍存在的問題。

3.1 實驗條件

實驗中所有對比實驗均在表1所示的實驗平臺上運行。

表1 實驗環境配置Table 1 Experimental environment configurations

實驗epoch設置為80,初始學習率設置為0.001,每50個epoch將學習率降低為原來的三分之一,直到運行結束所有epoch。

本文梯度優化函數選擇Adam函數,損失函數使用交叉熵函數,交叉熵函數定義如式(11)所示:

其中xj代表全連接層第j個網絡節點輸出值。

本文改進的ResNet模型具體參數如表2所示。

表2 本文網絡參數設計Table 2 Network configurations of this paper

3.2 本文建立的數據集驗證

目前關于東巴象形文字的數據集較少,文獻[8-10]是目前已知的3個東巴象形文字數據集,因此將本文的數據集與上述3種數據集都進行了對比實驗。

3.2.1 數據集有效性驗證

這里選取在圖像識別領域表現優異的Res-Net18、ResNet34、VGGNet以及本文的改進網絡模型在本文建立的東巴象形文字數據集上進行識別效果對比。在數據集中隨機選取5 000張圖像計算其均值和方差,然后將圖像歸一化處理后輸入網絡。隨機選取數據集圖片總數的80%作為訓練集,即178 223張圖片,其余44 827張圖片作為測試集。在訓練集上訓練網絡模型后,在測試集上對1 387個東巴象形文字(包括異體字)進行識別準確率測試。其實驗結果如表3所示。

表3 數據集有效性驗證實驗Table 3 Experiment of dataset validity verification

從表3中可以看出,對于不同的網絡模型,本文建立的東巴象形文字數據集都獲得了高于98%的識別準確率,最高可達98.65%,這說明本文建立的東巴象形文字數據集是有效的,每個東巴象形文字多達160多張書寫各異的圖片,其數據規模完全滿足具體識別的要求。

3.2.2 數據集先進性驗證

文獻[8-10]分別給出了3種東巴象形文字識別方法和與之對應的3個東巴象形文字數據集,這里采用這3種識別方法在本文提出的數據集上分別進行了識別準確率方面的對比實驗。表4給出了各個數據集能夠識別的字數和不同模型在數據集上進行識別的準確率。

從表4中可以看出,首先本文建立的數據集能夠識別的東巴象形文字最多;其次,相同的網絡模型在不同的東巴象形文字數據集上取得的識別效果不同,相較于其他3個文獻所建立的數據集,本文建立的數據集采用3種相對應的網絡模型都取得了最高的識別準確率,說明本文建立的數據集在數據規模和數據質量上都是目前最好的,也說明優秀的數據集可輔助提高深度學習模型的性能。

表4 數據集先進性驗證實驗Table 4 Experiment of dataset advancement verification

3.3 本文識別算法的實驗驗證

根據東巴象形文字識別的特點,本文對Res-Net模型進行了改進,提高了東巴象形文字的識別準確率。這里將驗證本文網絡模型改進的有效性。通過將其與采用殘差跳躍連接加傳統池化方式以及無殘差跳躍連接加最大池化方式的網絡模型進行消融實驗。同時,將本文改進的網絡模型與文獻[8-10]中取得識別準確率最高的網絡模型以及ResNet34進行對比實驗,以驗證其先進性。所有實驗在本文建立的數據集上進行。

3.3.1 算法的有效性驗證

為了驗證本文改進ResNet模型的有效性,這里進行了改進前后的對比實驗。將本文改進的網絡模型(殘差+最大池化)與殘差加傳統池化、無殘差加最大池化3種網絡模型進行識別效果對比,實驗結果如表5所示。

表5 算法有效性驗證實驗Table 5 Experiment of algorithm validity verification

由表5可以看出,本文改進的殘差跳躍連接加最大池化下采樣網絡模型取得了最高的識別準確率,相較于殘差跳躍連接加傳統池化的網絡模型提高了0.54%;相較于無殘差跳躍連接加最大池化下采樣的網絡模型提高了1.01%,從而驗證了本文改進殘差跳躍連接加最大池化網絡模型的有效性。

3.3.2 算法的先進性驗證

為了驗證本文改進網絡模型的先進性,在相同的實驗環境下,本文分別與文獻[8]采用的Res-Net18網絡模型、文獻[9]采用的VGGNet網絡模型以及文獻[10]采用的20層ResNet網絡模型進行了對比實驗,實驗結果如表6所示。

表6 算法先進性驗證實驗Table 6 Experiment of model advancement verification

從表6中可以看出,本文改進的網絡模型識別準確率最高,相較于文獻[8]的方法提高了0.43%;相較于文獻[9]的方法提高了0.31%;相較于文獻[10]的方法提高了0.95%。充分驗證了本文改進網絡模型的先進性。

同時,本文又與層數有所增加的ResNet34網絡進行了對比性實驗。從表6中可以看出,34層網絡模型的識別準確率不僅低于本文的33層網絡模型,而且也低于18層的網絡模型,這說明網絡層數的簡單疊加在具體的東巴象形文字識別中不一定獲得更好的識別效果。

3.4 存在的問題

雖然本文取得了98.65%的識別準確率,但對于誤識別問題我們又進行了深入分析,通過觀察多次實驗結果,發現錯誤識別的東巴象形文字都有一個共同的特點,那就是都有與之非常相似的東巴象形文字,圖6給出了部分相似文字的示例。

圖6 相似東巴象形文字示例Fig.6 Samples of similar Dongba pictographs

從圖6可以看出,“水槽”和“水澗”,“側視之人”和“左”或“爬”等字的區別僅僅體現在線條的彎曲程度不同;“腰”和“爬”更多體現在它們之間大小有所差異;“神山山腳”和“神山山腰”,“中”和“矛”主要體現在圖像上部分所畫的高度不同;“尾巴”和“樹倒”的差異體現在右下角線條的長度和彎曲程度;“臂膀”和“手”則幾乎相同。

可見,東巴象形文字中有很多相似乃至接近“相同”的文字,又因為東巴象形文字的手工書寫形式,隨意性較大,這些相似的東巴象形文字在書寫過程中極容易導致差異性變小、辨識度下降,這是影響東巴象形文字識別準確率的主要原因。

4 結束語

針對現有東巴象形文字識別方法存在的識別文字數量少、識別準確率較低等問題,本文首先建立了包含1 387個東巴象形文字(包括異體字)、圖片總量達到22萬余張的東巴象形文字數據集,可識別的東巴象形文字大幅增加。通過擴大數據集的規模,輔助提高了算法識別的準確率;更為重要的是本文選擇ResNet模型作為改進的網絡結構,設計了殘差跳躍連接方式和卷積層的數量,并通過加入最大池化層實現了對下采樣的改進,更好地提取了東巴象形文字的紋理分布特征。通過對1 387個東巴象形文字(包括異體字)分別進行測試,實驗結果表明,本文提出的改進ResNet模型識別準確率平均達到98.65%,取得了當前識別字數最多、識別準確率最高的效果。

未來將繼續擴大東巴象形文字數據集的文字數量,力爭包含現存的所有東巴象形文字。針對其中相似度極高的文字,將研究設計專門的網絡模型來有效將它們區別開來,從而進一步提高東巴象形文字識別的準確率。

猜你喜歡
實驗模型
一半模型
記一次有趣的實驗
微型實驗里看“燃燒”
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
做個怪怪長實驗
3D打印中的模型分割與打包
NO與NO2相互轉化實驗的改進
實踐十號上的19項實驗
太空探索(2016年5期)2016-07-12 15:17:55
FLUKA幾何模型到CAD幾何模型轉換方法初步研究
主站蜘蛛池模板: 91久久国产综合精品女同我| 国内精品免费| 久久黄色毛片| 久久大香伊蕉在人线观看热2| 麻豆精品久久久久久久99蜜桃| 国产小视频在线高清播放| 伊人网址在线| 最新午夜男女福利片视频| 亚洲91精品视频| 波多野结衣亚洲一区| 日韩中文欧美| 色视频久久| 亚洲最新在线| 亚洲V日韩V无码一区二区| 一本一道波多野结衣一区二区| 国产99视频精品免费观看9e| 日本午夜三级| 无码专区国产精品第一页| 国产导航在线| 91青青视频| 丝袜亚洲综合| 最新国产精品鲁鲁免费视频| 亚洲天堂日韩在线| 久久黄色视频影| 精品久久777| 亚洲国产综合精品中文第一| 999精品在线视频| 久久久久国产精品嫩草影院| 亚洲综合二区| 夜夜操狠狠操| 欧美另类一区| 亚洲色图综合在线| 亚洲欧美日韩另类在线一| 日本免费精品| 久久精品aⅴ无码中文字幕| 国产精品一区在线麻豆| 国产91丝袜在线观看| 国产福利免费在线观看| 国产真实自在自线免费精品| 国产精品人莉莉成在线播放| 国产白浆在线观看| AV在线麻免费观看网站| 一级成人a毛片免费播放| 九九视频免费在线观看| 亚洲精品波多野结衣| 99国产精品一区二区| 中文字幕在线看| 亚洲精品天堂在线观看| 婷婷综合在线观看丁香| 国产自视频| 无码中文字幕精品推荐| 日韩国产另类| 91久久偷偷做嫩草影院| 制服丝袜亚洲| 波多野结衣在线se| 91久久偷偷做嫩草影院电| 久久久久亚洲AV成人人电影软件 | 国产裸舞福利在线视频合集| 特级毛片8级毛片免费观看| aaa国产一级毛片| 精品福利视频网| 欧美在线伊人| 一本大道视频精品人妻| 亚洲免费人成影院| 久草青青在线视频| 午夜性刺激在线观看免费| 国产欧美日韩综合在线第一| 日韩中文精品亚洲第三区| 久久青青草原亚洲av无码| 色欲色欲久久综合网| 国产真实乱人视频| 亚洲成年人网| 亚洲天堂久久| 国产特级毛片| 91精品国产自产91精品资源| 国产欧美视频一区二区三区| 啊嗯不日本网站| 亚洲女同一区二区| 毛片免费观看视频| 最新国产你懂的在线网址| AV无码国产在线看岛国岛| 成人福利在线免费观看|