999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

中國(guó)實(shí)驗(yàn)快堆傳感器數(shù)據(jù)挖掘有效性研究

2021-07-28 12:59:40蔣煜卿陳樹(shù)明

蔣煜卿 陳樹(shù)明

DOI:10.16660/j.cnki.1674-098X.2101-5640-0498

摘? 要:將人工神經(jīng)網(wǎng)絡(luò)的方法引入中國(guó)實(shí)驗(yàn)快堆傳感器數(shù)據(jù)分析,通過(guò)機(jī)器學(xué)習(xí)的方式,建立出入口鈉溫作為輸出、堆功率等多個(gè)變量為輸入的模型。通過(guò)比較不同優(yōu)化算法下測(cè)試集的預(yù)測(cè)值和實(shí)際值之間誤差,進(jìn)行模型的調(diào)整。在最優(yōu)算法下,判斷最終模型的泛用性。實(shí)驗(yàn)結(jié)果表明,通過(guò)人工神經(jīng)網(wǎng)絡(luò)方式建立的出入口鈉溫模型,擬合結(jié)果較好,可以實(shí)現(xiàn)通過(guò)其余冗余傳感器間接得到目標(biāo)傳感器數(shù)據(jù)大致區(qū)間范圍,實(shí)現(xiàn)非冗余傳感器故障有效監(jiān)測(cè)。

關(guān)鍵詞:人工神經(jīng)網(wǎng)絡(luò)模型? 中國(guó)實(shí)驗(yàn)快堆? 傳感器? 模型調(diào)試

中圖分類號(hào):TP212 ? ? ? ? ?文獻(xiàn)標(biāo)識(shí)碼:A? ? ? ? ? ? ? ? ? ?文章編號(hào):1674-098X(2021)03(c)-0123-06

Research on the Effectiveness of Sensor Data Mining of China Experimental Fast Reactor

JIANG Yuqing? CHEN Shuming*

(China Academy of Atomic Energy, Beijing, 102413 China)

Abstract: The artificial neural network method is introduced into the data analysis of the China experimental fast reactor sensor, and a model is established based on machine learning. The output of the model is the inlet and outlet temperature of sodium, while the input of the model includes reactor power and other variables. Through comparing the error between the predicted value and the actual value of the test group under different optimization algorithms, the model parameters are adjusted and optimized. Under the optimal algorithm, the universality of the final model is judged. The final result shows that the inlet and outlet sodium temperature model established by artificial neural network has a good fitting result, which can achieve the approximate interval range of the target sensor data indirectly through other redundant sensors, and realize the effective monitoring of non-redundant sensor faults.

Key Words: Artificial neural network model; China experimental fast reactor; Sensor model debugging

在中國(guó)實(shí)驗(yàn)快堆運(yùn)行過(guò)程中,傳感器作為其控制和監(jiān)測(cè)系統(tǒng)的重要環(huán)節(jié),對(duì)于快堆的安全性有著舉足輕重的地位。在快堆中設(shè)置大量冗余儀表,以防止單一儀表?yè)p壞后影響操縱員判斷。對(duì)于儀表狀態(tài)的監(jiān)測(cè),多采用周期性的儀表檢測(cè)方法,經(jīng)濟(jì)性不高,并且伴隨拆卸損壞的風(fēng)險(xiǎn)。至于傳感器產(chǎn)生的大量數(shù)據(jù),使用程度較低。

傳感器狀態(tài)監(jiān)測(cè)方法包含兩類,一類是采用冗余傳感器進(jìn)行直接對(duì)比驗(yàn)證,另一類是使用解析方法進(jìn)行間接對(duì)比驗(yàn)證。這種解析冗余主要包含基于解析模型、基于知識(shí)和基于數(shù)據(jù)驅(qū)動(dòng)的方法。其中數(shù)據(jù)挖掘方法是目前最為熱門(mén)的一種數(shù)據(jù)處理方法,通過(guò)訓(xùn)練集得到不同時(shí)間序列數(shù)據(jù)的相互關(guān)系后,在測(cè)試集進(jìn)行驗(yàn)證。因此,可以把快堆多組傳感器當(dāng)作多組時(shí)間序列數(shù)據(jù)挖掘問(wèn)題來(lái)研究。

1? 傳感器狀態(tài)監(jiān)測(cè)的常用方法

傳感器狀態(tài)監(jiān)測(cè)通常使用設(shè)置大量冗余儀表的方式,通過(guò)對(duì)同一測(cè)量不同儀表數(shù)據(jù)之間的對(duì)比,實(shí)現(xiàn)最為簡(jiǎn)單的傳感器狀態(tài)判斷。但這種物理冗余的方式,一是會(huì)帶來(lái)經(jīng)濟(jì)成本的增加,二是難以避免共同失效,三是堆內(nèi)無(wú)法滿足全部設(shè)置冗余儀表的條件。因此,引入了基于解析冗余的方法,從而達(dá)到與基于物理冗余的方法相互補(bǔ)充的目的。基于解析冗余的方法,主要分為三類,分別是基于解析模型的方法、基于知識(shí)的方法和基于數(shù)據(jù)驅(qū)動(dòng)的方法[1]。

基于解析模型的方法,重點(diǎn)是需要精確的模型對(duì)狀態(tài)參數(shù)進(jìn)行估計(jì),進(jìn)而對(duì)實(shí)際值和估計(jì)值形成的殘差進(jìn)行統(tǒng)計(jì)分析,主要包括參數(shù)估計(jì)法、等價(jià)空間法和狀態(tài)估計(jì)法。對(duì)于快堆而言,其設(shè)計(jì)復(fù)雜,參數(shù)之間存在大量的相互關(guān)聯(lián)性,因此難以推導(dǎo)出精確的傳感器數(shù)學(xué)模型。

基于知識(shí)的方法,重點(diǎn)是需要定性模型和專家知識(shí)的結(jié)合,要通過(guò)因果分析的手段評(píng)估系統(tǒng)狀態(tài),主要包括專家系統(tǒng)推理法、模糊推理法、故障樹(shù)分析法和符號(hào)有向圖。對(duì)于快堆而言,其因果關(guān)系較為復(fù)雜,難以準(zhǔn)確通過(guò)分散表征進(jìn)行判斷。

基于數(shù)據(jù)驅(qū)動(dòng)的方法,和前兩種方法相比,專注于傳感器輸出數(shù)據(jù)的具體分析,主要包括直接處理方法、信號(hào)融合方法以及統(tǒng)計(jì)方法。直接處理方法主要是通過(guò)傅立葉變化發(fā)現(xiàn)信號(hào)在頻域的異常情況;信號(hào)融合方法是通過(guò)多個(gè)關(guān)聯(lián)傳感器數(shù)據(jù)變化來(lái)映射某個(gè)傳感器的狀態(tài),但這種方法通常會(huì)與其他方法組合使用,使得對(duì)于狀態(tài)的判斷更為全面和準(zhǔn)確;統(tǒng)計(jì)方法應(yīng)用范圍最廣,包括人工神經(jīng)網(wǎng)絡(luò)、主元分析法、多元狀態(tài)估計(jì)等。

本文主要采用機(jī)器學(xué)習(xí)中反向傳播的人工神經(jīng)網(wǎng)絡(luò)方法,基于快堆傳感器數(shù)據(jù)進(jìn)行學(xué)習(xí),并形成針對(duì)傳感器數(shù)據(jù)預(yù)測(cè)的模型。

2? 基于人工神經(jīng)網(wǎng)絡(luò)方法的傳感器狀態(tài)監(jiān)測(cè)

人工神經(jīng)網(wǎng)絡(luò)方法是一種廣泛使用的數(shù)據(jù)多元統(tǒng)計(jì)分析方法。基于神經(jīng)網(wǎng)絡(luò)的深度學(xué)習(xí)算法參考了人類大腦接觸并學(xué)習(xí)新事物的步驟,它使用拓?fù)浞绞綄⒈姸嗵幚碓M(jìn)行連接,每個(gè)處理元之間通過(guò)賦權(quán)和函數(shù)進(jìn)行并行信息處理。一般來(lái)說(shuō),人工神經(jīng)網(wǎng)絡(luò)方法有兩個(gè)階段,分別是學(xué)習(xí)訓(xùn)練和驗(yàn)證測(cè)試階段。學(xué)習(xí)訓(xùn)練階段就是對(duì)神經(jīng)網(wǎng)絡(luò)進(jìn)行教學(xué)和調(diào)試,在這個(gè)過(guò)程中,需要選擇合適的網(wǎng)絡(luò)結(jié)構(gòu)、層數(shù)、算法,以匹配不同規(guī)模和復(fù)雜度的系統(tǒng);驗(yàn)證階段就是對(duì)學(xué)習(xí)階段產(chǎn)生的模型加以驗(yàn)證,以判斷模型的精確程度。

神經(jīng)網(wǎng)絡(luò)中最基本的成分是神經(jīng)元,每一個(gè)神經(jīng)元都有多個(gè)輸入,對(duì)每一個(gè)輸入都會(huì)分配一個(gè)權(quán)重,在測(cè)試的過(guò)程中,每個(gè)連接上的權(quán)重都不會(huì)發(fā)生改變,但是在訓(xùn)練過(guò)程中,必須改變這些權(quán)重值來(lái)使結(jié)果最優(yōu)化。神經(jīng)元的數(shù)學(xué)表達(dá)式如下式所示。

式中,y代表神經(jīng)元的輸出值,wn代表神經(jīng)元的輸入權(quán)重值,m代表常數(shù)項(xiàng),f(x)為變化函數(shù),其中輸入權(quán)重值和常數(shù)項(xiàng)是通過(guò)機(jī)器學(xué)習(xí)計(jì)算當(dāng)前神經(jīng)元節(jié)點(diǎn)誤差項(xiàng)后,通過(guò)反向傳播的方式計(jì)算獲得。

神經(jīng)網(wǎng)絡(luò)雖然是一種非常復(fù)雜的網(wǎng)絡(luò)結(jié)構(gòu),但是它的排列非常規(guī)整,呈層狀排布,從細(xì)節(jié)看,是大量簡(jiǎn)單神經(jīng)元的集合體。神經(jīng)網(wǎng)絡(luò)的輸入層,輸入擬合模型的自變量;它的輸出層,輸出擬合模型的結(jié)果。輸入層與輸出層神經(jīng)元個(gè)數(shù)一般對(duì)應(yīng)于輸入和輸出的數(shù)據(jù)序列量。因此,神經(jīng)網(wǎng)絡(luò)的核心是隱藏層,隱藏層會(huì)完成數(shù)據(jù)的分析與擬合。神經(jīng)網(wǎng)絡(luò)的每一層隱藏層,其內(nèi)部神經(jīng)元的結(jié)構(gòu)都保持高度一致,并且彼此之間并不直接相連,也不跨層相連。圖1就是一個(gè)非常簡(jiǎn)單的神經(jīng)網(wǎng)絡(luò)構(gòu)造圖,圖中包含三層隱藏層。圖中每個(gè)神經(jīng)元的中樞都有一個(gè)變化函數(shù),如果沒(méi)有變化函數(shù)f(x),該網(wǎng)絡(luò)只是多個(gè)線性方程的疊加,輸出結(jié)果依然為線性結(jié)果。因此神經(jīng)網(wǎng)絡(luò)需要加入變化函數(shù)f(x),從而使得模型能夠?qū)W習(xí)非線性數(shù)據(jù)并加以分析。

變化函數(shù)一般為階躍函數(shù),但也有一些是線性函數(shù),需要視具體應(yīng)用場(chǎng)景而定。常用變化函數(shù)包括Sigmoid、Tanh、ReLU等。

Sigmoid函數(shù)公式如下式所示,它將輸出值歸一化到(0,1)。在一些誤差反向傳播的場(chǎng)景下,需要反向調(diào)整權(quán)重時(shí),一般會(huì)率先計(jì)算出輸出層的損失值,然后將該損失值向上傳遞,進(jìn)行模型中參數(shù)的逐級(jí)優(yōu)化,但因?yàn)镾igmoid函數(shù)在求導(dǎo)后會(huì)使得損失值導(dǎo)數(shù)逐漸向0接近,出現(xiàn)梯度消失的情況,也就是說(shuō)不能再對(duì)權(quán)重進(jìn)行優(yōu)化[2]。

Tanh函數(shù)公式如下式所示,它是在Sigmoid函數(shù)上做了一些優(yōu)化,解決了Sigmoid始終為正的問(wèn)題,其取值范圍為(-1,1),但依然存在Sigmoid函數(shù)無(wú)法繼續(xù)優(yōu)化權(quán)重的問(wèn)題。

ReLU函數(shù)公式如下式所示,它存在一個(gè)最小值0,因此相比于Sigmoid函數(shù)和Tanh函數(shù)更為簡(jiǎn)單,后兩者都需要計(jì)算指數(shù),一旦數(shù)據(jù)量很大,就會(huì)帶來(lái)巨額的計(jì)算量。但ReLU函數(shù)的局限性在于,負(fù)輸入在經(jīng)過(guò)該ReLU單元時(shí)被永遠(yuǎn)置為0,因此無(wú)法參與后續(xù)的數(shù)據(jù)更迭。在使用中,一旦學(xué)習(xí)率超過(guò)模型能夠承受的范圍,就會(huì)導(dǎo)致超量神經(jīng)元失去響應(yīng),參數(shù)無(wú)法更新,模型無(wú)法繼續(xù)學(xué)習(xí),進(jìn)而導(dǎo)致訓(xùn)練失敗[3];但如果學(xué)習(xí)率處于模型能夠承受的范圍內(nèi),這種變化函數(shù)可以降低神經(jīng)網(wǎng)絡(luò)的復(fù)雜性,進(jìn)而減小過(guò)度擬合的可能性,使得模型相對(duì)更為精巧。

本項(xiàng)目中采用拉直層方式,即變化函數(shù)為f(x)=x,類似于ReLU函數(shù)。在神經(jīng)網(wǎng)絡(luò)中,隱藏層作為主要學(xué)習(xí)層,隱藏層的層數(shù)越多,該網(wǎng)絡(luò)結(jié)構(gòu)可學(xué)習(xí)的規(guī)則越復(fù)雜,但是一味增加網(wǎng)絡(luò)深度會(huì)造成前端隱藏層獲得學(xué)習(xí)規(guī)則,可是經(jīng)過(guò)多層傳遞后被遺忘。因此網(wǎng)絡(luò)結(jié)構(gòu)并非越多越好,需要根據(jù)數(shù)據(jù)情況進(jìn)行調(diào)試。

在將數(shù)據(jù)帶入模型之前,還需要進(jìn)行預(yù)處理,通常都采用歸一化的方式。在機(jī)器學(xué)習(xí)中,不同的輸入數(shù)據(jù)序列的范圍和大小都有非常大的區(qū)別,如果直接把數(shù)據(jù)帶入算法,會(huì)導(dǎo)致個(gè)別序列對(duì)整體計(jì)算結(jié)果的變化遠(yuǎn)超其他序列。這種僅僅因?yàn)閿?shù)值較大而判斷其對(duì)整體計(jì)算結(jié)果有很大影響的情況,顯而易見(jiàn)是不合理的,會(huì)影響數(shù)據(jù)預(yù)測(cè)的結(jié)果,為了消除輸入數(shù)據(jù)序列之間的范圍和大小影響,需要進(jìn)行歸一化。初始數(shù)據(jù)經(jīng)過(guò)預(yù)處理后,各輸入數(shù)據(jù)序列處于同一數(shù)量級(jí)。歸一化方法如下式所示。

深度神經(jīng)網(wǎng)絡(luò)的優(yōu)勢(shì)在于,它可以在沒(méi)有預(yù)先假設(shè)的前提下,找到一種映射關(guān)系,這種關(guān)系中最重要的兩個(gè)參數(shù),就是上文中提到的權(quán)重值和偏置項(xiàng)。這兩個(gè)參數(shù)都是通過(guò)損失函數(shù)確定。但是,損失函數(shù)并不是越小越好,如果只是單純追求損失函數(shù)最小化,就很可能會(huì)出現(xiàn)過(guò)度擬合的問(wèn)題。過(guò)度擬合在數(shù)據(jù)上的表現(xiàn)為,這種擬合關(guān)系能非常好地預(yù)測(cè)訓(xùn)練模型的結(jié)果,但是由于缺乏普適性,在應(yīng)用于測(cè)試數(shù)據(jù)時(shí),預(yù)測(cè)誤差會(huì)很大。

3? 人工神經(jīng)網(wǎng)絡(luò)模型調(diào)試

在本項(xiàng)目中,首先將初始數(shù)據(jù)序列按時(shí)間點(diǎn)重新劃分,將同一時(shí)刻采集到的各傳感器數(shù)據(jù)值作為一個(gè)單組,形成一個(gè)全新的時(shí)間序列,而后隨機(jī)抽取該時(shí)間序列的80%用于神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)訓(xùn)練階段,再將剩余的20%用于驗(yàn)證測(cè)試階段。通過(guò)訓(xùn)練數(shù)據(jù)集得到的擬合關(guān)系,將其應(yīng)用于驗(yàn)證數(shù)據(jù)集,通過(guò)擬合結(jié)果和真實(shí)結(jié)果的差異性判斷該模型的泛化能力。本次項(xiàng)目中間熱交換器出入口鈉溫的神經(jīng)網(wǎng)絡(luò)模型中,主要采用堆核功率、堆頂防護(hù)罩內(nèi)腔壓力、入口蒸餾水流量、出入口鈉流量、蒸發(fā)器給水流量、鈉泵流量、過(guò)熱器入口鈉溫、堆芯出口鈉溫、蒸汽發(fā)生器出口鈉溫作為輸入,中間熱交換器出口鈉溫、中間熱交換器入口鈉溫作為輸出。

首先將隱藏網(wǎng)絡(luò)層設(shè)置為兩層,使用L2型正則化方法優(yōu)化梯度下降公式,用于防止神經(jīng)網(wǎng)絡(luò)模型出現(xiàn)過(guò)度擬合的情況[4],正則化后梯度下降公式如下式所示。

式中,m為當(dāng)前層的數(shù)據(jù)個(gè)數(shù),yi代表第i個(gè)真實(shí)值,代表第i個(gè)預(yù)測(cè)值,代表第j個(gè)權(quán)重項(xiàng),λ是模型復(fù)雜度的懲罰項(xiàng),可以通過(guò)調(diào)整λ大小改變模型復(fù)雜度,用以提高模型泛化預(yù)測(cè)的精度。

項(xiàng)目首先采用自適應(yīng)梯度下降(Adam)優(yōu)化算法,該算法可以提升神經(jīng)網(wǎng)絡(luò)模型的訓(xùn)練速度,使模型在短時(shí)間內(nèi)收斂。在設(shè)定隱藏層為兩層、初步迭代次數(shù)為1000次后,模型均方誤差如圖2所示。

從圖2中可以看出,當(dāng)訓(xùn)練迭代次數(shù)達(dá)到200次左右時(shí),模型在驗(yàn)證測(cè)試數(shù)據(jù)集中的均方誤差已經(jīng)漸平不再繼續(xù)下降,這時(shí)如果不停止繼續(xù)訓(xùn)練,模型后續(xù)學(xué)到的規(guī)則為冗余的無(wú)用規(guī)則。因此在迭代200次后停止訓(xùn)練,此時(shí)學(xué)習(xí)訓(xùn)練集和測(cè)試驗(yàn)證集的均方誤差分別為5.57和5.35。

在模型訓(xùn)練結(jié)束之后,將訓(xùn)練數(shù)據(jù)和測(cè)試數(shù)據(jù)批量帶入模型,查看模型訓(xùn)練集和測(cè)試集分別對(duì)應(yīng)的進(jìn)出口溫度真實(shí)值與預(yù)測(cè)值的誤差分布情況。

由圖3和圖4可以看出,模型在隱藏層設(shè)置為兩層、迭代次數(shù)設(shè)置為200次時(shí),部分情況下預(yù)測(cè)誤差相差較大。因此該模型結(jié)構(gòu)仍需調(diào)整以提高模型的預(yù)測(cè)準(zhǔn)確度,通過(guò)增加網(wǎng)絡(luò)隱藏層至三層后,模型針對(duì)訓(xùn)練集均方誤差縮減至2.04,測(cè)試集均方誤差縮減至1.92,進(jìn)出口溫度真實(shí)值與預(yù)測(cè)值的誤差分布情況如圖5和圖6所示。

此時(shí)模型預(yù)測(cè)在訓(xùn)練集和測(cè)試集表現(xiàn)均較好。為了判斷模型是否可以具備更好的效果,基于當(dāng)前的模型訓(xùn)練結(jié)果,通過(guò)隨機(jī)梯度下降(sgd)優(yōu)化算法驗(yàn)證模型是否處于全局最優(yōu)解。隨機(jī)梯度下降算法是為了防止模型陷入局部最優(yōu)點(diǎn)而設(shè)計(jì)的,該算法通過(guò)加入隨機(jī)梯度使模型可以跳出鞍點(diǎn)和局部最優(yōu)點(diǎn),但同時(shí)該算法也增加了大量的計(jì)算過(guò)程,因此需要更多的學(xué)習(xí)步驟去優(yōu)化模型[5-6]。圖7是模型經(jīng)過(guò)1000次迭代后的均方誤差。

由圖7所示,模型分別在迭代180次、210次、320次、400次、500次、580次等位置附近多次出現(xiàn)極值點(diǎn),但是在這些極值點(diǎn)對(duì)應(yīng)的最低均方誤差也高達(dá)10.9,測(cè)試集中最低的均方誤差則更高,達(dá)到11.06。隨機(jī)梯度下降算法下最低的兩種誤差均大于Adam算法迭代后的均方誤差值,因此經(jīng)過(guò)Adam算法訓(xùn)練后的模型為當(dāng)前最優(yōu)模型。

4? 結(jié)語(yǔ)

本文采用基于人工神經(jīng)網(wǎng)絡(luò)的方法對(duì)快堆傳感器數(shù)據(jù)進(jìn)行分析,使用中國(guó)實(shí)驗(yàn)快堆開(kāi)堆實(shí)際數(shù)據(jù)建立了關(guān)于中間熱交換器出入口鈉溫的神經(jīng)網(wǎng)絡(luò)模型。就模型結(jié)果而言,通過(guò)堆芯出口鈉溫、堆核功率、堆頂防護(hù)罩內(nèi)腔壓力等參數(shù),擬合出的中間熱交換器出入口鈉溫模型,具有較好的泛用性。對(duì)于快堆非冗余傳感器,可以通過(guò)類似方式,通過(guò)其余冗余傳感器的擬合關(guān)系,得到目標(biāo)傳感器數(shù)據(jù)的大致區(qū)間范圍,實(shí)現(xiàn)非冗余傳感器故障有效監(jiān)測(cè)。因?yàn)檫@種監(jiān)測(cè)方式不需要進(jìn)行物理拆卸和停堆,所以具有很好的經(jīng)濟(jì)性。

參考文獻(xiàn)

[1] 李偉.核電廠傳感器狀態(tài)監(jiān)測(cè)方法研究[D].哈爾濱:哈爾濱工程大學(xué),2018.

[2] 黃毅,段修生,孫世宇,等.基于改進(jìn)sigmoid激活函數(shù)的深度神經(jīng)網(wǎng)絡(luò)訓(xùn)練算法研究[J].計(jì)算機(jī)測(cè)量與控制,2017,25(2):126-129.

[3] 蔣昂波,王維維.ReLU激活函數(shù)優(yōu)化研究[J].傳感器與微系統(tǒng),2018,37(2):50-52.

[4] 張欣怡,袁宏俊.正則化和交叉驗(yàn)證在組合預(yù)測(cè)模型中的應(yīng)用[J].計(jì)算機(jī)系統(tǒng)應(yīng)用,2020,29(4):18-23.

[5] 譚濤.基于卷積神經(jīng)網(wǎng)絡(luò)的隨機(jī)梯度下降優(yōu)化算法研究[D].重慶:西南大學(xué),2020.

[6] 張晉晶.基于隨機(jī)梯度下降的神經(jīng)網(wǎng)絡(luò)權(quán)重優(yōu)化算法[D].重慶:西南大學(xué),2018.

主站蜘蛛池模板: 亚洲成人黄色在线| 日韩一级二级三级| 日韩欧美91| 国产草草影院18成年视频| 日韩中文无码av超清| 香蕉久久国产精品免| 在线视频亚洲欧美| 92午夜福利影院一区二区三区| 麻豆AV网站免费进入| 毛片免费试看| 午夜综合网| 国产91九色在线播放| 91亚瑟视频| 在线观看国产小视频| 亚洲国产欧美中日韩成人综合视频| 久久久久国产一区二区| 亚洲综合在线最大成人| 国产在线自揄拍揄视频网站| 日韩高清中文字幕| 精品小视频在线观看| 99久久国产自偷自偷免费一区| 亚洲视频四区| 91精品啪在线观看国产60岁| 国产好痛疼轻点好爽的视频| 国产麻豆福利av在线播放| 91小视频在线播放| 日韩毛片免费视频| a毛片基地免费大全| 91视频国产高清| 黄色网在线| A级毛片高清免费视频就| 国产成人综合亚洲网址| 免费看一级毛片波多结衣| 久久久91人妻无码精品蜜桃HD| 久久九九热视频| 一区二区三区在线不卡免费| 日韩欧美国产中文| 日韩精品无码免费一区二区三区 | 免费在线a视频| 亚洲国产天堂久久综合| 制服丝袜 91视频| 久久超级碰| 中文字幕欧美日韩| 成人毛片免费在线观看| 看国产毛片| 亚洲精品视频在线观看视频| 亚洲中久无码永久在线观看软件| 欧美精品伊人久久| aa级毛片毛片免费观看久| 国产乱人伦精品一区二区| 成人午夜视频网站| 一区二区午夜| 国产一级毛片yw| 国产精品无码作爱| 亚洲天堂区| 日韩成人在线一区二区| 国产日韩AV高潮在线| 好吊色妇女免费视频免费| 无码内射中文字幕岛国片| 呦系列视频一区二区三区| 欧美综合中文字幕久久| 亚洲欧洲自拍拍偷午夜色无码| 欧美国产日韩在线观看| 欧美特黄一级大黄录像| 日本一区二区不卡视频| 高清码无在线看| 99热这里只有精品久久免费 | 美女毛片在线| 精品人妻无码中字系列| 亚洲av成人无码网站在线观看| 国产精品网址在线观看你懂的 | 国产高清不卡| 亚洲动漫h| 国产香蕉在线视频| 亚洲精品大秀视频| 91国内在线观看| 日韩小视频网站hq| 97一区二区在线播放| 九色视频线上播放| 嫩草影院在线观看精品视频| 亚洲AV无码乱码在线观看裸奔| 天天视频在线91频|