999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

中國(guó)實(shí)驗(yàn)快堆傳感器數(shù)據(jù)挖掘有效性研究

2021-07-28 12:59:40蔣煜卿陳樹(shù)明

蔣煜卿 陳樹(shù)明

DOI:10.16660/j.cnki.1674-098X.2101-5640-0498

摘? 要:將人工神經(jīng)網(wǎng)絡(luò)的方法引入中國(guó)實(shí)驗(yàn)快堆傳感器數(shù)據(jù)分析,通過(guò)機(jī)器學(xué)習(xí)的方式,建立出入口鈉溫作為輸出、堆功率等多個(gè)變量為輸入的模型。通過(guò)比較不同優(yōu)化算法下測(cè)試集的預(yù)測(cè)值和實(shí)際值之間誤差,進(jìn)行模型的調(diào)整。在最優(yōu)算法下,判斷最終模型的泛用性。實(shí)驗(yàn)結(jié)果表明,通過(guò)人工神經(jīng)網(wǎng)絡(luò)方式建立的出入口鈉溫模型,擬合結(jié)果較好,可以實(shí)現(xiàn)通過(guò)其余冗余傳感器間接得到目標(biāo)傳感器數(shù)據(jù)大致區(qū)間范圍,實(shí)現(xiàn)非冗余傳感器故障有效監(jiān)測(cè)。

關(guān)鍵詞:人工神經(jīng)網(wǎng)絡(luò)模型? 中國(guó)實(shí)驗(yàn)快堆? 傳感器? 模型調(diào)試

中圖分類號(hào):TP212 ? ? ? ? ?文獻(xiàn)標(biāo)識(shí)碼:A? ? ? ? ? ? ? ? ? ?文章編號(hào):1674-098X(2021)03(c)-0123-06

Research on the Effectiveness of Sensor Data Mining of China Experimental Fast Reactor

JIANG Yuqing? CHEN Shuming*

(China Academy of Atomic Energy, Beijing, 102413 China)

Abstract: The artificial neural network method is introduced into the data analysis of the China experimental fast reactor sensor, and a model is established based on machine learning. The output of the model is the inlet and outlet temperature of sodium, while the input of the model includes reactor power and other variables. Through comparing the error between the predicted value and the actual value of the test group under different optimization algorithms, the model parameters are adjusted and optimized. Under the optimal algorithm, the universality of the final model is judged. The final result shows that the inlet and outlet sodium temperature model established by artificial neural network has a good fitting result, which can achieve the approximate interval range of the target sensor data indirectly through other redundant sensors, and realize the effective monitoring of non-redundant sensor faults.

Key Words: Artificial neural network model; China experimental fast reactor; Sensor model debugging

在中國(guó)實(shí)驗(yàn)快堆運(yùn)行過(guò)程中,傳感器作為其控制和監(jiān)測(cè)系統(tǒng)的重要環(huán)節(jié),對(duì)于快堆的安全性有著舉足輕重的地位。在快堆中設(shè)置大量冗余儀表,以防止單一儀表?yè)p壞后影響操縱員判斷。對(duì)于儀表狀態(tài)的監(jiān)測(cè),多采用周期性的儀表檢測(cè)方法,經(jīng)濟(jì)性不高,并且伴隨拆卸損壞的風(fēng)險(xiǎn)。至于傳感器產(chǎn)生的大量數(shù)據(jù),使用程度較低。

傳感器狀態(tài)監(jiān)測(cè)方法包含兩類,一類是采用冗余傳感器進(jìn)行直接對(duì)比驗(yàn)證,另一類是使用解析方法進(jìn)行間接對(duì)比驗(yàn)證。這種解析冗余主要包含基于解析模型、基于知識(shí)和基于數(shù)據(jù)驅(qū)動(dòng)的方法。其中數(shù)據(jù)挖掘方法是目前最為熱門(mén)的一種數(shù)據(jù)處理方法,通過(guò)訓(xùn)練集得到不同時(shí)間序列數(shù)據(jù)的相互關(guān)系后,在測(cè)試集進(jìn)行驗(yàn)證。因此,可以把快堆多組傳感器當(dāng)作多組時(shí)間序列數(shù)據(jù)挖掘問(wèn)題來(lái)研究。

1? 傳感器狀態(tài)監(jiān)測(cè)的常用方法

傳感器狀態(tài)監(jiān)測(cè)通常使用設(shè)置大量冗余儀表的方式,通過(guò)對(duì)同一測(cè)量不同儀表數(shù)據(jù)之間的對(duì)比,實(shí)現(xiàn)最為簡(jiǎn)單的傳感器狀態(tài)判斷。但這種物理冗余的方式,一是會(huì)帶來(lái)經(jīng)濟(jì)成本的增加,二是難以避免共同失效,三是堆內(nèi)無(wú)法滿足全部設(shè)置冗余儀表的條件。因此,引入了基于解析冗余的方法,從而達(dá)到與基于物理冗余的方法相互補(bǔ)充的目的。基于解析冗余的方法,主要分為三類,分別是基于解析模型的方法、基于知識(shí)的方法和基于數(shù)據(jù)驅(qū)動(dòng)的方法[1]。

基于解析模型的方法,重點(diǎn)是需要精確的模型對(duì)狀態(tài)參數(shù)進(jìn)行估計(jì),進(jìn)而對(duì)實(shí)際值和估計(jì)值形成的殘差進(jìn)行統(tǒng)計(jì)分析,主要包括參數(shù)估計(jì)法、等價(jià)空間法和狀態(tài)估計(jì)法。對(duì)于快堆而言,其設(shè)計(jì)復(fù)雜,參數(shù)之間存在大量的相互關(guān)聯(lián)性,因此難以推導(dǎo)出精確的傳感器數(shù)學(xué)模型。

基于知識(shí)的方法,重點(diǎn)是需要定性模型和專家知識(shí)的結(jié)合,要通過(guò)因果分析的手段評(píng)估系統(tǒng)狀態(tài),主要包括專家系統(tǒng)推理法、模糊推理法、故障樹(shù)分析法和符號(hào)有向圖。對(duì)于快堆而言,其因果關(guān)系較為復(fù)雜,難以準(zhǔn)確通過(guò)分散表征進(jìn)行判斷。

基于數(shù)據(jù)驅(qū)動(dòng)的方法,和前兩種方法相比,專注于傳感器輸出數(shù)據(jù)的具體分析,主要包括直接處理方法、信號(hào)融合方法以及統(tǒng)計(jì)方法。直接處理方法主要是通過(guò)傅立葉變化發(fā)現(xiàn)信號(hào)在頻域的異常情況;信號(hào)融合方法是通過(guò)多個(gè)關(guān)聯(lián)傳感器數(shù)據(jù)變化來(lái)映射某個(gè)傳感器的狀態(tài),但這種方法通常會(huì)與其他方法組合使用,使得對(duì)于狀態(tài)的判斷更為全面和準(zhǔn)確;統(tǒng)計(jì)方法應(yīng)用范圍最廣,包括人工神經(jīng)網(wǎng)絡(luò)、主元分析法、多元狀態(tài)估計(jì)等。

本文主要采用機(jī)器學(xué)習(xí)中反向傳播的人工神經(jīng)網(wǎng)絡(luò)方法,基于快堆傳感器數(shù)據(jù)進(jìn)行學(xué)習(xí),并形成針對(duì)傳感器數(shù)據(jù)預(yù)測(cè)的模型。

2? 基于人工神經(jīng)網(wǎng)絡(luò)方法的傳感器狀態(tài)監(jiān)測(cè)

人工神經(jīng)網(wǎng)絡(luò)方法是一種廣泛使用的數(shù)據(jù)多元統(tǒng)計(jì)分析方法。基于神經(jīng)網(wǎng)絡(luò)的深度學(xué)習(xí)算法參考了人類大腦接觸并學(xué)習(xí)新事物的步驟,它使用拓?fù)浞绞綄⒈姸嗵幚碓M(jìn)行連接,每個(gè)處理元之間通過(guò)賦權(quán)和函數(shù)進(jìn)行并行信息處理。一般來(lái)說(shuō),人工神經(jīng)網(wǎng)絡(luò)方法有兩個(gè)階段,分別是學(xué)習(xí)訓(xùn)練和驗(yàn)證測(cè)試階段。學(xué)習(xí)訓(xùn)練階段就是對(duì)神經(jīng)網(wǎng)絡(luò)進(jìn)行教學(xué)和調(diào)試,在這個(gè)過(guò)程中,需要選擇合適的網(wǎng)絡(luò)結(jié)構(gòu)、層數(shù)、算法,以匹配不同規(guī)模和復(fù)雜度的系統(tǒng);驗(yàn)證階段就是對(duì)學(xué)習(xí)階段產(chǎn)生的模型加以驗(yàn)證,以判斷模型的精確程度。

神經(jīng)網(wǎng)絡(luò)中最基本的成分是神經(jīng)元,每一個(gè)神經(jīng)元都有多個(gè)輸入,對(duì)每一個(gè)輸入都會(huì)分配一個(gè)權(quán)重,在測(cè)試的過(guò)程中,每個(gè)連接上的權(quán)重都不會(huì)發(fā)生改變,但是在訓(xùn)練過(guò)程中,必須改變這些權(quán)重值來(lái)使結(jié)果最優(yōu)化。神經(jīng)元的數(shù)學(xué)表達(dá)式如下式所示。

式中,y代表神經(jīng)元的輸出值,wn代表神經(jīng)元的輸入權(quán)重值,m代表常數(shù)項(xiàng),f(x)為變化函數(shù),其中輸入權(quán)重值和常數(shù)項(xiàng)是通過(guò)機(jī)器學(xué)習(xí)計(jì)算當(dāng)前神經(jīng)元節(jié)點(diǎn)誤差項(xiàng)后,通過(guò)反向傳播的方式計(jì)算獲得。

神經(jīng)網(wǎng)絡(luò)雖然是一種非常復(fù)雜的網(wǎng)絡(luò)結(jié)構(gòu),但是它的排列非常規(guī)整,呈層狀排布,從細(xì)節(jié)看,是大量簡(jiǎn)單神經(jīng)元的集合體。神經(jīng)網(wǎng)絡(luò)的輸入層,輸入擬合模型的自變量;它的輸出層,輸出擬合模型的結(jié)果。輸入層與輸出層神經(jīng)元個(gè)數(shù)一般對(duì)應(yīng)于輸入和輸出的數(shù)據(jù)序列量。因此,神經(jīng)網(wǎng)絡(luò)的核心是隱藏層,隱藏層會(huì)完成數(shù)據(jù)的分析與擬合。神經(jīng)網(wǎng)絡(luò)的每一層隱藏層,其內(nèi)部神經(jīng)元的結(jié)構(gòu)都保持高度一致,并且彼此之間并不直接相連,也不跨層相連。圖1就是一個(gè)非常簡(jiǎn)單的神經(jīng)網(wǎng)絡(luò)構(gòu)造圖,圖中包含三層隱藏層。圖中每個(gè)神經(jīng)元的中樞都有一個(gè)變化函數(shù),如果沒(méi)有變化函數(shù)f(x),該網(wǎng)絡(luò)只是多個(gè)線性方程的疊加,輸出結(jié)果依然為線性結(jié)果。因此神經(jīng)網(wǎng)絡(luò)需要加入變化函數(shù)f(x),從而使得模型能夠?qū)W習(xí)非線性數(shù)據(jù)并加以分析。

變化函數(shù)一般為階躍函數(shù),但也有一些是線性函數(shù),需要視具體應(yīng)用場(chǎng)景而定。常用變化函數(shù)包括Sigmoid、Tanh、ReLU等。

Sigmoid函數(shù)公式如下式所示,它將輸出值歸一化到(0,1)。在一些誤差反向傳播的場(chǎng)景下,需要反向調(diào)整權(quán)重時(shí),一般會(huì)率先計(jì)算出輸出層的損失值,然后將該損失值向上傳遞,進(jìn)行模型中參數(shù)的逐級(jí)優(yōu)化,但因?yàn)镾igmoid函數(shù)在求導(dǎo)后會(huì)使得損失值導(dǎo)數(shù)逐漸向0接近,出現(xiàn)梯度消失的情況,也就是說(shuō)不能再對(duì)權(quán)重進(jìn)行優(yōu)化[2]。

Tanh函數(shù)公式如下式所示,它是在Sigmoid函數(shù)上做了一些優(yōu)化,解決了Sigmoid始終為正的問(wèn)題,其取值范圍為(-1,1),但依然存在Sigmoid函數(shù)無(wú)法繼續(xù)優(yōu)化權(quán)重的問(wèn)題。

ReLU函數(shù)公式如下式所示,它存在一個(gè)最小值0,因此相比于Sigmoid函數(shù)和Tanh函數(shù)更為簡(jiǎn)單,后兩者都需要計(jì)算指數(shù),一旦數(shù)據(jù)量很大,就會(huì)帶來(lái)巨額的計(jì)算量。但ReLU函數(shù)的局限性在于,負(fù)輸入在經(jīng)過(guò)該ReLU單元時(shí)被永遠(yuǎn)置為0,因此無(wú)法參與后續(xù)的數(shù)據(jù)更迭。在使用中,一旦學(xué)習(xí)率超過(guò)模型能夠承受的范圍,就會(huì)導(dǎo)致超量神經(jīng)元失去響應(yīng),參數(shù)無(wú)法更新,模型無(wú)法繼續(xù)學(xué)習(xí),進(jìn)而導(dǎo)致訓(xùn)練失敗[3];但如果學(xué)習(xí)率處于模型能夠承受的范圍內(nèi),這種變化函數(shù)可以降低神經(jīng)網(wǎng)絡(luò)的復(fù)雜性,進(jìn)而減小過(guò)度擬合的可能性,使得模型相對(duì)更為精巧。

本項(xiàng)目中采用拉直層方式,即變化函數(shù)為f(x)=x,類似于ReLU函數(shù)。在神經(jīng)網(wǎng)絡(luò)中,隱藏層作為主要學(xué)習(xí)層,隱藏層的層數(shù)越多,該網(wǎng)絡(luò)結(jié)構(gòu)可學(xué)習(xí)的規(guī)則越復(fù)雜,但是一味增加網(wǎng)絡(luò)深度會(huì)造成前端隱藏層獲得學(xué)習(xí)規(guī)則,可是經(jīng)過(guò)多層傳遞后被遺忘。因此網(wǎng)絡(luò)結(jié)構(gòu)并非越多越好,需要根據(jù)數(shù)據(jù)情況進(jìn)行調(diào)試。

在將數(shù)據(jù)帶入模型之前,還需要進(jìn)行預(yù)處理,通常都采用歸一化的方式。在機(jī)器學(xué)習(xí)中,不同的輸入數(shù)據(jù)序列的范圍和大小都有非常大的區(qū)別,如果直接把數(shù)據(jù)帶入算法,會(huì)導(dǎo)致個(gè)別序列對(duì)整體計(jì)算結(jié)果的變化遠(yuǎn)超其他序列。這種僅僅因?yàn)閿?shù)值較大而判斷其對(duì)整體計(jì)算結(jié)果有很大影響的情況,顯而易見(jiàn)是不合理的,會(huì)影響數(shù)據(jù)預(yù)測(cè)的結(jié)果,為了消除輸入數(shù)據(jù)序列之間的范圍和大小影響,需要進(jìn)行歸一化。初始數(shù)據(jù)經(jīng)過(guò)預(yù)處理后,各輸入數(shù)據(jù)序列處于同一數(shù)量級(jí)。歸一化方法如下式所示。

深度神經(jīng)網(wǎng)絡(luò)的優(yōu)勢(shì)在于,它可以在沒(méi)有預(yù)先假設(shè)的前提下,找到一種映射關(guān)系,這種關(guān)系中最重要的兩個(gè)參數(shù),就是上文中提到的權(quán)重值和偏置項(xiàng)。這兩個(gè)參數(shù)都是通過(guò)損失函數(shù)確定。但是,損失函數(shù)并不是越小越好,如果只是單純追求損失函數(shù)最小化,就很可能會(huì)出現(xiàn)過(guò)度擬合的問(wèn)題。過(guò)度擬合在數(shù)據(jù)上的表現(xiàn)為,這種擬合關(guān)系能非常好地預(yù)測(cè)訓(xùn)練模型的結(jié)果,但是由于缺乏普適性,在應(yīng)用于測(cè)試數(shù)據(jù)時(shí),預(yù)測(cè)誤差會(huì)很大。

3? 人工神經(jīng)網(wǎng)絡(luò)模型調(diào)試

在本項(xiàng)目中,首先將初始數(shù)據(jù)序列按時(shí)間點(diǎn)重新劃分,將同一時(shí)刻采集到的各傳感器數(shù)據(jù)值作為一個(gè)單組,形成一個(gè)全新的時(shí)間序列,而后隨機(jī)抽取該時(shí)間序列的80%用于神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)訓(xùn)練階段,再將剩余的20%用于驗(yàn)證測(cè)試階段。通過(guò)訓(xùn)練數(shù)據(jù)集得到的擬合關(guān)系,將其應(yīng)用于驗(yàn)證數(shù)據(jù)集,通過(guò)擬合結(jié)果和真實(shí)結(jié)果的差異性判斷該模型的泛化能力。本次項(xiàng)目中間熱交換器出入口鈉溫的神經(jīng)網(wǎng)絡(luò)模型中,主要采用堆核功率、堆頂防護(hù)罩內(nèi)腔壓力、入口蒸餾水流量、出入口鈉流量、蒸發(fā)器給水流量、鈉泵流量、過(guò)熱器入口鈉溫、堆芯出口鈉溫、蒸汽發(fā)生器出口鈉溫作為輸入,中間熱交換器出口鈉溫、中間熱交換器入口鈉溫作為輸出。

首先將隱藏網(wǎng)絡(luò)層設(shè)置為兩層,使用L2型正則化方法優(yōu)化梯度下降公式,用于防止神經(jīng)網(wǎng)絡(luò)模型出現(xiàn)過(guò)度擬合的情況[4],正則化后梯度下降公式如下式所示。

式中,m為當(dāng)前層的數(shù)據(jù)個(gè)數(shù),yi代表第i個(gè)真實(shí)值,代表第i個(gè)預(yù)測(cè)值,代表第j個(gè)權(quán)重項(xiàng),λ是模型復(fù)雜度的懲罰項(xiàng),可以通過(guò)調(diào)整λ大小改變模型復(fù)雜度,用以提高模型泛化預(yù)測(cè)的精度。

項(xiàng)目首先采用自適應(yīng)梯度下降(Adam)優(yōu)化算法,該算法可以提升神經(jīng)網(wǎng)絡(luò)模型的訓(xùn)練速度,使模型在短時(shí)間內(nèi)收斂。在設(shè)定隱藏層為兩層、初步迭代次數(shù)為1000次后,模型均方誤差如圖2所示。

從圖2中可以看出,當(dāng)訓(xùn)練迭代次數(shù)達(dá)到200次左右時(shí),模型在驗(yàn)證測(cè)試數(shù)據(jù)集中的均方誤差已經(jīng)漸平不再繼續(xù)下降,這時(shí)如果不停止繼續(xù)訓(xùn)練,模型后續(xù)學(xué)到的規(guī)則為冗余的無(wú)用規(guī)則。因此在迭代200次后停止訓(xùn)練,此時(shí)學(xué)習(xí)訓(xùn)練集和測(cè)試驗(yàn)證集的均方誤差分別為5.57和5.35。

在模型訓(xùn)練結(jié)束之后,將訓(xùn)練數(shù)據(jù)和測(cè)試數(shù)據(jù)批量帶入模型,查看模型訓(xùn)練集和測(cè)試集分別對(duì)應(yīng)的進(jìn)出口溫度真實(shí)值與預(yù)測(cè)值的誤差分布情況。

由圖3和圖4可以看出,模型在隱藏層設(shè)置為兩層、迭代次數(shù)設(shè)置為200次時(shí),部分情況下預(yù)測(cè)誤差相差較大。因此該模型結(jié)構(gòu)仍需調(diào)整以提高模型的預(yù)測(cè)準(zhǔn)確度,通過(guò)增加網(wǎng)絡(luò)隱藏層至三層后,模型針對(duì)訓(xùn)練集均方誤差縮減至2.04,測(cè)試集均方誤差縮減至1.92,進(jìn)出口溫度真實(shí)值與預(yù)測(cè)值的誤差分布情況如圖5和圖6所示。

此時(shí)模型預(yù)測(cè)在訓(xùn)練集和測(cè)試集表現(xiàn)均較好。為了判斷模型是否可以具備更好的效果,基于當(dāng)前的模型訓(xùn)練結(jié)果,通過(guò)隨機(jī)梯度下降(sgd)優(yōu)化算法驗(yàn)證模型是否處于全局最優(yōu)解。隨機(jī)梯度下降算法是為了防止模型陷入局部最優(yōu)點(diǎn)而設(shè)計(jì)的,該算法通過(guò)加入隨機(jī)梯度使模型可以跳出鞍點(diǎn)和局部最優(yōu)點(diǎn),但同時(shí)該算法也增加了大量的計(jì)算過(guò)程,因此需要更多的學(xué)習(xí)步驟去優(yōu)化模型[5-6]。圖7是模型經(jīng)過(guò)1000次迭代后的均方誤差。

由圖7所示,模型分別在迭代180次、210次、320次、400次、500次、580次等位置附近多次出現(xiàn)極值點(diǎn),但是在這些極值點(diǎn)對(duì)應(yīng)的最低均方誤差也高達(dá)10.9,測(cè)試集中最低的均方誤差則更高,達(dá)到11.06。隨機(jī)梯度下降算法下最低的兩種誤差均大于Adam算法迭代后的均方誤差值,因此經(jīng)過(guò)Adam算法訓(xùn)練后的模型為當(dāng)前最優(yōu)模型。

4? 結(jié)語(yǔ)

本文采用基于人工神經(jīng)網(wǎng)絡(luò)的方法對(duì)快堆傳感器數(shù)據(jù)進(jìn)行分析,使用中國(guó)實(shí)驗(yàn)快堆開(kāi)堆實(shí)際數(shù)據(jù)建立了關(guān)于中間熱交換器出入口鈉溫的神經(jīng)網(wǎng)絡(luò)模型。就模型結(jié)果而言,通過(guò)堆芯出口鈉溫、堆核功率、堆頂防護(hù)罩內(nèi)腔壓力等參數(shù),擬合出的中間熱交換器出入口鈉溫模型,具有較好的泛用性。對(duì)于快堆非冗余傳感器,可以通過(guò)類似方式,通過(guò)其余冗余傳感器的擬合關(guān)系,得到目標(biāo)傳感器數(shù)據(jù)的大致區(qū)間范圍,實(shí)現(xiàn)非冗余傳感器故障有效監(jiān)測(cè)。因?yàn)檫@種監(jiān)測(cè)方式不需要進(jìn)行物理拆卸和停堆,所以具有很好的經(jīng)濟(jì)性。

參考文獻(xiàn)

[1] 李偉.核電廠傳感器狀態(tài)監(jiān)測(cè)方法研究[D].哈爾濱:哈爾濱工程大學(xué),2018.

[2] 黃毅,段修生,孫世宇,等.基于改進(jìn)sigmoid激活函數(shù)的深度神經(jīng)網(wǎng)絡(luò)訓(xùn)練算法研究[J].計(jì)算機(jī)測(cè)量與控制,2017,25(2):126-129.

[3] 蔣昂波,王維維.ReLU激活函數(shù)優(yōu)化研究[J].傳感器與微系統(tǒng),2018,37(2):50-52.

[4] 張欣怡,袁宏俊.正則化和交叉驗(yàn)證在組合預(yù)測(cè)模型中的應(yīng)用[J].計(jì)算機(jī)系統(tǒng)應(yīng)用,2020,29(4):18-23.

[5] 譚濤.基于卷積神經(jīng)網(wǎng)絡(luò)的隨機(jī)梯度下降優(yōu)化算法研究[D].重慶:西南大學(xué),2020.

[6] 張晉晶.基于隨機(jī)梯度下降的神經(jīng)網(wǎng)絡(luò)權(quán)重優(yōu)化算法[D].重慶:西南大學(xué),2018.

主站蜘蛛池模板: 国产视频欧美| 波多野结衣亚洲一区| 欧美成人怡春院在线激情| 爱爱影院18禁免费| 亚洲天堂网视频| 精品久久国产综合精麻豆| 91啦中文字幕| 欧美三级视频网站| 人人看人人鲁狠狠高清| 国产精品视频观看裸模| 97免费在线观看视频| 人人91人人澡人人妻人人爽| 日韩国产综合精选| jizz在线观看| 国产在线八区| 国产在线自乱拍播放| 伊人久综合| 五月天福利视频| 中文字幕在线欧美| 亚洲色图狠狠干| 成人综合在线观看| 无码区日韩专区免费系列| 久久亚洲日本不卡一区二区| 欧美国产日韩一区二区三区精品影视| 91亚洲精品国产自在现线| 91娇喘视频| 国产日韩精品一区在线不卡| 九九九精品视频| 99久久国产综合精品2023| 六月婷婷综合| 中国成人在线视频| 亚洲一区二区三区麻豆| 尤物精品国产福利网站| 韩日无码在线不卡| 国产无遮挡裸体免费视频| 亚洲一区二区在线无码| 婷婷色中文网| 国产午夜无码专区喷水| 国产不卡网| 色综合久久久久8天国| 四虎影院国产| 国产在线观看精品| 亚洲 欧美 偷自乱 图片 | 在线a视频免费观看| 欧美视频二区| 91人人妻人人做人人爽男同| 波多野一区| 91精品aⅴ无码中文字字幕蜜桃 | 国产精品嫩草影院av| 亚洲免费黄色网| 天堂岛国av无码免费无禁网站| 亚洲区视频在线观看| 国产特级毛片aaaaaaa高清| 制服丝袜无码每日更新| 再看日本中文字幕在线观看| 啪啪免费视频一区二区| 欧美成人影院亚洲综合图| 亚洲视频欧美不卡| 美女毛片在线| 精品少妇人妻一区二区| 日韩a在线观看免费观看| 91久久国产成人免费观看| 国产精品开放后亚洲| 高潮毛片无遮挡高清视频播放| 国产欧美又粗又猛又爽老| 亚洲国产精品久久久久秋霞影院| 国产精品一区二区不卡的视频| 国产精品9| 亚洲午夜天堂| 麻豆精品在线播放| 亚洲另类第一页| 国产在线第二页| 最近最新中文字幕免费的一页| 国产视频自拍一区| 国产超薄肉色丝袜网站| 国产欧美日韩精品第二区| 国产女人水多毛片18| 福利国产微拍广场一区视频在线 | 成人精品区| 99无码熟妇丰满人妻啪啪| 国产一区免费在线观看| 欧美精品啪啪一区二区三区|