999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

ChatGPT熱潮下的冷思考:基于心理學算法厭惡與欣賞的視角

2023-07-13 01:11:30戚婭瑋李斯盛楊若欣何清華
關鍵詞:人工智能人類

戚婭瑋,李斯盛,楊若欣,何清華

(西南大學 心理學部, 重慶 400715)

2022年11月30日,美國OpenAI公司發布了一款名叫ChatGPT的聊天機器人,自發布以來迅速吸引了全世界人民的目光。OpenAI公司隨后迭代出新的模型版本——GPT-4,但各方面對其褒貶不一:有的盛贊其所帶來的便捷,有的則擔心其對人類社會原有秩序的沖擊,這些言論甚至引發了“AI將如何影響人類社會發展”的大討論。2023年全國兩會期間,科技部部長王志剛用“踢足球和梅西”來回應記者提出的ChatGPT問題[1],表明了自己對ChatGPT的態度。本文從個體對ChatGPT等人工智能(AI)產品的矛盾態度出發,基于算法決策的相關理論和文獻,論述個體對AI產生算法厭惡、算法欣賞,甚至厭惡與欣賞共存的這一矛盾態度背后的心理機制,并對未來AI如何避免這種矛盾態度提出解決思路。

一、ChatGPT、算法矛盾態度與算法決策

ChatGPT不是一個全新的事物,而是人工智能領域不斷迭代的新發展,是AI新時代的代表性產品。ChatGPT,即生成式預訓練轉換器(Chat Generative Pre-trained Transformer),是一種基于自然語言處理和深度學習技術的語言模型,有著自然語言處理和機器學習的能力,依托自然語言處理的人工智能技術與人類進行互動,能形成智能式認知理解模式[2]。但它的能力與應用范圍遠遠不止人類自然語言的生成。比如,ChatGPT有著強大的信息加工、分析整合和生成能力[3],除文字外,還可以與其他技術相結合(如語音、圖像、視頻等),生成豐富多樣的回答。在實際應用中,可以做到即時的人機交互,幫助個體進一步澄清自己的想法和感受,了解其所處的背景和狀況,及時根據個體對于答案的反饋進行學習和調整,不斷優化決策過程。從ChatGPT的產生與發展來看,它的引入和發展,標志著自然語言處理和深度學習技術在人機交互領域的重大進展。ChatGPT的出現意味著人工智能可以像人類一樣生成自然語言,這種技術的進步使得機器可以更好地理解和處理人類語言的復雜性。隨著ChatGPT及其競品的不斷涌現,個體對這些技術所帶來的影響和潛在風險也愈加關注。

ChatGPT的核心是算法(Algorithm),而個體對算法的態度尤其是新生算法的態度總是具有矛盾的兩面性:算法厭惡、算法欣賞,甚至厭惡與欣賞并存。早在20世紀50年代,Meehl[4]就提出過盡管有更優越的統計模型可供參考,但醫生在做醫療決策時還是會更傾向于相信自己的直覺等。進入21世紀以來,AI等先進技術進入集成和應用階段[5],相關支撐算法的性能日趨提高,但類似的現象仍然存在。Dievorst等[6]進一步指出,即使用戶在看到算法預測的表現優于人類預測者后,仍然會傾向于不使用算法,他們把這種現象定義為算法厭惡(Algorithm Aversion)。雖然Dievorst等人也強調,算法厭惡出現的前提條件是算法出現錯誤或不足;而事實上,也有研究發現即使用戶沒有看到算法出現錯誤,他們仍然有可能排斥使用算法[7]。因此,算法厭惡是指個體表現出對算法的消極態度和行為。與算法厭惡相反,算法欣賞(Algorithm Appreciation)則是指個體對算法表現出積極的態度和行為,表現出對算法的高度依賴[3,8]。比如個體頻繁通過互聯網進行信息檢索,這可以看作對搜索算法的欣賞[9]。而對于ChatGPT在當前生成式語言模型中的絕對優勢,人們并不是簡單的厭惡或者欣賞,而是一種復雜的矛盾心理。我們把矛盾心理定義為對一個物體同時具有積極和消極的方向。“方向”即行為人相對于物體的對齊或位置,其中積極的方向意味著吸引或拉向它,消極的方向意味著排斥或推離它。眾多資料表明,當前人們對ChatGPT的態度則更傾向于這種矛盾心理。

算法厭惡與算法欣賞代表個體對于人工智能算法的態度。它們是基于算法決策而產生的,算法決策通常指人類在算法的幫助下做出決策的過程,這里的算法簡單到計算器,也可以復雜到以大數據為基礎,以機器學習及深度學習算法為核心的人工智能自主決策系統[10](包括自動化決策、增強決策、計算機決策支持系統、計算機推薦系統、輔助決策、專家系統和診斷輔助等[11])。隨著人工智能算法的不斷進化,人工智能算法早已廣泛應用在多個領域:在醫療過程中,醫療輔助決策系統可以幫助醫護人員和患者提供醫療、保健或管理方面的建議[12];在金融領域中,算法可以給企業或投資人提供投資理財建議,或者提供財務風險管理建議[13];在消費領域,基于大數據的算法可以向消費者提供個性化的購物建議[14],也可以從消費心理學的角度影響用戶消費決策[15]等;在日常生活中,算法可以根據個體數據提出個性化的膳食和健康生活方式建議[16]等。以算法為核心的ChatGPT的應用更為廣泛,能為多個行業提供幫助,甚至推動行業的發展。算法能帶來毋庸置疑的便利,但也存在著數據偏差、算法偏見、倫理道德、技術依賴等風險。算法逐漸深入人類的生活,面對著算法的有效性和局限性,個體在決策過程中通過對比和選擇,逐漸形成了對算法的不同態度。尤其是面對新生事物ChatGPT,個體對其矛盾態度的產生原因需要進一步闡述。

二、ChatGPT的算法厭惡與欣賞及矛盾心理的心理機制

雖然目前研究對出現算法厭惡、欣賞以及矛盾心理的具體原因還沒有定論,但已有研究表明算法厭惡受到算法自身性能、任務類型、個體差異等因素的影響[17]。與之類似,算法自身性能、算法使用經驗、環境影響、算法客觀性與透明度以及一定程度的擬人化是算法欣賞產生的主要原因[18]。總體而言,算法厭惡和算法欣賞是一個連續體的兩端,共同受自身性能、任務類型及個體等方面因素的制約,在一些情況下帶來對算法的矛盾心理。基于此,本文結合ChatGPT的自身性能、任務要求及個體自身特點等方面進行探討個體對其產生的算法厭惡和算法欣賞,從而進一步揭示矛盾心理產生的原因。

(一)ChatGPT的自身性能

問世即快速增長的注冊用戶數據體現出ChatGPT在初期就更多地受到人們的欣賞,這可能與ChatGPT自身的性能有關。Venkatesh等[19]提出技術接受和使用統一理論來解釋個體對于技術的接受和使用及其影響因素。該理論認為,績效期望(即“個人認為使用人工智能有助于提高工作績效的程度”)會顯著影響個體對技術的接受和使用程度。而對ChatGPT一類的人工智能,個體會寄予更高的績效期望,且會傾向于將相對更困難的任務交給它們來解決。事實上,如前所述,ChatGPT擁有強大的功能,在于擁有先進的算法、強大的算力和海量的數據[3]。ChatGPT所使用的算法是基于轉換架構的神經網絡模型,該模型的特點是引入自我注意力機制,形成動態、可優化的算法[2],配合算力和數據逐步推進,以便實現并行運算,節省算法學習和訓練的時間。在算力方面,ChatGPT每天的算力總消耗約為3 640PF(即假設每秒運算1 000萬億次,需要連續運行3 640天)[12]。在數據方面,ChatGPT的模型參數已經高達1 750億,結合海量數據和預訓練模型,可以實現對語料庫的學習、訓練和反饋,并逐步熟悉不同國家的語言,滿足各種具體場景的需求,讓它的語言更加流暢、自然、豐富,更易于被人類所理解。ChatGPT功能強大,應用場景多樣,響應時間較快,個體可能會因此對其產生算法欣賞[20]。

然而,伴隨著ChatGPT注冊用戶量的增加,也帶來了很多負面或者質疑輿論,基本集中在人工智能是否即將取代人類,以及ChatGPT所帶來的學術倫理問題、數據安全問題等。這也有多方面的原因:首先,基于ChatGPT的性能,它本身是一個大規模語言模型,必然存在著大規模語言模型自身的局限,即其可信性無法保證。雖然ChatGPT在很多情況下能夠給出看似較好的回復,但很有可能是其在“一本正經地胡說八道”。用戶通常認為人工智能應當是更加完美的,對它產生錯誤的寬容度較低[21],當發現ChatGPT對一些簡單問題的回答的準確性較低時,可能會造成對ChatGPT的算法厭惡。其次,ChatGPT所學習的內容具有一定的時效性。ChatGPT不能實時更新知識系統,它的知識系統是2021年9月以前的數據庫,沒有以后的知識信息,這一局限可能也是導致算法厭惡的原因之一。第三,高額的訓練成本是ChatGPT作為大型語言模型的又一局限。數年前,AlphaGo與李世石的一場圍棋比賽,引起了人們對于人工智能是否會取代人類的疑問,但是人們所忽略的是AlphaGo超高的耗能。第四,如前文所述,ChatGPT的基礎大規模語言模型是基于現實世界的語言數據預訓練而成的,因為數據的偏見性,很可能生成有害內容。第五,極為重要的一點是,ChatGPT 為 OpenAI 部署,用戶數據都為OpenAI公司所掌握,長期大規模使用可能存在一定的數據泄漏風險。ChatGPT帶來的數據安全問題亦會造成人們選擇不再繼續使用ChatGPT。有研究表明,在體驗到不良的結果后,個體就會顯著降低對自動化的利用率[22]。因此,ChatGPT如果在個體體驗過程中出錯,不論其錯誤的嚴重程度如何,都會激發明顯的負面情緒,而負面情緒帶來的消極體驗會降低用戶的使用傾向[23],帶來算法厭惡。

此外,擬人化是算法性能中的一個重要特點。擬人化是將人類特征、動機、意向或心理狀態賦予非人對象的過程[24],會顯著影響個體對人工智能的厭惡與欣賞。與人性化這一類似的概念不同,人性化的對象可以包括人類本身,而擬人化的對象僅限于非人對象,它是一個更加具體的概念。機器和算法是常見的擬人化對象之一,擬人化能顯著增加人工智能的使用和欣賞程度[25]。比如:已有研究表明,個體感知到的擬人化可以提高對諸如ChatGPT一類聊天機器人的對話意愿,這可能是由于擬人化使得個體感知到了聊天機器人的社會存在[3,26]。ChatGPT作為一種基于人類反饋強化學習技術開發的產品,已經具備了一定的擬人化潛力。雖然它并不以視覺面孔的形式向用戶展現其形態,但其具有的高水平信息互動性可以在一定程度上彌補這一局限[27]。有研究提示,個體越多地感知到聊天機器人背后的想法,他們與聊天機器人的共同存在和人際關系就越密切[28],尤其是當聊天機器人使用社交線索時,個體與它的親密聯系會變得更加強烈。神經科學的研究也發現,用戶對聊天機器人的擬人化不僅取決于對主體外貌、認知智力和情緒智力的感知,也可以在沒有實體的智能體中感受到[29],這與大腦背外側前額葉皮層和顳上回腦區的活動強度與個體的擬人化感知以及后續的行為傾向密切相關[30]。這些發現提示,諸如ChatGPT一類聊天機器人語言中的思維感知和社交線索對于創造積極的聊天機器人體驗的重要性。值得注意的是,已有研究發現人工智能擬人化程度越高,其所應負的道德責任越大,并且這種效應是通過擬人化導致的人工智能自由意志提升來實現的[31]。因此,雖然較高的擬人化程度會帶來算法欣賞,但過高的擬人化也可能帶來算法厭惡,甚至產生“恐怖谷效應”(過于智能的AI會讓人覺得恐怖,導致喜好下降)[32]。

(二)不同任務類型ChatGPT的使用

主客觀任務類型會對個體的算法厭惡與欣賞產生影響。個體傾向于采用算法輔助客觀類型的任務,如在對視覺刺激進行數值估計時,用戶更傾向于使用算法[8];但在主觀類型的任務中則傾向于不使用算法,因為一般認為算法缺乏直覺和主觀判斷能力。Castelo等[33]以及Bonnefon和Rahwan都重復了這一發現,認為智能算法缺乏執行主觀任務所需的能力,當主觀判斷更為重要時,用戶對算法的依賴程度更低[27]。但有研究指出,即使是在主觀任務類型中,也有可能表現出算法欣賞[8]。ChatGPT應用場景廣泛,既可以執行諸如程序語言轉換、Python代碼解釋與Bug修復等相對客觀的任務,也可以進行生成點評、面試、問答、情緒評分與分析等相對主觀的任務,這使個體對其更容易產生矛盾態度。

在涉及道德相關任務時,個體傾向于相信自己的判斷,而不是算法。ChatGPT自身也會依據規則厭惡回答道德相關的問題,但在一些特殊情形下,ChatGPT仍有可能產出一些評論道德相關的結果。這有可能會引起個體的算法厭惡。已有研究發現濫用諸如ChatGPT之類的人工智能進行道德決策,會加劇人與人之間的不平等,甚至可能產生更嚴重的現實威脅[34]。ChatGPT帶來學術界廣泛討論的一個問題:學術倫理問題。基于ChatGPT的優點,已有學校開始鼓勵學生使用ChatGPT,如香港科技大學。但是,頂級期刊Science、Nature等相繼強調人工智能程序不能成為作者[35]。任務類型影響算法厭惡與欣賞的背后機制尚不明朗,我們推測其可能受任務難度的調節。已有研究發現低難度的任務會帶來較低的認知負荷,造成認知資源的浪費并引起厭惡感[36],導致算法厭惡。而高難度的任務會帶來較高的認知負荷,個體更有可能表現出算法欣賞。同樣地,使用ChatGPT解答高難度的任務,可能也是ChatGPT在短期內引起很多人追捧的原因之一。此外,客觀類型的任務一般而言難度較高,而主觀類型的任務則難度較低,這樣的觀點部分地得到了有關研究的支持[37],但后續還需更多研究予以驗證。

(三)影響ChatGPT厭惡與欣賞的個體因素

目前,雖然沒有具體的研究去探討影響ChatGPT厭惡與欣賞的個體因素,但是基于以往對于算法厭惡和欣賞的個體因素研究可以大致分為兩個方面:一方面是個體的人格因素,另一方面是人口統計學因素[17]。于人格因素而言,自尊、自我效能、控制源和神經質等個體的核心自我評價都與算法厭惡有關。個體對外部世界的評價不僅受到對象的特征和個體對這些對象的態度的影響,還受到個體對自己、他人和世界的態度的影響,對ChatGPT的厭惡與欣賞亦難以避免受個體因素的影響。從人口統計學的角度而言,算法的接受程度受個體的年齡、性別和教育水平而異。就目前的傳播熱度而言,ChatGPT在青年群體中更受歡迎;在學術界的火爆程度也體現出其更受較高知識水平人群的青睞。

綜上所述,ChatGPT厭惡/欣賞受到很多因素影響,這些因素的交互造成了人們的矛盾心理,也會發展出不同的使用模式,人們批評它也依舊使用它,積極討論它但并不使用它等等。我們需要克服對ChatGPT的矛盾心理,使人對其擁有更為平衡的態度,為此提出克服ChatGPT矛盾心理的策略。

三、克服ChatGPT矛盾心理的策略

尤瓦爾·赫拉利在《未來簡史》中提到:“智能與意識,究竟哪個才更有價值?”[38]無意識的智能在飛速發展,人類如果不想集體被淘汰,只能積極升級“心智”。而升級所謂“心智”離不開人類對算法的態度。是否需要以及如何克服矛盾心理,在以ChatGPT為代表的新一代人工智能時代顯得尤為重要。對于矛盾心理,可以從靈活應對與非靈活應對兩個角度出發采取策略:非靈活應對策略主要側重于避免或逃避矛盾心理的不適,對于ChatGPT而言,采用非靈活應對策略,即不使用ChatGPT,可以避免因其矛盾心理帶來的不適;而靈活應對策略則從多方面的、平衡的角度來解決矛盾心理產生的根源。本文從克服算法厭惡,以及克服對ChatGPT的盲目欣賞的角度,提出我國人工智能發展的一些建議。

對于克服算法厭惡的策略,首先,可以在設計環節使用“人在回路(又稱為人機閉環系統)”策略,即機器操作員在經過第一次指令輸入后,仍有機會進行第二次或不間斷的指令更正。Dietvorst等[39]的研究發現,讓個體可以調整不完美算法會顯著增加對算法的使用概率和信念,適度允許個體調整算法的預測值也會帶來更好的性能表現。對于用戶來說,要根據算法的判斷結果采取行動,就必須感到較強的控制感并有足夠的信心來信任算法。因此,人在回路策略能夠激發用戶的決策自主感,提升應用算法輔助決策的傾向[40]。未來,類似于ChatGPT一類的AI可以開放允許用戶修正結果的權限,以達到人機交互中的雙贏模式。當然,這也會帶來一些挑戰,比如人的多元性帶來的算法的社會適應性問題等。其次,提高擬人化水平可以減輕算法厭惡。對ChatGPT等聊天機器人而言,需要提高其社交存在水平,因為個體會無意識地將社會規則應用到與人工智能的交互之中。而擬人化水平的提高可以激發用戶的社會認知反應。更類人的語言、萌化程度等都會影響人的算法厭惡/欣賞。未來ChatGPT通過呈現與人類相似的面部特征,或者進一步提高其對社會規則的學習能力和水平是非常有必要的。最后,算法意識的提升也有助于減輕算法厭惡。算法意識是指個體是否意識到算法在日常生活中的影響,并且通常與圍繞算法的經驗、隱私問題、規范價值觀和素養密切相關。讓用戶了解算法,提高算法對用戶的透明度是提升算法意識的主要手段,也有助于提升用戶對算法性能的績效感知。未來可以采取多種更加靈活的方式,更廣泛地培育大眾的算法意識,提升算法應用水平。ChatGPT的誕生給人們帶來了巨大的便利,這使得一部分人盲目欣賞算法,過度依賴算法。為此,人們需要克服對于算法的盲目欣賞,正確認識算法存在的問題,尤其是ChatGPT這樣具有跨越式成長的機器模型,在為人們帶來便利的同時,學術倫理、數據安全等問題接踵而至,這些都需要在未來的發展中進一步解決。

隨著ChatGPT的產生,人們看到了實現通用人工智能的曙光,同時也產生了恐慌:一方面希望人工智能發展,另一方面,害怕被人工智能所取代,尤其在教育領域。在這樣的潮流下,我們該怎樣面對,未來要采取什么措施呢?首先,人工智能的發展對于人類社會的發展而言是科技進步的體現。ChatGPT的出現帶動了國內外人工智能尤其是自然語言模型研發的腳步,短短幾個月GPT-4已經問世,相比于ChatGPT,它更為智能,在很多方面具有了與人類水平相當的能力。顯然,人工智能產品不論是在哪個領域能成為該行業的風向標,就能夠占據一定的優勢與資源,所以除了OpenAI,目前包括谷歌、Anthropic、百度等都已推出或者正在開發類ChatGPT的對話式通用人工智能系統,以期能夠跟上甚至是超越世界技術前沿。其次,科技進步的同時,人類也需要對人類自身有更多的認識才能夠更充分地運用和發揮人類的優勢。為此,全球已經啟用了各種大腦項目,且這些大規模的大腦項目有3個共同的研究重點:大腦圖譜、開發新技術和腦部疾病。我國經過6年的準備,于2021年9月啟動“中國大腦計劃(The China Brain Project,CBP)”,也稱為“腦科學和類腦智能技術”,主要目的是探索認知功能的神經機制,旨在促進類腦智能技術的發展和腦功能障礙的診斷和治療,這個框架被稱為“一體兩翼”。目前,已啟動59個一期項目,預算約32億元,包括5個研究方向:認知功能原理分析、認知障礙相關障礙、兒童青少年大腦發育、腦源計算與腦機智能、技術平臺構建,中國腦計劃項目對3個研究重點進行了進一步的擴展。最后,人類也需要善用人工智能。人工智能的發展對教育行業帶來的沖擊顯而易見,自ChatGPT公開發布以來,用其“代寫作業、代寫論文”的現象頻頻被報道。紐約教育局宣布:限制在紐約市公立學校的網絡上使用ChatGPT。這種學術倫理問題引發了學術界的廣泛討論,甚至開始擔憂。ChatGPT強大的知識系統超越了許多教師,那么是否有一天不需要教師的存在?當前,不可否認的是,ChatGPT即使有很多功能,但是其創新能力還有待提高,而創新能力也恰好是人類的優勢。未來的教師可以花費更多的精力去培養學生的創新思維能力,而不是一味地提高其應試能力。學生也應更好地將人工智能提供的便利與教師的創新性和創造性相結合,這樣未來發展的可能性才會更多。除了重視ChatGPT對教育界的沖擊外,我們還應該重視預防“技術成癮”現象的發生,正如社交網絡、網絡游戲的興起所伴隨的網絡成癮、游戲成癮現象的普遍發生,在當前沒有明確規范ChatGPT的使用準則且人們在廣泛使用的情況下,可能會伴隨而來另一種新型成癮:“GPT成癮”。因此,當前除了嘗試追趕、超越最前沿人工智能技術外,國內外以及各個行業領域還應該迅速制定合理的使用準則、指定使用領域等,以提早預防“技術”成癮的發生。

總之,人工智能算法已經滲透進世界的方方面面,與算法共生是AI時代個體必須接受的現實,同時要有不被人工智能所取代的自信。無論是ChatGPT還是未來發展起來的更為有用的人工智能工具,都是要為人類科技文明的發展和傳承做貢獻。在算法有利于我們的生活時,人們需要適應時代和科技的發展,克服對于算法的厭惡;但是另一方面,當算法對個體的生活和社會的發展產生了威脅時,克服算法厭惡的必要性就會降低。因此,保持對算法的平常心是當代人的必修課。

猜你喜歡
人工智能人類
我校新增“人工智能”本科專業
顫抖吧,人類
哈哈畫報(2022年4期)2022-04-19 11:11:50
人類能否一覺到未來?
人類會成長起來嗎?
英語文摘(2021年2期)2021-07-22 07:56:54
人類第一殺手
好孩子畫報(2020年5期)2020-06-27 14:08:05
1100億個人類的清明
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
人工智能與就業
IT經理世界(2018年20期)2018-10-24 02:38:24
數讀人工智能
小康(2017年16期)2017-06-07 09:00:59
下一幕,人工智能!
南風窗(2016年19期)2016-09-21 16:51:29
主站蜘蛛池模板: 亚洲国产中文欧美在线人成大黄瓜| 国产精品中文免费福利| 蜜臀av性久久久久蜜臀aⅴ麻豆 | 精品久久久久无码| 亚洲AV免费一区二区三区| 高清不卡一区二区三区香蕉| 久久熟女AV| 无码有码中文字幕| 欧美成人影院亚洲综合图| 国产剧情一区二区| 亚洲国产系列| 国产精品第三页在线看| 国产靠逼视频| 国产精品微拍| 欧美成人午夜视频| 四虎永久免费地址在线网站 | 色婷婷电影网| 久久久久久尹人网香蕉| 自拍偷拍欧美日韩| 久久精品人妻中文系列| 精品国产黑色丝袜高跟鞋| 久久免费看片| 99精品热视频这里只有精品7| 四虎影视国产精品| 四虎精品国产永久在线观看| 狼友av永久网站免费观看| 国产精品专区第1页| 精品国产99久久| 国模极品一区二区三区| 国产成人午夜福利免费无码r| …亚洲 欧洲 另类 春色| 精品第一国产综合精品Aⅴ| 国产亚洲欧美在线专区| 女人av社区男人的天堂| 欧美亚洲欧美区| 热99精品视频| 99手机在线视频| 丰满人妻中出白浆| 91精品人妻一区二区| 欧美成人aⅴ| 国产性精品| 色妞永久免费视频| 亚洲人人视频| 国产欧美精品一区aⅴ影院| 在线观看亚洲精品福利片| 亚洲成人一区二区| 91美女在线| 国内丰满少妇猛烈精品播| 国产靠逼视频| 亚洲三级成人| 日韩av无码精品专区| 国产精品lululu在线观看| 亚洲欧美自拍一区| 国产精品9| 亚洲日韩AV无码精品| 91精品视频网站| 91福利片| 亚洲女同欧美在线| 好久久免费视频高清| 国产人人射| 91激情视频| 亚洲无卡视频| 97在线公开视频| 欧美成人二区| 无码精油按摩潮喷在线播放 | 麻豆精品在线| 国产凹凸一区在线观看视频| 亚洲精选无码久久久| 亚洲国产综合自在线另类| 伊人久久福利中文字幕| 亚洲av日韩av制服丝袜| 波多野结衣国产精品| 午夜日b视频| 黄色一级视频欧美| 色视频国产| 中文无码日韩精品| 国产极品美女在线播放| 精品偷拍一区二区| 日韩一级二级三级| 无码啪啪精品天堂浪潮av| 狠狠色狠狠综合久久| 欧美日本二区|