999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

公眾理解視域下醫療AI的應用及治理

2020-07-12 08:41:49
科普研究 2020年3期
關鍵詞:人工智能

張 寒

(中國傳媒大學馬克思主義學院,北京 100024)

現代人工智能起源于1950年艾倫·圖靈(Alan Turing)對機器智能的測試,1956年達特茅斯會議(Dartmouth Conference)上一位教授提出了“人工智能”的概念,籠統的定義就是“相對于人類和其他動物的自然智能,機器所展示的智能”。AI包括一套計算機科學技術,這些技術使得AI能夠執行通常需要人類智能才能完成的任務,比如與人類對戰跳棋、國際象棋等益智類游戲,具有視覺感知、語音識別、語言翻譯等語言處理能力。21世紀,人工智能得益于其他理論(如神經網絡數學)的發展、先進的計算能力 (如圖形處理)、廣泛獲取大數據用于機器學習的能力(如社會網絡、云存儲和計算機信息處理計算等)及軟件算法等[1]。我們正生活在一個被智能機器包裹的時代,有時候可能不是很明顯,但AI正以各種方式滲透到我們的生活和生產方式中。

比起其他科學技術領域,公眾對AI的感覺并不陌生。在公眾的意識中,AI最先以科幻或好萊塢電影的形式(超級智能機器人、終結者)在公眾中普及,隨后媒體對圍棋“人機大戰”的大肆報道,又一次捕獲了公眾對人工智能的關注,這一次討論的焦點變成“人工智能”是否將超越“人類智能”。大眾媒體的大肆炒作、渲染增加了公眾對AI的興趣,同時也增加了公眾對這項顛覆性技術負面影響的擔憂,如大規模失業、對個人自由的限制、經濟不平等的加劇和人類經驗的貶值等。2006年是AI發展的分水嶺,無人駕駛、Siri等語言助手將AI帶入大眾消費市場,關于“人機智力競賽”的討論話題也轉向了如何實現“人機共存”。未來AI還將用于解決更多的復雜任務,包括改變醫療、健康和護理的方式。探討公眾如何參與和理解醫療人工智能的作用,對獲得公眾對這項創新技術的廣泛支持具有重要意義。

1 人工智能在醫療健康領域的應用前景

AI已經成為醫療創新的前沿領域,從新藥研發、疾病預測、高級成像到醫療管理等醫療的各個環節,都有AI的應用前景。通過對大量數據的處理,執行超出人類能力的醫療任務,推動醫療、健康、護理方式的重大變革。以下是AI在醫療健康領域的具體應用。一是提高新藥開發的效率。據統計,2003—2013年,將一種新藥推向市場的平均成本幾乎翻了一番,平均需要花費26億美元和15年的時間。最容易開發和安全有效治療常見疾病的藥物基本已經找到,剩下的就是對治療疑難雜癥的藥物開發,因此新藥研發的難度越來越大。全球制藥行業正處于藥物研發和回報率下滑的狀態。相對于10年前,每一美元藥物研發投入能有十美分的回報,而現在的回報卻不到兩美分[2]。藥物研發是非常復雜的過程,要經過基礎研究、藥理學/病毒學分析、藥物開發、化合物發現、潛在藥物分析。人工智能在尋找新的潛在藥物方面有很大的潛力,機器學習算法可以篩選數百萬種化合物,縮小特定藥物靶點的選擇范圍,識別更有前景的候選藥物,提高藥物研發的效率,減少藥物開發的成本。尤其是進入患者時代,可以針對疾病缺陷篩選化合物,精準研發以治療疾病。新一代的人工智能程序還可以對組織、細胞、基因或蛋白質水平上的細微差異進行分析,迅速篩選出潛在的有毒藥物,關注那些有更大機會通過多項人體試驗的藥物,提高藥物通過監管機構批準的通過率,加速藥物研發的過程。因此,制藥行業和世界各地的藥物監管機構都很關注AI在該領域的應用,大型制藥公司正與AI初創公司建立合作,開發AI系統用于新藥研發。

二是在高級成像領域的應用。許多臨床醫生的工作基于圖像展開,如對乳腺、甲狀腺、肝臟、卵巢、膀胱等多種臟器的常規檢查、病變診斷和篩查,常見的醫療辦法是通過X光片或磁共振成像(MRI)的檢查。AI的價值體現在兩個方面:①依靠深度學習算法,分析疾病情況和趨勢,輔助醫生進行診斷;②改善圖片的質量,如評估成像順序、修復圖像偽影、修補不完整圖像、提高成像效率和圖片的可解釋性等,輔助醫生在更短的時間內完成病變圖片讀取、疾病診斷和分期,評估治療反應和預后,并盡可能減少錯誤,提高臨床診斷的精準性和效率,最大限度地避免漏診誤診[3]。因此,放射學、病理學、眼科和皮膚病學等這些與視覺相關醫學領域對人工智能有很大興趣。在我國醫療AI企業中,從事醫學影像的企業數量最多,如騰訊推出的用于糖尿病、眼底等疾病診斷篩查的騰訊覓影,太美醫療科技推出的eImage醫學影像閱片系統,以及靈醫智惠的眼底影像分析系統等[4]。

三是在預防醫學領域,AI被用于疾病風險篩查和定制個性化的醫療保健方案。例如,在乳腺癌風險篩查方面,乳腺癌的發病因素非常復雜。早期發現、早期識別、早期防控是提高生存率的主要方法。但是,歐美研發的主流風險評估模型對個體患病方面的預測并不是很準。人工智能深度學習技術的出現,可以綜合考慮遺傳、激素、懷孕、哺乳、飲食、體重變化等多種因素,利用這些詳細的信息,建立針對女性個體風險評估的更加精確的評估模型,還可以將不同地區、不同種群的樣本納入數據庫,提升風險評估模型的廣泛適用性。谷歌、亞馬遜、國際商業機器公司(IBM)等科技巨頭正進入該領域,成立AI公司,或與醫院合作開發用于公共衛生領域的AI疾病篩查軟件,以降低疾病篩查成本,提高疾病風險評估的預測效果為目標,鼓勵人們參與早期檢測項目。

四是在醫療管理方面,AI可以替代醫生完成許多基礎性的工作,縮減工作流程,提高工作效率。例如,AI的應用能夠提高醫療管理服務水平,通過智能設備進行身體檢查,將采集的個人健康數據上傳到云數據庫形成個人電子健康檔案,便于建立個性化的健康管理方案,進行健康評估和監測,提高醫療管理水平[5]。人工智能技術將提供智慧就醫服務,改善醫療資源緊張的局面。例如復旦大學附屬腫瘤醫院采用的人工智能的精準預約系統,通過AI分析患者病情,按病情把合適的醫生匹配給合適的患者掛號,實現病患與醫生的精準匹配,大幅提升專家門診效率和患者滿意度[6]。

以上只列舉了醫療AI應用的“冰山一角”,AI將推進醫療健康事業的巨大改變,讓公眾受益。但是,許多技術還處于研發階段,離實際應用還有一段距離,除了技術層面的問題外,技術風險、倫理困境和社會影響也是重要的考慮因素。人們對這項新型技術感到興奮和期待,倫理審查不是為了阻礙創新的步伐,而是從建立公眾對醫療AI工具的信任和信心的角度出發,通過讓公眾了解醫療AI的構建過程,客觀地看待醫療AI的潛力,增加公眾對該項創新技術的理解。相反,擴大虛假信息的傳播可能會削弱公眾對人工智能在醫療領域的信心。公眾的參與、理解和信任將成為醫療AI成功的關鍵。

2 公眾認可和接受是醫療AI創新的重要挑戰

本質上,醫療AI發揮作用的基礎是對個人健康數據(圖片、處方、健康檔案、基因信息等)的深度學習工具的開發,給機器(深度)學習系統注入數據,然后從該系統中獲得結果,通過接觸大量的數據集,讓其能夠識別這些數據集中的模式,并重現期望的結果。因此,構建有用的醫療AI工具需要訪問大量高質量的數據,對這些數據進行測試、訓練、驗證。因此,合法獲得大量個人健康信息成為醫療AI研發的第一道關卡,必須符合數據保護法和隱私原則。

目前,在許多醫療AI的開發過程中,政府、醫院、大學等公共部門與大型私營部門開展合作尋找技術方案,由公共部門提供數據,私營部門將信息用于藥品以及疾病預測、篩查等診斷工具,讓隱私和數據保護問題變得更為復雜。例如,2006年,英國政府與惠康基金會成立了生物信息庫(biobank),致力于生物醫學研究,掌握了大量的生物樣品、人類基因信息等數據,這些信息有巨大的商業價值,如果用于醫療AI的研發將觸及倫理和法律問題。近期的一些事情,更增加了公眾對個人數據保護的擔憂。2016年,IBM沃森健康公司(Watson Health)與意大利政府簽署了一份協議,意大利政府在沒有獲得其公民明確同意的情況下,向IBM沃森健康公司披露了6 100萬意大利公民的匿名健康記錄,包括處方、基因組數據和電子健康數據,并授予該公司獨家使用權和許可權,以換取1.5億美元投資,為沃森健康部門在米蘭建立一個新的研究中心[7]。2019年,谷歌與醫療機構阿森松(Ascension)建立合作,在公眾不知情或未經個人同意的情況下獲取了數千萬人的健康記錄。谷歌計劃利用這些數據開發機器學習工具,使醫生更容易獲取患者的數據。雖然,谷歌聲稱這項合作符合《健康保險可攜性與責任法案》的數據共享規定,公司將根據協議進行數據研發,患者數據不會用于其他方面,也不會并入谷歌的其他消費者數據合并。美國聯邦機構正對此展開調查,將判斷這種以改善公共醫療事業為目的而征用個人數據的做法是否符合法律規定[8]。

這類未經公眾知曉而使用個人數據的案例還有許多,即便醫療AI的研發是為了公共的利益,但是這些問題也需要被討論和回答:公立機構是否有權以公民健康信息作為交換,向私營機構提供這些非常有價值的數據?公立機構和私營部門在該問題上應該如何履行告知的義務、以什么方式獲得數據本體的同意?個人就數據保護如何向有關機構問責?在數據被采用的過程中,個人的參與權、參與程度、退出機制如何得到保證?隨著公眾的權利意識不斷增強,利益訴求日益多元,減少公眾的疑慮,提高公眾的認可度和接受度,是未來醫療AI創新面臨的重要挑戰。

醫療AI的研發者有義務讓公眾理解個人健康信息將如何被用于醫療、護理和研發,公眾在個人信息被使用的時候應該有選擇權。但是,許多情況下的“公眾參與”是很被動的。例如,在采集個人數據時,公眾被要求簽署知情同意書,以此放棄對個人數據的控制。如果不做出這樣的選擇,一旦算法工具被用于臨床,醫生將依靠這些算法系統進行決策,不同意共享健康數據的患者可能無法得到標準的治療,從而造成個人信息保護和治療效果/質量之間的緊張關系。

由于高度的專業化,公眾的知識,甚至臨床醫生的知識,成為“外行知識”,他們不一定理解AI的設計者將如何使用個人數據。歐洲律師事務所Bristows針對英國普通公眾對人工智能態度的調查證實了這一點:公眾對人工智能涉及的隱私問題和數據保護存在認識不足,人們對有關機構何時、如何收集和處理個人信息缺乏了解;超過一半的受訪者認為,人工智能不會使用他們的個人數據,或者不知道是否會使用;而一旦他們知道這個情況,大部分人對AI使用他們的個人數據感到不舒服或不安。超過2/3的受訪者認為人工智能應該受到監管,他們希望政府(英國)或超國家監管機構能建立起問責機制。還有相當一部分人希望人工智能行業作為一個整體,在某種程度上能進行自我監管[9]。

為了獲得公眾的信任和支持,醫療AI使用和處理個人數據應具有合法性,人工智能行業需要更清楚地讓公眾了解它們的產品和服務是如何工作的,明確指出其中的利益和風險。在確保個人信息受到保護的前提下,明確哪些可做、哪些不可做,說明對個人,甚至對整個社會的好處。如果醫療AI的開發者能讓公眾理解使用這些數據將為公眾健康帶來好處,比如提供更好的治療,情況可能會發生改變。當公眾理解了AI發揮作用的方法和具體用途,他們就會支持醫療AI的研發,并愿意分享個人數據。例如,英國的另一份研究報告指出,英國有超過700萬人患有心臟和循環系統疾病,因這些疾病導致的死亡占到了1/4,及早預防和發現心臟和循環系統疾病至關重要,人工智能的應用將有潛力幫助改善心臟和循環系統疾病的預防、治療和護理。因此,85%的人支持醫生將人工智能用于輔助診斷和疾病治療;91%患有心臟和循環系統疾病的人表示,他們認為公眾應該充分了解人工智能在醫療領域的應用;90%的人認為,英國國家醫療服務體系有責任告知公眾人工智能目前和潛在的醫療用途[10]。

數據質量是影響AI項目成功的關鍵,對數據使用的潛在負面后果評估,不能只局限于隱私相關風險(如非法使用個人信息、數據安全等)的評估,更要考慮是否存在算法偏見(如歧視),要以群體和整個社會的價值為背景來考察。英國的做法值得參考,2016年,英國維康基金會(Wellcome Trust)與其他政府機構共同發起了“理解患者數據計劃”(Understanding Patient Data Initiative), 該 組織由來自大學、地方政府、研究機構、媒體等不同利益相關者共同組成,從不同受眾的視角為數據保護提供建議。這本來是一個為期兩年的項目,支持公眾、患者和醫療專業人士就醫療和護理數據的使用展開對話,旨在使患者數據的使用對患者、公眾和衛生專業人員來說更加可見、可理解和可信。在初期資助結束時,鑒于數據科學的發展,以及研究人員、行業和媒體對如何正確使用公共健康數據的關注,該計劃得以延續。新一期的計劃(2019—2024)得到英國醫學研究委員會(Medical Research Council)和國家健康研究所(National Institute for Health Research)的資助[11]。2018年8月30日,英國政府更新了《數字倫理框架》,更強調從用戶角度去研發人工智能工具,使其符合安全性、倫理、法律和其他管理規定,也提出了判斷的標準:①數據質量;②基于公平性的原則構建算法模型,避免偏見;③針對AI系統的設計者和執行人的問責制;④數據使用要符合隱私保護的法律規定;⑤可解釋性和透明性,以讓利益相關者了解AI模型是如何構建出來的;⑥對成本的考慮,建造、運行和維護AI的基礎設施、培訓和教育的成本,以及采用AI項目是否比其他方式更節約成本[12]。我國數據保護立法正在快步推進,2020年,我國將制定《個人信息保護法》《數據安全法》兩部重要的法律,法律制度的完善,將為醫療人工智能的創新和改革發揮重要作用。

3 促進公眾對醫療AI理解的必要性

在公眾理解科學的研究中,信任一直是一個重要的話題。任何新技術的出現,都會帶來風險與信任的問題??茖W與公共領域的分離強化了人們對科學技術風險的擔心,人們會選擇是否應該信任科學。為了解普通公眾對人工智能技術的真正看法,許多國家都開展了相應的調查。Bristows的調查發現,普通公眾對人工智能如何影響人們的生活,影響是積極還是消極的,人工智能究竟如何發揮作用,如何避免技術風險,個人應該如何選擇,其實并不是很清楚,也存在不同的態度。只有1/7的受訪者認為他們與人工智能有過接觸,只有2%的人認為人工智能已經對社會產生了影響。研究者指出,這表明當人們遇到人工智能時,并不總是清楚AI是如何在實踐中使用的。47.4%的受訪者認為人工智能會對社會產生負面影響,許多受訪者對隱私、責任和技術風險感到擔憂。與年長受訪者相比,年輕受訪者(35歲以下)更樂于接受人工智能[8]。

公眾對人工智能的理解和參與存在較大的個體差異。一項針對美國的調研發現,那些富有、性別為男性、受過高等教育或有計算機科學或編程經驗的人更支持發展人工智能。調查指出,公眾對各種組織為了公眾的利益去發展、使用和管理人工智能沒有表現出較高的信任度。相對來說,在AI研發方面,人們最信任的組織是大學和美國軍方;在技術管理方面,人們認為科技公司和非政府組織(如Open AI)的措施比政府更可靠。盡管如此,在對科技公司表示出“有信心”或“相當有信心”的受訪者團體中,人們對臉書(Facebook)的信任度最低[13]。不難想象,這應該跟近幾年Facebook頻繁爆出涉及侵犯/泄露用戶個人隱私的丑聞相關,導致其受到輿論的嚴重批判,削弱了科技公司在公眾中的信任度。

公眾在某種特定環境或有某種特定需求的時候,會主動關注和學習科學信息,例如,公眾領域中突然暴發的某種危機——新的疾病、環境問題、食品安全等。長期患有某種疾病的人,也可能會成為這種疾病方面的專家。但是,公眾所具備的知識,并不足以支撐他們用到其他疾病或其他公眾上[14]88。對于澳大利亞的一項調研指出,既然患者對現行健康技術(如乳腺X光檢查系統)的工作原理了解甚少,因此可能公眾也并不需要理解AI的運作[15]。但是,考慮到人工智能對醫療角色和責任的影響,以及越來越多關于人工智能的風險、倫理、危害和治理等問題的對話,要建立公眾對醫療系統的持續信任,人們有權知道在醫療和護理中使用了怎樣的人工智能,以及有權選擇是否讓人工智能參與他們的醫療或護理。尤其是在算法存在自主決策的情況下,如果公眾不了解AI發揮作用的方式及其局限性,讓用戶做出“同意”AI決策的選項是沒有意義的。目前,并不能完全確認使用人工智能一定比醫生更可靠、更安全、更少犯錯誤[16]。使用人工智能面臨的倫理問題,如偏見、歧視、不公平、不安全、不透明等負面效應,需要更長的時間去驗證。鼓勵公眾參與討論AI在醫療領域的風險,并提供政策建議,督促利益相關者對技術風險尋找可能的解決方案,將有利于醫生在治療過程中采用人工智能技術,也有助于增加公眾對醫療系統的信任和減少公眾問責。在利用個人數據方面,公眾也愿意支持將個人醫療數據用于技術開發,但要注意保密、控制、治理和確保為公共利益所使用。

任何技術創新能被廣泛采用,只有當受其影響的人認可和信任時才可能發生。按照“公眾理解科學”的希望,公眾應該是一群特定的、主動的、有思想的公民[13]8。公眾參與理解醫療AI存在個體差異,需要區別對待。對醫生而言,迫于社會壓力也會采用新的醫療工具,以便為患者提供更好的治療。因此,使用這類工具的醫生應有機會參與AI的研發過程,了解機器學習系統的構建,對它們的結構、數據的采集及其局限性有更多的了解。如果這些問題被黑箱化,可能會導致倫理困境。根據柯林斯提出的“互動專長論”,醫生的參與能增強不同范式專業共同體間的有效交流,讓AI研發人員在設計過程中更好地回應醫生和患者關心的問題[17]。將來AI應用到臨床,醫生也能對患者做出說明,在一定程度上促進公眾的理解和接受。對普通公眾而言,更關注的是應用新技術的效果,以及對技術風險的控制、治理和問責途徑。這意味著,AI行業應該為不同層次的公眾參與和理解醫療AI創造不同的機會,更開放地說明如何將AI嵌入產品和服務,坦率地說明AI是如何工作的,有哪些局限性和如何進行監管,并說明AI的使用將如何影響他們的日常生活,以增強公眾的信心,為醫療AI創新獲取更廣泛的社會支持。通過制定倫理準則和完善監管制度,跟上已經到來的機器學習和人工智能時代。

4 啟示

在非常復雜的醫療健康領域,眾多研究團隊希望AI程序的應用能支持人類提供更快、更有效的醫療服務、診斷和分析,識別可能導致人類患有某種特定疾病的趨勢或遺傳信息,為發展中國家以及偏遠地區解決醫療資源不足的問題。

人工智能技術與醫療的合理融合,將為社會提供更高效、精準、個性化的醫療服務。從目前的情況來看,醫療AI進入臨床領域還有很長的路要走,要經過嚴格的倫理審查,做好醫療AI技術風險的監管。與其他領域相比,AI在醫療健康領域的應用應該更為謹慎,要以公眾的安全為目標,因為失敗的后果是沉重的,會讓人類的生命、健康處于危險之中。人工智能的使用正在改變傳統的醫療方法、流程、模式,甚至醫患關系。此外就是責任問題,如果診斷結果是由算法驅動的,那么臨床醫生能夠解釋的內容可能就有限了,這就會顛覆傳統的專業醫生責任觀念。法學界對使用人工智能系統發生錯誤時的責任分擔、歸責原則等具體問題還存在分歧。雖然,有許多風險判斷都是推測性的,但在實施之前需要仔細考慮和研究。

公眾對待醫療AI的應用前景有不同的態度,隨著對我們的個人數據被越來越多地運用到與我們個人相關的決策分析上,人們對隱私、偏見和責任的擔憂也越來越突出。如果科學家和實驗室之外的人參與理解AI技術是重要的,那么如何設計人工智能科學中的公共參與活動與它們的實施同樣重要。公眾既是AI工具研發所需數據的貢獻者,也是將來醫療AI技術的體驗者和風險的承受者。因此,從公眾的角度,理解醫療AI能做什么,不能做什么,了解其潛在的技術風險和倫理問題,對醫療AI的研發非常重要。從用戶的角度出發,發展負責任的AI系統,我們需要考察技術的未來價值,包括臨床影響、是否存在偏見、問責機制、對患者的影響,以及其他法律、道德和職業責任相關的考慮。

提高公眾對醫療人工智能創新技術的理解還有許多工作需要做。實現這一目標的一個關鍵部分是,在這些技術得到推動和發展的同時,積極動員患者和更廣泛的公眾參與。如果醫療AI的研發人員不能與患者互動,可能會導致大量醫療AI領域的錯誤信息傳播。政府部門、人工智能企業、專業團體、學術界及媒體必須協同努力,讓公眾全面、客觀地了解醫療AI這些新技術的建立過程、用途、益處、局限性和風險監管措施,建立對其的信任和信心,以獲得公眾對醫療AI的廣泛支持。

猜你喜歡
人工智能
我校新增“人工智能”本科專業
用“小AI”解決人工智能的“大”煩惱
汽車零部件(2020年3期)2020-03-27 05:30:20
當人工智能遇見再制造
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
AI人工智能解疑答問
人工智能與就業
IT經理世界(2018年20期)2018-10-24 02:38:24
基于人工智能的電力系統自動化控制
人工智能,來了
數讀人工智能
小康(2017年16期)2017-06-07 09:00:59
人工智能來了
學與玩(2017年12期)2017-02-16 06:51:12
主站蜘蛛池模板: 亚洲福利一区二区三区| 日韩毛片基地| 伊人蕉久影院| 婷婷中文在线| 好吊色妇女免费视频免费| 啪啪啪亚洲无码| 丁香六月综合网| AV老司机AV天堂| 在线人成精品免费视频| 99视频在线观看免费| 欧美中日韩在线| 欧美精品亚洲精品日韩专区| 好紧好深好大乳无码中文字幕| 亚洲最大情网站在线观看 | 久久综合九色综合97网| 国产高清在线精品一区二区三区 | 亚洲乱码视频| 91 九色视频丝袜| 人妻无码中文字幕一区二区三区| 国产精品成人AⅤ在线一二三四| 无码有码中文字幕| 国产成人亚洲欧美激情| 国产无码精品在线播放 | 国产十八禁在线观看免费| 免费毛片视频| 久久永久精品免费视频| 日韩欧美国产另类| 国产小视频免费观看| 亚洲国产精品日韩av专区| 国产精品3p视频| 无码一区二区三区视频在线播放| 在线观看欧美精品二区| 夜色爽爽影院18禁妓女影院| 国产91色| 97免费在线观看视频| 九九这里只有精品视频| 在线播放国产一区| 色妞永久免费视频| 国产精品污污在线观看网站| 色天天综合| 中文字幕永久在线看| 亚洲精品制服丝袜二区| 色婷婷色丁香| 国产午夜在线观看视频| 久久不卡国产精品无码| 黄色网页在线播放| 手机成人午夜在线视频| 久久综合伊人77777| 亚洲综合婷婷激情| 一区二区日韩国产精久久| 午夜色综合| 国产网友愉拍精品视频| 在线观看国产精品第一区免费| 国产区网址| 中国国产高清免费AV片| 在线无码私拍| 亚洲有无码中文网| 久久毛片免费基地| 午夜人性色福利无码视频在线观看| 国产欧美性爱网| 国产97视频在线观看| 福利在线一区| 狼友av永久网站免费观看| 亚洲aⅴ天堂| 国产精品视频猛进猛出| 免费在线视频a| 欧美a在线| 日本道综合一本久久久88| 国产精品第5页| 黄色免费在线网址| 欧美国产中文| 毛片三级在线观看| 午夜福利无码一区二区| 亚洲精品福利网站| 538精品在线观看| a天堂视频在线| 亚洲第一福利视频导航| 波多野结衣的av一区二区三区| 亚洲福利视频一区二区| 亚洲欧美精品在线| 国产精品午夜福利麻豆| 精品无码视频在线观看|