999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

人文法則:預防人工智能無限度研發的屏障

2024-04-12 04:35:26唐代興
黨政研究 2024年1期
關鍵詞:人文精神人工智能

〔作者簡介〕唐代興,四川師范大學倫理研究所二級教授,四川? 成都? 610066。

〔摘要〕傳統技術以自然物為研發對象,生產出來的技術物既無生成功能又無自主性訴求。相反,人工智能是以生物人腦為對象,旨在“模仿和超越人類智能”。人工智能從模擬學習到自具極強自主性訴求的深度學習,迅速發展出“超越人類智能”的潛能。ChatGPT-4和AlphaFold的問世,或將人類推向“技術奴役人類”與“人類主導技術”的岔路口。如果不受阻礙地繼續向前,具有深度學習和迭代升級能力的智能機器必然會突破人類可以控制的界限。保護人類免受技術和機器奴役的最后屏障是人文科學。建立阻止人工智能無限制發展的人文屏障,需要重建人文法則。首先要恢復自然科學和社會科學的人文信仰、情感和精神,使之具有人文性;其次是重建人文信仰、情感、精神和知識體系,使之社會化;其三是創立當代哲學,為人文重建提供思想基石。在此基礎上應著手兩個方面的實踐努力,一是重建人文教育,以引導和規范科學教育;二是以有限生存和共生限制為準則,重建人文主義價值體系和人文主義政治-經濟實踐體系。

〔關鍵詞〕人工智能;技術主義;人文法則;ChatGPT;人文精神

〔中圖分類號〕D63-31? 〔文獻標識碼〕A? 〔文章編號〕2095-8048-(2024)01-0054-12

人工智能研發史不過短短70來年,但它創造出來的顯赫成就和呈現出來的危機,卻超越了人類技術史上任何一次變革。僅就技術層面而言,需要人去做的任何事情,人工智能都可以生產出機器來為之代勞。但造物主創化宇宙自然和萬物生命時,卻沒有為任何物種設計“免費的午餐”,獲得總是以付出為代價,人工智能也是如此,它給予“我們現在所享有的一切,都是以人的自由和尊嚴為代價得來的??茖W和技術的進步也許會進一步奴役人類,讓人失去自由和尊嚴。”〔1〕人工智能與人類存在之間充滿可使之崩解的張力,它的無限度研發已呈現出能顛覆人類生物性存在的可能,生物人類未來是存在還是不存在?是主體地存在還是受役地存在?ChatGPT-4和AlphaFold等最新成果問世,將如上根本問題突顯成為最緊要和最緊迫的人類存在問題。人類要選擇主體地存在,既有時間的限定,更有主體性要求。這個被限定的最佳時間,應該是當下,并且也只有當下:人類選擇主體地存在,只能且必須從當下開始。這個在當下有能力改變的主體,當然是人工智能的創造者,它在最廣泛的意義上就是人類自己;具體而言,就是人工智能科學家和技術專家、人工智能企業和研發者,還有最根本的主體就是世界各國政府。只有當上述主體能夠成為認知共同體,開啟對人工智能的重新認知,才可正視并匯聚共生存在的力量以解決人工智能無限度研發及其帶動的無序競爭,避免人工智能突破人和人類文明的邊界。這需要重振人文科學并建構人文科學屏障,積累力量解構技術主義,以恢復和保障人類在技術面前的主體存在,包括人的尊嚴和自由。

一、人工智能不可逆進程敞開的人類危機

人工智能的觀念,誕生于20世紀50年代初。艾倫·圖靈(Alan Mathison Turing)在1950年發表的《計算機和智力》中提出“機器能夠思維”的命題,設想“如果一臺機器能夠與人類展開對話(通過電傳設備)而不會被辨別出其機器身份,那么可以稱這臺機器具有智能”,并預言計算機可以“具備人的大腦能力”〔2〕。圖靈關于“機器能夠思維”和計算機可以“具備人的大腦能力”這一愿景得到美國科技界的響應,并引來廣泛的理論探討和實踐探索。1954年,發明家喬治·德沃爾(George Devol)成功研制出世界上第一臺可編程的機器人,這是使“機器能夠思維”和計算機向“具備人的大腦能力”方向邁出的第一步。1956年召開的達特茅斯專題研討會(Dartmouth Conference)上,來自數學、神經學、心理學、計算機科學等領域數十名科學家集中討論怎樣運用計算機模擬人腦智能。其間,麥卡錫正式提出“人工智能”概念,并在《提供人工智能的問題》一文中定義“人工智能是關于使計算機能夠完成人類通常認為需要人類智能才能完成的任務的研究領域”〔3〕。紐厄爾和西蒙在《信息處理機制》一文中給出如何探求解決“機器能夠思維”和“機器高效思想”的宏觀思路:機器之所以能夠思維,是因為它們可以通過程序模擬人類的思維過程;要使機器實現高效思維,需要通過設計合理的算法和數據結構,使機器能夠快速地處理信息和執行任務?!?〕麻省理工學院帕特里克·H·溫斯頓(Patrick H. Winston)教授提出了人工智能研究的目標任務,指出“人工智能就是研究如何使計算機去做過去只有人才能做的智能工作”〔5〕。斯坦福大學尼爾斯·J·尼爾森(Nils J.Nilsson)對人工智能予以科學的定性和功能的定位,明確“人工智能是關于知識的科學,是知識的表示、知識的獲取以及知識的運用”〔6〕??茖W家們從不同角度審視擬想中的人工智能,并形成基本共識:第一,要使機器具備能夠思維的功能和高效思維的能力,就是使機器獲得生物人的智能;第二,要使機器獲得生物人的智能,必須以計算機為運演工具、以會聚技術為認知方法、以大數據為分析方法。

賦予機器以生物人的智能,就是人工智能。人工智能科學家們對“人工智能”的“智能”概念有兩個基本面向的語義定位:一是將“智能”定義為一種機器能力〔7〕〔8〕〔9〕;二是將“智能”定義為生物人的能力〔10〕〔11〕〔12〕。綜合此二者,其概念理解呈現三個方面的基本認知:第一,智能是生物人的一種根本“精神能力”,但作為“精神能力”的人類智能,不是天賦,而是后天性習得文化、教育和自主學習所形成的一種不斷適應“新的環境”并“處理不確定性和復雜性”的存在問題的能力。第二,人工智能是一種“模仿人類智能的能力”來“解決那些人類在思考方面能夠解決的問題”的技術能力,包括感知、理解、推理、決策、學習、設計、構建、行動等方面的能力。并且,人類能解決的全部問題,人工智能都能模仿地解決;人類能力所不能解決的問題,人工智能也能創造地解決,這就是約翰·霍普金斯所說的人工智能具有“模仿和超越人類智力的特點和能力”。第三,由于人類智能是后天教育和自主學習所成,它為人工智能機器通過自主學習而具備并超越人類智能提供了可能性。

綜上,計算機和機器模仿人類智能,就是使計算機和機器獲得“能夠思維”的能力;計算機和機器超越人類能力,就是計算機和機器具備“高效思維”的能力。使計算機和機器獲得“能夠思維”和“高效思維”能力的秘密,就是將生物人類接受“文化、教育和自主學習”的能力遷移到計算機和機器身上?;诖艘换菊J知,計算機和人工智能科學家們探索算法、設計數據模型和優化參數,建構起可以持續革新升級的學習平臺,生成訓練機器學習的三種基本學習方式:一是監督學習和無監督學習方式,二是自主性的強化學習方式,三是強自主性訴求的深度學習方式。監督學習和無監督學習是人工智能的起步方式,其主要功能是訓練機器“能夠思維”,基本方法是模擬生物人腦的意識、思維、認知、邏輯展開的工作原理和運行機制,使之按人腦的意識、思維、認知、邏輯的方式來學習,并朝強化學習的方向展開,形成遷移性生成的能力。強化學習及由此形成的遷移性生成能力,構成機器從具備“能夠思維”向“高效思維”方向前進的更新階梯,強化學習將催生出強自主性的深度學習,這是訓練機器“高效思維”品質和能力的根本方式,體現機器學習主體意志和能力;其次具備在學習中以幾何方式遷移性生成和創造性建構的能力。所以,具有極強自主性訴求的深度學習推進機器進入“高效思維”的進程,就是超越生物人類智力的進程。這一進程早在十幾年前就從擬想的設計狀態進入了實際能力呈現的狀態,并不斷向前開進。機器獲得“高效思維”的最初標志,是1952年開始研發的國際跳棋程序,從監督學習起步而進入強化學習的訓練,經歷43年的努力,其升級版Chinook于1994年與世界國際跳棋冠軍Marion Tinsley的再度競賽中完勝。這是人工智能在博弈領域對生物人的挑戰和取勝,不僅是技術上的,更是文化、哲學和心靈上的,它宣告了生物人類智力獨霸世界的歷史的結束。接下來在比跳棋復雜得多的國際象棋面前,機器戰勝人類冠軍的時間用了38年。從1958年開發象棋程序,第一臺象棋計算機系統ChipTest每秒只能走200步,到1997年,Deep Blue II的峰值性能達到了每秒200億次浮點運算,并于同年5月以3.5比2.5的成績戰勝了世界國際象棋冠軍卡斯帕羅夫。而比象棋更為復雜的圍棋,AlphaGo自2015年研發到以60比0全勝世界圍棋冠軍,只用了3年時間。

機器不斷進化的深度學習訓練形成“高效思維”的能力,以如此速度超過人類智力,引發人類為之興奮和歡呼。而以神經網絡作為基礎并以生成預訓練Transformer為基本架構的GPT程序,開發自然語言理解及語境化生成,從2018年OpenAI發布第一版本GPT-1到2023年3月14日GPT-4問世,業界才突然為之憂懼。這種憂懼來源于機器已經呈現出對生物人智力的整體性超越態勢,這種態勢敞開了生物人類的存在危機?;趯ι锶祟愇磥泶嬖诘呢熑危贠penAI發布GPT-4數日后,人工智能領域1127名科技領袖和研究成員聯名發出《暫停巨型AI實驗室:一封公開信》,指出,“現在,人工智能在一般任務上變得與人類有競爭力,我們必須問自己:我們應該讓機器在信息渠道中宣傳不真實的信息嗎?我們是否應該把所有的工作都自動化,包括那些有成就感的工作?我們是否應該開發非人類的大腦,使其最終超過人類數量,勝過人類的智慧,淘汰并取代人類?我們是否應該冒著失去對我們文明控制的風險?這樣的決定絕不能委托給未經選舉的技術領袖。只有當我們確信強大的人工智能系統的效果是積極的,其風險是可控的,才應該開發?!薄?3〕由此,人工智能帶動的人類危機整體地突顯了出來,其不斷生成擴張的危機正在喚醒盲目樂觀的社會大眾。

二、人工智能的技術主義框架

在技術性失業、全球無序競爭、世界性爭霸、人類價值分裂、戰爭此起彼伏以及貧窮、饑餓、疫災世界化流行等背后,人工智能一直如影隨形,且肆無忌憚地發展著自己。無論未來還是現在,理性審視人工智能,會發現它確實是一個潘多拉盒子,一旦被打開,將給人類帶來無可預估的存在威脅。這種威脅其實已蘊含在人工智能技術觀念萌發過程中。早期人工智能研究的重要人物薩繆爾(Samuel.A.L)在《利用跳棋游戲進行的部分機器學習研究》中提出“機器學習”這個概念,指出“這里使用‘機器學習一詞來描述構建一種機器的問題,當觀察其操作一段時間后,該機器在某種意義上表現出提高其性能的能力?!薄?4〕薩繆爾在這篇論文中充分探討了計算機通過學習來提高其表現能力的潛力,也潛伏著后來引發人們對人工智能機器學習的擔憂??刂普撆c通信理論的創始人維納(Nobert Wiener)認為機器的有效性包含了巨大的危險性,他在《控制論與通信論在動物和機器中》中指出“我們是技術進步的奴隸,我們不能讓新罕布什爾的農場恢復到1800年的自給自足狀態,正如我們不能通過思考來增加我們的身高一肘。我們必須在當今世界中尋找解決方案(如果有的話),這意味著我們必須坦誠面對自動機的問題,以及我們從瓶子里釋放出來的新精靈?!薄?5〕對于這個“新精靈”,造物主原本是將它裝進潘多拉盒子里的,當它被放出來后,給人類帶來的存在危機和生存威脅既是立體的,也是開放性生成的。但人類只看到人工智能帶來的好處和便利,卻忽視人工智能的自生成性。皮埃羅·斯加魯菲(Piero Scaruffi)以“我并不害怕機器智能,我害怕的是人類輕信機器”〔16〕的方式表達了這一點。人們自恃人造的機器完全可以被人控制的這種盲目信念和無知的樂觀,恰恰構成打開人造學習機器這一潘多拉盒子的強勁的生物學沖動。半個多世紀后的今天,當以理性的態度來重新審視將生物人類推向自毀的懸崖之上的人工智能,當然可以說打開這一潘多拉盒子的是計算機和人工智能科學家、技術專家及研究者們,但最終是由工業文明鍛造生成的技術主義(technocracy)。

技術主義作為工業社會的精神產物,是一種社會認知論。它主張社會中產生的一切問題,尤其是經濟問題、政治問題、存在安全和生活保障等問題,都可以通過并且只有通過技術才可解決。技術主義更是一種關于存在的思想觀念。它強調技術不只是人類社會存在發展的工具,而是塑造人類文明并推進社會進步的真正動力,認為在人類社會和文明發展史進程中,技術是決定性的存在力量,是解決個人和社會存在安全與生活保障的根本方式。所以,技術不僅決定社會及其政治和經濟,也塑造著人類存在和文明走向?!?7〕

技術主義的思想基礎,是唯主體論和唯物質論。其中,唯主體論主張人是萬物之靈,擁有主導世界和主宰萬物的權力,突出人定勝天,認為人的力量是一切力量的核心,技術是人的力量的釋放方式,但首先是人的意志、智慧、情感、理想的釋放方式。因而,人創造技術,技術絕對地服從它的創造者,人完全地擁有制造技術的權力和絕對地支配技術的方法、智慧和力量。唯主體論還強調,人既然是世界的主人和萬物的主宰,人就天然地擁有使自己存在自由和生活幸福的權利。人存在自由和生活幸福的決定性條件,是物質財富的豐足。人類堅信,世界是為人類而產生,萬物是為人類自由和幸福而提供的條件。因而,自然界為人類自由和幸福提供了取之不盡、用之不竭的資源和條件,技術就是人類將自然界為之提供的取之不盡、用之不竭的資源和條件變成無可窮盡的物質財富的基本方式。由此,唯主體論必然訴求唯物質論,形成唯物質主義認知和價值體系。在技術主義的主導和塑造下,“社會應當從屬于經濟”〔18〕,而經濟必須從屬于技術。

法國哲學家雅克·埃盧爾(Jacques Ellul)指出,技術主義是指一種崇尚技術、追求技術發展的思想體系,它的興起和社會化泛濫,極端地抑制了人文科學的發展,盲目地抬高了技術和科學的權威地位,使得技術和科學成為現代社會的主導力量。并且,技術主義的發展既導致了社會的失衡和不穩定,也成為人類自由和尊嚴的最大威脅?!?9〕美國經濟學家和社會學家托爾斯坦·維布倫(Thorstein Veblen)認為技術主義是一種以技術和技術專家為中心的理念,這種理念將技術看作是解決社會問題的唯一途徑,其基本傾向是忽視社會、政治和經濟等其他因素。維布倫因此警告說:技術主義可能導致技術專家和技術自身成為權力的源泉。〔20〕羅伯特·海爾布龍納(Robert L. Heilbroner)在《機器制造歷史嗎?》中指出,技術主義的盲目性將導致技術對社會的破壞性影響,更有可能從根本上威脅到人類的存在。〔21〕卡爾·本杰明(Carl Benedikt Frey)和麥克·奧斯本(Michael A. Osborne)在《就業的未來:職位對計算機化的敏感程度如何?》中利用機器學習算法對702個職業進行了分析,發現47%的工作崗位存在被機器取代的風險,指出人工智能和機器學習技術的發展將導致大規模的就業崗位流失,尤其是那些主要是重復性工作內容的職業。〔22〕

技術主義推動下的人工智能走得更遠,它從根本上改變了社會政治和權力的性質及其張力空間。帕特里克·德魯克曼(Patrick Dunleavy)在《智能政府:數字技術和公共治理》中指出:“數字技術的快速發展提高了政府的效率和服務質量,改善了公共治理的質量和效果,但也帶來了更多的問題和挑戰,尤其是關于權利侵犯、數據隱私和網絡安全等問題。”〔23〕馬特·貝爾(Matt Bell)和貝漢·??怂梗˙ehnam Fakhimi)亦認為“數字技術的出現既帶來了社會挑戰,也帶來了社會危害,例如,數據隱私的侵犯、個人自由的剝奪、人類勞動力的替代、虛假信息的傳播以及網絡暴力的滋生等等”〔24〕。他們認為“數字技術帶來的社會問題和根本風險與危機,不僅包括個人隱私受到侵犯、虛假信息的傳播、網絡暴力,更重要的是數字技術的無限度研發與運用,必將導致威權主義和獨裁主義的抬頭,進而導致對人權和民主價值的削弱”〔25〕。

產生于工業社會并在后工業進程得到極端發展的技術主義,培育出以計算機為運演工具、以會聚技術為認識方法、以大數據為分析、以人工智能為主導形態的生物工藝學技術體系。其中,人工智能給人類帶來的福利以及各種可能性危機、災難甚至對人類存在的顛覆,源于技術主義為它打造出了技術至上的社會框架。埃盧爾(Jacques Ellul)在《技術社會》中明確指出“技術主義是以科技為基礎,信仰科技的力量,是一種技術至上的理念”〔26〕,并強調“技術主義思想的出現,往往會導致技術成為社會發展的主宰”〔27〕。布賴恩·溫特(Brian Winston)指出“技術主義者通常認為技術是中立的、價值自由的,而事實上,技術的設計、使用和應用都受到社會、政治和文化因素的制約”〔28〕。技術主義的“技術中立”論喧嘩是有意識地忽視甚至抹去這一基本事實,其根本意圖是宣揚技術拜物教——“技術決定論是一個涵蓋廣泛思想的短語,但其核心是機器制造歷史的觀念。當然,這里所說的機器并不是指各種單獨的設備,而是這些設備被整合到的‘技術結構中。正是這些技術結構被認為是決定人類事務形態和命運的關鍵因素”〔29〕。人類存在及其生存發展就這樣被悄無聲息地裝進了“技術結構”這一社會框架之中,迅速地培育出技術對權力的渴望和權力對技術的壟斷。從根本講,技術拜物教的本質是權力拜物教。埃盧爾認為技術主義的權力拜物教即是“技術的威權化”,技術的威權化不僅帶動技術和社會的分裂,最終是權力通過技術對人的全面奴役。正如海德格爾所指出的那樣,技術之于人的本質是解放與奴役并存:“技術是一種解放人類的力量,同時更是一種奴役人類的力量。技術的進步可能會進一步剝奪人類的自由和尊嚴。”〔30〕

技術之所以解放與奴役并存,并且最終實現奴役對解放的徹底勝利,是因為技術具有反客為主的潛在性,這種潛在性由創造和使用它的人類來激活。傳統的手工技術和機械技術蘊含的這種潛在性被人類激活的可能性只限于使用領域,并且這種激活只能靠人使用它時賦予它的力量:當我們凡事依賴某種技術時,該技術反客為主的潛在性就被激發出來,比如,當一個人完全依賴于人造的交通工具時,他將變得越來越不想行走,并越來越不會行走,而交通工具就在他面前反客為主地存在著。但對于人工智能這種新型的生物工藝學技術來講,其潛在性不僅僅限于人對它的作用和使用的依賴性,而首先體現在人工智能本身具備極強的自主性訴求和主體能力,以及在運用中它能自主地選擇和主體地行動,GPT-4具有的強大的自然語言應用能力就全方位地體現了它反客為主的潛在性的現實釋放,及其反客為主的潛在性變成現實的無限可能性。這是因為人工智能以極端的方式放大了技術主義的“技術至上”,但“技術至上”的本質卻是權力至上。所以,以“技術至上”為根本信念、以“技術拜物教”為根本訴求的技術主義發展成為至為完備的狀態,就為人工智能無限度的競爭性研發提供了整體的和堅實的社會“認知、思想、精神”的基本框架。

三、構筑引導和規訓人工智能的人文法則

尼采在《查拉圖斯特拉如是說》中談到科學技術發展可能對人的意義和尊嚴帶來根本影響時指出:“人類的價值和意義不應該被技術所代替,我們應該保護人類的尊嚴和自由,避免被技術所奴役?!薄?1〕尤其是當今已具極強自主性訴求和主體能力的人工智能,已呈現出對人的自由、尊嚴的威脅,人類社會正被引向是技術奴役人還是人引導技術的臨界點上。因此,需要重新審視智者們關于人工智能研發將引發顛覆性危機的憂思與遠慮:物理學家霍金(Stephen William Hawking)曾警告說,無所顧忌地研發人工智能意味著人類末日,因為“人工智能可以在自身基礎上進化,可以一直保持加速度趨勢,不斷重新設計自己。而人類,我們的生物進化速度相當有限,無法與之競爭,終將被淘汰。”〔32〕未來學家庫雷·茲韋爾(Ray Kurzweil)更是憂心忡忡地指出,21世紀科技步伐將是20世紀的1000倍,人類與智能機器之存在關系翻轉的“奇點”將在2045年左右發生,這是極具分裂性的時間之點,人工智能將會以10億倍人類的智慧站立在人類面前?!?3〕 計算機科學家摩西·瓦迪(Moses Wadi)亦指出:“人工智能革命不同于工業革命。19世紀,機器戰勝了人類的肌肉;現在,機器正在與人類的大腦角力。機器人兼具大腦和肌肉,我們都正在面對‘被我們的造物完全取代的未來?!薄?4〕上海交通大學江曉原教授認為:“人類正在玩的最危險的火有兩把,即基因工程和人工智能,其中最危險的就是人工智能?!薄?5〕伊隆·馬斯克更明確地表示:“我們需要十分小心人工智能,它可能比核武器更危險。”〔36〕

站在人工智能可能奴役人類的臨界點上,人類有兩種選擇,一是繼續沉浸在人工智能帶來的各種好處和便利之中,繼續盲目地輕信智能機器并盲目地自信人類自己“可以駕馭機器”的能力;二是放緩研發步伐,重新審視經濟增長、生活便利、科技爭霸等與人類存在有關的“天平”應傾向何方,抑制人類的狂妄自大、貪婪、欲望和野心,以為自救。選擇前者,屬于生物人類的時間可能比庫茲韋爾預言的更短,GPT-4的問世似乎驗證此一判斷;選擇后者,其首要任務是構筑阻止人工智能野性開發的人文屏障。

人工智能與人類有史以來所有技術的根本區別是:以往技術的功能只是延長人的手臂,增強人的身體的力量;人工智能卻是開發人的身體和生命,擴張人的大腦,并賦予機器以人腦工作原理和運行機制,尤其還賦予機器以極強自主性深度學習方式和情感能力,由此使人工智能研發本身成為突破人與機器之邊界的方式。要阻止人工智能突破人與機器之間的邊界,使機器始終處于為人類所用的工具狀態,其根本前提是應該在全社會重建人文法則,用人文法則指導技術法則,用人文法則規范人工智能研發和應用。

能夠指導技術法則理性展開的人文法則,是一個體系。構成這個體系的第一個人文法則,是合自然法則。所謂“合自然法則”,是指人的所有行為不能逾越自然的律法。以地球為載體的自然世界,是一個生物化的生命世界,其根本律法是生物的律法,這是以生物為自身規定的生命的律法。人類存在必須接受以生物為自身規定的生命的律法,人類為更好生存而謀求發展、謀求創造、謀求延長手臂和身體力量的全部努力,都必須服從以生物為自身規定的生命律法:“人類所創造的和未來要創造的一切技術都必然是與自然法則相一致的。”〔37〕這應成為人工智能研發應用的準則:人工智能產品不能違背以生物為自身規定的生命律法,一旦逾越這一生命律法,人工智能就會賦予其產品以人的智能、情感、意志以及能動學習和迭代升級智能、情感、意志的能力,如此發展下去,人將由技術和機器的主人淪為技術和機器的奴役對象。

規訓和指導人工智能理性研發應用的第二個人文法則,是共生節制法則,這是對共生法則和節制法則的簡稱。共生節制法則是對以生物為自身規定的生命律法的具體展開。自然世界是一個生命的世界,生命存在構成自然的基本狀貌,生命生長成為自然的自身規定。在自然世界里,生物與生物之間,生命與生命之間必須遵循的基本法則是同在共生。遵循這一共生節制法則,生物與生物之間、生命與生命之間必須相互限度,也必須互為節制。

自然世界的共生節制法則,決定了人與人、人與群、人與物、人與地球生命、人與環境、甚至人與自己的創造物技術、機器等等之間必須保持一種共生關系,這是人類得以生和更好地生的前提條件。今天人類身處的環境危機,是人類違背與環境共生的法則的最好說明;而人工智能研發應用呈現出來的各種風險和危機,也顯示出共生節制法則不能違背。無論從環境教訓還是從智能技術帶動的危機與風險看,人類違背共生節制法則本質上是被利欲綁架,在行為上表現為無節制;反之,遵守共生節制法則,人類必然節制利欲,節制行為,凡事有邊界。在技術開發方面同樣如此。技術是人的產物,技術在被運用時才獲得價值,技術的有界或無界,同樣是研發應用者對它的確定。所以,技術表現出來的一切,以及技術產品具有的全部功能,都是人類的賦予,技術及其產品有界或無界,均體現人類理性的邊界或非理性的無邊界性。正是因為如此,“有益的做法是將技術定義為一般意義上的工具,不但包括機器,還包括語言工具和智力工具以及現代分析方法和數學方法”〔38〕。梅賽恩(Emmanuel Mesrthene)告訴我們一個道理:阻止人工智能顛覆人類主體性存在的根本方法,是將所研發的智能產品限定為“一般意義的工具”,這需要人類節制無限度的財富占有、經濟高增長、技術霸權競爭等利欲,遵循共生節制法則,有限度地開發智能技術,有節制地生產智能產品,唯有如此,才可保障人類存在安全和人類主導技術與機器的地位。

阻止人工智能顛覆人類存在安全應遵循的第三個人文法則,就是身心邊界法則。人與物、人與機器的根本區別有三:第一,人是生物學性質的肉身,作為人造的技術和由技術制造出來的機器及其他人造物,只是物或物件;第二,人是身心一體的生命,物可能有身體、有生命,卻沒有心,缺乏身心一體的構成;第三,人從自然人類向文化人類方向進化使動物存在上升為人文存在而區別于動物的根本標志,是意識思維。動物有意識,卻沒有意識思維,其他的物、技術、機器,既無意識,也無意識思維。人工智能研發使機器模擬人腦工作原理和運行機制的成功,既使機器獲得了意識思維、個性要求和自主學習的方式,更可能生成出意志和情感。這樣一來, 作為生物人的“我們越來越多地將自己的記憶、決定、日常安排和其他活動,以一種與我們不斷融合的方式,委派或外包給這些數字信息智能體去打理?!@一切都會變得司空見慣,人類獨一無二的地位將被取代也是如此?!薄?9〕并且,因為生活的便利或經濟增長或因為技術爭霸的需要,更加盲目地輕信智能機器,為了給智能機器設定行動便利的代價卻是給世界和人的存在及行動設定了邊界〔40〕,或可說為了方便智能機器,我們總是在不斷地改變自己,限制自己,并在這種自為限制和改變中模糊了人與技術、人與機器的邊界,“對于人來說,身體行動在信息化時代變得缺乏,我們依賴與身體連接的處理信息的設備,例如手機和電腦等。基于這種混合身體,甚至是被機器所主導的身體,我們的意識必然受到影響。而反過來,成為智力代替者的機器,因為其意識功能的需要,也在規劃著超出預先設定的意識內容范圍的身體。智能機器不再會因為人所幻想出來的統治欲或者自慚形穢而尋找符合自我的實體身體??梢韵胂?,人也終將會拋棄這些。智能機器的類人能動性將在技術物的邏輯下繼續發展自身,而能動性的載體也不會按照人的身體構建 ”〔41〕。人工智能研發一路向前至于今天,已經將人面對的危險完全暴露了出來,這就是每一款人工智能機的誕生,都在給人設定新的規則,新的限制,新的行為邊界,而人的自由、人的權利、人的情感及其抒發或表達的方式,都在一點一點受到限制,承受剝奪。人工智能自動打卡、人臉識別、天網、攝像頭等等所呈現出來的基本傾向是,不是人在為人工智能設定規則,而是人工智能在為人設定規則。在這諸多的甚至層出不窮的技術設定人、技術設計人的存在和人的生活與行動的規則中,人開始消失了,剩下的只是肉身化的物或者勞動工具,甚至淪為可以被技術化的權力和權力化的技術任性處置的耗材。尤其是具備自如的自然語言創設及應用能力的ChatGPT和預測并改革蛋白質結構進而改變生物工程的AlphaFold2,從兩個不同維度展示人工智能研發已經全面拉開了人類被技術化存在的大幕,將人類存在推向了被后技術化存在的戰場。如果再向前邁一步,智能機器不可能只停留于按照人的意志和思維來構建自己的身體,而是以自己的意志和思維來構建人的世界結構、格局和方式。化解這種危險的緊急剎車方式,就是嚴格遵循人的身心邊界法則,終止智能機器研發對人的身心邊界的窺視,將智能機器的研發嚴格限制在“一般意義的工具”范圍內。

要言之,遏止人工智能無限度研發,必須遵循的合自然法則,是保障人類安全的存在論法則;必須遵循的共生節制法則,是保障人類安全的生存論法則;必須遵循的身心邊界法則,是保障人類安全的物種法則。如上三大人文法則的整合實施,構成阻止人工智能顛覆人類的第四個人文法則,即限度開發法則,這是遏止人工智能無限度研發、保障人類安全的實踐論法則。遵循該法則,就是在人與智能技術、人與智能機器之間劃定明確的、在任何情況下都絕對不能突破的“紅線”。這就是人類在人工智能和智能機器面前的“絕對安全線”?;谌绱硕x,人工智能的限度開發法則具體落實為三個方面:

第一,人工智能研發必須將所有智能產品的自主性能力降低到最低限度。這個“最低限度”的明確指標,就是人工智能研發出來的產品只能成為“一般意義的工具”,它可具有嚴格的程序設計的邏輯思維能力,而不應該具有抽象思維的能力和任何形式的自主性調節能力,即人工智能研發不能賦予智能機器以“自制能力”,即不能擁有“一旦機器的一部分啟動,那么該機器就根據外部環境進行自我反饋運行,而具備在一定時間內不受外部控制的能力”〔42〕。

第二,人工智能研發絕對不能勘探人類存在的邊界,即絕不能賦予智能機器勘探人類存在的身體邊界、精神邊界和心靈邊界的能力。如果人工智能研發無視這一人的身心邊界法則,那么,所研發出來的智能產品“將相當迅速地取代我們的存在”〔43〕。

第三,人工智能研發絕不能賦予智能產品制定規則的潛能和使其潛能轉換成規定的能力。因為天賦人類對人工智能的屏障有二:一是制定規則;二是探索邊界。人工智能目前不能制定規則,是在按照人制定出來的規則行事,但并不意味著它始終會按照人的規則行事,跳棋、象棋、圍棋冠軍被人工智能機戰敗的真正秘密,是這些人工智能機具有極強自主性的深度學習的能力,這種自主性的深度學習的能力生成出可能內在地組織規則進而可以進化到創造規則的境界。人工智能機的這種可能性,將被另一種沖動推動而會逐漸變成現實,那就是我們還在繼續研發甚至不遺余力地加大研發人工智能的力度,所以我們根本不能保證人工智能沒有制定規則的能力。反之,我們能夠保證人工智能不具備制定規則的能力的根本前提,也是唯一的和絕對的前提,是人類現在停止對人工智能的無限度研發,其基本方法是嚴格地限制智能產品的自主學習能力和自組合規則能力的提升。

四、重構人文科學的精神共識

人工智能的誕生和發展,當然有其因為解決環境、資源、經濟問題以及爭奪世界主導權等的強勁動機和推動力量,但更根本的原因卻是人文科學的衰落而使整個世界喪失制衡技術主義的真正知識力量和精神力量。

客觀地講,技術主義的具體形式是技術至上,以技術至上為實質訴求的技術主義產生于近代科學革命的勝利,機械論世界觀是它的哲學基礎,去本體論的認知論哲學和工具理性方式,是其精神支撐,工業文明及支撐它的機械技術體系,是其生長的土壤。人工智能,還有基因工程,以及統攝人工智能和基因工程的會聚技術,是技術主義自由泛濫的最新成就,也是其扭曲和異化人類精神地存在的最高形式。技術主義從近代萌生一直發展到今天,實質地展開為會聚實利主義、物質主義和霸權主義于一體的歷史過程。正是這一歷史過程,解構了宗教和信仰,一步步縮小了哲學的范圍并壓縮了哲學的精神和張力,然后實現了對人文科學的弱化。比如,在亞里士多德那里,哲學的主體內容是物理學,這個傳統一直保持在笛卡兒的“大樹哲學”體系中:在笛卡兒那里,物理學是哲學這棵大樹的樹干,形而上學是其樹篼,倫理學、政治學、力學、醫學則是這棵哲學大樹的主要樹枝。從古希臘到近代,科學也是人文的,并且內在地生成和擁有人文精神。不僅如此,今天被我們劃歸為社會科學的許多學科,比如經濟學、政治學,也屬于人文科學,而且還是最核心的應用取向的人文科學內容。比如經濟學之父亞當·斯密(Adam Smith)在格拉斯哥大學講授的“道德哲學”課程,就包括了神學、倫理學、法學和政治學,并且其政治學還包括了當時的政治經濟學。在這樣的學科設置中,“神學是道德哲學的依據,它為其提供存在的信仰基礎;倫理學為道德哲學構建價值體系與實踐原則;法學、政治學以及經濟學是道德哲學的實踐方式與途徑”〔44〕。為什么會這樣呢?因為人類所有的精神探索都是動因于人并服務于人的。比如現在的“三分”科學結構中,自然科學以自然為對象,側重探索自然世界的存在律法和運行規律,不過是為人如何更好地與自然打交道提供真知和方法;社會科學以社會為對象,側重探討制度社會的存在律法和運作規律,不過是為人如何更好地與群、社會相處提供真知和方法;人文學術和藝術以人自身為對象,側重探討人的存在律法和生存規律,以為更好地與自己、他人相處提供真知和方法。所以,自然科學、社會科學、人文學術和藝術三者,表面看完全相異,但在人的存在本體和生存本質層面,其真知和方法是相通的,其本質訴求均是人文的。美國科學史家喬治·薩頓(George Sutton)講得非常清楚:“科學不過是自然界以人為鏡的反映。在某種意義上我們始終是在研究人,因為我們只有通過人的大腦才理解自然;然而,我們同樣可以說我們一直是在研究自然,因為沒有自然我們無法理解人。無論我們是研究人的歷史還是研究自然的歷史,我們研究的主要目的都是為了人。我們無法擺脫人,即使我們想這樣的話??茖W的和諧是由于自然的和諧,特殊地說是由于人類思想的和諧。要得到真實的圖像,不僅自然必須是真實的,而且作為鏡子的人也必須是真實的?!薄?5〕人文貫穿于所有的學科之中,是所有科學的靈魂。主導人類科學的技術主義之所以能極大地壓縮、弱化人文科學,其根本前提是它首先對科學予以(自然、社會、人文)分類的形態學隔離,然后消解自然科學和社會科學的人文內涵,將人文學術定義在文史哲這樣狹小的范圍,由此使人文喪失接地氣的條件和落地的土壤。這種狀況就是人文科學的衰落。

清晰地認識人文科學的現狀,要在將技術主義推向極端的人工智能時代構筑人文屏障,就必須要重建人文科學。重建人文科學,前提是重新端正認知人文科學的前提。孫周興指出:“我認為人文科學需要確認兩個前提:其一是技術統治的確立,其二是全球一體的現實。只有確認了這兩點,人文科學才可能重新審視自己的處境,并且積極界定自己的未來使命。”〔46〕在反思性拷問人文科學處境的認知基礎上,重建人文科學,應該從五個方面努力。

首先,應該重新恢復自然科學、社會科學的人文信仰、人文情感、人文品質、人文精神,使其人文化。自然科學和社會科學重新人文化的基本準則,可用劉易斯·芒福德(Lewis Mangford)的話來表述:“要想真正得救,則人類需要一種類似宗教的自動皈依:必須以有機世界觀代替機械世界觀,必須重視人格和生命遠過于機器和計算機?!薄?7〕

其次,應該重建社會化的人文信仰、人文情感、人文精神和人文知識體系。一是要重新拷問人能否獨特地存在和生存的問題??陀^地看,人的存在和生存的獨特性問題,雖然客觀地呈現歷史的連續性取向,但最終張揚時代性訴求。比如,在遙遠的古代,是相對廣袤的自然世界而叩問人何以可能獨特地存在和生存。在逝去不遠的近代,是相對宗教而拷問人何以可能獨特地存在和生存。當進入人工智能時代,卻必然相對人工智能、基因工程這樣的技術而追問人何以可能獨特地存在和生存。二是應該拷問人的情感能否被替代,包括人的情感能否被物質、技術、機器所取代,物質、技術、機器能否擁有人的情感。這一問題的實質是人在人工智能時代應不應有生物人的情感防線。三是應拷問信仰能否被替代。這個問題的實質是人工智能是否有權破譯人的心靈世界,將人的生命的神圣和人的存在的神性拱手交給智能機器。四是應該拷問生物人的倫理屬性和政治屬性能否被智能技術、智能機器的倫理所替代。只有對如上四個基本問題予以重新審查,人文信仰、人文情感、人文精神和人文知識體系的重建才成為可能。唯有當重建起人文信仰、人文情感、人文精神和人文知識體系時,才可為人文科學的重建提供土壤、動力、方向和指南。

再次,應該振興哲學,創建當代哲學,以為重建人文科學,抵御人工智能技術顛覆人類獨立存在和主體地生存提供最終的存在論依據和思想的基石。

從次,應該重建人文教育,將人文信仰、人文情感、人文精神和人文知識體系的重建和堅守,納入整個教育體系之中,包括基本教育體系和高等教育體系之中,并以人文教育引導和規訓科學教育、政治教育和經濟教育。

最后,應該以人文信仰、人文情感、人文品質、人文精神和人文真知為指南,重建以限度生存和共生節制為根本準則的人文主義的倫理價值體系、政治實踐體系和經濟市場體系。

五、結語

《暫停巨型AI實驗室:一封公開信》是人工智能業界發出的自我警告,即只有當確信強大的人工智能系統的效果是積極的,其風險是可控的,才應該開發。同時,這種信心必須得到驗證,并隨著系統潛在影響的大小而加強。OpenAI最近關于人工智能的聲明中指出,“在開始訓練未來的系統之前,可能必須得到獨立的審查,對于最先進的努力,同意限制用于創建新模型的計算增長速度。我們同意,現在就該采取行動。”〔48〕

對于已具有無限可能性的人工智能而言,其呈現出來的風險如何才是“可控的”?那就是人類將命運掌握在自己手中,而不拱手交給機器?;厮萑祟愂罚藦淖匀蝗祟惖暮诎瞪顪Y中走出向文化人類方向進化,將動物存在轉變成人文存在,并不斷向前攀登文明發展的階梯,其中每一個環節,人類都將命運掌握在自己手中,并由此成就了人類自己。人類的繼續存在而擁有屬于自己的未來,同樣需要將命運掌握在自己手中。今天,當面對已經獲得超越人類的意識、思維、認知、邏輯及其靈活創設和應用自然語言的能力的人工智能,人類自己掌握自己的存在命運變得比任何歷史時期都更重要,也更根本。面對已初具無限可能性的人工智能,人類掌握自己命運長存永久的方式是重建人文信仰、人文精神、人文知識和人文科學體系,以人文來引導和規訓科技,收斂技術主義,放棄技術至上,限制人工智能以及基因工程等整個生物工藝學技術體系的無限開發,有節制地應用技術。只有技術安全時,人類才有存在的安全。

為此,有必要時時謹記霍金發出的警告:

人工智能可能是人類歷史上最重要的事件。但除非我們學會避免風險,否則它也可能是最后的事件。與人工智能帶來的諸多益處(如診斷癌癥)并存的,還有巨大的風險(如自主的武器)。我們需要非常謹慎地對待人工智能,它的潛在危險甚至可能超過核武器?!?9〕

〔參考文獻〕

〔1〕Rousseau,J.J.The Social Contract and The First and Second Discourses.Yale University Press.1997,p.146.

〔2〕〔7〕Turing A M.Computing machinery and intelligence,Mind,1950.pp.433-460,433-460.

〔3〕Mc Carthy,J.The problem of programming a computer to understand natural language.In Proc.IRE (Vol.49, No.1).1958,pp.11-15.

〔4〕Newell,A.& Simon,H.A.The information processing theory of thinking.Educational Psychology, 26(1).1956.pp.43-50.

〔5〕Winston,P.H.Artificial Intelligence (2nd ed.).Addison-Wesley.1992,p.4.

〔6〕Nilsson,N.J. Artificial Intelligence:A Modern Approach. Prentice Hall.1998,p.2.

〔8〕Aiken, H.The development of computer technology and its impact on management.Harvard Business Review, 34(6),1956,pp.135-144.

〔9〕Hopkins,J.Artificial intelligence: A modern approach.Journal of Computer Science, 10(1), 2014, p. 11.

〔10〕Gardner,H.Intelligence Reframed:Multiple Intelligences for the 21st Century.Basic Books,1999,p.34.

〔11〕Horvitz,E.Principles of mixed-initiative user interfaces.Communications of the ACM, 61(12), 2018,pp.38-45.

〔12〕Nielson, M.Deep learning: A practitioner's approach.Journal of Machine Learning Research,15,2014,p.9.

〔13〕Pause Giant AI Experiments: An Open Letter,https://futureoflife.org/open-letter/pause-giant-ai-experiments/.

〔14〕Samuel,A.L.Some Studies in Machine Learning Using the Game of Checkers.IBM Journal of Research and Development,3(3),1959,p.210.

〔15〕Wiener,N.Cybernetics:Or Control and Communication in the Animal and the Machine (2nd ed.).MIT Press.1961,p.162.

〔16〕〔美〕皮埃羅·斯加魯菲.智能的本質:人工智能與機器人領域的64個大問題〔M〕.任莉,張建宇譯.北京:人民郵電出版社,2017:168.

〔17〕Langdon Winner.The Whale and the Reactor: A Search for Limits in an Age of High Technology.University of Chicago Press.1986,pp.10-11.

〔18〕〔美〕大衛·格里芬.后現代精神〔M〕.王成兵譯.北京:中央編譯出版社,1998:19.

〔19〕Ellul,J.The Technological Society. Vintage Books,1964,pp.3-20.

〔20〕Veblen,T.The engineers and the price system. B.W.Huebsch,1919,pp.69-79.

〔21〕〔29〕Heilbroner,R.L.Do machines make history? Technology and Culture, 8(3), 1967,pp.335-345,13.

〔22〕Frey,C.B.& Osborne,M. A.The Future of Employment:How Susceptible Are Jobs to Computerisation?. Technological Forecasting and Social Change,114,2017,pp.254-280.

〔23〕Dunleavy,P.Digital Era Governance: IT Corporations, the State,and E-Government. Oxford: Oxford University Press,2014,p.7.

〔24〕〔25〕Bell,M., & Fakhimi,B.Digital Technology and Democratic Politics. London: Palgrave Macmillan,2020, p. 1,2.

〔26〕〔27〕Ellul,J.The Technological Society.Vintage Books,1964,p.44,45.

〔28〕Winston,B.Media Technology and Society:A History from the Telegraph to the Internet. London: Routledge,1998,p.6.

〔30〕Heidegger,M.The Question Concerning Technology and Other Essays. Harper Perennial Modern Classics. 2018,p. 28.

〔31〕Nietzsche,F.Thus Spoke Zarathustra.Penguin Classics.2005,p.82.

〔32〕〔英〕斯蒂芬·威廉·霍金.自動化和人工智能將讓中產階級大面積失業〔DB/OL〕.http://tech.qq.com/a20161203/002359.htm.

〔33〕〔美〕雷·庫茲韋爾.奇點臨近〔M〕.李慶誠,董振華等譯.北京:機械工業出版社,2014:80.

〔34〕〔美〕約翰·馬爾科夫.與機器人共舞〔M〕.郭雪譯.杭州:浙江人民出版社,2015:86.

〔35〕江曉原.人工智能:威脅人類文明的科技之火〔J〕.探索與爭鳴,2017,(10).

〔36〕Markoff,J. (2014, August 3). Elon Musk, Artificial Intelligence, and the Fear of the Robot Apocalypse. The New York Times. https://www.nytimes.com/2014/08/03/business/elon-musk-looks-to-the-robot-apocalypse.html.

〔37〕〔德〕弗里德里希·拉普.技術哲學導論〔M〕.陳凡,秦書生譯.沈陽:遼寧科學技術出版社,1986:102.

〔38〕Mesthene F G,The Roleof Technologyin Society,Technology and Culture,1969,10(4).

〔39〕〔40〕〔意〕盧西亞諾·弗洛里迪.第四次革命〔M〕.王文革譯.杭州:浙江人民出版社,2016:108.

〔41〕張正清,等.第四次革命:現代性的終結抑或重構〔J〕.武漢大學學報(哲學社會科學版),2018,(3).

〔42〕Lin P,Abney K,Bekey G,Robot Ethics:Mapping the Issues for a Mechanized World,Artificiial Intelligence,2011,175(5/6),pp.942-949.

〔43〕〔美〕斯圖爾特·羅素,帕特·諾維格.人工智能:一種現代方法〔M〕.姜哲,等譯.北京:人民郵電出版社,2004:741.

〔44〕唐代興.生境倫理的知識論構建〔M〕.上海:上海三聯書店,2013:122.

〔45〕〔美〕喬治·薩頓.科學史和新人文主義〔M〕.陳恒六,劉兵,仲維光譯.北京:華夏出版社,1989:29.

〔46〕孫周興.人文科學如何面對人工智能時代?〔J〕.哲學分析,2018,(2).

〔47〕〔美〕劉易斯·芒福德.機械的神話〔M〕.鈕先鐘譯.臺北:臺北黎明文化實業股份有限公司,1972:75.

〔48〕Pause Giant AI Experiments: An Open Letter,https://futureoflife.org/open-letter/pause-giant-ai-experiments/.

〔49〕Nature Magazine - Rise of the Machines,https://www.nature.com/articles/478161a.

【責任編輯:羅唯嘉? 劉彥武】

Humanistic Principles :Barriers to Prevent Unlimited Development of Artificial Intelligence TechnologyTANG Dai-Xing

〔Abstract〕Traditional technologies focus on natural objects for development, resulting in technological artifacts that lack the ability to reproduce and have no autonomous aspirations. In contrast, artificial intelligence (AI) targets the human brain and aims to “mimic and surpass human intelligence.” AI, from simulated learning to deep learning with strong autonomous aspirations, has rapidly developed the potential to “surpass human intelligence.” The emergence of ChatGPT-4 and AlphaFold may push humanity to the critical point of “technological enslavement of humans” and “human-dominated technology.” If allowed to continue unhindered, intelligent machines with deep learning and iterative upgrading capabilities will inevitably surpass human boundaries. The ultimate barrier to protect humanity from technological and machine enslavement lies in the field of humanistic sciences. Establishing humanistic barriers to prevent the unrestricted development of AI requires a reconstruction of humanistic principles. Firstly, there is a need to restore the humanistic beliefs, emotions, and spirit in natural and social sciences, making them humanistic in nature. Secondly, it involves rebuilding a socialized humanistic belief, emotions, spirit, and knowledge system. Thirdly, it necessitates the establishment of contemporary philosophy as a conceptual foundation for humanistic reconstruction. Based on this foundation, efforts should be made in two practical aspects. Firstly, reconstructing humanistic education to guide and regulate scientific education. Secondly, rebuilding a humanistic value system and a humanistic political-economic practice system based on the principles of limited survival and coexistence.

〔Key words〕Artificial intelligence;Technological determinism; Humanistic principles;ChatGPT;Humanistic spirit

猜你喜歡
人文精神人工智能
我校新增“人工智能”本科專業
白金十分鐘自救互救實踐創新展現新時代人文精神價值
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
人工智能與就業
IT經理世界(2018年20期)2018-10-24 02:38:24
人文精神在科技期刊編輯出版中的體現及構建
新聞傳播(2018年9期)2018-08-01 06:37:14
數讀人工智能
小康(2017年16期)2017-06-07 09:00:59
下一幕,人工智能!
南風窗(2016年19期)2016-09-21 16:51:29
下一幕,人工智能!
南風窗(2016年19期)2016-09-21 04:56:22
試論醫學人文精神的構建
循證醫學的人文精神
主站蜘蛛池模板: av一区二区人妻无码| 亚洲最大在线观看| 国产乱人乱偷精品视频a人人澡| 国产精品亚洲专区一区| 成人综合网址| 国产清纯在线一区二区WWW| 国产综合无码一区二区色蜜蜜| 亚洲成aⅴ人在线观看| 毛片a级毛片免费观看免下载| 欧美国产日本高清不卡| 乱人伦99久久| 91精品啪在线观看国产91九色| 国产精品成人久久| 国产欧美日韩综合一区在线播放| 狠狠操夜夜爽| 国产内射一区亚洲| 欧美精品一区在线看| 伦伦影院精品一区| 国产成人精品一区二区| 另类重口100页在线播放| 国产精品手机视频| 亚洲欧美不卡中文字幕| 99久久精品无码专区免费| 综合色区亚洲熟妇在线| 91外围女在线观看| 国产精品美女自慰喷水| 大香伊人久久| 日本黄色不卡视频| 久久久噜噜噜| 日韩欧美综合在线制服| 国产精品永久久久久| 台湾AV国片精品女同性| 日韩 欧美 国产 精品 综合| 九九香蕉视频| 在线a网站| 国产精品一区二区久久精品无码| 一本综合久久| 不卡视频国产| 九九免费观看全部免费视频| 亚洲国产天堂久久综合| 高清无码一本到东京热| 亚洲人成日本在线观看| 色婷婷电影网| 制服丝袜一区二区三区在线| 国产精品30p| 青青青国产视频| 五月婷婷综合网| 99国产精品国产高清一区二区| 色综合久久久久8天国| 国产大全韩国亚洲一区二区三区| 国产成人高清精品免费| 九色视频一区| 欧洲成人免费视频| 欧美日韩亚洲综合在线观看| 伊人久久大香线蕉影院| 亚洲全网成人资源在线观看| 国产女人18毛片水真多1| 亚洲va视频| 亚洲第一视频网| 不卡无码网| 992tv国产人成在线观看| av无码久久精品| 欧美一级在线| 最新无码专区超级碰碰碰| 天天操精品| 亚洲国产精品VA在线看黑人| 国产精品嫩草影院视频| 亚洲人成成无码网WWW| 欧美日韩精品在线播放| 香蕉eeww99国产在线观看| 毛片免费在线视频| 毛片网站在线看| 国产真实二区一区在线亚洲| a在线观看免费| 91精品情国产情侣高潮对白蜜| 国产91特黄特色A级毛片| 秋霞国产在线| 人妻精品久久无码区| 少妇精品久久久一区二区三区| 无码一区中文字幕| 综合色婷婷| 亚洲最大看欧美片网站地址|