999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

人工智能:理論闡釋與實踐觀照(筆談)

2021-08-24 01:59:18段偉文,吳冠軍,張愛軍
閱江學刊 2021年4期
關鍵詞:人工智能人類智能

人機伴生:從機器人倫理到道德機器(1) 本文系國家社會科學基金重大項目“智能革命與人類深度科技化前景的哲學研究”(17ZDA028)的階段性成果。

段偉文

所謂人機伴生,要強調的是在人工智能和機器人的發展進程中,一直通過人與機器的協同而演化。如果認識不到這一點,就很容易忽視人類智能與機器智能的現實關系,脫離由兩者構成的智能生態談論奇點和強人工智能。這就涉及哲學研究,不僅僅是提供答案或者解決方案,還要對問題本身進行分析和重構,讓人們能夠從更好地體現實際的視角看到問題的本質。每個人都想成為解決問題的高手,各個學科提供了各自的視角,而哲學總在試圖告訴人們,還可以用另外一種方式來面對問題。這就是哲學的思考,不斷地變換角度,使從其他角度不顯見的現實得以呈現。

一、作為文化創新的機器人文化

從某種程度上講,這種懼怕技術和機器人的技術文化與機器人文化決定了西方機器人文化的基調,也成為機器人文化反思與創新的出發點。此后,比較有代表性的文化創新者有阿西莫夫的機器人定律和日本的機器人文化。20世紀30-40年代,阿西莫夫著手創作科幻小說時,面對各種機器人故事中過于人性化的“威脅人類的機器人”和“引人同情的機器人”,他看到了另一種可能——由工程師制造的內設安全機制并用于執行特定工作的機器人產品,它們既不會威脅人類,亦無從引人同情。為此,他在《環舞》等小說中提出了機器人三定律,為理想的機器人設定了一套假想的可通過機器執行的道德體系,讓人們看到機器人是可控的。這就從文化層面大大消除了對機器人的恐懼,大大鼓舞了早期機器人的發展。正是通過阿西莫夫的康德式的機器人倫理創構,形成了一種可以平衡“機器人畏懼”的正面的機器人文化。

再看對機器人充滿信任和好感的日本機器人文化,既沿襲了其神道教與喜愛“機關人偶”的傳統,也體現了日本發展有別于西方的機器人文化的意圖。眾所周知,20世紀70年代以來,日本的機器人文化可謂獨樹一幟。而早在20世紀20年代,《羅素姆萬能機器人》日文版問世后,旋即在日本引起廣泛關注。當時有一位名叫西村真琴(1883—1956)的生物學家和哲學家不滿西方作品中作為勞動者的實用機器人形象,認為人不應與人造人對立,主張作為自然之子的人類應該將機器人視如己出,與其攜手共進以實現萬物平等、和諧共生?;谶@一理念,他于1928年制造了一種他認為理想的機器人“學天則”(學習自然法則之意),后在京都、廣島、東京等地巡回展出?!皩W天則”是一個高、寬均3米多的機器人,它超越了西洋機器人的強迫勞動的狀態,而被設定為與人類平等的“類人”。當然,西村倡導這一東洋機器人文化的初衷,與當時日本想在文化上與西方對立不無關聯,其中夾雜著軍國主義和民族主義。

由機器人文化及其創新可見,科技和人文之間存在著一種內生關系:科學追求的是有意義的真理,技術旨在解決有價值的問題,知識的生產和機器的部署,都是由人的信念、欲望和意圖驅動的,是為人服務的。而科技時代的人文問題的關鍵恰在于其中呈現出的能動性:科技追尋的是誰的意義和價值,又受誰的信念、欲望和意圖驅使,具體為誰服務?比方說,平臺根據消費者的數據畫像進行各種推送,但這符合消費者的意愿嗎?如果這會引導消費者的行為,其邊界何在?

二、人類智能與機器智能的協同

談到人工智能或機器人,往往會將其作為一種獨立存在的主體來看待,但實際上它們目前還只是數據驅動的智能體(Agents,又稱智能代理等)。它自身有一套規則,然后通過環境數據或其他輸入數據的獲取和處理進行計算和學習,獲得認知結果并做出反應。我們跟智能機器交互的時候,要認識到它們是按照機器的方式來思考的,只能夠讀懂數據。如在進行人臉識別時,機器識別的是視頻像素之類的數據。而人自身在此過程中也成為賽博物理空間(CPS)中和網絡數字平臺上的可識別和交互的智能體。

目前,這些數據驅動的智能體并不具有意識、自我意識和自由意志,更談不上情感、情緒和同理心,它們在道德行為中遠不像人那樣是完全的道德主體,不可能單獨為其行為后果承擔責任。因此,針對自動駕駛、智能音箱和各種機器人應用中的倫理問題,不能簡單地說這是程序、算法或自動機器的錯,應由它們負責,而只能在人和智能機器構成的行動者網絡中找到背后的設計者、制造者、部署者和操作者,向相關人類主體和機構追責。更進一步來講,固然可以從拉圖爾的行動者網絡理論出發,探討人類行動者與作為非人類行動者的智能機器的建構與形塑,但必須看到,在智能機器的使用中人類智能與機器智能的協同。后者恰恰是容易被忽視的智能機器的具體性——這種忽視使得智能機器與人的關系被簡化為抽象的人工物與人的關系,而人工智能與機器人倫理的探討不能脫離人與智能機器在具體場景中的關聯。

一方面,要對人類與智能機器的交互環境即網絡數字平臺的運行模式有所認識。在現實世界中有大量的機器人,包括陪伴機器人、聊天機器人、戰爭機器人、賽博格(如外骨骼裝置)等,人和這些數據驅動的智能體越來越多地被聚合在網絡數字平臺上。因此,談到數字技術和人工智能帶來的隱私泄露,或Face book會不會操縱選舉,不應該只是假想個人通信內容會不會被偷看,平臺如何有選擇地發布信息,而應關注元數據如何被分析、社交媒體會如何短時間和大面積地影響人的情緒等具體問題。例如,在平臺導流的情況下,一兩分鐘的視頻評論,會產生幾百萬的流量,這種影響力及其反噬的力量無疑不容小覷。

另一方面,應看到當前很多機器智能的應用是通過人類智能的眾包與之協同才得以實現的,這就是人們常說的“有多少人工,就有多少智能”。在各種人工智能的應用場景中,包括網約車、外賣平臺、智能音箱、古文字識別、機器翻譯等,都伴隨著不斷學習人類的群體智能而提升機器智能的過程,這實質上是人機伴生的社會系統在調試中運行的過程。比方說,上下班高峰時候,為何滴滴司機要接市中心擁堵路段的訂單?因為那樣他就能夠得到更多的獎勵分數?,F在的導航軟件為什么越來越好用?因為大家都在用。但同時不難看到,導航的使用改變了人們出行認路的方式,即從以往的人類經驗學習模式轉向對導航指令的接受與糾錯模式,從而通過反饋和遞歸實現了駕駛等行進活動的人機協同。如果不加反省地依賴導航,人實際上會削弱和喪失通過直接經驗學習的能力,這是不是科技時代人們必須付出的代價?這個問題涉及每個人,要從科技與人類未來的角度加以審視,從而促進廣泛深入的社會討論。

當前,認識到人工智能通過人機協同而進化具有重要的現實意義:不能只看到機器智能如何先進和加速迭代,而應該看到人類智能在整體上依然高于機器智能,看到人類智能在此過程中一直發揮著不可替代的隱形作用。

三、面向泛智能體社會的倫理考量

近年來,學界對人工智能倫理展開了廣泛的討論,從算法歧視、自動駕駛到負責任的人工智能、可解釋的人工智能和可信的人工智能,等等。其中,哲學界討論得最熱的問題包括:人工智能和機器人能不能成為道德主體?能否通過倫理設計使人工智能和機器人具有某種機器道德或算法倫理,甚至成為某種道德機器?但對于這些哲學與倫理學討論的價值,我保持一定的懷疑態度。比方說,所謂“電車難題”及其自動駕駛版,會不會始終只是一種哲學游戲,除了發表論文,對具體的自動駕駛到底有多大的實際意義?

機器人能不能成為道德主體,這涉及機器人的權利、責任等道德地位。對這一問題,哲學與倫理學一般會訴諸本質論的討論,即機器人所具備的本質是否使其應該擁有道德地位。有人認為,機器人只是工具,就像汽車和電視機一樣,談不上什么本質,也不具備道德地位。但也有人指出,它不僅僅是工具,還可能具有與人類類似的主體性乃至道德地位。但要在哲學和倫理學上對本質或實質進行辨析和論述存在諸多困難。一方面,相關論述會運用譜系學的方法展開探討。如談到權利,就會追溯人的權利的發展過程。比方說,奧德修斯從特洛伊戰爭中歸來后處死了十幾個女奴,那是因為奴隸在那個時候不是具備道德和法律權利的主體。接著,會運用與論證動物權利、大自然權利類似的思路,類推出當人工智能與機器人的智能感知達到某種程度時,也將被賦予權利、成為道德主體,云云。顯然,這種類推的論證模式的說服力非常有限。另一方面,相關論述會直接從機器智能的本質探討賦予其道德地位的可能。比方說,若能制造出某種能夠感受到痛苦的“最大似人自動機”(MHA),就應該視其為道德主體。但這種討論往往會陷入尷尬境地:如果能夠做出這種機器人,這種建造本身是不是就違背了被造機器人的知情同意權。概言之,哲學和倫理學層面的這些本質論的探討,應該防止陷入自說自話與自我詰難的話語游戲循環。

為了克服工具論、本質論等實體論論述的局限,應該面向泛智能體社會的現實,從實際的關系論角度思考人與機器的道德關系。以中國科技大學機器人專家陳小平帶領的團隊制作的佳佳機器人為例,盡管很多人認為目前做不出具有內在情感認知和真實情感交互能力的機器人,但在陳小平看來,這項工作是有價值的。從人機情感關系的角度出發,人們會把情感投射到機器人上。在與機器人聊天和互動的過程中,不論是長時間的互動,還是聊著聊著“把天聊死”,都會形成某種情感關系。例如,現在有一種圓形的掃地機器人,送去維修的時候,有的主婦會跟工程師說,你不要隨便給我換一個新的,你要把我們家的“保羅”給我帶回來。其中就有一種泛主體關系,有著道德關系和情感的投射。

實際上,在阿西莫夫的機器人小說中,并沒有抽象地談論機器人定律,而是通過各種故事,構想其應用于人機關系遇到的沖突與可能的出路。例如,在《鏡像》中,一位年長的科學家和一位年輕的科學家同坐一條船,他們各自有一個陪伴機器人,其中一人談到一個數學定理的證明,最后兩人就此內容發表了同樣的論文。在對這一公案進行問詢時,兩個機器人的證詞也是一致的:我的主人沒有問題,是對方主人抄襲。小說的名字所反映的就是這種人機關系的對稱性,而打破這種對稱性就需要道德律之外解決沖突的實踐智慧。

面對正在來臨的泛智能體社會,需要更進一步的倫理設計與哲學考量。在此主要談三個方面。其一,如何設計和構建一種分布式的道德機制。在自動智能武器的討論中,最常見的觀點是要讓人處在自動決策的閉環之中。但問題是,在戰斗狀況下,一個人監控幾十架無人機實際上是不現實的,如何設計一種對人和機器進行全局監控和決策的超級監控者?還有在自動駕駛與人類駕駛并行的情況下,如何分配責任?對此,荷蘭的兩個法庭判例具有一定的啟發性。一個判例是,法律規定只能有兩輛自行車同行,第三輛車加入而造成事故時負主責,但前面兩輛車也要承擔一定責任。類似地,法律規定港口航道只能兩艘船并行,第三艘船闖入并發生事故時則需要負全責。對比兩個判例可見,在泛智能體社會中的分布式道德機制會同時考慮造成后果的原因以及相關智能體的能力。因此,不論機器倫理還是機器道德,不應停留在自上而下或自下而上的實體論視角,還需從泛智能體社會的智能體之間的關系展開考察。

其二,要從智能體的角度反思人類主體性所遇到的挑戰。如今,我們日益置身人類智能與機器智能所構成的智能生態系統之中,人類主體正在轉變為可以被機器所認知的智能體。面對各種智能監測,從AI教室到通過人臉識別才能進高鐵站,“我”已經不再是內在的第一人稱的我,而更多的是機器能夠理解與接納的第三人稱的“它”,必須在頭腦里有這種意識才能實現人機協同。比方說,進高鐵站的時候,我一定要把口罩拉下來,機器才能夠識別出來是不是“我”,而且我還不能特別著急地沖過去,要等機器反應過來,才不會撞到閘機。在這個看似自然的過程中,人類主體不能不做一個外在的行動者。什么叫外在的行動者?就是說在泛智能體時代,人與機器的協同建立在對智能體的數據刻畫之上,作為智能體的人只有成為一個可觀察的數據才能納入智能系統。換言之,如果人類不加反思地適應這種主體性的外在化,是否意味著這將是一個人變得越來越像機器的過程?假設對導航能力進行圖靈測試,認路是人的一種基本智能,50年前,我們要檢測機器能否像人一樣會認路。而現在隨著很多人依賴智能導航而喪失認路能力,是不是意味著機器的認路能力較差才更接近人類智能?如果把人類智能和機器智能孤立起來進行對比,就會看到所謂圖靈邊界實際上是在變動的。但從人機協同的角度看,這種變動是可以解釋和加以調節的。總之,對于由此帶來的主體性挑戰的哲學追問,無疑是泛智能體社會倫理設計的基礎。

其三,談談道德機器,即用智能機器來提升我們的道德水準。比方說,在上海外灘過馬路時,已經有機器提醒你現在是紅燈,甚至有的地方會在大屏幕上顯示違章者的姓名和身份證號,這就是道德機器的雛形。如果要將機器人設計成道德機器,不僅需要道德語言交互能力,或場景與事件觸發的對應提示機制,還要具有實際環境中的道德判斷力和預見力。當然,這種道德機器不僅僅是強制性或命令式的,而更多的是行為心理層面的助推或說服。對此可以提出設計標準,如能減緩人的破壞傾向,并且給人以安慰;為人提供必要的心理服務,為人所接受,令人滿意,使人的行為得當等。甚至將來,小孩可以在各種道德機器人或教育機器人的陪伴下成長。但問題是,道德機器究竟根據什么標準塑造我們?其實,人類本身對于什么是善的,什么是好的,什么是好的教育方式,什么是好的品行等,都缺乏一個固定的衡量標準。

我們的將來會是什么樣的未來?答案應該是實現人和機器的相互協同與兼容。從機器的角度講,將來的機器會是利他的機器嗎?它會是一種慈悲的機器嗎?會與人類之間產生一種情感依賴嗎?阿西莫夫《機器人短篇小說集》的最后一篇叫《雙百人》,據此改編的電影名叫《機器人管家》,其中的機器人主人公因為活得太久,目睹過他經歷的人紛紛故去,最后寧愿不做機器人而變成了終會逝去的人。所以,面對智能化的未來,最重要的問題是必須重新思考和構建人性。最近,人工智能學家斯圖爾特·羅素(Stuart Russell)寫了本新書《AI新生》,其中談到未來的人工智能應該純粹利他、更加謙卑、學會學習和預測人類的偏好,等等。在我看來,最終還是要立足于人機關系的維度,構建我們想要的合乎倫理的未來——人類而不是機器人擁有未來的未來。

(作者為中國社會科學院哲學所研究員)

人工智能、智人與神圣人

吳冠軍

我們都知道:電的發明,是人類社會的一個巨大變化——之前城市是一片黑暗。有了電以后,我們整個城市都不一樣。然而技術一旦成熟,立即退隱到社會背景中,不再被看到,除非它出問題了,譬如停電,大家突然意識到技術是那么重要。

當代人工智能技術有點反常,因為它很容易就被看到、很受關注——盡管我們都知道人工智能在很長一段時間里,即從20世紀50年代到今天,它都一直處于邊緣狀態。除了從業者之外,沒有多少人關注。那么,為什么最近人工智能突然就被看到了呢?人工智能技術越來越成熟,為什么沒有退隱、消失在背景中呢?這個問題和標題里第二個詞語“智人”相關。

人類給自己起了一個獨特的名字:“Homo sapien”,即我們是擁有智慧的。這構成了人類的自我理解:人類不只是眾多動物之一,并且是具有獨特性的動物,故而創建出了文明。但是,人工智能技術,尤其是在媒體的放大效應下,直接對人類的自我理解構成了挑戰——人工智能打敗世界頂級圍棋選手。這就是為什么人工智能技術是當代各種技術中恰恰最易被看到的一種技術。

其實,只要我們知道當代人工智能的技術底層,就會知道其實它完全是另外一個“智”,和人類的“智”差別很大。然而,它已然進入人類的共同體,改變了它的構造(Configuration)。本世紀中我們可能會面對文明意義上的“奇點”:奇點之后,文明——如果還有的話——會完全不一樣。而當下變化已經發生,只是我們都在關注人工智能與人類智能的對決,而沒有關注它們在共同體層面上對文明內核構造的影響。故此,今天有一個專門的研究方向叫技術政治學,就是去認真探討當代技術在政治生活中所發揮的根本性作用。

今天,如果你對人工神經網絡、機器學習有所了解的話,就會看到,重復性工作會被逐漸淘汰,這已是一件板上釘釘的事情。使用人力勞動的重復性工作的價值將無限趨近于零,甚至變成負數。因為人工智能需要電,電是可以用相當綠色的方式獲得的,而人每天需要消耗很多能量。

所以,在21世紀,人類共同體的建構方式會發生根本性的變化。我們知道,現代社會所謂現代性的構建就建立在一個基礎上,即人具有價值。自然權利的概念(霍布斯、洛克、盧梭),人是目的的理念(康德),構成了現代性構造的核心。然而,一直到20世紀初,“權利”才變成人們生活中一個越來越關鍵的概念。理念與現實之間,至少隔了兩百多年。

換句話說,并不是康德說了“人是目的”,人就是目的了。而是當每個人都具有高度價值后,作為個體的人才在共同體層面上被確認為“目的”,被確認為擁有“權利”。為什么每個人都會具有價值呢?在古典時代,要做好事情是需要技藝的:木匠需要手藝,當兵要身強體壯,最好有功夫。然而到了20世紀初,一個人成為流水線上的工人,只要有一雙手,你就可以發揮很大的用。在戰場上,士兵只要有扣動扳機的手,就很有用,不需要功夫。故此,自20世紀開始,人的權利不斷增加,不斷擴容。

然而,我們現在面臨一個人工智能的時代:重復性的工作,可能在短短的十年、二十年內變成和人徹底無關的事。按照赫拉利的術語,絕大多數人就會成為“無用階級”。那么,問題出現了:這些人還會被賦予普遍的“權利”嗎?

曾經,我們把機器人視作為“非人”(Inhuman),最多是“亞人”(Subhuman)——不行就報廢掉。它們只是別的實現目的的工具,自身成不了目的。古代的奴隸就是這樣的工具,因此那個時候不會出現“人是目的”這種話語。祭品(包括活人祭品),就是一種服務于特殊目的的工具:人們殺死活人祭品也不犯殺人罪。意大利政治哲學家阿甘本用“神圣人”(Homo sacer)這個古羅馬術語來指稱這樣的工具性生命。換言之,“神圣人”的用處就是被殺死(被祭祀)。

今天,人工智能使得人的價值急劇下降,至少,絕大多數人會面臨這個狀況。當機器人沒有價值時,就是廢銅爛鐵,那么人呢?當絕大多數“智人”(Homo sapien)逐漸成為多余的人,那么,他們在共同體中將處于怎樣的位置?這是我們需要從技術政治學層面加以認真思考的問題。

(作者為華東師范大學政治學系教授、教育部特聘教授)

社交機器人與美國偽選舉

張愛軍

2020年我主要關注美國大選,寫文章討論美國大選時本身就帶著這個問題,但是后來發現美國大選從來沒有出現這么多的亂局,也因為我當時觀察了好幾個大選,一個是奧巴馬大選,然后是特朗普大選,好不容易把大選的機制搞清楚了,結果又出現了一個社交機器人。我們講美國和西方的民主都是一套一套的,現在終于有了轉折,即不再只講美國和西方,講中國的歷史政治學、長周期政治、祖賦人權、田野調查等,對這個我也不太清楚,我也在學習中。但在學習過程中,我產生了一個問題:就是在沒有社交機器人之前,我們講民主相對都比較清楚,比如講中國特色社會主義民主政治、民主決策、民主選舉、政黨政治、三權分立,議行合一等都有一套內容體系,專家學者至少在理論層面都講得相對比較清楚。但有了社交機器人之后,有些地方就講不清楚了。講不清楚最大的問題就是民主的靈魂究竟在哪里?有了社交機器人就沒有民主的靈魂。沒有社交機器人,民主靈魂可以體現在這一系列制度、過程和政策當中,也可以體現在人們的信仰當中。有魂就是有根的地方,就像馬克思所說的共產主義的幽靈在游蕩,首先得有地方游蕩。社交機器人參與民主,那這個魂到底在什么地方游蕩?現在有社交機器人,我們是不是要把民主的價值、民主的信仰放在社交機器人里面?但是下面的問題就來了:要是放在社交機器人里邊,把民主信仰或者把民主的魂放在里面,那民主的制度、過程、體系怎么辦?民主的公平價值怎么辦?民主的魂就一個,安放在社交機器人里面合適嗎?我講社交機器人和西方偽民主,主要是基于美國拜登大選。美國這次大選偽民主就偽在社交機器人的參與,尤其是誤導了大選輿論,既得利益集團利用社交機器人操控和干預了美國大選的民主。

社交機器人干擾、影響、破壞、顛覆美國選舉的基本行為,顛覆了選舉的基本觀念,顛覆了選舉的基本價值,而且也給我們帶來一系列新的困惑。這些困惑主要是圍繞人和機器如何共處的問題。社交機器人究竟是什么東西?社交機器人在轉化為政治社交機器人之后,政治社交機器人是人還是工具?說機器是機器人,無論弱人工智能,還是強人工智能,首先機器得是個人,最后落腳點還是人,社交機器人也是個人,那么這樣一個人能不能成為民主的一個主體?如果說真的把他變成一個民主工具,究竟是人統治民主還是民主統治人的問題就出現了。清華大學制造了一個機器人,又能畫畫,又能聽音樂,又能作為清華大學的一個學生,在此之前還有其他國家有一個類似社交機器人“公民”,它一出現,普通人都辨不清它的身份,也就是說將來它要成為人,如果作為美國和西方民主制度的一部分,如何共處?現在有人要把社交機器人當“老婆”,那這“老婆”如果輸入了政治程序,就有可能進入政治領域,“夫妻”關系變成了“政治夫妻”關系。人是具有主體性的,那么社交機器人的主體性在哪里呢?再者,“夫妻”關系變成了“政治夫妻”關系之后,政治機制也會相應發生變化,甚至政治組織也會發生變化。社交機器人能不能組織自己的團隊,社交機器人能不能組織自己的政黨,社交機器人能不能夠構建自己的社會組織?是誰把它當人了呢?

如果說,現在的弱人工智能機器人沒有做到這一點,那么強人工智能機器人是否可以做到這一點?把它定位為社交機器人,而它又不是獨立的個體,卻可以發揮政治社交和社會社交的主要職能。如果說人和社交機器人之間的主體關系變了,其組織肯定也要發生變化,如何對以美國為代表的西方民主進行定性就成為一個新的問題,比如說,西方人說過去運行的民主是真民主,但把社交機器人加在里面,可能他們也搞不清是真民主還是假民主,人的民主是不是變成了機器人的民主?這次美國大選讓人困惑的一個重要原因在于社交機器人瞬間變成政治社交機器人,通過政治社交機器人干擾選舉輿論,選舉過程中的謠言、謊言、陰謀論都與政治社交機器人有關。

如果承認社交機器人是有組織的社交機器人,那么下一個問題就是美國和西方其他國家這樣做的時候,社交機器人究竟能不能創造出或者輸出政治價值、政治觀念、政治能力,社交機器人能不能進行政治決策。現在社交機器人做的是輔助性決策。如果民主的主體、組織發生變化,社交機器人的民主價值觀念緊隨其后,美國等西方國家與社交機器人究竟是什么關系就需要弄清楚。一旦社交機器人這一政治主體及其政治組織出現,社交機器人的政治觀念緊隨其后,其政治風險就可想而知,好在現在的社交機器人還沒有達到強人工智能那種程度。但人們仍然看到美國大選過程當中社交機器人對于輿論的介入。當時有好多賬戶非?;钴S,一旦選舉結束之后,原本活躍的賬號突然消失,或者不再活躍,變成“僵尸號”。

這個社會里面本來是人支配人的關系,人和人之間從政治的角度來說是政治輿論輸出、輸入、傳導、相互激蕩的關系,社交機器人真的能夠獨立輸出政治輿論?當時美國選舉的政治輿論是兩個人的極化輿論,有的美國人想選特朗普,有的美國人想選拜登,社交機器人在政治輿論里面加入了第三種輿論,就是社交機器人本身創造的輿論,美國民眾搞不懂,中國民眾更搞不懂。

如果有的政治輿論是社交機器人,不是美國的民眾,網民又分不清,那就很麻煩:喜歡拜登的,通過社交機器人把那些輿論做一個整合后再進行傳播,只支持推送反對特朗普的政治信息和政治輿論;喜歡特朗普的,要支持反對拜登的政治信息和政治輿論。我當時已經寫好了一萬七千多字的文章討論美國大選民調問題,最后也發現好多民調信息是基于社交機器人,它們參與了政治輿論的制造與傳播。

社交機器人在美國大選中起了多少作用不得而知,但社交機器人破壞民主顯然是不爭的事實。社交機器人參與了這種輿論宣傳,最后導致什么結果呢?社交機器人破壞了人們的民主價值,破壞了人們的民主觀念,破壞了民主的主體,破壞了決策的主體,破壞了民主的情感。人們需要民主制度來保證民主選舉,需要政治情感來支持民主選舉,但社交機器人破壞了民主選舉和民主情感,導致美國的民主選舉成為偽民主。美國的社交機器人讓我感到非常震驚,包括我自己在內,都傳播了美國選舉的錯誤信息。

人工智能可以往太空發展,但我不希望社交機器人侵犯人們的私人生活。中國的社交機器人應該和美國在高精尖領域開展競爭,別任由它跑進人的生活。疫情期間,到處都需要掃碼進行人臉識別,在人群密集的公共場所還需要摘下口罩才能識別。要發展社交機器人,發展眼睛社交機器人,對著你的雙眼拍照就可以。攝像機器人天天“監視”人們的私生活,不恰當地關注人們的隱私,使人們似乎感覺自己如同赤身裸體一樣在大門外面到處亂跑。走在哪兒,機器人都知道你的具體位置,個人的尊嚴不僅沒有得到保障,反而遭到侵犯。

(作者為西北政法大學新聞傳播學院教授)

社交機器人領域研究進展及趨勢分析

高山冰

我們團隊這兩年開始關注社交機器人應用領域,發表了一些研究成果。為了更好地熟悉這一領域,我們通過文獻計量的方式對社交機器人國際發文現狀做了分析。

社交機器人近幾年受到非常多的關注,這從國際發文數量上就能看出來。從2010年到2020年發文增長率非常高,2019年達到最高的163篇。國內相關研究也是類似的情況,成果主要集中在2019—2020年。

社交機器人研究呈現出多學科的背景,成果分布在61個學科領域。其中,主要包括計算機科學、工程科學、傳播學及通信科學等。從科研成果的署名信息來看,美國是發文量最高的國家,共發文235篇,占社交機器人總發文量的37.24%;其次是英國,共發文61篇,占總發文量的9.83%;其他國家雖有發文,但與發文量最高的美國依然有一定的差距。從中觀層面統計科研機構對社交機器人領域的關注情況發現,全球有600多個機構曾參與社交機器人的研究。國內現在也有一些研究團隊,比如北京師范大學、哈爾濱工業大學等。諸多學者可以從傳播學、哲學、法學等領域一起來探討社交機器人應用的話題。

我們通過高頻關鍵詞及關鍵詞之間的共現關系揭示社交機器人的主要研究主題。圖1呈現的是關鍵詞聚類圖譜,節點及關鍵詞標簽的大小代表詞頻的高低,同一顏色代表具有相似研究主題的聚類,節點之間連線的粗細代表共現頻次的多少。

目前社交機器人的研究主題主要聚焦四個方面。

第一個是技術賦權下的社交機器人治理。主要是從技術治理層面來探討兩部分內容,即檢測和模擬。前者研究內容側重于社交機器人的檢測方法與技術,主要是計算機科學在做的事情。后者是關于社交機器人活動路徑的實驗及跟蹤的研究結果,可以幫助助后續的研究者提出針對性的檢測方法和防御策略。

第二個是社交機器人的角色和影響。學者們圍繞一些實際案例來研究,比如在美國大選、法國大選中,大量的社交機器人參與選舉活動中,干擾了輿論走向。印第安納大學布盧明頓分校的學者分析了2016年美國總統選舉期間及之后的1400萬條推特消息,發現社交機器人在虛假信息的傳播過程中起著關鍵作用。

第三個是關于用戶對社交機器人的看法及態度。最初的研究主要落在具體的行為層面上,比如轉發、回復等?,F在開始延伸到影響更為廣泛的認知和態度層面,即分析社交機器人和人類用戶在信息發布的主題以及情感上的差異,并做一些引導關系的研究。我們團隊也在嘗試運用心理學的相關實驗來進行分析。

第四個是社交機器人和人類特征差異的研究。主要圍繞社交機器人發文的長短、發布的時間點、語義的情感表達,甚至不同社交機器人的頭像、主題詞的定位等內容的差異來進行研究。這個主題的相關研究成果多是通過比較分析法展開的。

針對社交機器人應用出現的問題及后續研究,我談幾點個人看法,供大家批評。

首先我們還是需要關注社交機器人檢測的問題。需要去了解社交機器人的角色與影響,社交機器人在社交媒體上的活動特征,社交機器人與人類的差異性等核心問題,進而探討如何從技術角度對社交機器人進行治理。

其次,關于倫理的問題。這是現在人文社科類學者研究比較多的議題。有學者認為使用社交機器人存在欺騙性,帶有政治操縱的性質,是一種腐敗的行為,會擾亂網絡秩序且不利于形成網絡信任等。但也有學者認為人類可能高估了社交機器人帶來的危害。我們團隊通過抓取推特上的數據對社交機器人干預中國議題進行了分析,結果發現相關議題下可能同時有不同用途的多種社交機器人參與其中,但社交機器人對一些中國議題的影響力相對有限。

再次,關于研究本土化的問題?,F在很多研究都是以推特平臺為主,很少涉及微博等國內社交平臺的研究。國內也沒有類似于Botemeter這樣專門識別社交機器人的工具。所以,在國內其他平臺上,社交機器人的現狀到底是什么樣的,是否跟推特存在差異性等問題,也是我們團隊關注的一個研究方向。另外,社交機器人在國內政治動員等領域缺乏土壤,但是涉及商業欺詐、粉絲操控、隱私侵犯等問題。針對這些問題,我們怎么去研究、怎么去應對、怎么去治理,值得各方思考。

最后,除了關注惡意機器人帶來的負面問題,也不能忽略對善意機器人的研究。

此外,提到社交機器人,談的更多的是在社交媒體上的算法程序。隨著人工智能技術的發展,我們的分析對象可以從代碼程序集上升到具有社交屬性的其他智能體,比如智能音箱、車載智能體等。此類研究有可能會顛覆一些經典理論,也是我們下一步可以研究和探討的方向。

(作者為南京師范大學新聞與傳播學院副教授、碩士研究生導師)

永遠不會有主宰人類的智能機器人

韓東屏

未來的智能機器人會不會主宰人類,甚至淘汰人類?

在關于人工智能問題的討論中,這是一個前提性的問題,或者說前提性問題之一。

因為對這個問題的不同回答,將決定我們需要研究哪些具體的人工智能問題。如果是肯定的回答,即未來的智能機器人會主宰人類,那么我們現在最迫切的研究課題就是:我們是否應該允許這種情況發生?是否需要對智能機器人的技術發展采取限制措施?以及采取什么樣的限制措施?如果是否定的回答,即未來的智能機器人不能主宰人類,那么,現在已經有人在做的如何防范智能機器人反叛人類的研究,如何與超人機器人和諧相處的研究,以及人類是否會在被超人機器人取代之前就安逸而死的研究之類,就成為不必要的研究。此外,解決這個問題,同時也能為智能機器人是不是人,是不是倫理主體,有沒有人格,是不是一個真正的勞動者等問題提供答案。

現在,學術界在這一問題上存在兩種觀點:一種是“能主宰論”,認為未來的智能機器人會成為人類的主宰,甚至淘汰人類;另一種是“否主宰論”,認為智能機器人不能主宰人類。這兩種觀點都給出了很多的理由和論證。我對它們綜合分析后發現“否主宰論”的論證比較無力,駁不倒“能主宰論”,盡管后者還含有假說成分。

“能主宰論”的立論是靠兩種說法,都有預測的假說色彩。一種說法是,根據現在智能技術的發展速度和倍增定律,推斷出在未來會有一個奇點,人工智能出現爆炸性的質的飛躍,于是智能機器人不僅具有主體性了,還有創造性,然后它在方方面面都會超越人類,也肯定會淘汰人類。另一種說法是,人工智能的發展分為弱人工智能、強人工智能和超級人工智能三個階段。弱人工智能就是目前的狀況,強人工智能比弱人工智能強很多,只是沒有自主性和創造性。如果說,現在的弱人工智能只能完成一個單純的任務,那么強人工智能可能會像工作者一樣,能完成工作崗位上的所有任務,這就比較厲害。超級人工智能階段的智能機器人,不僅能做一切人類能做的工作,而且既有自主性又有創造性,加之其計算能力本來就比人強大很多,所以其能力必然超越人類,從而成為人類的主宰。

面對有假說成分的“能主宰論”,“否主宰論”之所以仍然不能取勝,在于它都是在弱人工智能的前提下進行論證。比如,其技術性論證就是通過對現有的人工智能的狀況及發展情況的分析,得出智能機器人的發展不會超越人類的結論。又如在差異性論證中,一個理據是智能機器人與人相比,沒有情感,沒有非理性意識??墒?,沒有這些意識,就意味智能機器人不比人聰明嗎?另一個理據是說,智能機器人和人不一樣,沒有社會經歷和社會實踐,從而沒有歷史文化規定性,所以不可能超越并主宰人類。這個論據有點幼稚。在有大數據的條件下,智能機器人一“生”下來,不用實踐、不用經歷,就會擁有海量的信息,其中就包含比每個成年人都要多得多的各種知識,即科學知識、哲學知識、生活常識和歷史文化知識。既然如此,怎能斷言它沒有歷史文化規定性?再說,即便智能機器人沒有歷史文化規定性,也不是它無法超越、主宰人類的原因。人類歷史上,野蠻民族戰勝文明民族的事,并不罕見。還有一個理據是說,人能相互聯合和繁衍后代而機器人不能。這也明顯不對。智能機器人不會死亡就不用繁衍后代,既然機器人有智能,只要它們想聯合就能聯合在一起。“否主宰論”還有一種論證比較獨特,就是認為未來的智能機器人即便全面超越人類,也不會淘汰人類,就像人類出現以后不會淘汰低等動植物一樣,智能機器人也不會淘汰人類,而是會和人類和平相處。也許它不會淘汰人類,但現在問題是“主宰”,一個比人類更聰明的存在者,不會允許比他“笨”的主體來主宰自己和地球。

雖然“否主宰論”沒有證成,卻并不意味著“能主宰論”就是對的。因為它本身畢竟存在假說的因素,還未能確證奇點或超級智能機器人出現的必然性。也就是說,它只是說會有奇點、會有超級智能機器人。但為什么會有和怎樣才能有的問題說得不清楚,更沒有告訴我們,為什么這個時候的智能機器人就成為主體了,就有創造性了?

在我看來,這是不可能的。即使讓智能機器人隨便發展,發展到一萬年以后也超越不了人類。為什么呢?我們就從最簡單的事實說起,任何兩個不同的實體,它們的性能必定是不一樣的。我們找不到任何一個反例,即兩個性能完全一樣,功能完全一樣,性質完全一樣的實體,居然是兩種不同的實體。

智能機器人的基本原理是什么?就是算法,算法就是邏輯思維,這就是智能機器人的基本性能。這個基本性能是以智能機器人的機腦為載體的。而機腦與人腦對比,在材料、結構、形態等方面都是有差異的。既然如此,只要是以電子元件為基本構成,然后以物理結構為結構,有一個非生物性的實體形態的機腦,就肯定同人腦不一樣,性能也不一樣,其中就包括不具備人的創造性思維,即便再發達的超級人工智能也是如此。為什么?因為無論怎么設計智能機器人的智能,只要它的載體不是生物性的人腦,最終依賴的都只能是算法,算法就是一種邏輯思維,它只能從有推出有,而不能無中生有。盡管當下的人工智能能寫作詩詞,甚至比一般的人寫得還好,但其實這并不是創造,仍然是算法,只不過是把文字和前人的大量詩詞變成數據,然后再將寫詩詞應遵循的規則、平仄、韻律之類作為條件編入程序設置好,智能機器人就可以通過重新組合文字而形成新的詩詞。阿爾法狗戰勝人類棋手也一樣,底層機理都是運用數據按規則進行大量的快速計算,也就是從有到有的邏輯演繹。創造卻是從無中生有,它是非理性的,也是非邏輯性的。在整個智能里,最厲害的成就就是創造。人之所以從動物變成人,就是因為人會創造并不斷創造,而動物不會,智能機器人也不可能會,它只能運算,就是從已知推出已知,它創造不出來未知,所以永遠不會比人厲害,永遠不能成為人類的主宰。

退一萬步講,就算智能機器人也能創造,還是主宰不了人。為什么呢?因為智能機器人自身沒有需要——它不是生物有機體,就沒有需要,也不會生長。而沒有需要又不需要生長,也就不需要做任何事。正如石頭沒有任何需求,自然沒有做任何事情的動機。既然智能機器人本身是不需要做事的,也沒有做事的動機,那么肯定是人類輸入指令它才會行動。因此,智能機器人永遠不會有真正的自主性,也不可能成為主體。

智能機器人沒有需要也不會生長這一點,決定了它不具備所有生物都有的自利本性。在本性上,可以說智能機器人只有利人性,因為人把它創造出來就是讓它為人服務的。

“能主宰論”關于人工智能能超越人類的技術論證,基本方法就是兩個,一個是整體模仿或系統模仿,一個是本質性構造。

對于系統模仿,只要所用的東西與人腦不同,不是生物細胞,不是生物結構,不是生物形態,那就模仿不出來真正有人腦性能并包括創造力的人腦。而要想模仿出和人一樣的人腦,就只有用和人腦一樣的生物材料,可如此造出來的腦,最好的結果就是大腦,差一些的結果則是還不如人腦的腦。所以,此法不可能成功。

本質性構造法屬于還原論,認為到了量子層面,物質和精神就不分彼此了,因而以量子計算為基礎構造的機腦,就可以達到甚至超越人腦的水平。問題是,哪一個實體沒有自己的量子層面?例如石頭也有,可石頭為什么沒有意識?所以,在量子層面,不可能找到意識或智能的秘密。由此可推斷,西方的還原論,作為一種解釋方法,是有限度的,不能無限還原。其限度就是:復雜或高等級事物的運動或問題,不能用簡單或低等級事物的規律或道理來加以解釋。這就意味著,生物性事物才有的性能,不能用物理規律進行解釋,不能到物理層面找成因。而且,同樣是生物性事物,因復雜程度不同,其性能也會不同。如最高級的靈長類動物黑猩猩,雖然也有意識,卻沒有自我意識,更沒有能夠形成有創造力的想象力,原因就是其大腦的復雜程度遠不如人腦。這就是說,要想造就一個同樣富有創造力的智能機器人,必須得給它配備有機體的人腦,而人腦又不可能安裝在一個無機體的身體上。

總之,我覺得對未來智能機器人的事兒一點兒都不用擔心,讓我們的人工智能大踏步地發展吧,這只會給我們人類生活帶來巨大的改善。其中最好的事是什么呢?就是未來的人工智能會代替我們做很多工作,甚至所有可以還原為邏輯運算的各種工作,都可以被它替代。但是,這也并不是說人類就無所事事了,就會因無用而成為多余。這樣的狀況其實很好,它豈不是意味著,我們已經進入了馬克思所設想的自由王國時代了嗎?

自由王國是對必然王國的超越,必然王國就是人類必須從事必要勞動即物質生活資料的生產才能續存的世界。我們為什么發明那么多機器?不就是為了讓人在勞動中省些氣力,少干點活嗎?我們為什么要縮短工作日?不就是為了讓人擁有更多的閑暇或自由時間嗎?物質生產基本上都是重復性勞動,創造性勞動則不然,它是人的本質力量的體現,也是人的自由和自我價值的體現,所以它是快樂的勞動。當人類把必要勞動和物質生產交給智能機器人之后,自由王國就出現了。這時,每個人都可以根據自己的興趣、愛好,去從事展現自己本質力量和創造性的勞動,從而讓自己的才能充分發展或全面發展。這無疑是人類最理想的狀態。

(作者為華中科技大學哲學學院教授、博士研究生導師)

智能倫理亟待重構(2) 本文系國家社會科學基金重大招標項目“人工智能前沿問題的馬克思主義哲學研究”(19ZDA018)的階段性成果。

孫偉平

人工智能何以成為近些年來倫理道德反思的焦點?我想,可能主要基于以下兩個方面的原因。一方面,人工智能是深刻改變世界、有遠大前途、應用前景廣泛的基礎性技術。近年來,人工智能的發展日新月異,各種專用的智能系統表現優異,給人以巨大的沖擊和深深的震撼。另一方面,人工智能是一個具有革命性、顛覆性的“新事物”,它目前遠未成熟,尚難準確地預料其后果。智能技術與生物技術有機結合,突破“圖靈奇點”、超越人類智能日益成為大概率事件,這可能導致天翻地覆的變化。但在這種前所未有的沖擊中,人類并沒有做好必要的準備:不僅對于人工智能是什么、發展趨勢如何尚未取得基本的共識,也無法掌控人工智能的發展和應用方向,而且相應的政策取向比較模糊,倫理規制比較缺失,法律法規不太健全,不知道如何應對由之而起的經濟、政治、社會和文化難題。

正因如此,我們需要未雨綢繆,圍繞“興利除弊”的目的重構智能倫理,既努力發展人工智能,令其“為我所用”,造福人類,又建立必要的防御機制,防范其可能導致的風險和代價。

首先,我們應該看到,人工智能是一項前沿性的基礎性技術,是新型的智能社會的基本技術支撐,在倫理道德建設方面具有十分積極的作用。

經濟活動的信息化、智能化,例如智能機器的廣泛使用、智能產業的快速崛起、商業營銷方式的變革等,在促使產業、經濟快速轉型升級的同時,大幅提高了勞動生產率和生產力水平,創造出物質財富極大豐裕、人民生活水平普遍提高的局面,為社會的良性發展和倫理道德水平的提升奠定了堅實的物質基礎。

大規模使用智能系統(智能機器人)代替人工作,特別是基于信息化、智能化的“無人化”運動,逐步將人從一些繁重、重復、單調、有毒、有害、危險的工作(環境)中解放出來,這不僅使得工作環境和工作條件不斷改善,生產過程越來越人性化,而且節約了大量人力資源和人的勞動時間,增加了人的自由活動時間,使人得以擺脫異化人的舊式分工,有條件獲得自由、全面的發展。

人工智能在軍事、教育、醫療、體育、文藝創作、社會治理、環境保護等領域的廣泛應用,為人們的學習、工作和生活提供了豐富多彩的選項,極大地拓展了人們的生存和生活空間,重塑了人們的學習方式、工作方式和休閑娛樂方式,從而全方位地提升了人們的生活品質。

人工智能可以運用于虛擬現實之中。在虛擬現實中,例如虛擬的體驗式、交互性活動中,一個人可以在身體及精神方面成為一個不同的人,并且可以按意愿選擇不同的體驗。

此外,人機結合、人機協同、人機共生、人機一體化……可能幫助人自身變得越來越聰明、能干,越來越深入許多新的領域、新的智能時空域人們不斷開發各種有針對性的智能系統,幫助殘疾人或身體有疾病的人克服身體的疾患和局限性。人工智能使人們獲得越來越全面、自由的發展,成長為適應智能時代特點的“時代新人”。

其次,人工智能并非“天使般的高新科技”,它可能導致的負面效應也很令人頭痛,隨之而來的問題與挑戰十分嚴峻。

人工智能是建筑在大數據基礎之上的。大數據資源本身是否完整、可靠,是否及時更新,數據采集、存儲是否合法合規(例如是否遵守“知情同意”等倫理原則),都可能隱藏著風險。目前的數據采集、存儲和應用過程中,存在大量侵犯個人隱私和相應主體權利的做法;一些不法組織或個人經常利用非法收集、持有的大數據,對人進行“分析”,利用分析結果從事騷擾、詐騙、恐嚇活動。

算法是人工智能的靈魂和“中樞神經”,但算法不過是以數據為基礎的計算機運行程序,它本身并非天然可靠,而是常常暗含歧視與偏見,或者放大既有的社會歧視與偏見。例如,市場主體可能基于唯利是圖的“資本的邏輯”,利用從各種渠道收集、購買的消費者大數據,編寫具有歧視性、誘導性甚至煽動性的算法,進行有針對性的“智能推送”“大數據殺熟”之類的市場營銷,從而坑害消費者,實現經濟利潤最大化。

隨著人工智能的飛速發展和廣泛應用,智能系統的“類人智能”和勞動能力日益增強,正在取代人類承擔越來越多的勞動任務和勞動職責。人相對而言正變得越來越笨拙,難以適應智能科技的快速發展和社會的快速智能化。這不僅導致“數字窮人”等弱勢群體日益喪失勞動的機會和權利,釀成“技術性失業”的風潮,而且令“數字窮人”淪落為尷尬的“無用階層”,被經濟和社會體系排斥在外,喪失存在的價值和生命的意義。

人工智能甚至正在侵蝕一些傳統的倫理道德關系,例如愛情和婚姻關系,動搖傳統的家庭結構。目前人形智能機器人發展很快,它們不僅可以做家務,當助手,陪人聊天解悶,一起嬉戲玩耍,甚至可以和人“打情罵俏”“談情說愛”、私人訂制性愛機器人“伴侶”……當人形智能機器人不斷取得實質性突破,以寵物、情人、伴侶之類的身份進入家庭,成為家庭中的新成員,歷史上延續了數千年的家庭關系、家庭倫理就難免受到強烈的沖擊。

此外,近年來一直令人不安的是,有科學家認為,人工智能超越人類的“奇點”正在迫近。這不僅令人類的優越性、主導地位和尊嚴面臨前所未有的挑戰,而且直接將人類自身置于極大的不確定性和風險之中。例如,具有自主意識、具有學習和創新能力的超級智能,是否可能“失控”,反過來統治、主宰人類,“將人類關進動物園里”?即使超級智能本身沒有干壞事的欲望和動機,但如果有人將不良的動機和錯誤的價值觀輸入超級智能的算法之中,或者利用黑客技術操縱超級智能,后果將是人類不可承受之重。

再次,人工智能的快速發展和廣泛應用,對倫理道德的主體——人本身帶來了極大的挑戰,這種釜底抽薪的變化令傳統的倫理道德進入了“革命的前夜”。

隨著通用人工智能特別是人形智能機器人的快速發展,“人是什么”,或者說“誰”可以成為倫理道德的主體,成了一個不那么確定的問題。一方面,人正在被各種智能技術、生物技術所“改造”,自然人日益被各種高新技術和裝備“武裝”起來,人機協同甚至可望人機一體地開展生產和生活;另一方面,智能系統特別是人形智能機器人的智能(思維)水平突飛猛進,甚至日益具有自主性、計劃性和創造性,表現得“越來越像人”,許多單項能力甚至已經超過了人。自沙特阿拉伯于2017年10月25日授予漢森機器人公司研發的智能機器人索菲婭(Sophia)公民身份以來,智能機器人是否是“人”?人的本質究竟是什么?這些就成了令人尷尬的“真問題”。

在文明史上,人一直占據著無可爭議的主導地位,機器從來只是人類的工具。如果智能機器人具有類似人類的智能,在一定意義上是“人”,那么,人是一種什么樣的“類存在物”就變得不確定了,人類的中心地位就被動搖了,以往一切立足于人的立場的倫理理論和道德實踐都需要進行革命性反思。即,以往人是唯一的倫理主體或道德主體,現在,智能機器人也可以擁有公民身份,也可以成為倫理主體或道德主體。那么,什么是善?什么是惡?區分善惡的標準是什么?應該由誰掌握道德評價、道德教育與道德管理(決策)權,等等,都需要根據人機關系的發展狀況重新進行反思,調整和重構看來不可避免。

這種倫理道德的主體的反思、調整和重構,無疑是一場空前激烈的革命,它可能導致許多顛覆性的后果。例如,在重構新型的人機關系時,智能機器人是否具有“人格”和“尊嚴”?是否應該享有與人一樣的權益?是否應該、是否能夠承擔相應的行為后果……這類問題誠然具有挑戰性,但也并非不可討論。實際上,目前寵物(如貓、狗等)都已經“爭取”到了一定的動物權利,人形智能機器人明顯更加“高級”,因而完全有理由獲得更多的尊重,擁有更多的“人權”。

綜而言之,倫理道德正處在一個關鍵的轉折點上。無論如何,在這場前所未有的“倫理大革命中”,人類需要“猛醒”,需要反思,需要行動:破除“人類中心主義”意識,克服狂妄自大的傲慢與偏見,延展哈貝馬斯的主體間的交往理性和商談倫理,重新認識、界定“人”和人機關系,重新商討相應的倫理規范和行為準則(特別是確定不可逾越的“底線倫理”),從而建構一種新型的人機協作、人機和諧的倫理新秩序。

(作者為上海大學偉長學者特聘教授、上海大學哲學系教授)

人工智能與意義世界的重構

程廣云

人工智能的意義問題誠然是一個很重要的問題,但人工智能最主要的挑戰是它正在整個地摧毀我們現有的意義世界。這個問題涵蓋很廣,不限于就業、創造方面的問題。馬克思在《資本論》中討論機器問題時,就提出了“鐵人反對有血有肉的人”這一論斷。人工智能正在加速度淘汰我們,使我們成為“多余的人”。如果人最引以為傲的創造性活動被人工智能所取代,我們人生的意義又在哪里呢?譬如現在有詩詞創作軟件和外語翻譯軟件,經過這幾年的發展,寫得、譯得還真像模像樣,以至于孫周興這樣的翻譯家,都說“翻譯的時代過去了,說唱的時代到來了”,大約是說人工智能取代翻譯行當,說唱文化取代書寫文化,但這僅僅是過渡,說唱也將不再是人類的專利。有人以為人工智能不會動情,不會犯錯,總要給人工智能劃出界限,為人類智能留一塊地盤。其實情感也好,錯誤也罷,只要表現為信息的傳輸,原則上人工智能就能模擬。我們周圍的一切幾乎都在被人工智能所取代,這是表象的問題。我們今天需要思考的是:我們能不能避免被人工智能所取代?人工智能會不會全盤地顛覆我們現有的意義世界?在解構原有的意義世界后,我們能不能重構我們的意義世界?

為了給出我思考問題的框架,首先解釋一下我理解的人工智能。我所謂的人工智能不限于狹義的定義,廣義地講,諸如基因編輯、虛擬現實之類的高新技術都應該被包括進來。它有三個方面的基本含義。

首先,人工智能出現了智能機朝著機器人方向的技術改進趨勢。智能機還是我們的工具和手段,機器人已經作為一種類人主體存在,也就是說,人工智能發展到一定程度,有可能通過科學技術的手段,創造一種未來的智能生命。從科學家們提出機器思維的問題起,從弱人工智能、強人工智能、通用人工智能到超級人工智能,從邏輯推理、概率推理到因果推理即從形式化、經驗化到理性化,人工智能一直朝著創造一種智能生命的方向發展。趙汀陽說:這是“存在論級別的生命升級誘惑”。生命,正如思維一樣,不應從本質主義去定義,而應從功能主義來定義,切忌以生命的現存方式來限制我們理解生命的可能方式。

其次,一些科幻作品所設想的機器人和自然人之間的終極戰爭、機器人奴役自然人,只是一種可能,其實還有另外一種可能:不僅機器可能升級成為“類人”,即作為機器人的智能生命(即“硅基人”),人類本身即自然人的智能生命也有可能升級,甚至動物、植物和微生物都有可能升級(即“碳基人”)。像基因編輯就是這方面的技術手段。還有,人機之間或機器與動物之間同樣出現了由“外掛”到“內聯”的技術改進趨勢,等到大腦植入智能芯片,賽博格(Cyborg)等出現,就到了所謂“后人類紀”。

最后,整個智能環境的出現,可能比前面兩項更重要。像虛擬現實就是這方面的技術手段。比如有一次我置身于上海迪士尼樂園的虛擬現實環境中,感覺所謂真實和虛假的界限完全被突破了。如果一塊智能芯片能夠帶來一種智能,不僅賦予機器以智能,而且賦予草木、土石以智能,那么我們整個生存環境都會改變。在這樣一種改變下,從我們現有的科學技術可以推論出一種未來的生存狀態,我們的意義世界又將會發生怎樣的改變呢?

我再簡單介紹一下什么叫“意義世界”?可以說,意義世界的出現,就意味著世界的二元化。李澤厚說:中國人生活在一個世界,西方人生活在兩個世界。我認為這是錯的。所有人都生活在兩個世界,就是世界的二重化:意義世界和生活世界的分離。具體地說,就是人類在意識到了自身的有限性后,一直要求突破其有限性,當然是從幾個方面分幾條路徑來尋求突破,比如在生與死的張力中,追求一種永在;在自我與他人的張力中,追求一種共在;在苦與樂的張力中,追求一種善在,等等。意義世界是這樣生成的,這是我們人類即自然人所生成的意義世界。在歷史上這方面的例子很多,比如上古顓頊時期“絕地天通”,“地”代表生活世界,“天”代表意義世界,“絕地天通”可能就是中國人建構意義世界的一個原始證據。

人類建構意義世界的方式和方法當然還有很多,從肉體不朽、靈魂不朽到社會不朽,從歷史理性、生命激情、審美主義到宗教情懷,等等。像《愚公移山》講的,個人有死,但是通過代際延傳達到一種無限;“《春秋》三不朽”(即“立德、立功、立言”),就是歷史理性所追求的社會性不朽;像莊禪講的“瞬刻永恒、剎那終古”,就是審美主義。在某種意義上,建構意義世界是現代性的表征,而解構意義世界則是后現代的表征。虛無主義是解構意義世界的價值傾向,當然早就有了,如佛教的苦感文化和解脫(涅槃)訴求等。尼采有個寓言,說是一個獵人抓住了一個酒神的伴護,詢問什么對于人類最好,得到的回答是,最好是不要出生,次好是立刻死去,這就是一種虛無主義的說法。末人說很流行,許多人都講過。末人相對初人而言,初人在創建意義世界,末人在消解意義世界;初人還有生殖欲望,末人已無生殖需求,既不是沒有條件,也不是沒有能力,而是失去了生殖后代的愿望。我們現在有一些青年人所謂“躺平”,其實就是一種末人狀態。這就告訴我們,人類所建構的意義世界,其根基是非常不牢靠的,面臨著虛無主義等解構力量的挑戰。

但現在又出現一種態勢,就是所謂人工智能“臨近奇點”:在某個意義上,主要是突破兩個界限:第一是突破死亡界限,第二是突破自我界限。當然突破有相對突破和絕對突破兩種可能,比如永生是絕對突破,長生是相對突破,還有再生、復活,等等。有人以為這不可能,并且以人的需要、創造能力不可移植不可復制為證據。其實不然!人的所謂需要(如食欲、性欲等)是具有物質(生理)基礎的,同樣可以模擬;創造能力亦非無中生有,同樣可以編碼。在某種意義上,對死亡的突破就是對自我的突破,這有各種可能,譬如更換載體(從肉體到機體乃至虛擬形態),移植記憶,復制個性(特定刺激——反應模式),等等。在這種前提下,我們原來建構的意義世界應該就不成立了,因為它是以生命和自我的有限性為前提的,所以我們整個的形而上學亦即原有的意義世界完全被格式化。這就提出了重構意義世界的問題。

如何重構意義世界?我的基本思路就是從前意義世界尋找我們重建后意義世界的經驗和智慧。簡單地說,人類原來是通過突破一種有限性,想象出無限性,通過這樣的存在來建構意義世界?,F在出現的狀態又是什么呢?就是人們原來以為是虛幻的東西,比如像《一千零一夜》《西游記》這些神話故事,像《三體》小說中的科幻情節,最終都可能通過科學技術來實現。我們從兩個世界重新回到一個世界,我們現在的生存狀態是朝向這個目標運行的一個過程,我們根本的生存狀態又改變了,我們從生活在兩個世界重新回到生活在一個世界,但不是回到原有的那個單一的生活世界,而是將意義世界融化于生活世界。假如說初人或者說類似動物的人是生活在一個世界,就是現象的世界、經驗的世界或生活的世界的話,那么未來人們所生活的世界,就是我們原來所建構的意義世界,隨著生命的升級,它降級為生活世界或者說被現實化亦即被虛擬化。從前我們以為科學技術是在解構意義世界,現在我們應該相信科學技術是在實現意義世界亦即虛擬意義世界,將意義世界降級為生活世界。在這種情況下,許多東西都將改變。我們原來以為是絕對真理的基本命題,譬如海德格爾所謂“終有一死的人”(“向死而生”),可能就不再成立了,這個問題非常嚴重。但是,假定人不死,人活著還有意義嗎?這仍然要打一個問號。從前人類在建構意義世界時向往不朽,假定我們都獲得了不朽,人生就有意義了嗎?這仍然要打個問號。我曾做過兩個文本的比較研究,一個是中國古代的“吳剛伐桂”仙話,一個是古代希臘的西西弗斯神話以及加繆的存在主義闡釋,研究的結論是,早期人類已經發現一個問題:人類即使獲得了不朽,生活的意義問題仍然沒有得到解決。波伏瓦有一部小說《凡人必死》(或譯《人都是要死的》)就是對這個問題的存在主義思考。

在這一嚴峻形勢下,意義世界的重構才是我們真正應該思考的一個形而上學問題,它比我們所謂的倫理道德問題或法律問題更嚴重。人們試圖以人類的倫理道德和法律來規范、限制和引導人工智能的發展,這一努力面臨諸多困難,國家之間的競爭甚至某些個人的沖動,都會放大人工智能存在的風險。機器人為什么要遵守自然人的倫理道德和法律?其實只要知道我們人類為什么要遵守自己的倫理道德和法律就可以了。簡單地說,所謂倫理道德是一種直言律令,即應當做什么、不應當做什么;所謂法律則是一種假言律令,即假如你做了不該做的或不做該做的應該受到什么懲罰,假如你做了該做的或不做不該做的應該受到什么獎勵。這種規范化和制度化的律令之所以具有預期效應,是因為人類具有好生惡死和趨利避害的本性。如果我們讓機器人也遵守自然人的倫理道德和法律,那么我們可以輸入必要的指令,同時也讓機器人像自然人一樣地擁有快樂和痛苦的感覺,這個目標就基本達到了。但是,這里仍然存在一個問題,即使機器人像自然人一樣地遵守人的法律和倫理道德,大家和諧相處,我們的生活意義又在什么地方呢?這比所有與人工智能相關的問題更高級,甚至是一個最高級的形而上學問題。

問題的提出就包含了問題的解決。既然意義世界降級為生活世界,形而上學也就降級為形而下學。換句話說,意義不在生活之外,而在生活之內。意義通過虛擬而實現,通過虛擬化而現實化。也許,生命突破死亡界限而連續不斷;個體突破自我界限而增容擴容;苦與樂、幸福與不幸都還原為感覺,而感覺則可以復制、移植;不再有成就,但可以有成就感;不再有榮耀,但可以有榮耀感……生活具有無限可能——意義世界和生活世界的合成可能就是未來智能生命的生存境況,現已漸露端倪。

(作者為首都師范大學政法學院教授、博士研究生導師)

尋求人工智能倫理的國際共識——以歐盟人工智能倫理建設為例

楊通進

近年來,隨著逆全球化、反全球化、民粹主義、狹隘民族主義等極端思潮的沉渣泛起,冷戰思維、東西文明對抗的觀念在一些國家或地區得到追捧,國際局勢變得撲朔迷離。在這種情況下,談論和倡導全球共識,似乎顯得有點不合時宜。但是,從維護全人類共同利益的角度看,越是在國際局勢晦暗不明的時候,學界越是要保持頭腦的清醒。殷海光曾說“知識分子是時代的眼睛”,知識分子的這雙眼睛不應當、也不能被時代的各種濁流所遮蔽。歷史上,對國際秩序的思考與建構往往是在國際局勢的晦暗不明的背景下展開的??涤袨樵?902年寫下倡導世界主義與世界國家之《大同書》的時候,正是中華民族救亡圖存、嘗試建構現代民族國家的關鍵時期。雅斯貝爾斯也是在德國戰后重建、冷戰開始形成的時期,倡導世界主義和全球公民理念的。因此,在全球網絡共同體建構初期、AI研發的國際合作前途未卜的敏感時期,思考、討論和尋求人工智能倫理的國際共識正當其時。

一、全球共識的緊迫性與重要性

思考、討論和尋求人工智能倫理的國際共識之所以是必要的和緊迫的,這是由AI技術本身的重要性決定的。從某種意義上說,AI技術是到目前為止對人類的社會生活、社會關系、人的歷史產生的影響最為深刻、最為廣泛和最為長遠的一項技術。

首先,AI技術對人本身、對人的自我認識和自我理解產生了深刻的影響。人是什么?人與機器的區別在哪?人的自我以及自我的邊界在哪兒?智能是什么?人的身體與心靈的關系是什么?人工智能技術尤其是以強人工智能為基礎的機器人技術對這些問題的思考和回答都向人類提出了前所未有的挑戰。實際上,就人的自我認同而言,人工智能對每一個人都產生了巨大的影響?,F在,大多數人都離不開手機,手機似乎成了“無機的身體”;花費在手機上的時間不僅改變了我們的生活習慣,還改變了我們感知與認識世界的方式。隨著社會管理和日常交往方式中電子化程度日益提高,我們所有的信息都將“暴露在電子網絡”里,我們就是我們的電子信息,我們的電子信息就是我們自己。

AI技術也將對人們的社會關系產生深刻影響。以強AI技術為基礎的各種專用和通用機器人日益進入人們的生活世界,人們的社會關系將會變得更為復雜和多樣。目前,是否研發和銷售性愛機器人已經成為人們關注和爭論的一個焦點問題。美國學者戴維·萊維在《與機器人相愛并做愛》(2007)中預言,到2050年,機器人將會獲得與人相愛的能力,并把自己塑造得“浪漫可愛與性感可欲” ;人和機器人相愛甚至結婚在2050年都會成為現實。2014年以來,他每年都在世界不同的地方舉辦一次“世界性愛機器人大會”,倡導人們承認并從法律上認可人與機器人婚姻的合法性。許多人認為,當我們從立法的角度承認和接納同性婚姻后,人類追求“婚姻平等”的任務就完成了。但是,在萊維看來,這個任務還沒有完成,婚姻革命的下一個目標就是實現人-機(機器人)婚姻的合法性。(3)Levy D, Love and Sex with Robots, New York: Harper Collins e-books, 2005, pp.37, 152.

與萊維針鋒相對,英國德蒙福特大學的倫理學教授凱瑟琳·理查德森則從2015年起發起了“反對性愛機器人運動”。理查德森認為,性愛機器人有物化女性和兒童的嫌疑;在與人的性愛活動中,性愛機器人基本上都是被動的接受者,這種不平衡的關系將會助長人們的性虐待行為,長此以往,針對性愛機器人的性虐待狂將會對真正的人類異性缺乏同理心和同情心;與性愛機器人的性行為實質上等同于性交易,如果不加以規制,這種性交易行為將逐漸泛濫。理查德森的結論是,將性交易行為擴展到機器人身上,既不安全,又有違公序良俗。(4)Richardson K, “Sex Robot Matters”, IEEE Technology and Society Magazine, Vol.35, Issue 2(2016): 46-53.據報道,目前荷蘭阿姆斯特丹的紅燈區已經提供機器人的“性服務”。關于人與機器人的性愛倫理問題,現實已經走在理論的前面。我們該不該研發性愛機器人,該不該銷售和使用性愛機器人?性愛機器人與我們平??吹降娜毡句N售的情趣用品是一回事嗎?人們能夠同時擁有一個人類伴侶與一個機器伴侶嗎?人-機(機器人)婚姻中的夫妻關系應當是一種平等的關系嗎?這對未來的人際關系提出了全新的挑戰。

其次,AI技術對人民與政府之間的力量平衡也產生了微妙的影響。在一些國家或地區,先進的AI技術給人民提供了更多的自由空間,給民主的實現提供了更多的有效渠道。但是,先進的AI技術也能成為政府有效控制人民的工具,先進的網絡技術可以幫助政府建立起空前強大的警察國家,從而對公民的基本自由構成嚴重的威脅。如果人們就政府如何使用AI技術的問題無法達成某些基本的共識,那么,AI 技術將可能會成為政府剝奪公民權利、限制公民自由的幫兇。

再次,AI技術的發展會影響國際關系的發展與調整。目前,關于如何合理使用無人機的問題,已經引起人們的廣泛關注。就國際關系而言,一般認為,每個國家的領土和領空都是神圣不可侵犯的;未經主權國家的同意就越過其邊界的行為屬于侵略行為。但是,進入某個國家領空的無人機上面沒人,這算是入侵該國領空的侵略行為嗎?國際法對此尚無定論。自主武器系統的研發也是人們關注的一個焦點問題。20世紀40年代末,愛因斯坦曾撰文指出,他非常后悔參與了原子彈的研發;在他看來,在人類的道德能力還沒有得到充分發展的情況下,研發先進的武器只會使人類社會變得更不安全。因此,愛因斯坦晚年積極投身和平運動,呼吁科學家承擔起確保科技進步造福于全人類的道德責任。在目前的國際局勢下,科學家是否應當參與包括殺人機器人在內的自主武器系統的研發?對這類武器系統的研發會不會引發新一輪的軍備競賽?

2019年6月,清華大學戰略與安全研究中心與美國布魯金斯學會啟動了“人工智能國際治理”項目,力圖就人工智能技術對國際安全提出的挑戰及其治理進行研討和對話。清華大學戰略與安全研究中心主任傅瑩和布魯金斯學會會長約翰·艾倫分別表達了各自的觀點。傅瑩認為,雖然人工智能武器化不可避免,全面禁止人工智能武器很難達成全球共識,但是,目前正是“構建人工智能國際安全規范的關鍵窗口期”。作為在人工智能技術研究和應用方面發展最快的兩個國家,中國和美國需要在這個領域加強協調與合作;“中美開展對話與合作非常重要,將能夠為全球人工智能治理合作貢獻智慧。因此,中美兩國應推動構建國際層面的規范和制度進行正式討論,在各自利益關切的基礎上探索合作領域。”(5)傅瑩:《人工智能與國際安全治理路徑探討》,《人民論壇》,2020年第36期,第6-7頁。傅瑩與艾倫共同署名發表《共同合作,美中就能降低來自AI的風險》,他們指出AI技術尤其是以AI為基礎的自動武器系統尚處于發展的初期,沒有最終定型,因而,我們仍有機會發展出新的規范、新的信任措施,劃定新技術的使用邊界;一旦這類技術發展成熟并被廣泛使用,就很難構建用于約束這些新興武器之使用的規則了。(6)Fu Y, Allen J, “Together, the U.S. and China Can Reduce the Risks from AI”, Noema, Dec. 17,2020,https://www.berggruen.org/people/fu-ying-john-allen,July 3,2021.聯合國有關組織也非常關注致命性自動武器系統的研發。2012年以來,聯合國人權觀察組織與哈佛大學國際人權法研究中心每年都發布一項限制和禁止致命性自動武器系統的倡議,提醒聯合國盡快制定相關的國際法,限制、監控與規制致命性自動武器系統的研發、管理與使用。(7)Human Rights Watch and International Human Rights Clinic, “Making the case: The dangers of killer robots and the need for a preemptive ban”, Dec. 19,2016,https://www.hrw.org/report/2016/12/09/making-case/dangers-killer-robots-and-need-preemptive-ban. July 7,2021.

除了會影響國際安全和人類和平,AI技術對于建設更加公正的國際秩序的也構成了挑戰。因為,隨著數字鴻溝的出現,某些國家可能會借助新的AI技術更加有力地維護全球等級制度;在這種全球等級制度中,少數國家可能會處于頂層,操控國際社會的運行規則,使大多數國家永遠處于被支配與被控制的地位。

最后,AI技術將會對人類歷史的未來產生深刻的影響。如今,隨著以信息技術為中心的技術圈的進一步發展,人類走上了一條日益依賴技術圈的道路。但是,越是復雜的技術系統,所潛藏的風險與不確定性就越大。目前,作為個體,每一個人的隱私(包括人際交往信息、銀行賬戶信息等)都有可能被泄露。面對越來越完善和無所不包的信息系統,每個人都感覺到自己無所逃遁,我們的所有信息(包括隱私)都完全掌握在信息管理機構(或有權使用這些信息的機構或個人)的手中。我們就這樣在不知不覺中走上了一條依賴技術圈的不歸之路。例如,當代人見證了電腦的發展與完善的過程筆者這一代人曾經用筆和紙進行寫作,但是現在,我們的寫作和思考都離不開手邊的電腦和強大的互聯網了。AI技術對人類生活的深刻影響由此可見一斑。

總之,AI技術對人類的影響不僅廣泛而且深遠,因此,必須要對AI技術的研發與使用進行某種治理。但是,治理的目標是什么?怎么治理?對AI技術的治理應該達到什么樣的狀態?在治理過程中應該采取哪些措施?對這些問題的回答都涉及基本的價值與規范。國際社會只有首先在基本的價值與規范層面達成共識,才能就AI技術的國際治理達成統一的認識。

對AI技術的治理既涉及政治和法律層面的問題,也涉及價值與倫理層面的問題。而國際社會在政治與法律層面之所以難以達成共識,首先是由于在價值與倫理層面存在較大的分歧。因此,在價值與倫理層面達成共識,是解決政治與法律層面的國際分歧的前提。在價值觀與倫理層面達成國際共識,對于AI技術的全球治理至關重要。

人類的道德能力尤其是國際道德能力的成長對于AI技術的全球治理也非常重要。在國際社會還沒有完全脫離自然狀態,尚未進入國際法治的文明狀態的前提下,任何先進的殺人武器的發明都不會給人類帶來和平,反而會使國際局勢變得更加復雜。核武器的發明給我們提供了一個悲慘的教訓。20世紀40年代中期美國發明原子彈以來,對核技術的控制與爭奪就一直是國際局勢緊張動蕩的因素之一。在今天的國際關系中,朝鮮問題、伊朗問題都是圍繞核技術的研發與控制展開的。以色列派無人機攻擊伊朗核工廠的行為是加劇中東緊張局勢的重要因素之一。目前,人類在控制核武器方面陷入了一種非?;恼Q的困境:一旦擁有,就不愿放棄;對于使用核武器的毀滅性后果,大家都心知肚明,因此,誰都不敢首先使用核武器;核武器雖然不會被使用,但是,擁有核武器的國家每年還要花費巨額資金來維護這些核武器。如果人類任由致命性自主武器系統被研發與使用,那么,未來的世界是更安全還是更不安全?殷鑒不遠,答案一目了然。今天,面對AI技術可能給人類帶來的巨大風險,人類不能忘記發展科學的初心和使命。發展科學的初心是要促進人類的解放,給人類帶來幸福。如果我們要讓AI技術實現這個初心,那么,就必須對AI技術的治理達成全球共識,用國際制度與國際規范來確保AI技術被用于造福全人類,促進全人類的幸福和解放。

二、歐盟AI倫理建設及其啟示

在民族國家內部,就AI倫理建設達成共識是相對較為容易的。但是,要在不同國家之間達成AI倫理建設的共識,卻面臨諸多挑戰。歐盟的AI產業相對中國與美國來說雖然不是那么發達,但是,歐盟的AI倫理建設,尤其是在跨國層面對AI倫理共識的尋求,值得我們關注、借鑒和學習。

歐盟在跨國層面的AI倫理建設工作始于2015年。2015年1月,歐盟議會法律事務委員會成立了專門研究機器人和AI技術之法律問題的工作小組;次年5月,該小組向歐盟委員會提交了“機器人民法報告草案”,呼吁歐盟重視并評估AI技術的社會經濟、法律與倫理影響。2017年1月,該小組主張制定“機器人憲章”。同年5月,歐洲經濟與社會委員會發布第一份關于AI治理的報告,主張關注AI給倫理、安全、隱私等11個領域帶來的機遇與挑戰,倡議制定AI倫理規范,建立AI監控與認證的標準體系。10月,歐洲理事會指出,歐盟應認識到AI治理的緊迫性與必要性,確保制定出高水平的數據保護和數字權利的倫理標準,并要求歐盟委員會在2018年初提出應對AI發展新趨勢的對策,將AI倫理與AI治理確立為未來立法工作的重點內容。

2018年,歐盟的AI倫理建設走上快車道。同年4月,歐盟委員會發布了AI發展的戰略性政策文件《歐盟人工智能》。該戰略包括三大支柱:第一,提升AI技術與產業能力;第二,積極應對AI帶來的社會經濟變革;第三,建立適當的倫理和法律框架,起草并制定AI倫理指南。6月,歐盟成立由52人組成的人工智能高級專家小組。12月,歐盟委員會發布《人工智能協調計劃》,提出了歐盟人工智能計劃的三大總體目標:符合倫理規范、安全可靠、技術先進。該計劃還提出了,項具體的目標。其中,第六個目標是建立人工智能倫理監管框架,推動歐盟AI倫理標準盡快問世;第八個目標是加強人工智能國際合作,組織召開AI國際部長級會議,就AI倫理準則尋求國際共識。

2018年12月,人工智能高級專家小組起草了歐盟AI倫理準則初稿。在征求多方意見并與歐盟委員會商討完善后,歐盟AI倫理準則的最終版本《可信人工智能倫理準則》與歐盟委員會的相應政策文件《建立以人為本的可信人工智能》于2019年4月8日同時發布。《可信人工智能倫理準則》首先確定了可信AI的三個特征,即合法性、符合倫理與穩健性(魯棒性)。該準則還提出了建立可信 AI 的四個基礎性原則:尊重人類自主性原則、防止傷害原則、公平原則、可解釋原則。該準則最后還提出了實現可信AI的七條具體的措施,許多措施都涉及倫理規則(如透明性原則,多樣性、非歧視與公平原則)。這些原則和準則為歐盟的AI倫理建設提供了基本的構架。隨著《可信人工智能倫理準則》的發布,歐盟的人工智能倫理建設初步完成。

歐盟的AI倫理建設給我們提供了許多啟示。其中最重要的有兩條。第一,對AI的治理不能僅僅采取技術的進路。AI技術的發展離不開社會、政治、經濟、法律、文化、倫理等方面的共同支持,合適的社會背景是AI技術得以發展的基本前提。AI技術帶來的許多問題(包括技術瓶頸方面的問題),是不能僅僅依靠技術本身加以解決的。AI技術所帶來的倫理問題,只能通過相應的倫理對策來加以解決。

第二,尋求AI倫理的國際共識不僅是可能的,而且是可行的。AI技術是沒有國界的,AI治理的某些核心價值與基本原則也必須是國際共享的。缺乏AI治理倫理的國際共識,不僅無法實現AI治理目標,AI技術的發展可能還會給人類的生存與發展帶來新的困境。AI治理倫理國際共識的達成,不僅有助于消除AI產品的貿易壁壘,更有助于AI技術的協同發展。尤其重要的是,在以民族國家為主體的現有國際秩序下,達成AI倫理的國際共識是可能的。20世紀80年代以來,隨著全球化進程的加速,一個真實的全球共同體(尤其是全球問題共同體)正在形成;人類面臨的一個重要挑戰就是,人們能否超越狹隘的民族主義價值觀,建構一種世界主義的全球倫理和全球公共政治文化,以便為全球問題的跨國治理提供必要的倫理基礎和道德動力。歐盟AI倫理準則的國際共識給我們提供了一個建構超越國界的倫理共識(尤其是AI倫理共識)案例,為我們構建全球層面的AI倫理共識提供了重要的啟迪。

三、尋求何種共識

AI倫理包括三個層面的倫理,即宏觀AI倫理(AI研究者、生產者與用戶的倫理),中觀AI倫理(寫進AI程序中的道德編碼)以及微觀AI 倫理(將來具有道德推理和自我決策能力的機器人本身的倫理)。AI倫理共識指的是人們在這三個層面的核心價值與倫理準則所達成的共識。那么,我們能夠期待人們就哪些AI倫理準則達成國際共識呢?

瑞士學者Anna Jobin等在2019年收集了全世界2019年之前發表的84份與AI倫理有關的文獻。通過統計分析,Anna Jobin等人發現,這些文獻對11個倫理原則(或價值)的認同度比較高。其中,排在第一位的是“透明”(Transparency),共有73份文件認可這一準則。排在第二位的是“正義與公平”(Justice and Fairness),共有68份文獻贊成這一準則。排在第三和第四位的分別是“不傷害”(Non-maleficence)與“責任”(Responsibility),共有60份文獻支持這兩個準則。排在第五位的準則是“隱私”(Privacy),共有47份文獻接受這一準則。排在第六至十一位的準則分別是仁愛(Beneficence)、自由與自主(Freedom and Autonomy)、信任(Trust)、可持續性(Sustainability)、尊嚴(Dignity)和團結(Solidarity),提及這些準則的文獻分別有41、34、28、14、13、6份。(8)Jobin A, Lenca M, Vayena E, “Artificial intelligence: The global landscape of ethics guidelines”, Nature Machine Intelligence, no.1(2019),pp.389-399.這11個準則可以作為全球AI倫理準則的基礎或核心選項。

Anna Jobin等人的論文沒有統計兩份重要的中文文獻。一份是2018年天津“機器人與人工智能大會——雷克大會”發表的《人工智能創新發展道德倫理宣言》。該宣言提及的重要價值與原則包括尊嚴、人格權、人類解放、人的全面發展、全人類福祉、人類整體利益優先、誠實與信用、人道主義、和平等。另一份重要的中文文獻是中國機器人倫理標準化前瞻委員會于2019年出版的《中國機器人倫理標準化前瞻》。該報告構建了一套關于機器人倫理的“中國優化共生設計方案”。該方案包括從低到高的三個理論層級:整體論意義的善、四個元價值與五個倫理目標。整體論意義的善指的是自然與文化的多元價值與共生秩序。四個元價值分別是多元(Pluralism)、自然(Nature)、正義(Justice)與繁榮(Well-doing)。五個倫理目標分別是人權(Human Rights)、責任(Accountability)、透明度(Transparency)、防范濫用(Awareness of misuse)與共生繁榮(Shared Flourishing)?!吨袊鴻C器人倫理標準化前瞻》有兩個特別突出的亮點,第一, “不再把人類中心主義作為自己倫理標準化體系的根本理論依據”,而是“尊重自然環境和自然物種的內在價值”,試圖“發展一套去人類中心主義的倫理系統?!?第二,在強調機器人倫理主要是關于設計、生產和使用機器人的人員之倫理的同時,對機器人在未來能否成為道德行為體的問題持開放態度,“為尚不可預期的人工道德智能主體的自主能力增強預留了足夠的倫理討論空間?!?9)北京大學國家機器人標準化總體組:《中國機器人倫理標準化前瞻》,北京:北京大學出版社,2019年,第26、24、32、38頁。因此,相比于歐盟的AI倫理體系,《中國機器人倫理標準化前瞻》的倫理視野更為宏大。

上述綜合討論AI倫理的中外文獻,至少可以說,國際學術界在宏觀AI倫理層面已經達成了許多共識;這些共識為國際層面的AI治理提供了必要的倫理基礎,也為國際社會在未來如何擴大國際共識指明了方向。

四、如何尋求并強化AI倫理的全球共識

如果國際社會認識到了對AI技術實施全球治理的必要性與緊迫性,并且,某些國家已經對AI倫理的核心價值與基本原則達成了某些共識,那么,在全球層面尋求并擴大AI倫理共識就不僅是可能的,而且是有方法可尋的。限于篇幅,這里僅提出以下六點建議,作為人們進一步深入討論這一問題的起點。

第一,分類建設,先易后難。AI技術包含各種不同的類型。國際社會可以進一步把AI倫理分解成不同的種類和部分,分別針對不同的AI技術尋求與該技術相適應的AI倫理。例如,《中國機器人倫理標準化前瞻》就針對護理機器人探討和設計了護理機器人倫理的主要原則與規范。下一步,國際社會可以進一步探討和尋求工業機器人、家居機器人等的倫理原則與規范。此外,國際社會可以首先在那些容易達成共識的領域(如商用AI技術)尋求共識,對那些比較難以達成共識的領域(如軍用AI技術)的倫理問題則可以開展持續的討論與對話。

第二,科學家主動介入,積極參與??茖W家是研發AI技術的核心角色,應當主動介入AI倫理的國際建設,并推動政府和企業參與AI倫理的國際建設。

第三,跨國公司及時行動,率先垂范。跨國公司對AI技術的全球治理具有重要影響力,一個開放而健康的全球AI市場符合跨國公司的長遠利益。因此,跨國公司應率先垂范,主動參與全球AI倫理的建設。

第四,各國政府合理引導,提供支持。在現有國際秩序下,民族國家仍然是國際事務的主導者。各國的政治家應當高瞻遠矚,積極承擔起確保科技進步造福全人類的道義責任,引導和推動各國盡快實施AI倫理的全球構建計劃。

第五,超越狹隘民族主義,創新全球制度。對于全球層面的挑戰,只有在全球層面采取協調統一的行動才能加以應對;而全球層面的協調統一行動要成為現實,就必須要以相應的全球制度的創立為前提。因此,民族國家與聯合國都應根據時代的需要,及時建立并強化相應的國際制度,通過全球制度創新來解決人類面臨的諸多全球問題。

第六,擁抱世界主義理念,構建人類命運共同體。全球AI倫理建設面臨的最大挑戰仍然是狹隘的民族主義。目前,以民族國家為主體的全球制度導致人們以民族國家為單位相互競爭,甚至相互仇恨。為這種全球制度提供合理化證明的觀念就是狹隘的民族主義。近代以來的許多悲劇(尤其是兩次世界大戰)都與狹隘的民族主義有關。醫治狹隘民族主義的藥方是世界主義理念。世界主義理念與我國傳統的天下一家思想、世界大同理念是一脈相承的。吸收了中外世界主義精神遺產的人類命運共同體理念是建設全球AI倫理的最重要的價值基礎。當今時代,我們必須要用實際行動把人類命運共同體這一理念落到實處。要做到這一點,我們就必須要首先培育和構建一種世界主義的全球公共政治文化。對于AI倫理的全球建設來說,這種世界主義的全球公共政治文化也是至關重要的。

(作者為廣西大學馬克思主義學院教授)

我們該如何應對人工智能對人類勞動的挑戰?

何云峰

關于人工智能方面的研究,實際上文理科的對話太少。文理科的學者坐到一起來對話,共同思考這些問題,會有更多的共鳴。當今時代,人工智能的發展突飛猛進,被廣泛地運用于各個領域。在這種情況下,人工智能對當今社會各個方面的影響必然非常巨大而深遠,當然,對勞動的影響肯定也是很大的。有正面的積極影響,當然也存在消極影響和挑戰。無論積極的影響還是消極的影響,都值得學界認真深入地加以探究。

實際上,大家對人工智能的悲觀情緒和樂觀情緒都有。說實話,我屬于樂觀派,我認為總體來講人工智能的積極影響大于消極影響,因為事物具有兩面性。從經濟角度來看,人工智能對于人類勞動的解放、對人類追求自由的過程來說,確實有很多的幫助,這是不可否認的;但是,人工智能帶來的挑戰,也是非常明顯的。那么應該怎么樣看待這個挑戰,我覺得可以好好地去思考。

就挑戰來看,我通過中國知網進行中文文獻檢索,以“人工智能”作為關鍵詞做初次文獻檢索,再用關鍵詞“勞動”作為進階檢索,檢索后發現這方面文章很少。真正關于人工智能的研究是2016、2017年以后,文獻數量很明顯地上升;到2020年文獻量達到頂點;2021年也有很多,整體文獻數量是不少的。從文獻來看,人工智能的研究熱潮主要是在最近幾年逐漸形成的。已有的研究所涉及的學科比較多,主要包括自動化技術、人才學、勞動科學、宏觀經濟管理、可持續發展、經濟建設和經濟思想史、信息經濟、郵政經濟,等等。可以看出,研究的跨學科性還是十分明顯的,文理科交融趨勢也日益明顯。所以,人工智能對人類勞動的影響,實際上已經變成跨學科問題了。從研究內容來看,高頻關鍵詞集中在幾個主要領域,諸如人工智能、人工智能時代、勞動教育、勞動價值論、勞動就業、勞動收入分配等。但仔細研究發現,上述高頻關鍵詞涉及的文獻量實際上并不是很大,比如直接談人工智能對勞動的挑戰或者積極影響的文獻大概也就兩百多篇。

從文獻來看,我認為目前的研究還是有一些缺陷。大家討論人工智能對勞動的挑戰比較多,經濟影響方面也有學者進行研究。從挑戰的角度看,已有研究對挑戰本身討論得比較多,也比較深入地關注了人工智能對勞動有哪些不利的影響。但是,怎么來應對挑戰?有價值的研究并不多。如何有效地應對人工智能給勞動帶來的各類挑戰?這個問題可能是最需要我們關心的。我個人認為,人工智能對人類勞動的影響,應該跟以前其他的生產力跨越式發展和科技的進步等類似,其影響都是一樣的,都有雙面性,關鍵是我們怎么來應對。總體上說,肯定是機遇大于挑戰,積極作用和消極作用共存。消極作用沒法避免,任何科技都是這樣,關鍵是怎么來有效地應對挑戰,這是我們要研究的主要話題之一。

對此,有三點非常值得關注。第一,人工智能對人類勞動具有多重挑戰,挑戰是客觀存在的;第二,要應對這個挑戰,最好的方式就是變革,全面而系統的變革是應對這種挑戰的唯一有效選擇;第三,無論做什么樣的選擇,必須要提供相應的理論依據,那就是我們要重新反思勞動價值理論。

應該反復強調人工智能對勞動究竟有哪些挑戰。人工智能大量運用對就業的挑戰、就業機制的影響,大家都關注到了。實際上,這種影響遠遠超乎我們的預期,例如人工智能大量運用會對就業規模產生巨大的影響。最主要的是崗位被取代后,人類怎么辦?日本學者研究發現,大概60%的現有工作,是可以用機器人來取代的,現在沒有被取代可能是因為時機還沒有成熟。實際上好多工作都是可以被機器人取代的,甚至包括教師的工作,將來都有可能被取代。我們原來普遍認為教師是“穩坐釣魚臺”的工作,教書育人的任務不會被機器所取代。但是將來還是有可能的,比如知識傳授這一部分教師工作很有可能被取代。當然,這種取代并不是我們悲觀的理由,關鍵是看我們如何應對。其次,人工智能普遍運用對收入分配的影響是很大的。人工智能相關領域的就業,肯定都是高收入,而在其他領域就業的,則極有可能收入很低。也就是說,它很可能導致嚴重的兩極分化。勞動本身決定了工資收入的巨大差距。最后,人工智能對就業形態也有很大影響。將來很可能會有一些人只能從事“低端”的工作,而有些人就從事與人工智能相關的所謂的“高端”的工作。高度專業化的工作需要長時間的專門化準備,而其他的“普通工作”則不需要長時間的訓練。這樣就會形成兩種截然不同的勞動形態。此外,人工智能的大量運用還會對勞動過程、勞動關系等多個方面產生巨大的影響。事實上,當今時代的人們對這些挑戰都已經有了一些感知,所以危機感自然而然會產生出來。

既然人工智能會對勞動提出諸多挑戰,那么應該如何應對呢?我覺得最主要的是要變革。用變革迎接挑戰,就會把挑戰轉化為機遇。我認為,面對人工智能給人類勞動提出的諸多挑戰,人類必須實施三大變革:第一是人類的自我變革。我們人類走到了今天,可能很多觀念都要改變。比如說,我們的職業觀念要發生變化,原來我們都希望找一個穩定的工作,當作一輩子的“職業”,然后好像有了“職業”,我們的人生就完美了。那么將來這種職業觀念可能要發生變化,一輩子可能不止有一個職業,很可能要跨職業。這個可能符合馬克思關于分工的很多批判,人要全面發展,多職業可能恰恰促進了我們的全面發展。還有一個是對就業觀念的影響,我們過去找工作要找個穩定的、不變的,這個觀念也會受到影響。還有對企業家的利潤觀、財富觀也會有影響,甚至我們的學習觀也會受到影響。現在我們中國的大學生有一個學習觀,其基本的觀念就是從大學拿個文憑,然后靠這個文憑混一輩子,拿不到文憑就好像沒得救了,就感到“人生絕望”,將來可能這種現象會完全改變,包括學習觀在內的很多觀念都會轉變。對人類自身的這一系列觀念而言,變革肯定是要及時地跟上時代和技術的發展。如果人類自身的觀念跟不上的話,人工智能對勞動的挑戰,很有可能會讓我們無法適應。第二是教育系統的變革,即學生的學習觀念、學習理念一定要變化。現在的大學課堂往往還是以滿堂灌式地傳輸知識為主,這樣的方式難以適應未來的大學教育。未來的大學學習,應該讓學生學會學習,這是高等教育的第一要務。讓學生將來能夠自主地學習,不是老師把知識系統地傳授給他們,把知識透徹地講給他們聽。將來老師的教育理念也要變,要把學生“教”到學會自學,而不是僅僅致力于把知識講透了,這才是真正的厲害。大學向終身教育的轉型,可能會是一個很重要的變革趨勢。現在我們的許多大學,比較常見的還是那一種舊式學歷制的教育。將來的終身教育可能變成沒有學制的概念,更多的是學分制的概念。目前,西方的完全學分制已經可以做到這一點。但是現在我們的許多大學,基本上還不能完全跟上這個變革的步伐。每個人在大學的學習能力是不一樣的,他可以按照他自己的學習能力、學習動力、學習興趣,根據自己的經濟狀況等具體情況獨立地進行自我規劃。一個人既可以三年把博士讀完,也可以五年把博士讀完,教育的靈活性和可選擇性應該提高。第三是社會治理系統的變革。隨著勞動力市場治理能力的強化,我們發現勞動力市場治理在過去不是一個很重要的活動,也不是社會治理的范疇,但將來可能是一個很重要的治理范疇。所以,現在隨著社會關系的復雜化,特別是勞資關系的復雜化,實際上勞動力市場的治理已經有一些問題了,包括過去講的所謂“996”“血汗工廠”等現象,實際上正是勞動力市場治理沒有到位、出現問題的表現。過去我們將醫療、教育視為“第一民生”,將來應將勞動就業上升為“第一民生”。今后還要更加重視勞動幸福保障。

上述三大變革,將來可能會成為應對人工智能對勞動挑戰的當務之急。理論是先導,任何變革都需要理論的指導,沒有理論指導的變革可能只是一個應急性的舉措。要全面地、系統地應對變革、應對挑戰??茖W的理論怎么樣進一步修訂?我覺得需要馬克思的勞動價值理論進行指導,強調活勞動創造價值。怎么理解這個“活勞動”?我的想法是將來人工智能的、自動化的、智能化的機器人,可能就是一種替代性的勞動,它跟我們現在算法化的、工具性的人工智能不一樣,將來可能會有替代性的人工智能出現——相對于人的“活勞動”,這種替代性的人工智能只不過是對勞動的另外一種理解方式。比如,現在的演員在演危險性動作時不會自己去演,會找個替身,那么替身性的勞動工作量會算在主演演員身上,不會算在那個替身的身上,將來替代性的人工智能也是這樣。這就算“活勞動”的價值,這個價值是歸資本家所有,還是歸我所有,或者是歸社會所有,相關的討論應該及時跟上。我們把替代性的勞動變成一種“活勞動”,并沒有違背“活勞動創造價值”這個基本原理,但是對“活勞動”本身要重新加以界定。因此,理論要及時關注現實,才能應對各種挑戰。

總之,人工智能對人類的挑戰是多重的,人類必須進行自我變革、教育系統變革、社會治理系統變革,還需要理論的變革、理論的指導,只有這樣,人類才能夠從容地走向未來。

(作者為上海師范大學知識與價值科學研究所教授、博士研究生導師)

生產工藝學批判:人工智能的理論闡釋與實踐觀照

劉方喜

人工智能(Artificial Intelligence,簡稱AI)的“理論闡釋與實踐觀照”非常必要和重要,總體來看,AI技術研發專家對此不太關注,而人文社會科學研究者卻必須重視,所以,我這幾年陸陸續續發表十幾篇有關AI方面的文章,大致形成了一種“理論闡釋與實踐關照”思路,即“生產工藝學批判”,這種思路重視AI研究科學性與批判性的統一。

我研究AI的方法涉及三種“學”或英文所謂“-ology”,一是工藝學Technology,二是本體學或本體論Ontology,三是社會學Sociology。第一,所謂“工藝學”是馬克思政治經濟學中的一個重要概念,以往國內外對馬克思的研究都沒有足夠重視這個概念及方法,近些年來開始有所關注,而我結合物聯網和AI等當代新技術,對馬克思工藝學理論作了較為系統的研究和重構。第二,本本學或本體論主要研究人與物的關系。第三,與此相應的,社會學主要研究人與人的關系——在AI領域涉及的就是人腦智能與AI機器智能之間的關系等。所謂“生產工藝學批判”就是把本體論與社會學結合在一起的研究思路。

首先,對AI的理論闡釋關乎本體論Ontology,在這方面,“如何提問”往往決定著對AI的認知方向。現在比較通行的提問是:“智能”是什么?或什么是“智能”?順著這樣的提問方式追索下去,智能就可能成為一種獨立于一切物質的存在,它可以在不同物質形態中存在,既可以存在于人腦這種生物性的物質中,也可以存在于機器即計算機這種物理性或非生物性的物質中(即AI),最終還可以脫離計算機進而脫離一切物質而存在——美國AI理論家庫茲韋爾對奇點來臨后的超級AI的設想就是如此,這顯然會引發諸多爭議??傮w來說,存在于不同物質形態中的智能,顯然存在相通之處,所以AI機器神經元網絡可以模擬人腦神經元系統;但是,如果認為智能不可能脫離一切物質而存在,那么,存在于不同物質形態中的智能就會有所不同:人腦生物性智能就存在機器物理性智能即AI所不可模擬的功能,即圖靈所謂的不可計算的部分。而動態地看,AI的不斷發展又必然會使不可模擬、不可計算的部分趨于縮小,但最終能否縮小為零從而導致所謂奇點來臨,顯然在計算機科學家內部也存在爭議。

當然,還可以換一種提問方式,即不問What,而問How,即:智能是怎樣生產的?馬克思指出,考察物質生產,既可以問“生產什么”——這關乎產品;也可以問“怎樣生產”——這關乎生產的工藝或工具,是一種生產工藝學的提問方式。這同樣可以運用于對智能的考察,而智能“怎樣生產”就可以具體轉化為智能的“生產工具有哪些”。在這方面,說人腦及其神經元系統是智能的一種生產工具,沒有太多爭議,說當今AI計算機這種機器及其人工神經網絡也成為智能的一種新的生產工具,應該也沒有太多爭議。相關討論往往沒有特別強調的是:自然語言系統也是智能的一種基本的生產工具,而語言又分口語與文字,從與人的身體的關系看,口語像人腦一樣離不開人的身體而具有生物性,而文字則是一種存在于人的身體之外的因而是非生物性的智能生產工具。作為兩種智能生產工具,AI機器系統與文字系統都存在于人的身體之外而具有非生物性,在這方面是相通的。因此,撇開口語和其他符號系統比如各類科學與藝術符號系統等不論,迄今為止僅存在3種基本的智能生產工具系統:人腦神經元系統、文字系統、機器系統——這種生產工藝學的理論闡釋和考察,可以避免有關當今AI的討論落入神秘主義的陷阱而爭論不休,有助于既不看輕、也不夸大AI的價值,從而對AI的價值及其劃時代意義有科學的定位:作為智能生產工具系統,具有生物性的人腦神經元系統是漫長的自然進化史的產物,文字系統是人在自己身體之外創造出的一種非生物性的智能生產工具系統,可以說是人類文化進化史的產物,而當今的AI系統則是人在自己身體之外創造出的又一全新的非生物性的智能生產工具系統。我初步把這三大智能生產工具系統的關系概括為:機不盡言、言不盡意,即AI機器不能充分表達自然語言所表達的意義(與圖靈所謂的“不可計算性”有關),語言不能充分表達存在于人腦或人的心理中的意義(即古人所謂的“言不盡意”)。

從研發現狀看,“自然語言識別”固然是AI研發的一種基本路徑,但在整體上,研發界尚未將自然語言系統尤其是文字系統作為一種基本的智能生產工具系統來看待,當今AI研發所模擬的對象主要是人腦神經元系統,而不是文字系統。因此,將文字系統作為一種基本的智能生產工具系統并加以深入探討,對于AI研發的進一步發展也有一定啟示。

如果說理論上的本體論闡釋主要關乎AI“怎樣生產”或者使用什么樣的智能生產工具進行生產的話,那么,“實踐觀照”或社會學的考察則主要關注AI“怎樣應用”。當然,AI怎樣生產的“社會方式”又決定著AI“怎樣應用”,比如方式和方向,進而對人產生影響——涉及的一個基本并且也是爭論不休的問題:AI作為一種機器智能能否“替代”人的大腦的生物性智能。在這方面,我主要在現代機器兩次革命的歷史脈絡中展開考察。馬克思的生產工藝學批判考察的是作為物質生產現代化工具的機器體系,涉及的是現代機器第一次革命即動能自動化革命,傳統非自動化的生產工具只是“傳導”人的體能,而動能自動化機器則可以“替代”人的體能,這種“替代”恰恰意味著把人的物質生產力從人身或生物性限制中解放出來,意味著人可以不再從事那些由“物”即機器替人從事的活動。但在資本框架下,動能自動化機器對人的體能的替代所導致的后果是:越來越多的藍領工人面臨失業進而失去收入的威脅——而馬克思強調:這種威脅的根源不在自動運轉的“機器”而在自行增殖的“資本”——不能認清這一點,使英國曾出現過工人打砸機器的“魯德運動”,與此相關的對自動機器的認知,后來被概括為“魯德主義”或“魯德謬誤”。當前,AI正在引發現代機器第二次革命即智能自動化革命,動能自動化機器以及傳統的生產工具也是人的智能的物化,但只是“傳導”人的智能,而AI機器則可以“替代”人的智能。盡管也存在爭議,比如一些經濟學家認為AI在消滅一些工作的同時也在創造新的工作,但是從發展趨勢看。AI將使越來越多的白領工人(包括AI研發者甚至科學家等在內)面臨失業進而失去收入的威脅,越來越多的人將被拋入赫拉利所謂的越來越龐大的“無用階級”隊伍。如果你認為這些困境是由越來越發達、智能自動化程度越來越高的AI機器本身造成的,你所犯的就是“魯德謬誤”;由好萊塢科幻大片及各類商業技術噱頭所渲染的智能機器人威脅乃至消滅人類的論調,體現的不過是一種更加精致的“魯德主義”或“魯德謬誤”而已。

在當今全球范圍內流行的有關AI社會影響的認知中,存在樂觀主義與悲觀主義或烏托邦主義與反烏托邦主義的二元對立——運用馬克思生產工藝學批判,則可以超越這種二元對立:AI機器當然可以替代——即使現在還是部分地替代——人的智能,但這種“替代”也恰恰意味著把人的精神生產力或智能力量,從人身或生物性限制中解放出來,意味著人可以不再從事那些由“物”即機器替人從事的智能活動——前提是要揚棄“資本”。在這方面有一種樸素的想法是:自動機器可以替人從事體力和智力活動了,人還能干啥?在馬克思看來,在由動能自動化機器替人從事的體力活動中,人的體力支出是不自由的,而在比如體育等體力支出活動中,人是自由的,并會由體力的自由支出或發揮而產生愉悅感。同樣,在AI機器所能替人從事的智力活動中,人的智力支出也是不自由的,而在比如文藝等智力活動中,人則是自由的,并會由智力的自由支出或發揮而獲得愉悅感。

無論從哪種視角或維度來看,現代機器的兩次自動化革命在人類文明發展史上都具有劃時代的重大意義:動能自動化機器替代人的體力,AI自動化機器替代人的智力。普通大眾和許多AI研究者往往不加分析地認為這種“替代”對于人來說只能是負面的、消極的,澄清這一問題的關鍵是:人的體力與智力對人本身意味著什么。在馬克思看來,人的體力與智力也是人的本質所在,人的體力與智力的自由發揮,就意味著人的本質(或所謂本質力量)的自由實現——而前提是:人要以自身體力、智力的發揮為“目的”。在維持生存的活動中,人的體力、智力的發揮只是“手段”,因而作為人的本質力量的體力、智力不能得到自由發揮,人的本質也就不能得到自由實現——AI自動化機器對人的智力的“替代”,恰恰意味著把人的智力的發揮從以本身為手段的活動(雇傭性的智力勞動活動等)中解放出來。只是在資本框架下,這種“解放”才轉化為“威脅”,即威脅出賣智力而獲得維持生存收入的白領工人的工作;反過來說,將這種“威脅”轉化為“解放”的前提是揚棄“資本”,而一旦揚棄資本之后,人不是不再發揮智力,或者說無處可發揮智力,而恰恰是在自由王國中自由地發揮智力。這種理念其實一點兒也不抽象,我經常舉的經驗性極強的例子是:你給老板寫報表可能感覺很痛苦,因為你的這種智力支出活動是手段;而你玩游戲也要支出智力,卻并不感覺痛苦,因為這種智力支出活動本身是目的,你恰恰會由智力的支出本身而獲得愉悅。微軟AI小冰的詩寫得再好,會影響你寫詩比如也許并不高明的愛情詩的樂趣嗎?阿爾法狗很厲害,可以打敗人類圍棋高手,會影響你作為一個普通圍棋愛好者下圍棋的樂趣嗎?顯然不會,除非你把AI機器當成“競爭對手”——但為什么要這樣做?汽車作為一種動能自動化機器比人跑得快,人會把汽車當成“競賽對手”嗎?與此相關,教育領域一個流行的“雞湯”口號是:在AI時代,你要讓你的孩子更加努力,否則就會被AI淘汰——但是對于絕大多數孩子來說,即使再努力,尤其在特定的某個領域比如下圍棋等,能夠在與AI機器競爭中獲勝嗎?如果教育不能提升智力的話,那么,就接受智能芯片植入大腦吧——但這與在體育競賽中為提升體能而服用興奮劑有何區別?一個簡單的道理是:不擇手段地提升人的體能、智能,并不符合人性的需要和目的,使人固有的潛在的體能、智能自由充分發揮出來,才是符合人性的需要和目的——當今許多圍繞AI的流行認知或說辭,往往忽視了這個簡單的道理。

總之,無論在普通大眾層面還是在專業精英層面,當前全球范圍內有關AI的認知皆存在諸多混亂。總體看,一方面,把與AI相關的負面、消極影響完全歸咎于AI機器本身,片面地關注技術本身,而忽視操控、壟斷AI技術的大資本;另一方面,智能機器人能否發展到超越人類物種進而消滅人類物種這種尚難確定的遠期問題,受到了過多的關注,而在資本框架下AI將造成大量失業等更現實的中期問題,以及把AI武器化或把武器智能自動化等更現實、更迫切的威脅,反而較少被關注。這種認知狀況的意識形態后果是:“資本”不再是關注和斗爭的焦點,當全球大眾只憂心忡忡于未來智能機器人威脅、消滅人類時,資本巨頭們就可以安全地悶聲發大財了。運用馬克思生產工藝學批判,在理論闡釋上有助于克服關于AI認知的神秘主義等傾向,在實踐觀照上則有助于克服“魯德主義”等傾向,最終有助于有效解決失業等中期社會問題,增強人類團結,為應對AI的遠期挑戰做好準備。

(作者為中國社會科學院文學研究所研究員)

如何從歷史唯物主義來思考數字勞動——數字資本主義下的數字勞動批判研究

藍 江

數字技術、人工智能技術面臨的主要問題,其實不是人是否會被技術所取代的問題,或者說由此而產生的我們在職業生涯中會不會遭遇下崗的問題。其實,對于這些問題的討論,需要我們對數字勞動的進一步思考,或者說,從更復雜的角度分析,這不能將問題簡化為機器或人工智能是否取代人,因為在這些問題背后,最根本是如何重新理解數字勞動的形式。

數字勞動究竟是什么?在生活中表現得更為直接一點,比如原來工廠里面那種工作被稱作勞動,也是亞當·斯密、大衛·李嘉圖甚至馬克思的論述中的勞動,這種勞動是脫離了具體生產活動的抽象勞動,這種抽象勞動形成的價值是衡量生產和交換的根本形式。然而,在今天的數字技術的背景下,勞動是否還是簡單抽象勞動的形式?因為數字勞動形式變了。以滴滴為例。有一次我從南大仙林校區打滴滴到機場,滴滴司機很快就來了,我十分好奇地問司機:“你怎么反應這么快,你究竟怎樣接到我這一單的?”他十分痛快,說開滴滴的司機,在平臺這里都有一個積分,接到訂單并不是按照手速快而搶到的,而是平臺按照積分的高低,給一個區域內的司機派單,比方說,成這一單是從仙林到南京祿口機場,屬于優質單,平臺會按照積分順序分配給各個司機,而他在那個時間段,在仙林地區的分最高,自然就把我這一單派給他了。我又問:“為什么不去機場接?機場那邊都是優質單,機場離南京市區這么遠,隨便可以接到一個很遠的單?!钡f不行,機場那邊全部都是250分以上的人,沒達到那個分根本就搶不到訂單。我又問:“你的積分怎么算呢?”司機說:“比如我接你這一單可以拿0.3分,但我要拒了你的單,我要扣5分,我要做到十幾個你這個單,才能把我扣的分慢慢地掙回來?!边@個對司機來說是不可接受的,或者為了掙回這個分,滴滴司機就不得不跑一些“差單”,有些單可能沒什么錢掙,但是會掙得平臺的分數,比如周五晚高峰時期的鬧市區,在以往這樣的單是沒有的士司機愿意跑的,因為堵車且只有起步價,乘客給的錢還抵不上堵車耗費的油錢。但是在今天可以打滴滴,對于一些想掙得高分,去跑優質單的司機來說,雖然這種“差單”掙的錢沒有多少,甚至可能是虧錢,但可以拿額外的分數,可以幫助他盡快接一些優質單。如果不能接到優質單,意味著這些司機只能在中低收入上徘徊,而想取得質的突破,必須依賴少掙錢、多掙分的方式來讓自己的等級上升,從而躋身長期接待優質單司機的行列。

在與司機聊天的時候,我突然意識到這個問題不僅僅是掙分還是掙錢的問題,而是一個平臺通過算法來控制每一個加入平臺的司機和乘客的問題,每一個乘客都在不知情的情況下與特定分數的司機匹配在一起。其實,不僅是滴滴,包括外賣騎手也有同樣的算法,那么在這里頭發生了一些什么事情?原來我從新街口打車到鼓樓,高峰時段是根本不可能有的士停下來的,這種情況下是什么“迫使”這些司機寧愿虧錢,或只賺基本油費還要忍受堵車的低速慢慢走,仍然愿意接這種虧本單?是什么促成了這個行為?顯然,從傳統的政治經濟學和單純的市場調節的方式來理解這些行為是存在問題的,因為在算法控制的世界里,貨幣或收入已經不再是調節市場行為的唯一因素,在以貨幣為中心的市場調節之下,多了一重調節機制,即以數據為中心的算法調節。

在這個基礎上,我們可以重新思考數字勞動的可能性,換言之,原來被稱為勞動的東西,之前是由貨幣決定的,今天卻被算法所控制,導致了以往僅僅從價值角度對勞動設置的定義發生了轉變,因此,需要在今天的數字環境中重新審視勞動的形式。今天的勞動屬于新的規則下的一個大平臺,在這個規則下面最重要的甚至不是我們在市場經濟或者市民社會中的貨幣,貨幣是屬于市民社會的評價和度量的手段,但是在數字平臺上有了新的衡量手段,它甚至成為貨幣手段的根基,是今天用來衡量數字勞動的一個很重要的指標,包括去年外賣騎手事件中提到的數字勞動問題。外賣騎手之所以違反交通規則,他不是為了錢,而是為了掙分或者說避免扣分,因為扣分對他來說是比扣錢更嚴重的事情。

今天,是人管機器還是機器管人,這其實對平臺的算法控制是非常次要的問題,關鍵是今天形成了一個新的算法控制的社會,即所有人的生命必須要在這個算法平臺中重新展開。在市場經濟時代,即在那個沒有被數字技術中介統治的時代,我們仍然以個體的生命存在著,盡管每一個個體的生命是不一樣的,但至少在表面上肉體還是個人性的,我們仍然以個體性的肉體存在參與社會交換的整個過程。但是在數字時代,這種肉身化的個體性已經完全不一樣了,因為我們存在的價值不再是那具肉體,不再是不可分割的最后的個體性,個體成為被數據所轉化,被算法所計算的數據分體(dividual),這些數據分體只有在算法進行數據分析并獲得對應的數值時才能具有價值。例如,高校教師對一個學校有沒有價值,并不取決于其讀過多少書,深入思考過多少問題,而是取決于發了多少文章,拿了多少課題經費,得了什么級別的獎勵等,這當然也屬于算法系統。所以,我認為,對于高校教師來說,現在已經不再是自己想研究什么就去研究什么的階段,一名教師從事的研究,必須在高校平臺算法中被重新評價,只有在這個算法中獲得對應的值,這名教師才是真正有價值的存在。例如一位老師有國家重大課題,有重要的頭銜和稱號,自然在高校的算法系統中能取得優越的地位;同樣,對于院系和專業來說,其價值也取決于擁有多少這樣的人才,培育了多少優秀的學生(優不優秀也是由平臺算法所決定的),有多大的社會貢獻等。所有這一切都可以轉換為數據和算法,無論對于個體還是集體,其價值都是由數據化的分體決定的,他們成了這套算法中的一個值,而這個值決定了每一個數據對應的個體或集體的地位和價值,所以,這才是我們今天必須面對的主要問題。

另外,現在的網絡平臺給每個員工正規發全額工資的是非常少的,像起點網,甚至B站、youtube、推特等,他們的營業收入絕對不是來自后臺的營收,只有技術維護人員和營銷人員是長期發工資的,那么它們主要的收入來源在哪里?我從網絡平臺看上傳的視頻,然而做視頻的人從平臺根本得不到任何收入,他們的興趣在于制作的視頻又被點贊了,但制作視頻的確是一種勞動,這個勞動的價值僅僅是有多少人在關注。

現在我們的勞動被數字平臺和算法結構重新架構了,這種架構意味著現實的社會必須按照這個架構重新分配和布局,這就是今天需要去重新思考的勞動問題核心所在。為什么需要思考數據和算法對我們日常生活的重新架構?可以說,人類最初的活動是沒有任何區分的,人的活動就是人的活動,飲食是活動,狩獵也是活動,但是,是什么把勞動和休閑區分開來?區分標準是什么?比如一個孩子喜歡自己動手做弓箭,他可以自己沉浸其中,幾乎一天的時間都沉浸在砍竹子、打磨弓身、搓弦等“工作”中,實際上這對他是一種娛樂,但從另外角度來看,這當然也是一種勞動。在文明社會之前,人的活動沒有被分成娛樂和生產勞動兩個部分,只有在進入一定程度的文明社會之后,甚至可以說直至資本主義社會以后,一部分活動符合資本的創造價值的要求,并在以貨幣為中心的價值體系下能夠衡量這種價值,這樣的人類活動才被稱為勞動。換句話說,進入數字時代,我們面對的問題,資本主義社會定義勞動的方式是以價值為根基,價值是衡量所有的勞動的基本尺度,如果一項活動能創造價值,那么該活動即勞動,反之,那些不能創造價值的活動就是消費,就是娛樂。

但是,在今天數字平臺上,還有另外一種區分方式——原來不視為勞動的東西,可能今天也被叫作勞動。因為人工智能系統有個很重要的基礎就是收集與分析數據,人工智能下面是框架,框架下面是數據,依靠大量的機器學習、深度學習和邊緣計算,才能夠讓人工智能存活下去,那么這個人工智能數據從哪里來呢?事實上,數據是我們每個人的活動創造出來的,是每個人生活中所有的表現?,F在講的人工智能,不僅僅是機器人的問題,是我們跟周圍環境的互動和關系化的問題,它們被數據化,然后被機器學習的一些算法所掌握,最終才能發展成所謂的智能體。我們對環境的任何反應都會變成人工智能的一種對應關系,而不是簡單地說人和人工智能是彼此獨立的,人工智能在今天和我們已經進入一種共生關系之中,那么我們每次活動實際上是在支持人工智能的發展,其實目的也在這里?,F在需要從今天的現實生活、我們正在經歷的一切重新來思考勞動是什么,不僅僅白領坐在辦公室寫文案才叫勞動,今天的勞動變成了在平臺和算法下的勞動。

(作者為南京大學哲學系教授、博士研究生導師)

算法的邊界

吳 靜

數字與人文研究是我近年來的主要研究方向。今天,我們討論一下算法的邊界問題,如何去看算法在社會組織層面產生的問題,包括勞動的規則問題。我先分享一下這兩天看到的一則新聞和自己的一個體驗。我平時除了開車以外,還比較喜歡用打車軟件,但是這兩天我發現用軟件打車特別困難,叫車的時間特別長,在平臺叫車后它就會給你選擇,你可以選擇同時叫幾種車,有特惠快車、優享、出租車。一般情況下,我不趕時間的話會選一個快車,但有的時候你會發現,叫了以后很長時間到不了,然后你就會把優享、專車、出租車都勾上,以確定在最短的時間內叫上車,經常價高的就被選上了。

這兩天我看到一則關于亞馬遜(Amazon)的報道,跟它有合作關系的一個63歲的代理司機接到平臺自動算法給他發的一封信,通知他被解雇了。原因就是某一次,平臺根據算法在天亮之前派了一個送件給他,讓他送到某一個大廈去,但是他去了以后發現這個大廈在這個時間點之前根本就不開門,幾經折騰聯系到大廈管理人員,說讓他送到Amazon的快遞柜里去;他也去了,結果快遞柜故障怎么也打不開,導致延時,因此他苦心維持的積分瞬間被扣掉了很多,于是他就被解雇了。這些事件展現了一個事實,今天算法凌駕在整個社會之上并成了另外一種凝視的體系。我要強調的是:第一,我不反對人工智能,第二個我不反對算法。但我想問的是,我們都知道算法在整個社會生活層面構筑起新的評價標準,大家有沒有想過,為什么從組織、集體到個人依舊會愿意使用今天所有這一切智能軟件?或者說就像是股市的原則一樣,用自愿的原則使自己加入這個體系。

在實際生活中,我們可能都會有這樣的操作經歷,比如說下載一個APP,然后注冊,點了以后一定要你勾選同意原則,不同意就沒有辦法進入下一步,這個時候你基本不會細看的,直接就會勾選一個同意,然后才可以正常使用。仔細想想,發現實際上我們把自己主動地交給算法,但是為什么會是這個樣子?算法技術又是以什么樣的方式進入我們的生活當中?我想無非是如下兩點:第一是利益,第二是方便、便捷。便捷性不用展開講,只要分析一下利益。今天,大量的APP搞各種營銷活動,比如瑞幸咖啡、滴滴打車、美團等在最初推廣期間,全部使用補貼的方式,包括不掙錢的高積分派工模式,如此采用高補貼的方式,可以讓大量的服務提供者自愿進入,在這個過程當中大家都是在利益和便捷性原則的驅動下,自愿進入這個系統當中。難道這就是算法真正的目的嗎?我們今天談到算法如何的時候,我們要去了解算法,知道算法要做什么,算法是如何做到這一切,而算法對我們的生活到底會有一個什么樣的長遠影響。我覺得這個不是從現象層面來考慮,算法跟我們日常處理方式的最基本原則有所不同,算法把所有的問題切割成一個個項目,讓所有事情都變得環節化。在這種環節化當中,它就用可計算性的原則來對每一個環節精確量化,這也就是斯蒂格勒在他的《技術和時間》中提到的確定性原則。而確定性原則最基本的因素就是可計算性,也就是說算法實際上通過這樣的方式凌駕于生活之上,實際上借用所有問題的可計算性進入生活當中。從本質而言,技術性實際上正是世界的確定性維度,作為現代性邏輯后果之一的技術話語的優越地位,使得人本主義傳統中的非確定性維度被忽視或簡化為非理性。而這種簡單替換正是今天的大數據時代的統治邏輯。所以我們會發現那個被解雇的工人所遭遇的問題不在算法考慮范圍之內,算法只考慮你在某一個時間有沒有把我要求你送的東西送到位,算法設計者沒有考慮任何彈性。因為,現在的定位、計時你都可以看得到。真正的算法只是一個框架,算法借助數據來完成事情,但是我們會發現數據算法語言本身和自然語言有類似性,它實際上是符號系統,但是這種符號系統都依賴于符碼能指和所指之間的關聯性。但問題是在自然語言當中,對于關聯性的這種追問,對于能指的霸權,已經在語言學、文化研究、人類學當中得到重視。但在算法語言當中,對于能指的這種追問卻遠遠沒有進行,因為我們沒有對算法進行批判性的反思,我們實際上還停留在問題的表面即人被算法困在系統里。但是我們要追問算法要實現的是什么,這一點值得重視。

技術不是在生活之外添加了一個新的維度,技術真正所要做的是改變世界,甚至是重構我們存在和發問的方式。最近有一部很火的科幻片《愛、死亡與機器人》,在這個故事當中,技術所帶來的改變是全方位的,甚至我們今天講的倫理、存在,所有的這些問題在新技術的沖擊之下全面被改寫。今天算法所要做的是用利益換規則,它要換的是對人類世界進行重構的規則方式。當我們為了便捷性,為了利益看都不看就去勾選同意的時候,實際上我們已經把規則的決定權讓給了算法,當技術以“科技改善生活”作為口號和愿景不斷進入生活,以至于在某些時候從輔助的工具中介變成了生活選擇本身的時候,生活面臨著被數字化再現的現實。而數字化的標準評價體系是否合理?這是需要重點注意的一點。不能因為利益和便捷而讓渡我們對這些問題的思考。

今天看來,算法的目的實際上是要對人類行為作出預測,而這種預測背后是利潤的問題,那么這種預測本身實際上是在鉚定選擇的權利,于是算法造就了一個意義上的選擇,我自己把它叫作“選擇上的父愛主義”。它代替人來做選擇,但這里面就會提出另外一個問題,人類的行為本身是不是能夠完全被剛性的算法所測量,或者說所預測和衡量。我個人覺得是不可能的,但實際上它制造了一重邊界,這種邊界就是數字化,在數據算法的表現方式之外,其他方式的不可靠性。算法的預測方式是線性邏輯加相關性推測,它去除了所有情境化的因素。算法的運行規則也同樣決定了數據化主體形象無法完成對真實主體的完整映射,而是排除了屬人的柔性屬性。算法的運行規則來自形式邏輯,輸入的數據按照形式邏輯的分析、計算得出最終的信息,但是社會生活并不單純只有形式邏輯的一面,主體也并不會時時刻刻按照理性邏輯行事,理性邏輯不是主體的全部,也不可能滿足社會生活的全部需要。今天所有以數字算法為基礎的東西被當作客觀的、科學的,所有不能夠數字化的東西被斥為邊緣,在這個當中是不存在外部性的,不存在他者。所以算法數字化本身變成一個話語,甚至變成一個神話。前面講到的數據鴻溝,只能使用現金支付的老人也好,被數據化凝固的性別現象也好,我們會發現數字化本身在創造一種神話。神話的意義在于,除此之外,別無話語。于是,數字化就構筑了今天我們感知世界的唯一的思考方式,或者說它即將成為我們感知世界的一個方式。

今天,尤其在我們可能要全面進入智能化的時候,我覺得重提人本主義十分重要。在所有那些屬于人的經驗當中,偶然的、非數字化的、柔性的邊界是不是能夠被算法的剛性全部卡?。吭谂行悦鎸祿茖W時我們必須追問三個問題:第一,由誰來做?我們今天看到的技術權威,比如有一個調查顯示,在硅谷的職業性別構成中男女性別的比例差異遠遠高于其他行業。而在硅谷之外,比如說人力資源、前臺、市場等這些方面可能更多地吸納女性職員,那么核心技術崗位則以男性為主,所以實際上算法是由特定的人群來構建的。第二,為了誰?算法要構筑什么樣新的規則,它是一個效率優先的規則。但效率優先是不是社會唯一的取向?第三,體現誰的利益?我覺得這三個問題是我們在批判性地面對數據世界的時候一定要把握住的問題。今天人文學者需要為此發聲,但是我覺得那些做技術的學者,那些實務操作人員更需要面對這個問題。因為在這個意義上來講,在整個算法的建構過程中,數據世界實際上是一個獨立的封閉空間,它打破了象征界需要不斷地向實在界溯回這樣一種動態反思,從而構筑起數字的全部霸權可能。那么從這個意義上來講,它實際上是齊澤克的“逆事件”,因為真實已經被用數據來衡量,真實本身跟人的體驗無關,只跟數據的捕獲和問題式有關。數據重構的是對真實的標準性的一個判斷。在一個由數據和算法重構的世界里,如何來把握自身,或者說把握數據和真實的距離,是今后必須思考和面對的現實問題。

(作者為南京師范大學公共管理學院教授、博士研究生導師)

反思司法人工智能

鄭 曦

為什么討論今天的這個話題?很多人覺得,所謂司法,無論刑事訴訟或者民事訴訟,似乎跟自己的距離都很遠,仿佛自己做個良民、不干壞事,司法就與自己無關了。然而沈家本先生有言,“刑訴律不善,雖良民亦罹其害”。每個人都可能在錯誤的時間出現在錯誤的地點,從而與司法發生關系。倘若在此種情況下,有權定罪量刑甚至剝奪生命的不是作為法官的人,而是作為法官的機器,那么會帶來什么樣的后果呢?

人工智能運用于司法,從某種程度上來說是必然之事,因為人工智能在社會生活各個方面的運用已經是一個不可逆轉的時代潮流,司法本身是社會生活的一部分,它顯然不能脫離這種時代潮流。各個法院、檢察院都面臨著案多人少的問題,先看一個數據,2018年全國各級地方人民法院和專門人民法院受理的案件數已經達到2800萬件,大家可以猜想每一位法官大概每年要辦理多少案件。在這種情況下,高層的想法是通過人工智能等技術的引入來提高效率,因此當前人工智能的運用在司法領域已很常見。比如上海高級人民法院在科大訊飛協助下開發的206人工智能輔助辦案系統,就有量刑輔助、類案推送、證據校驗等功能。而在國外,人工智能在司法領域的運用也不少見。2016年歐洲有一個報告稱,其調查的四十多個國家的司法系統中都在一定程度上運用了人工智能技術,只不過運用的程度有所不同。美國幾年前有一個著名的案件,叫盧米斯訴威斯康星州案,此案中的量刑裁判是依據一個叫COMPAS的人工智能工具所做的被告人社會危險性評估報告,該案的被告人就認為由于人工智能算法不公開,他的憲法性權利——對質權沒有能夠得到保障,盡管在這個案件中他最終敗訴,但他提出的問題還是引發了激烈的爭論。

現在運用于司法的人工智能面臨著一些問題。第一個問題是法律人與技術之間的隔絕關系。搞法律的不懂技術,搞技術的不懂法律,這樣一來就可能出現兩套話語體系,甚至是“雞同鴨講”,使得運用于司法的人工智能技術總有種抓不住點的感覺。第二個問題是對人工智能的研究存在一些誤區。有的人已經在研究人工智能的主體地位,甚至怎么把人工智能看待為人這樣的問題,這種問題就不免太超前了一些。目前人工智能還處于弱人工智能階段,甚至有一些偽人工智能混雜其中,它真的能夠代替人嗎?目前看來,短期內恐怕這種可能性還是很低的,如果真的有一天人工智能超過了人類,那么那個時候人類恐怕也沒有能力去研究人工智能的權利保障、主體地位之類的問題了,人類首先要做的恐怕是怎么讓自己存活下去,就像《黑客帝國》里一樣。第三個問題是理念方面的偏差。因為包括對人工智能在內的科學研究,其基本方法之一就是試錯,也就是說,技術的發展是以大量的錯誤為成本的,但是這個成本是司法承受不起的。因為司法中一旦發生錯誤,就可能導致錯誤的羈押,甚至錯誤的人頭落地,因為司法是保障公平正義的最后一道防線,一旦這道防線被突破其后果不堪設想。因此技術和司法之間在理念上存在一些差異,錯誤成本的承擔方式也有所不同。

在這樣的現實下,人工智能運用于司法可能會帶來幾方面的風險:

第一個風險是影響公正。刑事訴訟最基礎的一個原則是無罪推定,所謂無罪推定,就是說任何人在被法院正式判定有罪之前,在法律上都被推定為無罪。用老百姓的話說,即便你被公安機關抓走了,即便你被檢察機關起訴了,在沒有被法院定罪之前,在法律上你還是無罪的。無罪推定的意義在于,一方面保障公民的基本權利,另一方面明確證明你有罪的責任由控方承擔。但是人工智能一旦運用于司法,就可能損害無罪推定原則,因為在互聯互通的背景下,數據會從公安機關傳輸到法院,那么從偵查中形成的有罪推定的傾向也有可能被推送給法院,讓法官形成先入為主的有罪認定,這樣就可能導致錯誤的判決,造成司法不公正的情形。

第二個風險是公民的訴訟權利可能會受到很大的影響。例如在剛才提到的盧米斯訴威斯康星州案中,公民的對質權就因為算法不公開而受到了影響?,F在有的學者認為人工智能會被打造成一個強勢的裁判者,甚至創造出所謂的“阿爾法法官”,實際上這種可能性并不大。但是人工智能的運用確實會對控辯雙方的力量對比產生影響,進一步加劇控辯雙方的不平等。因為控方,無論是檢察院還是公安機關,都在運用各自的人工智能工具,具有收集數據、運用數據的強大能力,而且這種能力是以國家資源投入為支撐的。而作為犯罪嫌疑人、被告人,普通公民顯然沒有這種能力,包括專業知識能力,也包括經濟能力。這樣一來,我們努力提倡了幾十年的控辯平等原則,可能在人工智能的運用下被突破掉了。人工智能的運用使得原本就不平等的控辯關系變得更加不平等,比如控方可以掌握并使用幾百個TB的數據,讓犯罪嫌疑人、被告人一方淹沒在海量的數據中,用形式的平等去掩蓋實質的不平等,這種情況在一些國家已經發生過了。

第三個比較大的風險是對裁判權的影響。裁判權是定罪量刑的權利,這是一種國家獨占的權力。然而在人工智能運用于司法裁判的過程中,由于前面提到的法律人與技術之間的隔離關系,我們必須把技術的部分給外包出去,比如讓科大訊飛、騰訊這樣的科技企業去做應用、做軟件、設計算法。然而問題是,這種外包僅僅是技術工作的外包還是可能把一部分裁判權給外包出去?比如在設計算法的時候,技術人員很可能把一些他們自己的觀念、想法甚至固有成見注入軟件或算法中去。作為一個人工智能算法的研發人員,我對LGBT群體(10)LGBT是女同性戀者(Lesbian)、男同性戀者(Gay)、雙性戀者(Bisexual)、跨性別者(Transgender)的縮寫,特指性少數群體。抱有歧視,就可能把這種觀念體現在算法中,使得LGBT群體在裁判中吃虧。還有,作為科技企業,在設計關于商業案件的人工智能時,也會盡可能搞出在日后自己可能涉訴的案件中有利的算法,從中獲益。這樣一來,我們就擔心技術的外包會導致裁判權的實際外包,疑惑到底是法官的裁判還是技術人員的裁判?另外,資本具有天然的逐利性。技術的進步是時代的必然,資本的逐利性也是一種必然,這兩種必然一旦結合就可能使得人工智能司法時產生問題。資本的逐利性和司法追求公平正義的目標之間是存在沖突的,我們就不得不警惕資本的逐利性加上人工智能運用后的裁判權實際外包,會導致司法公正方面出現偏差。

對于法官而言,還有一個很現實的問題?,F在推行司法責任制,審理者裁判、裁判者負責,也就是說這案子是誰判的,那么后續發現錯誤就由誰來擔責,而且這種責任追究是終身的,一旦案子判錯了,可能法官要面臨終身追責。一旦運用人工智能,到底案子算誰判的?法官判的,還是人工智能判的?發現錯誤了算誰的?算法官的,那法官說我冤死了;算人工智能的,那人工智能就可能成了法官“甩鍋”的對象。怎么辦呢?

第一是要對人工智能作合理的定位。要明確一點,就是人工智能在司法裁判中永遠只能作為一個輔助性工具,絕對不能取代人的裁判。裁判永遠是人的事兒,對一個人的生命、自由、財產這些最為重要的權利的剝奪,必須是由人作出的,必須是人的理性的產物,而不能把這種權力交給機器。人工智能在此過程中可以承擔一些輔助性的工作,比如類案推送、語音識別,但是最終決定性的裁判權絕對不能交給人工智能。

第二是在人工智能的適用范圍上應進行嚴格的限制。刑事案件涉及公民生命、自由、財產這種核心利益,那么適用人工智能時就要更嚴格一些,相關的限制也就要多一些。人工智能一般只能用在司法行政工作方面,在審判中最多提供一些量刑的建議和證據使用的建議。也就是說,我們對人工智能的適用范圍要嚴格設限,別讓人工智能的運用替代人的審判,另外,對于人工智能作出的結論也只能供法官參考,法官不能依賴于人工智能。

第三是要加強對公民權利的保障。在訴訟中,當事人的權利保障,特別是刑事案件中犯罪嫌疑人、被告人的權利保障,是司法公正永恒的主題。特別是在刑事訴訟中,是一場公民個人對抗國家的“戰爭”。如果沒有權利的保障,那么就會出現一邊倒的局面,司法中的說理和辯論就很難實現了。在人工智能運用的背景下,司法中對公民的權利保障就應該進一步加強。首先,我們應當考慮有限的算法公開。其實這是個很復雜的問題,因為算法公開涉及各個方面的利益,比如科技企業就會擔心算法一旦公開了,他們的知識產權難以得到保障,進而他們的商業利益就會受損。前面提到,企業逐利是本能,也具有合理性,一味讓他們作出讓步或者犧牲,既不現實,也會傷害他們的研發動力,不符合市場經濟的要求。但是算法公開對于保障公民權利是有利的,通過算法公開,辯方可以質疑算法,反對它作出的結論。這樣就需要二者進行平衡,實施有限的算法公開,僅公開其中部分與裁判結果關系最密切的內容,還可以通過與當事人簽署保密協議等方式進行算法公開。其次,要運用專家輔助人制度。司法機關用人工智能,但是當事人沒有這個技術能力,為保障控辯平等,就可以通過刑事訴訟法、民事訴訟法規定的專家輔助人制度,讓專家輔助人為當事人提供專業的幫助,通過其扮演的更為積極的角色,填平人工智能帶來的專業知識方面的鴻溝。最后,應當賦予當事人一些數據權利。當事人在司法領域中也是數據主體,那么作為數據主體,他們的個人數據被司法機關使用,成為人工智能運行的原料,那么數據主體自身就應當享有相應的數據權利去與司法機關抗衡,包括數據訪問權、反對權、更正權、被遺忘權之類的,這些積極主動的權利能夠在一定程度上實現對公權力的制約,防止其濫用。

第四是要在司法和企業之間建立一定的隔離。盡管在人工智能運用的場景下司法輔助性工作的外包已經十分常見了,中央對此也持肯定態度,但是外包之后仍然有必要在司法和技術之間、司法機關和科技企業之間、司法人員和技術人員之間作一定的隔離。一是人員的分離。司法人員是司法人員,技術人員是技術人員,盡管有合作關系,但不要混同。比如在研發206系統時,科大訊飛派了好多技術人員來法院搞研發,但他們仍僅僅是技術人員。二是利益的分離。人工智能運用于司法裁判,國家投入大量資金,這里面就有巨大的利益關系。在這種情況下,要防止司法機關和企業出現利益的混同,特別是在招投標這些環節一定要注意,防止雙方勾結侵吞國帑,也要防止某些企業用低技術水平的“偽人工智能”騙錢。三是職司的分離。裁判權是國家的權力,不能由企業或技術人員去行使,二者要有明顯的隔離,防止國家獨占的裁判權旁落。

(作者為北京外國語大學法學院教授、博士研究生導師)

數字剝削與社會正義

秦子忠

一、剝削及其不正義

在馬克思關于剝削的標準論述中,工人由于沒有生產資料而被迫出賣自己的勞動力,資本家則由于占有生產資料,因而不僅控制工人的勞動力,還無償地占有工人生產的剩余價值。馬克思的剝削理論包含三個不同方面的邏輯。第一個方面是工人處于生產資料不平等分配的末端,第二個方面是工人被迫按照別人的要求去工作,第三個方面是工人被迫把他的剩余勞動產品轉讓給他人。問題是,這三個方面中的哪一個使得剝削不是正義的?在回答這個問題之前,我們需要先說明一下馬克思的正義觀。

依據馬克思的相關文本,他關于正義的理解,其基本義或是G.A.科恩所說的某種平等觀,或是給予每個人以其應得,或是一般而言的不偏不倚。盡管這三者的內涵并非固定不變,也不能相互等同,但是它們在反對單向性偏愛上具有家族相似性。

據此而言,上面提到的第三個方面,即工人被迫把他的剩余勞動產品轉讓給資本家,使得剝削不是正義的。因為工人被迫把他的剩余產品轉讓給資本家是一種單向性轉移,從而導致了社會財富的兩極分化,違背了正義的基本義,即它使得工人處在不平等的劣勢地位,或者沒有給予工人以其應得,或者違背了不偏不倚的觀念。上面提到的第一個方面,即工人處于生產資料不平等分配的末端,也使得剝削不是正義的。因為從歷史來看,工人處于生產資料不平等分配的末端,是由于在工人這個身份產生的過程中他們遭受了不正義對待;也因為從邏輯來看,第三個方面是由第一個方面引起的,因此當第三個方面存在如上所述的社會財富單向性轉移意義上的不正義時,第一個方面也不是正義的(因為它導致了不正義的后果)。至于上面提到的第二個方面,它不一定產生剝削情況,因為工人被迫從事勞動不一定產生價值。

二、數字技術與馬克思主義分析框架

當前由互聯網、大數據、云計算、算法等數字技術驅動的AI在多個領域正在取代人類個體。這個取代如果持續下去的話,就觸及這樣的極限場景,即所有人類意義上的工人都被取代了,由此引出了兩種情況。第一種情況,所有人類個體成了多余人,AI在全領域取代了人類的勞動力。在這個意義上,標準表述中的剝削不存在了,因為作為實體的工人不存在,作為其衍生物的剝削也就不存在了。第二種情況,人類的體力和可重復的腦力都被AI取代了,而那些沒有被取代的腦力,比如創新能力,在AI賦能下得以增強,由此AI成為未來社會的“工人”,而人類成為“資本家”,但由于AI不是人類,所以這個時候即便存在剝削的結構,但它并不是真正的剝削。

在這兩種情況中,剝削都不存在,或者成為沒有意義的概念。這里,就剝削的最終消失而言,這兩種情況都符合馬克思的唯物史觀所指向的共產主義景象,但是剝削消失的具體路徑與馬克思的經典分析不同。馬克思認為,剝削的消失是工人與資本家之間階級斗爭不可調和的結果。而在這里,剝削的消失在第一種情況中是由于AI的替代導致人類喪失了參與生產性活動的資格,人類的勞動能力對社會財富生產已無貢獻;第二種情況是由于AI的替代導致人類整體上擺脫了一部分人剝削另一部分人的社會關系,人類的勞動能力依然對社會財富生產有貢獻。相較而言,第二種情況比第一種情況更符合馬克思關于剝削消失過程中人類個體的處境,即人類個體的勞動能力不僅具有存在論意義上的價值,也具有促進社會發展的勞動價值。當然,這兩種情況都是極限場景?,F在我們過渡到現實場景。

目前,AI對人類個體的取代是局部性的,并且人類在AI的賦能之下強化了自身那一部分不可替代的能力。不過個體意義上的原始數據是否有價值,有兩種不同的分析進路。第一種進路認為,個體意義上的原始數據不具有價值,但是在數字工程師的處理之下能夠產生價值,由此數據工程師依然處在這個雇傭體系中,遭受著平臺資本家的剝削。第二種進路認為,個體意義上的原始數據是有價值的,只是它的價值被忽視了?;ヂ摼W用戶瀏覽、點擊、書寫網頁等在線活動產生的原始數據是有價值的,因此,剝削不僅發生在工作領域,也發生在閑暇領域,受到剝削的不僅有人數較少的數據工程師,而且還包括人數較多的普通網民。

以上兩種進路雖然有所不同,但它們都承認大數據時代仍然存在著剝削,并且就其結構特征而言,以前面表述中的剝削作為參照,它的變與不變體現在三個方面。第一,“工人處于生產資料不平等分配的末端”這一方面沒有改變,即普通網民相對于平臺資本家仍處在數字生產資料不平等分配的末端。第二,“工人被迫按照別人的要求去工作”這一方面有所改變,被迫變得更加柔化、隱蔽,甚至網民的在線活動看起來是自由的。第三,“工人被迫把他的剩余勞動產品轉讓給他人”這一方面在趨勢上或者在轉變過程上沒有改變,但是剩余產品的內容發生了改變,比如物質產品變成了數字產品。

據此而言,在大數據時代,剝削的第一個方面和第三個方面在形式上仍然保持不變,因此上文所述的剝削與不正義之間的關系也仍然保持不變。在這個意義上,由極限場景和現實場景共同界定的分析框架可以被看作馬克思主義的。但是由于第三個方面在內容上有所改變,工人的內涵也隨之發生變化,大數據時代的剝削及其不正義變得更加隱蔽。

上面的論述是模式化的,它為我們接下來考察大數據時代的剝削問題提供了一個馬克思主義分析框架。具體而言,極限場景提供了理論研究指向的兩種終點,分別由第一種情況和第二種情況界定,現實場景提供了理論研究的兩種起點,分別由第一種進路和第二種進路界定。兩種終點與兩種起點,共有四種組合,即第一種進路與第一種情況的組合,第一種進路與第二種情況的組合,第二種進路與第一種情況的組合,第二種進路與第二種情況的組合,由此這個分析框架有四種具體形態。我主張個體意義上的原始數據是有價值的,因此包含第一種進路的前兩種組合不在我的考慮范圍之內;又因為我主張在人類整體進入自由勞動可以實現的歷史階段,人類的勞動能力在AI賦能后可以對人類社會發展有貢獻,所以在剩下的后兩種組合中,我只需考慮第二種進路和第二種情況的組合。這個組合大體上界定我理解大數據時代剝削問題的理論視野。下面,我依據這個視野,闡釋大數據時代剝削的多重性以及相應的正義主張。

三、剝削的多重性與社會正義

在資本主義早期,人類生活空間的工作領域與閑暇領域日漸分化,而工作日大體上就是工人在工作領域勞動的時間長度。但是在大數據時代,工作領域和閑暇領域的界限已經模糊或相互滲透,因此工作日是否仍為一個解釋力有效的概念,有待研究。讓我們從考察馬克思的工作日概念開始。

在《資本論》中,馬克思把工作日作為一個核心概念予以考察。他不僅將“工作日”單列為一章,而且他的勞動理論、剩余價值理論、剝削理論都和工作日概念相關。馬克思如此界定工作日:他用線段ab表示必要勞動時間的長度,線段bc表示剩余勞動時間的長度,由此一個工作日的長度就等于ab+bc,如下:

工作日
a——b——c

根據這一界定,延長工作時間就是絕對剩余價值的生產方式。不過,這種延長遭受人類身體自然承受力的限制與人類文化道德的限制。提高勞動效率,從而在工作時間不變條件下縮短必要勞動時間ab,即b點向a點移動,則是相對剩余價值的生產方式。從歷史上來看,資本家對剩余價值的最大化追求,主要通過提高勞動效率來實現。在這個進程中,工作時間ac表現為歷史性縮短(比如從14小時縮短為9小時),因而工人能夠享受一定量的閑暇時間。但是由于工作場地、技術水平等條件限制,人類個體在工作時間通常只能受雇于某一個資本,并且他們在閑暇時間中的活動不產生價值。

當技術迭代升級,人們跨入由大數據、云計算、算法等驅動的數字技術時代,人類生活空間也隨之發生結構性變化。在數字技術驅動下,工作領域數字化,閑暇領域也數字化。由此,人類個體不論工作抑或休閑,一般而言都置身于互聯網之中,參與原始數據的生產。因為閑暇時間也存在數字勞動,并且產生價值,所以需要重構馬克思的工作日概念,即把已存在數字勞動的閑暇時間加進來,以便能夠對大數據時代的剝削有更加全面的把握,如此就得到一個新的工作日:

新工作日
a——b——c——d

在這個新的工作日里面,ab線、bc線與馬克思的定義相同,分別表示必要勞動時間的長度,剩余勞動時間的長度;cd線是新增加的,表示閑暇勞動時間的長度。這個閑暇時間的數字勞動在大數據時代是產生價值的,但它的價值被完全忽視了,或者被數據公司無償地占有了。據此,我們發現大數據時代的剝削是多重性的。具體來說,在新工作日中,bc線,即馬克思意義上的剩余勞動時間,存在一重剝削。《資本論》對此已經做了詳細論述,cd線是新工作日呈現出來的,即閑暇勞動時間,存在另一重剝削。例如網民在淘寶、京東、當當等平臺上的瀏覽、點擊、購買、評論等活動是一種數字勞動,它們生產了原始數據價值,卻被平臺公司無償占有了。因為平臺公司沒有給予網民相應的等價物,因而這種占有閑暇勞動時間產生的原始數據價值不是正義的。

在人類生活空間數字化轉型過程中,數字生產資料越來越具有基礎性地位,因而它的價值不僅在于它自身,也在于它對其他非數字生產資料的支配作用。然而,在普通網民那里,他們大多數人仍然未意識到日常產生的數字記錄(原始數據)的價值,自然地,不會覺得自身的在線活動是一種數字勞動,也不會意識到自身遭受數字剝削。作為故事的另一面,則是當前世界財富不平等分配的極化發展,以及占據這個不平等頂端位置的是亞馬遜、阿里巴巴、臉書等互聯網平臺公司。這一悖論性現象,只有聚焦到剝削的多重性,尤其是其中的數字剝削,才能夠獲得合理的解釋。

這里,有必要提及本研究的一個現實意義。針對當前數字技術發展、人工智能替代引發勞動就業領域的結構性變化,我也主張推行全民基本收入方案。但是就支持該方案的核心理由而言,既與救濟失業的理由不同,也與維持秩序的理由不同,本文給出的理由是正義性的。由此,在維護人類個體的權益或尊嚴上,支持全民基本收入方案的力量不是根源于平臺資本家的慈善,也不是根源于政府維持社會治安的責任,而是根源于每個人類個體應當免費享有其參與原始數據生產所對應的價值或等價物。因為原始數據價值的存在形式是集成性的和公共性的,所以就界定全民基本收入水平而言,它不能簡單地等于個體意義上個人產生的原始數據的價值,而應是群體意義上集體產生的原始數據的價值按照某種正義理論予以確定的價值。當然,這個問題需要另文處理。

(作者為海南大學馬克思主義學院副教授)

人機交互實現的共情感知基礎(11) 本文為江蘇省社會科學基金青年項目“身體現象學視域下人機交互的情緒直接感知研究”(20ZXC004)、國家社會科學基金一般項目“他心問題的基礎理論研究”(20BZX030)的階段性成果。

崔中良

一、人機交互面臨的挑戰

人工智能正逐漸滲入人類生活,提高了人類生活質量。但是,人工智能的快速發展使得人類產生了警惕,人們呼吁對人工智能的發展給予關注和限制。人工智能技術在改變人類生活方式的同時,也在遮蔽存在,人類被人工智能所構建的繭房覆蓋,人類看到的世界、行動的方式、理性的選擇甚至生活的伴侶都在被人工智能包圍、計算、推薦和替代。因此,變化正在改變著人與人之間的相處方式、人與技術的關系、個體與社會的關系,任何重復性的行為都不再具有生存意義,人也逐漸變成了機器。

人工智能的迅速蔓延及強力擴張,也逐漸引起監管部門的關注。由于人工智能技術所帶來的社會風險是無法預估的,因此對于人機關系及由此形成的倫理問題更需嚴格監管。科技部在2021年7月28日公布的《關于加強科技倫理治理的指導意見(征求意見稿)》中明確提出,“科技活動應客觀評估和審慎對待不確定性和技術應用的風險,力求規范、防范可能引發的風險,避免誤用和防止濫用科技成果,避免危及社會安全、公共安全、生物和生態安全”,文件特別提到要細化人工智能倫理規范和標準??傮w上看,人工智能研究正向人機交互方向推進,一方面極大地促進了人類社會發展,另一方面人機之間還無法實現直接的、高效的情感交互,給人類帶來了極大恐慌。明斯基在1988年的專著《心智社會》(TheSocietyofMind)中就提出了智能機器不可能替代情感,因此,重啟對情感的思考將有利于人類和人工智能的共同發展。

二、人機共情是應對挑戰的方法

當前是一個風險社會,我們無法判斷一個不確定的事件對于人類的沖擊,人們嘗試通過理性掌握未來,從而規避風險。人工智能最初的發展形象主要是正面的,但是最近的人工智能卻成了人類的擔憂。為什么會出現這樣的情況呢?一個重要原因是人們對于最新技術的發展狀況及人工智能到底會走向何方并沒有一個清晰把握,人機之間缺少情感交互加重了人類的憂慮。這在《弗蘭肯斯坦》中已經有所警示,弗蘭肯斯坦創作的“怪人”是人工智能的一個象征,但是人類對于自己制造的人工生命并不接受,而是產生了恐懼和厭惡,使得它產生了“憤怒”,雖然“怪人”傷害了很多人,但也被人類情感所感動,希望擁有同伴和獲得人類同情。這向人們暗示,人類對人工智能的情感表達會直接影響人與機器的關系。人機交互的共情基礎是人機之心互相通達的必要環節,更是人機共存所必須的技術策略。人工智能到底是否可能擁有共情能力,情感落地的可能性及其方式成為人機情感交互研究的重點。

情感是人類最基本的經驗構成之一。人工智能的快速發展使人類害怕超級智能體的出現,由缺乏情感的超級智能體所組成的平行社會更加令人恐懼。現象學、神經科學以及認知科學等相關學科都對共情進行了深度研究,為了避免人工智能引起的“恐怖谷”效應,首先需要在感知層面實現情緒理解。對于人工智能在感知層面的研究有兩條進路:經驗主義和理智主義。經驗主義和理智主義的感知觀都屬于理性主義,都強調心靈對于感知器官的整體把握,都將功能歸屬于一個中央控制系統。這樣的感知觀在應用于人工智能時,出現了一個明顯問題,機器的感知模態是割裂的,對人類的情感理解建立在對不同模態的分析與綜合的基礎,因此,總體思路是把各個模態進行分割,再由中央控制系統進行加工的過程。對于這樣的情感感知觀,梅洛-龐蒂在哲學層面論證了感知模態分離觀的錯誤,當前的認知科學和神經科學也在理論與實驗層面就個體發生學角度指出人類感知的發展是一個感知模態逐漸區分的過程,但是通感作為原初經驗仍然會被保留,感知不是對某一模態的把握,而是對多模態把握。我看到一瓶水,其實我看到了它的溫度,看到了它的形狀等相關維度。當前的人工智能研究思路跟人的感知模式并不一致,如果要實現強人工智能,或者通用人工智能(Artificial General Intelligence,AGI),可能需要將人類情感的感知方式應用于人工智能研究。人類情感感知主要有兩個層面:第一個層面表現在在線(Online)感知的各模態同時加工,第二個層面表現在感知與表達的同步加工,這在情感具身研究及神經科學的鏡像神經元研究中都得到了證實。因此,解決人機交互問題,就在于如何設計共情的感知基礎。

三、人機交互實現共情的感知基礎

除了人文反思之外,人工智能研究還應從技術本身來探討實現人機交互的方法并給予科學支撐,避免由個人感悟或不全面理解而導致人工智能偏見,以此促進人工智能的發展。許多人工智能設計者明確提到,不要過分擔心人工智能發展,人工智能威脅論還主要來自科幻電影或小說,人工智能全面替代人類的道路還很漫長??傊覀內孕柽M一步推動人工智能發展,但是這種發展是向善的。

(一)人機交互的共情難題

共情作為復雜的情感現象,最早被利普斯(Lipps T)使用,經胡塞爾和舍勒發展成為現象學主體間性及倫理學的基礎概念,后被認知科學和神經科學所用。人工智能研究在此基礎上提出人工共情(Artificial Empathy),致力于人機深度交互和融合,實現人工智能在各行業的應用。同時,人工智能與哲學,特別是與認知科學、神經科學有較多交叉,在此背景下探索人工共情的感知基礎、運行機制和習得路徑,努力跨越人工智能的“恐怖谷”。

機器能否通過模擬實現情感是人機交互的第一個難題。主要有兩方面原因:一方面以數據統計或數據建模為基礎的情感加工方式與人類的共情加工方式不同;另一方面人工智能體的硅基材料與人類碳基身體的需求不一致,因此,情感落地似乎無法真正實現。但是,這種觀點有待商榷:首先,無法否定人工情感是情感,就如無法否定飛機的“飛”是“飛”一樣;其次,人工智能并沒有脫離人類情感的加工方式來實現智能,人類情感和機器情感之間具有同一性;最后,沒有完全按照人來設計人工智能,飛機也沒有完全按照鳥來設計,但是具有相似的功能,因此,人工智能在功能層面上是可以實現共情的。在人工共情可實現的背景下,對于情感的感知方式是第二個難題。如果感知是將各個信息進行信道的區分,然后再進行整合,這樣的信息獲取方式將會產生兩種結果:一方面割裂感知和表達的關聯,另一方面隔斷了各感知模態間的關聯。這樣的感知模式仍然會陷入笛卡爾的二元論思想和經驗主義的窠臼之中,沒有看到感知一體性以及感知和表達的一體性。因此,筆者嘗試通過對感知方式的分析將其應用于人機共情研究中。人工智能的共情發展是第三個難題。當前對于機器情感的研究,主要依賴情感計算。神經科學研究表明,當兒童彈鋼琴時,大腦的神經連接會加強,如果只是重復單一指法或按照指令來彈奏,大腦神經連接并不會加強,但是在大腦中想象卻會增加神經連接,如果人工智能只是傳統行為主義的、機械性的情感加工模式,人工智能將無法實現與人的真正交互。

(二)人機交互實現的共情感知基礎方式

人工智能借鑒共情研究,從行動、情感和認知三個層面設計人工共情,以此解決機器情感問題,但是仍面臨著共情單一化和共情同質化問題,這極大地影響了人機交互?;诖?,為實現人工智能體對情感信息感知和表達的獨特性、多元性,人機交互的共情感知可以從三個方面開展研究:

1.人工共情能力以感知經驗為基礎

人機交互需注重形成交互能力的經驗基礎,感知并非完全依賴機器的計算和推理能力,還需社會性和進化性作為人工共情的經驗基礎。為了解決這些問題,我們嘗試吸收身體現象學的共情觀,認為共情不只是先天具有的能力,也不是一個被動輸入過程,不需要獨立心靈作為中介或控制中心,共情需要感知經驗作為基礎,共情感知直接影響共情的產生、發展和實現,因此,感知是共情生成的起點,貫穿各共情維度的中心和確保共情多元化的基礎。將融合性的社交經驗作為感知經驗產生的起點,人工智能體在實現主體化之前有一個前個人的、無名的和無定形的融合社交狀態;情感交互作為實現感知經驗沉淀的手段,人工智能體在感知人類情感時,需要在前期經驗基礎上,通過情感交互的方式激活第一人稱經驗;將功能一體作為推動感知經驗發展的方式,人工智能體各感知模態的功能既是一體的也是有區別的,通過情感交互中形成的意象圖式整合各感知模態。

2.人工共情能力以多模態為感知方式

人工共情的一個更加基本的層面是情感的感知,即感知共情問題,那么人們是如何進行共情感知的呢?筆者認為人類感知是通過多模態和通感的方式獲取信息。信息的表現形式是多模態的,人類對于信息的通達也是多模態的,因此人工智能的情感感知方式應設計為多模態形式。由于多模態感知受前期經驗的影響,對于感知信息的獲得并不是一個完全被動的輸入過程,而是帶有一定的主觀因素,人工共情的實現就需要讓機器獲得主客一體的感知加工過程。新的人工情感感知方式以人類多模態感知觀和整體感知觀為模板,設計人工共情模態間的聯通融合和感知-表達一體。這包括四個方面:第一,感知的具身通感性,情感會同時表征在人工智能體的感知系統和認知系統中,兩者相互影響、互為因果;第二,感知模態通感,各模態感受器分布于人工智能體“全身”,以整體的全模態方式感知情感,保證感知的多維性和整體性;第三,感知-表達一體,共情的生成和調節機制交織(包括調整、評估和控制),情感感知和表達使用相同的功能機制;第四, 人機間通感,通感使人工智能體實現對情感的全面感知,通感抑制使人工智能體區分不同的情感并以合適方式反應。

3.人工共情能力整合多種感知機制

情感特征的提取結果直接影響情感識別率,傳統感知觀認為事物將不同的性質傳遞給不同感官,然后再由理智將各種信息統合為整體。情緒是一個統一存在,情緒的其他性質是存在的不同表現,因此需要將傳統人工智能的感知過程倒置。新的感知加工機制包括驅動機制的上下一體和內外一體加工、功能機制的交互模擬、亞人機制的預測推理。上下一體的計算-推理為感知產生的基礎,內外一體的感知生成為共情產生的必要條件,人工智能體的元認知通過上下一體的感知反饋機制更新信息,內外一體的表達抑制機制調整信息。依照人類感知的模擬機制,設計人工共情的感知-運動系統和感知-反饋回路。人工共情的感知加工依賴共情模型對輸入信息的最佳預測,人工智能體有選擇地對超出預測的信息進行加工,包括感知的預測、適應和調整。情緒可以分為外顯表情和內在體驗。在大多數情況下,不同的人之間都有一些明確的、一致的情感表達。情緒分類的人工標記任務存在著不確定性問題,這使得情緒分類問題不能只考慮分類的準確性。在過去的研究中,我們更偏向于對共情的外部表達的研究,認為共情是一種實現方式,但是當前的研究表明,感知和行動是一體的:在感知過程中有行動,行動中也有感知。因此,感知的內部加工形式決定感知的內容。

(三)人機交互實現的共情教育

法國哲學家拉·梅特里在《人是機器》中提出除去人的想象力更豐富之外,人在任何方面都不如動物,人應該受動物統治,但是人最終成為萬獸之王,關鍵在于教育使人類具有情感交互和抽象思考的能力。因此,教育在人類發展中具有不可替代的位置,而人工智能如果要獲得共情能力,除去預置的情感加工機制,更需要后天習得。人類情感時刻變化,周圍環境持續變動,個人情感的表達方式也不相同,因此情感感知能力習得是人機實現真正交互的一個基礎性過程。

人機交互的共情能力依賴機器學習策略。我們需要研究人類的學習方式,以此找出機器共情習得的對策。當前的人工智能研究路徑主要有三個大的方向:符號學派、聯結學派和行為學派。符號學派主要依賴數據統計的知識圖譜研究,聯結學派主要推進深度學習研究,行為主義偏重強化學習在人工智能發展中的作用。但是不管哪一個派別都注重數據建模和訓練,期望通過大量模型訓練實現情感感知質變。最近谷歌還推出了神經結構學習(Neural Structured Learning,NSL),這是一個學習神經網絡的開源框架。這些研究強調數據在機器學習中的作用,認為從弱人工智能向強人工智能過渡是情感的連續性知識學習和推理過程。但是對于人類來說,情感的意義不僅限于情感知識的學習,人類情感學習與當前機器情感計算最重要的區別是情感學習的生存意義性。

對于人類的學習策略,傳統的方法有行為主義強化學習,在此基礎上的填鴨式教學的實踐問題已經顯現;當然也有以唯理論為基礎的啟發式教學,存在知識的基本概念和知識內容的缺失問題。最近還有一些在實用主義基礎上的教學法,如情境式教學法、沉浸式教學等,這些方法看到了環境對人類學習的重要影響,但仍需進一步推進。具身認知研究表明,學習是一種具身經驗式的、情境的生活教育?,F象學的研究認識到科學知識的生活世界基礎,甚至數學知識都是有身體基礎的,人們需要正視身體、情境和生活參與對知識習得的重要性??傊?,人工智能獲得共情的能力除去數據的表征與計算基礎的輸入之外,更需回歸人機交互的生活實踐,這是擺在機器情感學習面前的最重要問題,儒家求“仁”的教育也許會有利于機器的向善發展。

四、結論

人工智能的快速發展使人類害怕超級智能體的出現,由缺乏情感的超級智能體所組成的平行社會更加令人恐懼,情感是人機交互的一個核心問題。通過對機器的共情感知研究,期望減少對于人工智能的誤解和人工智能未來不確定的判斷,通過人機情感交互減少人類恐懼,從而實現人機之間的深度融合,并構建一個和諧的人機共存社會,這離不開增加人工智能對人類情感的感知能力。感知作為一個情感的過濾器,決定著何種情感被獲取、理解和反應。感知共情是機器與人進行直接接觸的界面,傳統的分離式、間隔式的感知方式將無法滿足更加順暢的人機交互,因此,需要我們全面推進人工智能感知方式的研究,進一步推動人工智能發展。

(作者為南京信息工程大學馬克思主義學院副教授、華東師范大學哲學系博士后)

對“人工智能的理論闡釋”專家發言的評議與澄思

趙 濤

這是我今年第三次參加與人工智能相關的學術活動,專家學者的發言,視野開闊,銳見迭出,思想頗富彈性,主題極具張力,給我很大啟發。

的確,未來呼嘯而來,當代人工智能的發展一日千里,具有典型的非線性增長、累加性迭代的特點,其廣泛的應用場景正在對人類的政治、經濟、社會、生活及以人的思維產生既廣泛深刻又福禍難料的重大影響。驀然回首,我們很驚訝地發現,人類技術增強導致的最大后果是,高科技不再只是人類的工具和奴仆,它甚至有可能后來居上,反客為主,既帶來“阿拉丁神燈”,又打開“潘多拉魔盒”,給人類帶來生存論級別的嚴峻挑戰。

蔣明敏教授對三位專家學者的發言作出了既明晰又敏捷的歸納與概括,我想接著諸位專家學者的報告,簡單談點心得體會。

楊通進教授的報告《尋求人工智能倫理的全球共識——以歐盟人工智能倫理建設為例》,探討的是一個非常現實又非常迫切的大問題,人工智能技術的飛速發展倒逼人類建立全球共識,共同應對。他在報告中以歐盟為例,深刻論述了當今時代尋求人工智能倫理全球共識的緊迫性,簡要介紹了歐盟在人工智能倫理建設方面的經驗,并詳細探討了如何推進人工智能倫理全球共識的問題。

針對楊通進教授的報告,我想補充談三點意見:

第一,當代科學技術的無序發展亟待我們超越傳統的國家邊界觀念,站在新文明的高度,尋求全球共識。

楊通進教授在報告中嘗試性地提出了一種超國家的倫理共識,一種超國家的行政管理機構的問題。的確,當代高科技越來越成為一種新的獨立的權力——技術權力,國家越來越依賴技術,而技術越來越不依賴國家。就像我們已經看到的,發展類似人工智能等高科技正在成為大國競爭的一種外部強制命令,由此極易導致人工智能技術的發展失去內在倫理道德的規制。因此,尋求AI倫理的全球共識,就必須站在新文明的高度,想象一種新的國際政治經濟秩序的可能性,也就是要想辦法消除國家與國家之間因為競爭所導致的負外部性。原因很簡單,只要國家與國家之間的競爭依然存在,人類超越性發展科技的趨勢就無法阻擋。

第二,人工智能技術的飛速發展亟待我們改變傳統的倫理道德觀念,站在類哲學的高度,回應時代挑戰。

顯而易見,早期的技術增強在一般意義上會帶來人類福利的線性遞增,例如眼鏡讓我們看得更清,汽車讓我們跑得更快,但人工智能技術顛覆性太大,涉及面太廣,不確定性太強,其所帶來的福利未必就會線性遞增;相反,這一技術給人類帶來的約束卻可能邊際遞增。目前社會上通行的價值觀和倫理原則多半是工業革命時代的主流價值觀和倫理原則,這樣一些從人類中心主義出發,圍繞個人內在價值、個人的能動性和主體性等哲學假定提出的倫理原則,能否回應當今人類社會遭遇的諸多生存論級別的挑戰,存在重大疑問。這樣的一些挑戰包括全球氣候劇變、人工智能發展、機器人革命、世界范圍的疫病傳播,等等。我以為,面對這樣一些有可能對人類的生存與發展產生釜底抽薪效果的前沿科技及緊急事態,我們必須站在類哲學的高度,牢固樹立人類命運共同體意識,風雨同舟,權責共擔,才能有效應對。

第三,對于科技文明的深度反思亟待我們激活古典的中國哲學思想,站在新方向的高度,致力中西對話。

近年來,各國學人提出的若干應對人工智能等前沿科技的倫理和治理原則,大多奠基或來源于西方文明的價值觀。但就像我剛才所說,這樣一些作為工業文明孑遺的原則和理念,真的可以成為我們應該遵守的共同前提和基礎價值觀嗎?真的可以應對如此深刻復雜的嚴峻挑戰嗎?這顯然也是很成問題的。事實上,中國古典哲學中蘊含著大量有價值的理論資源,可以幫助我們深度反思當代科技文明的內在弊病。例如,老子所言“輔萬物之自然而不敢為”的思想,中國傳統儒家的“知止”思想,中國傳統佛教的“慈悲為懷”的思想,等等,對于應對科技文明帶來的沖擊與挑戰,開展中西對話,都具有重要的價值和啟示。我以為,現在最需要的是用現代手法激活它,這些古典思想一旦被激活,就像著名哲學家張世英先生所說,可能“比西方的思想文化更有魅力”。

吳靜教授近幾年對人工智能、數字人文及數字資本主義的研究很有特色:第一,現實批判意識突出;第二,理論支援背景豐富;第三,論證語言頗具詩意。

她在題為《算法的邊界》的報告中,結合日常生活體驗,十分敏銳地將批判的視角切入算法,對算法的本質及其使用限度與規避方法作出了富有前瞻性的思辨與考察。她提出了一個非常嚴肅的問題,人類是否會完全被剛性的算法所預測、所框定?她認為,在“算法為王”的時代,人本主義具有特別重要的意義。

眾所周知,人工智能的核心就是大數據和算法。大數據比較好理解,算法有點像黑箱,感覺頗為玄妙。我個人理解,算法不過是模擬人的信息處理過程,事先設定的一種對大數據進行分析、加工與處理的程序而已。有專家早就指出,我們正在進入“算法統治”的時代。剛才吳靜教授也生動地描述了,我們今天是怎樣無時無刻不在承受著算法的控制與監管。例如在打車的時候,好像是我們在利用算法,但其實是被資本等掌握的算法所算計。又例如,我們在看“頭條新聞”時,大量讀到的是所謂的“算法新聞”,算法改變了傳統新聞的出場方式、布展方式,造成了比較明顯的“回音壁效應”和“信息繭房”現象,人只能讀到那些自己感興趣的東西,從而變得越來越偏激,越來越狹隘。又例如,我們在網絡購物時,表面上是我們在自由選擇,但我們每一次率性的點擊,都會被網絡后臺所抓取,并在算法的運作之下,成為下一次打開網頁時重點推送的內容。

這樣的算法無疑會造成很多問題,剛才吳靜教授對算法的邊界及其社會效應作出了很好的分析。從技術政治學的角度來考量,我個人覺得,人工智能算法最重要的是帶來了“算法理性”的興起和人類理性的衰微,也就是上午程廣云教授講的意義世界的消失問題。應用理性的主體本來是人,現在逐漸變成了類人的人工智能。有人說,“記憶外包,文明消亡”,人在媒介技術中的延伸實際上是以人的內在理性的空洞化為代價的。在我看來,前幾年引發巨大爭議與轟動的魏則西可以說是百度公司偏重利益考量的算法的犧牲品。因此,要保證算法不出現重大偏差,更好地促進人類的永續發展,我們首先要做的就是強化人工智能算法主體的責任,就是要在源頭上,通過在人工智能技術中嵌入道德代碼來消除算法偏差、算法歧視、算法壓制等問題。當然,就我個人的感受而言,最應該警惕的還是算法壟斷,因為只要存在算法壟斷,在資本等因素的操控下,算法壟斷必然會失去自我糾偏的機制,普羅大眾也順帶著失去選擇的權利。試想,如果谷歌等大的搜索引擎還在的話,百度公司是很難推出這種喪盡天良的嚴重誤導消費者的算法的,魏則西很有可能不會死。當然,谷歌公司的那套算法,也潛藏著政治上的巨大意識形態風險。因此,對算法邊界的探尋,對合理秩序的追問,就必須超越技術層面,在政治、經濟、社會等更廣闊的視域下來探討?!八惴橥酢睍r代,人文主義精神不可或缺。

秦子忠副教授有一種很冷峻的激情,他是國內著名的分析馬克思主義學者段忠橋教授的高足,長于哲學分析。

為慎重起見,會議之前,我就拿到了秦子忠副教授的發言稿《數字剝削與社會正義》,對于他的報告主旨和運思理路有比較清晰的了解。

如何看待馬克思剝削理論的當代性,這是當前學界分歧較大的問題。秦子忠副教授在梳理馬克思剝削理論內核的基礎上,直面馬克思剝削理論所面臨的挑戰,特別是在報告的第二部分中,通過引入極限場景,分析了人工智能時代資本主義剝削方式的新變化,并創造性地在重新界定馬克思關于工作日概念的基礎上,論證了大數據時代剝削的多重性與不正義性。

毫無疑問,秦子忠副教授雖然用的是非常學術的方式,但談論的是一個十分現實又非常尖銳的問題——可能也是我們每個人在大數據時代都非常困惑的問題。我個人理解,討論“大數據時代的剝削與不正義”的重要性在于以下三點:

第一,人工智能技術實際上正在或即將大量取代傳統的重復性勞動,甚至在嘗試取代不少知識性勞動。例如,現在的人工智能不僅能寫新聞稿,據說還能寫詩,寫得還不錯。當今人工智能技術最為可見的威脅就是對人力勞動的替代——用某電商老總的話說就是,“能用機器就堅決不用人工”。正如有專家所言:“技術既是對人的解放,更是對人的拋棄”——人工智能時代,可能還真是一個求剝削而不可得的時代。

第二,大數據和人工智能時代的剝削因為有了數字平臺的加持,實際上變得更為隱蔽更為殘酷了。今天人類絕大多數交換和社會化關系都被數字平臺所連接、所架構,事實上,數字平臺早已成為數字資本主義投資和盤剝的新場域。以前那些令人艷羨的資本家,可能需要好幾代人才能聚斂大量的財富,但今天,像馬云之類的企業家只需要開辦一個本質上是“數字化的義烏小商品市場”,就可以在很短的時間內富可敵國,造成大量實體店鋪消亡,數千萬人失業,由此導致的社會兩極分化的程度,遠遠超出任何傳統的想象。為什么會這樣?大數據時代的剝削到底發生了怎樣的變化?我個人感覺,秦子忠副教授激活的“工作日”概念對此作出了有一定原創性的解釋。

第三,我更希望看到今天的哲學工作者能夠真正地以現實問題來帶動哲學研究,用哲學方式來引領時代發展。具體到大數據時代的剝削與不正義問題,我還是希望看到在很多王顧左右而言他的學理分析之外,學者們能夠直面當代中國電子商務領域廣泛存在的財富分配嚴重不公問題,在技術與資本的雙重批判視域,結合中國現實,作出具有中國特色的原創性研究,最終不僅要解釋世界,而且要改變世界。就像有人總結的,學者要學會把文章變成文件,把對策變成決策,把設想的計劃變成發展的規劃。用我的話說就是,要打通理論之思與實踐之行的任督二脈,把艱深晦澀的形上之思轉換成簡明易行的現實政策,把幽兮湛兮的哲學冥想轉換成清晰可辨的生動實踐,知行合一,把論文寫在祖國大地上,對時代問題作出符合時代精神、更接地氣的回答。

我想,這大致是我們今天討論“大數據時代的剝削與不正義”問題最為現實的意蘊所在。

猜你喜歡
人工智能人類智能
人類能否一覺到未來?
人類第一殺手
好孩子畫報(2020年5期)2020-06-27 14:08:05
1100億個人類的清明
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
智能前沿
文苑(2018年23期)2018-12-14 01:06:06
智能前沿
文苑(2018年19期)2018-11-09 01:30:14
智能前沿
文苑(2018年17期)2018-11-09 01:29:26
智能前沿
文苑(2018年21期)2018-11-09 01:22:32
人工智能與就業
IT經理世界(2018年20期)2018-10-24 02:38:24
數讀人工智能
小康(2017年16期)2017-06-07 09:00:59
主站蜘蛛池模板: 美女免费黄网站| 精品久久777| 97se亚洲综合在线韩国专区福利| 精品欧美日韩国产日漫一区不卡| 亚洲美女久久| 在线观看国产精美视频| 女人毛片a级大学毛片免费| 婷婷色一二三区波多野衣| 无码有码中文字幕| 色吊丝av中文字幕| 日韩a在线观看免费观看| 亚洲一区免费看| 亚洲看片网| 国产福利免费在线观看| 99久久精品视香蕉蕉| 伊伊人成亚洲综合人网7777| 久久永久精品免费视频| 国产浮力第一页永久地址| 精品久久久久久久久久久| 久久精品人人做人人爽97| 国产97视频在线观看| 91丝袜美腿高跟国产极品老师| 在线观看av永久| 国产偷国产偷在线高清| 在线免费无码视频| 中文字幕色站| 日韩精品无码免费专网站| 日韩在线永久免费播放| 欧美成人第一页| 热99精品视频| 国产人在线成免费视频| 亚洲最大情网站在线观看| 精品国产自在现线看久久| 亚洲欧州色色免费AV| 国产黄色视频综合| 99热这里只有精品久久免费| 蜜桃臀无码内射一区二区三区 | 久久免费精品琪琪| 91精品国产福利| 国产一级α片| 国产乱人免费视频| 国产第八页| 亚洲人成网站色7777| 亚洲国产中文在线二区三区免| 日本免费新一区视频| 国产一区自拍视频| 91精品伊人久久大香线蕉| 99国产在线视频| 高清色本在线www| 国产一级精品毛片基地| 日韩第九页| 亚洲中文无码av永久伊人| 国产麻豆aⅴ精品无码| 国产日韩久久久久无码精品| 99re热精品视频中文字幕不卡| 麻豆国产精品一二三在线观看| 日韩在线播放中文字幕| 国产在线91在线电影| а∨天堂一区中文字幕| 国产永久在线观看| 亚洲日韩精品伊甸| 欧美日韩国产一级| 亚洲第一av网站| 日韩精品毛片人妻AV不卡| 色哟哟国产成人精品| 久久99国产综合精品1| 免费国产黄线在线观看| 亚洲精品无码AV电影在线播放| 无码内射中文字幕岛国片| www亚洲天堂| 首页亚洲国产丝袜长腿综合| 少妇露出福利视频| 一级毛片免费观看不卡视频| 国产精品视频免费网站| 玖玖精品视频在线观看| 国国产a国产片免费麻豆| 夜夜高潮夜夜爽国产伦精品| 日本成人精品视频| Jizz国产色系免费| 国产欧美日韩综合在线第一| 国产视频一区二区在线观看| 996免费视频国产在线播放|