人工智能技術的發展正在重塑社會現實,帶來社會治理領域的新變革。人工智能既是社會治理的工具,又是社會治理的對象。新技術的發展必然帶來新的社會議題,人工智能技術及其廣泛應用將帶來新的社會治理、法律規范及倫理規約問題。就業對國民經濟的發展至關重要,然而隨著人工智能對人類就業替代趨勢的強化, “機器換人”已經上演,勞動密集型產業中的勞動工人面臨失業問題,這是體力勞動的技術性失業;也有不少學者把目光投向智力勞動的技術性失業,給出各種各樣的職業被人工智能替代的時間表。如何與人工智能爭奪人類最根本的活動——勞動的權力,以及尋找新的就業增長點,是一個不可回避的社會治理問題。
人工智能同樣給立法帶來不少新議題,社會治理的一個重要原則是 “公眾參與”,問題是到底如何界定 “公眾”?比如智能機器是一個社會成員嗎?具有法律意義上的社會主體地位嗎?智能機器需要納稅嗎?在討論人工智能與社會治理時這些問題都不可回避。而現在討論最熱的責任問題,也是這個問題的衍生。例如,如何劃定自動駕駛汽車在交通事故中的責任,2018年6月,英國頒布了 “2018英國自動電子汽車法案”,成為世界上第一個規范自動駕駛汽車安全性的法律。但是關于自動系統與自主性機器的行為后果,仍然沒有一個公認的標準來評判。
人工智能也帶來新的倫理問題。首先,作為一種技術手段,人工智能對于個人數據的采集與使用,對隱私是一個極大的挑戰,并且對于智能時代的技術紅利如何在不同人群中分配也是一個重要的公平問題。上面提到的責任問題也是一個倫理問題,人工智能能否成為人類不為自己行為負責的下一個借口,也是有待繼續觀察的。其次,從智能技術物本身來看,其是否具有道德上的地位與權利,也是目前學術討論的熱點,從這個問題衍生出來的人機關系問題、機器權利問題等都是社會治理關注的內容。
從國家治理現代化角度來看,人工智能是實現社會治理現代化的手段。“十九大”提出社會治理要智能化,政務云平臺、大數據決策、智慧城市等都是治理智能化的表現,基層治理也開始應用智能設備與大數據來加強公眾溝通,克服決策不確定性。作為治理手段,人工智能也帶來了新問題,具體表現為智能風險、智能偏見、智能失權等。智能風險是指人工智能技術本身存在不確定性,存在失序、失靈、失控的技術風險,當決策、行動、評估行為都圍繞其展開時,會出現系統性風險。智能偏見是指我們迷信人工智能帶來的決策結果,這是一種智能時代版本的機械論,面對社會現實的不確定,目前弱人工智能只能起到治理輔助作用。智能失權是指失去話語權與勞動權,治理過程交給人工智能,會使得在技術知識儲備上處于弱勢地位的普通民眾更加沒有參與治理的積極性與能力。
當今社會人工智能發展進入全新階段,各國人工智能發展的戰略更新速度加快,而 “負責任”是科技戰略,尤其是人工智能戰略中的高頻詞匯,人工智能政策制定者往往把負責任放在首位。2019年5月OECD成員國簽署 《政府間人工智能推薦性原則和建議》,呼吁發展負責任的人工智能;2019年6月國家新一代人工智能治理專業委員會發布 《新一代人工智能治理原則——發展負責任的人工智能》,把共擔責任作為一條重要原則。可以看出,在人工智能戰略部署中,負責任發展已經是必要組成部分。
何為 “負責任”的人工智能戰略?我們認為,負責任的戰略是規劃與規范、主導與適應的統一。負責任是目前規范技術社會影響的最主要原則,直接決定人工智能的社會影響[1]。使用負責任戰略來規范人工智能與人工智能的行業規范、社會規范是一致的,并且是不能產生偏差的。人工智能的技術后果不只是完全受控的[2],更是社會成員對于其他成員行為的適應與互動,因為戰略所展現的協調作用也是必要的。負責任戰略本身就是對于角色定位與責任劃分的規定,直接構成人工智能規范的一部分。目前關于人與人工智能的道德能力與主體地位有較大分歧[3],此時制定人工智能戰略是對學術爭論的重新梳理與操作化。
目前看來, “負責任”的概念主要是針對國家政府、區域組織以及其他傳統意義上的行為體和利益相關者,可以總結為三類指導對象:
(1)政策制定者。目前人工智能發展戰略最主要的指導對象是政策制定者,因為政策制定者既不是直接的人工智能從業者或研究者,也不是主要的利益相關方。政策制定者的非專業性和中立性使得其尤為關注戰略規劃,以及參與戰略規劃。例如, 《新一代人工智能治理原則》指出, “應促進協調發展,推動各行各業轉型升級,縮小區域差距”,就是對于各級政府的指導意見;美國 《維護美國人工智能領導力的行政命令》要求聯邦政府機構投入更多資源和資金到人工智能發展中,是白宮對于聯邦政府部門的指導。
(2)產業界。在一定意義上,人工智能產業是實現戰略的終端,也是檢驗戰略效果的晴雨表。產業界更為關注戰略內容的操作性與指標化,同時也是規范條款的主要針對人群。例如, 《新一代人工智能治理原則》指出, “通過持續提高技術水平、改善管理方式,在數據獲取、算法設計、技術開發、產品研發和應用過程中消除偏見和歧視”,這就是對設計者、生產者的要求;日本 《下一代人工智能戰略》要求2020年之前確立無人工廠和無人農場技術,普及新藥研制的人工智能支持,實現生產設備故障的人工智能預測,也是對于人工智能產業研發領域的指導。
(3)科研人員。人工智能研究方向的規劃,以及圍繞人工智能展開的法律、倫理等問題的研究,也都是人工智能戰略的指導內容。 《新一代人工智能治理原則》指出, “人工智能系統應不斷提升透明性、可解釋性、可靠性、可控性,逐步實現可審核、可監督、可追溯、可信賴”;美國科技政策辦公室在 《為人工智能的未來做好準備》中指出,美國要在人工智能的各個研究領域中保持理論優勢。
上述這些都是對科研人員的科研工作提出要求,在科學理論層面對科研人員進行指導。除了這三類典型指導對象外,還有一種指導對象,其占據著社會的絕大多數,但是在戰略中失權、失語。更重要的是沒有具體行動指導,多數情況下只有籠統的只言片語涉及這類對象,這就是一般的社會參與者,也是智能社會主要構成者。如果沒有人工智能戰略重點關注和指導一般的社會參與者,那么整個社會從總體上看就是 “被負責任”狀態。這既不是真正意義上讓大眾享受智能時代的紅利,也不利于培養智能時代負責任的社會公眾。因此,應當完善現有人工智能治理框架,使其更關注一般社會參與者,從而構建起負責任的智能社會。
(1)培育適應與接受的責任。人工智能發展戰略應該指導一般社會參與者適應與接受智能社會的經濟基礎、技術基礎與文化基礎。智能經濟是一種新形態的知識經濟,共享與開放是其精神內核,需要引導社會參與者把共享與開放作為新的社會經濟行動本質。專業知識與智能行為的分離,將要促成新的產業模式,所謂的技術性失業只是經濟轉型的一個隨附現象,而如何加入新的經濟共同體才是社會大眾需要關注的內容。智能時代比以往的工業階段更注重物質化的技術設備,尤其是個人化設備的完整性,超越以往任何一個產業時代。如何使用個人智能設備,不只是一個用戶說明書的問題,更是達成社會同步、分享數字紅利、提高知識生產率的社會問題,把握智能設備的邏輯是每個社會成員的責任。同時,智能時代有的不僅是新的智能文化興起,更是對于傳統的人文精神的反思。人類中心論以及其衍生的智能優越論與智能文化存在較大的沖突,并且人類道德共同體也在新的智能文化中被反思:文化包容性的邊界在哪里?人工智能戰略需要指導一般的社會參與者從自身出發,適應與接受社會其他成員對于人工智能的觀點與互動方式,構建有共識基礎、互動良好的人類命運共同體。2016年英國下議院科學與技術委員會發布的人工智能英國報告,要求每個人都要考慮人工智能可能給我們帶來的技術風險與社會不良后果。我國在 《新一代人工智能治理原則》中要求提升弱勢群體適應性,努力消除數字鴻溝。這些戰略和政策建議不只是從社會環境方面基于大眾發展支持,更重要的是提供了關鍵的信息:接受與適應也是每個個人的責任,這種責任的實現途徑很重要的一個方面就是要轉變思想、與時代接軌,但是具體如何實現這種責任以及應當設立哪些可操作性的條款,仍然需要我們進行持續探索。
(2)完成教育與轉型的責任。如何促成個人對自我的教育以及使用社會提供的教育資源,是完成智能教育和職業轉型的關鍵。人工智能的發展戰略需要特別關注與機器協作的能力以及與智能環境的互動能力。與機器協作能力特指在協作中的自我建設,以及一般意義上職業機器化的常識。協作中的自我建設包括道德與法律知識的學習與運用,目前人工智能的立法與規范還主要是針對設計者,要求設計者在技術環節努力克服在使用中可能造成的法律、道德困境。但是對于已經投入到社會使用情景的智能機器,尤其是社會機器人,其與設計者、立法者的自主性聯系已經非常薄弱,這主要是因為智能機器在行動中具有一定程度的自主性與意向性所決定的,所以如何在與機器的互動中認清基本的道德、法律責任劃分,保持自我的道德感、不被與機器的互動影響與人的互動,是一個自我建設的責任。而更現實的問題是,機器在不斷替代人類的勞動種類與崗位,個人轉型在智能時代也需要思考與自我實現。自我轉型與國家人工智能戰略是相輔相成的,沒有個人對于自己職業的規劃與再教育的實現,就無法實現智能機器在產業中的變革性應用。在 《為人工智能的未來做好準備》中,美國提出教育和培養美國人在人工智能時代工作的能力,為的就是讓民眾適應智能時代的工作環境。我國 《新一代人工智能治理原則》提出,應促進包容發展,加強人工智能教育及科普; 《政府間人工智能推薦性原則和建議》也提出, “人工智能系統應該具有透明度并負責任地披露信息以保障人類與人工智能互動過程中的知情權,尤其是在理解和質疑人工智能自動化決策和結果方面”。可見,各國在戰略層面已經把教育與職業作為人工智能的重要問題,但是如何在個人層面實現,無疑特別需要對大眾進行指導。
(3)實現與機器共存的責任。維護經典的人類地位、對技術應用持悲觀態度是常見的抗拒機器的現象。與機器共存不是否定人的價值與地位,也不是迷信與夸大技術物功能。與機器共存要解決的核心問題是構建一套兼容智能機器的社會規范體系,以便時刻可以考慮到機器對于人類社會的影響,以及人與機器的劃界問題。這對于社會中的個人來說,也是重新評估自我生存環境的過程。各國已經開始布局智能機器深度參與的社會環境,例如,法國總理馬卡龍2018年3月在法蘭西學院的人工智能峰會上提出,要在法國和歐洲創建人工智能生態系統;日本政府在 《下一代人工智能戰略》中計劃,在第三階段 (2030—)使護理機器人成為家族一員,實現出行自動化及無人駕駛普及。智能社會不僅需要對機器的社會化程度與社會性本質進行討論,更需要關注人的再社會化問題,而人在智能社會中的再社會化的核心就是與機器在社會中共同行動。簡單地排斥機器應用、唱衰人工智能的發展前景,并不有助于人類生存,在社會深度智能化的同時,個人首先需要轉變思想,確立與機器共存的理念。
中國被視為人工智能領域中的領先國家,是構建全球人工智能倫理和治理的重要力量,是國際人工智能規則的重要制定者。智能革命是從心智到智能的革命,中國社會具有最多的人類心智樣本與數據,一定意義上占有智能時代最豐富的物質生產資料。我們需要把這種物質上的豐富性轉化成話語權與決策權,并秉承開放與共享的態度,惠及與我們所制定的規范相接軌的國家與地區,構建智能時代的人類命運共同體。中國特色的治理現代化模式正在為全球人工智能治理提供新的道路。習近平指出,“加強和創新社會治理,關鍵在體制創新,核心是人。”目前各國的人工智能治理模式關注的是少數人、核心利益既得者,沒有把最普遍的人民群眾作為出發點與指導對象。而我國的治理現代化模式把人作為首位,從社會中具體的人的角度出發,形成社會共識與有效的溝通、變革機制,這是人工智能時代的中國道路、中國方案。