摘要:智慧社會的到來,不僅帶給人們生活上的福利與進步,同時,也帶來了高風險社會,人工智能帶來的規制挑戰、算法決策過程的突出難題、基層執法司法智能化的難度與風險等,就成為基層社會治理所面臨的時代問題。因此,亟需確立智慧社會治理的新理念、新思維,按照雙重空間的生產生活方式、智慧社會的生活邏輯,推動現代性法律體系向智慧性法律體系的轉型升級,進而探索智慧治理的新機制、新策略,塑造智慧社會的新型基層治理秩序。
關鍵詞:智慧社會;大數據;人工智能;社會治理;法治秩序
作者簡介:馬長山,華東政法大學教授、博士生導師(上海 ?201620)
基金項目:研究闡釋黨的十九大精神國家社科基金專項課題 “新時代共建共治共享的社會治理法治化機制研究”(18VSJ033)
DOI編碼:10.19667/j.cnki.cn23-1070/c.2019.05.011
當今正在發生的信息革命,堪稱人類有史以來最深刻的技術革命,它引發了生產和生活關系的重大而深刻的變革。“歷史已經向我們表明重大的技術變遷會導致社會和經濟的范式轉換。”1目前,世界各國對互聯網、大數據、人工智能等新技術發展帶來的重大機遇和風險都予以高度重視和積極應對,我國近年也先后發布了《國家信息化發展戰略綱要》(2016.7)、《“十三五”國家信息化規劃》(2016.12)、《新一代人工智能發展規劃》(2017.7)、《推進互聯網協議第六版(IPv6)規模部署行動計劃》(2017.11)等指導性文件,進行積極的戰略部署和創新發展的升級換代,中共十九大又提出了智慧社會建設的總體發展戰略,這樣,我們必將迎來一個日新月異的智慧發展時代。然而,智慧社會在帶給人們生活進步與福利的同時,已經變成了一個高風險的社會,并產生了很多亟需認真對待和切實解決的治理問題。
一、基于數據和代碼的秩序風險
工業革命和現代化進程,無疑曾給人類帶來了豐裕生活和空前繁榮,然而,它畢竟仍是在物理空間里來從事物質文明和精神文明產品的生產的,因而,只是拓展了人類在物理空間中的活動能力和創造水平,其最基本的生產要素自然是勞動者和生產資料,具體表現為勞動、資本、土地和企業家才能等。而進入智能互聯網時代之后,形成了物理(現實)/電子(虛擬)的雙重空間,它深刻地改變了以往的生產方式和生活方式。“產品與服務、分銷體系、定價方法以及廣告與促銷模式均從原本集群、聚合式的商業權力體系中剝離出來,放棄滿足各類需求的經濟結構,轉而向小型、分化、具體及定制平臺進行一對一式運營”,1并開始全面向去中心化的分布式升級,形成了以信息(包括知識和數據)為資源、以網絡為基礎平臺的全新經濟形態。從生產、交換到消費,整個鏈條中的自動化生產、市場分析、營銷策略和大眾消費,都高度依賴信息流動、數據挖掘和智能算法,這就促發了數據流動與共享,編織出跨越企業邊界的全新資源網絡、生態網絡和價值網絡,打造了智能化、場景化的商業環境。基于此,掌握了數據,就意味著掌握了資本和財富;掌握了算法(Algorithm),就意味著掌握了話語權和規制權。就是說,數據和算法已成為每一個人都參與生產的,明顯不同于自然資源的新的社會資源和生產要素,2在一定條件下甚至還成為一種智慧發展時代的全新生產力和生產關系,使得工商業時代以來的生產生活方式和社會價值觀發生了深刻改變,同時也帶來了全新的秩序風險。
首先,對世界認知方法的改變。在大數據、云計算時代,人們不再依賴于隨機采樣,而是能夠進行大量信息采集和全樣本的數據分析;人們對同一問題也不再苛求單一的精確度和因果關系,而是更多地關注相關關系和接受多個可能的答案。這樣,一方面,很多舊有的習慣將被顛覆,很多舊有的制度將面臨挑戰;3另一方面,大數據分析必然“會引導實踐的方向,是從屬于建構需要的”,4而每個問題可能都不會只有一個答案,為此,人們必須能夠接受混亂和不確定性。5這樣,人們的價值判斷和正義觀會受到重大沖擊,進而對國家治理體系和社會治理秩序都會產生深刻的影響。
其次,數據對生活的量化和解析。在互聯網、大數據、云計算、區塊鏈、人工智能等交融發展的推動下,社會生產和日常生活獲得智慧化的巨大進步,生產效率和生活質量均獲得了極大提高。人們會認為,有足夠數據就可了解生活,一切皆可量化。然而,它也會產生一些令人擔憂的問題。有學者就指出,如果大數據所獲得的信息是片面的或者漫無邊際的、支離破碎的,那么它們就沒有多少意義,根本不可能直接用于任何量化的分析。搞不好還可能會發生現實生活被裁剪、社會情景被忽視、主體建構被抹煞、生活意義被取消的情況,因此,必須對數據和信息加以界定、 定義、分類和賦值,給信息賦予特定的人類意義,進而把不同的定義轉換為可計算的數值。6這樣,才能避免數據量化和解析對生活本質的侵蝕,更好地發揮其智慧治理的作用和價值。
再次,日常生活的建模化。智能互聯網的優勢就在于場景定制和程序建模,從而形成一套算法來提供智能化的產品和服務。它既包括提供某一類產品或服務的通用性建模,也包括針對特定對象來“量身定制”的個性化建模。由于企業能夠通過互聯網平臺來直接“面對”市場和消費者,使得產品生產和服務從原來的標準化、規模化,逐步轉型為“以人為中心”的個性化、定制化,形成了以消費為主導、去中介化、彰顯服務的新商業模式和生活方式。然而,它在根本上仍是一種智能建模方式,仍是通過采集信息、數據分析、設計算法來歸納不同人的具體適用模式,進而個性化地“推薦”給特定消費者。事實上,無論是通用性建模,還是個性化建模,都難免隱藏著算法和商業價值的誘導甚至主導,猶如商家曾人為創造出來的“雙十一購物狂歡節”,實質上是以消費為主導的方式來主導消費。更重要的是,自動駕駛、智能產品設計、智能醫療方案、智能合約、智能裁判等等,其建模化無一不是以建構主義為主導的過程。人們日漸依賴各種算法,甚至都可以用AI來開發AI,那么,人們享受自動化的便捷舒適其實是“只能被動接受結果”,1而獲得個性化服務的背后,則是商業建模和算法對消費者的塑造。于是,讓人們感到焦慮的是,“一旦權力從人類手中交給算法,人文主義的議題就可能慘遭淘汰。只要我們放棄了以人為中心的世界觀,而秉持以數據為中心的世界觀,人類的健康和幸福看來也不再那么重要”。2可見,日常生活走向建模化,在人們的生活方式中注入了更多的技術理性,進而出現了“淪落為單純的數字人類,而非人類”的社會風險。3這無疑是智慧發展時代的社會治理所面臨的一個重要挑戰,需要予以積極應對。
二、人工智能帶來的規制挑戰
智能互聯網作為全面升級的新一代互聯網模式,有效地將智能融入到互聯網中,“所有的信息資源都能夠被智能的計算機軟件實體所識別和處理,并且這些軟件實體能夠自治地、主動地在網絡中漫游,具有很好的適應性和可靠性,能夠代替用戶完成各種工作,并為用戶提供豐富的服務”,4從而,實現了經濟結構、經營業務、商業模式和基本理念上的全面革新。正因如此,“智能互聯網將徹底改造所有傳統行業,AI是核心驅動力”,5人們甚至開始預測高度不確定、高度奇異性的“奇點”來臨時間和社會狀態。6但無論如何,它確實憑借眾多顛覆性創新深刻地塑造著當今的智慧社會,也會帶來一定的法律問題和治理問題。
其一,人機交互關系的復雜性。人工智能技術的飛速進步,又開啟了人機共處的新世界,盡管目前“人類和機器還不能很好地相處,然而他們將越來越多地分享同一個世界”,從而“正在破壞我們賴以建立此前世界的那些確定性”。7為此,智能機器人是不是“人”的問題就日顯突出。2017年10月沙特授予一名“女性”人工智能機器人以“公民”身份,就立刻引起全球關注且爭議頗多,然而,鑒于智能機器人自主意識方面的技術飛躍和它在商業活動及社會文化生活中扮演越來越重要的角色,“在不久的將來,會繼續延用產品安全法去處理人工自主體問題”。8而隨著人工智能的飛速發展,人機共處、人機合作將越來越多地成為生活常態,人機交互場景也隨之成為社會關系和社會治理的一個新面向。基于此,“從一個角度來看,我們創造的機器人貌似只是機器而已;而從另一個角度看,它們似乎是復雜而具有適應性的實體,甚至可能對我們在道德關心的問題有著或多或少的敏感性”。而“大規模取代人類勞動力的智能機器的出現,無疑將會引發人類身份認知的危機”。1因此,人們嘗試著采取自上而下和自下而上的方式來塑造AMAs(人工道德智能體)的道德判斷,“通過模擬持不同倫理觀點的主體之間的互動,去補充科幻中猜測性的思想實驗,用可檢驗的社會和認知模式補充哲學也將成為可能”。 2更為重要的是,人工智能一旦成為“人”,機器人(電子人)權利義務、法律責任與自然人的權利義務和法律責任如何分配和負擔,則無疑是個重大難題,民事、刑事上都是如此。可見,人工智能機器人能否具有“人”的主體地位,是一個十分復雜且關乎人類命運的重大問題,至少目前還不能匆忙讓它成為一個法律上的“人”;但它又不能簡單等同于過去的死的機器,而是“活”的智能體,會產生擬人化的社會關系和倫理問題。這樣,對人工智能機器人就不能簡單加以判斷和處置,否則,將會給社會治理秩序帶來巨大的風險和挑戰,只能通過探索智慧發展時代的新規則、新策略來加以應對。
其二,人工智能發展對現有制度框架的突破。人工智能的快速發展,并不僅僅是對人工的簡單替代,而會對當下的社會倫理、規范制度、國家治理和社會秩序帶來十分明顯的難題和挑戰。在民事領域,“在民事主體法、著作權法、侵權責任法、人格權法、交通法、勞動法等諸多方面與現有法律制度形成沖突,凸顯法律制度產品供給的缺陷”;3在刑事領域,人們常常會習慣性地沿用傳統物理空間的刑事法律思維來對待網絡空間發生的案件,大眾點評百度案按不正當競爭處理、《刑七》將盜竊游戲裝備案按非法獲取計算機系統數據罪處理,兩高司法解釋關于網絡誹謗和尋釁滋事的“擴展性”處理,這就難免會出現很多理論上說不清、實踐中又很尷尬的問題;在行政和司法領域,智慧政務、智慧司法、智慧檢務的應用場景日益增多,人工智能輔助決策甚至人工智能獨立決策的情況會日漸普遍,這就形成了人類理性與技術理性、人類決策與機器判斷、計算邏輯與法律邏輯的交互結果,現有制度設定的權利義務關系、規則程序、責任歸屬、救濟方式等等都會面臨嚴峻考驗。
其三,人工智能發展也會增加犯罪控制的壓力。信息科技無疑促進了社會進步、增加了社會財富,但同時也給一些高智商違法犯罪活動提供了條件和可乘之機。在當今信息時代,出現了一大批網絡技術、數字技術和人工智能技術領域的全新犯罪類型,如網絡詐騙、網絡金融犯罪、盜竊信息數據、網絡誹謗、網絡販毒甚至恐怖活動等等,而人工智能技術的交融應用則使這些犯罪更加智能化,甚至出現了被國際社會所禁止的“殺人機器人”。這不僅增加了犯罪的多樣性、復雜性和技術性,也由于“集復雜性與緊密性于一體的系統更容易成為那些間諜、犯罪分子以及追求極大破壞性的極端分子的選擇目標”,4嚴重地威脅著人們的生命財產安全和社會秩序。很多犯罪集團十分龐雜,難以找到和區分主犯、從犯、幫助犯;很多犯罪活動難以找到犯罪證據,一時不能偵破;很多犯罪穿越虛實雙重空間,打破了物理空間的級別管轄和地域管轄;等等。這些無疑給智慧社會治理中的犯罪控制和規制秩序帶來了全新挑戰。因此,亟需轉換思維方式、強化治理機制和規制體系來積極應對,進而塑造智慧社會的治理秩序。
三、算法決策過程中的突出困境
隨著智慧社會的到來,算法在社會生活中的作用和影響越來越大。“算法決定了信息增長的秩序,同時它貫穿了經濟系統的所有組成部分和流程,支撐并控制系統中各種經濟活動以及所形成的各種經濟關系,決定了經濟系統的秩序。” 1于是人們看到,從開車到股票交易、再到公司人員配置等一些列重大決策權,正在“從人手中轉移到算法手中”。2為此,一些理想主義者則樂觀地斷言,“過去的人文主義呼吁著:‘聆聽自己內心的聲音!而現在的數據主義則呼吁:‘聆聽算法的意見!”3這樣,智慧社會治理的很多決策,將轉移到算法手中,算法甚至憑借自動化決策的發展趨勢而日漸占據主角地位。然而,一旦算法成為社會治理過程中價值和利益天平上的砝碼,那么,問題就不再是數據的簡單計算和生活的簡單建模。事實上,恰恰出現了一些非常值得人們警醒的重要問題和突出困境。
一是算法黑箱問題。它“是指一種晦澀難懂的技術,人們在運用這種技術時無須任何了解,只要輸入數據,就能得到結果。其需求分析(解決什么問題)——設計算法(人怎么做)——編寫程序(計算機怎么做)——調試維護(做得更好)——發布運行(實際應用)的整個技術操作過程并不透明,這其中必然會包含著“不穩定、不公平和不勞而獲的因素”,4此時,保持算法的合理性、公正性和預先承諾自然十分關鍵,否則,算法偏見或者歧視就很容易被掩蓋。如亞馬遜和淘寶等電商網站上“猜你喜歡”等推薦欄和各種優惠券,都是通過個性化的算法來確定用戶的消費能力高低并推薦的,低消費能力的用戶,看到的基本都是底端打折的產品推薦;消費者要么“進入”要么抬腳“走人”。可見,設計者在“撰寫這些劇本”時就可能帶有某種意圖而“想為自己的設計賦予特定的職能”。5這意味著,信息科學技術在帶給人類進步福祉的同時,也難免會產生一定的困擾和問題,算法黑箱不僅容易侵蝕消費者權利、危及社會誠信與公平,也給智慧社會的治理秩序帶來一定的阻力和風險。
二是算法錯誤。我們知道,算法是指對某個或某些問題解決方案的步驟描述,代表著用系統方法來描述解決問題的策略機制。由于其計算過程系“取某個值或值的集合作為輸入并產生某個值或值的集合作為輸出”,6因此,相同的任務(應用)可以運用不同的算法來完成,但卻因其正確性、容錯性和效率性的不同而存在優劣之別,算法錯誤也就在所難免。也就是說,我們編寫算法并把它輸入機器,等待它引發的自動動作(比如購買股市的股票),人們很容易相信并被動地接受這些計算結果,但其“危險在于沒有人能確保該算法設計準確,尤其是當它與眾多算法交互時”。7在公共事務上,隨著人臉識別、犯罪預測系統、人工智能司法輔助系統等的快速發展,日益升級的自動化系統也已經由簡單的行政管理工具變成了主要的“決策者”,算法做出判斷的正確率大幅提高,執行各項規則時的嚴厲程度也遠非人類所能比,但“一旦它們做出了錯誤的決定,其造成的后果就很有可能是駭人聽聞的”。8盡管人類對此有事后矯正的渠道和方式,然而事實表明,“機器在學習過程中可能會重新建立起我們當前已經修正的隱含在數據中的偏見”。9在這種情況下,就會帶來嚴重的不公平對待、非正義、甚至是嚴重的不良后果,因此,如何規制算法、控制算法錯誤、防范算法風險,就成為實現算法正義的重要內容,也是推進智慧社會治理的重要動力和支撐。
三是算法自主。人類決策具有千百年積淀下來的道德基礎,而算法決策則是一種基于計算過程而實現的輸入/輸出關系,一旦算法主宰就會嚴重侵蝕人的主體性。而隨著人工智能的進一步發展,深達幾百層的人工神經網絡在發現模式、做出結論方面的能力已經超過了人類。“我們想要了解的客體或現象,必須依靠機器得出的結果。然而,對于機器怎么建模、如何求解的過程,則是人們無從得知、也無法理解和解釋的。”此時,“你只需要給泛型算法提供輸入數據,然后它就會根據那些數據建立自己的邏輯”。1這樣,就出現了算法自主或者算法的異化現象,也正是“由于無法了解我們所創造的一切,因此我們很難留意到道德問題,也很難保證所有操作都符合道德標準”。2當人工智能廣泛應用于公共決策、經濟分析、司法判斷、智慧服務等領域時,就會給社會治理帶來嚴重的問題和挑戰,甚至還可能有失控的風險。因此,如何讓算法遵循“善法”,保持“善法”的主體性和目的性,3就成為維護算法正義、促進智慧社會基層治理的重要方面。
四、執法司法智能化的瓶頸制約
隨著人工智能的快速發展,世界各國都在利用人工智能來加速產業升級和治理能力現代化,以獲得信息革命時代的競爭優勢。我國也已經適時啟動了智慧社會、智慧司法建設進程,因此,執法司法的智能化將是一個必然趨勢。從目前來看,主要體現在兩方面的技術進展:一方面是通過智能系統來輔助司法。如法院和檢察院等司法機關推廣適用數據化的證據標準,通過大數據、人工智能的深度應用,把統一的證據標準鑲嵌到辦案程序之中,促進同案同判和司法公正;另一方面是實現法律的代碼轉換。其實,近年來很多信息化、自動化的高新技術已經不斷地應用到司法執法領域(如電子交警、辦案系統等)之中。
然而,隨著智能互聯網的進一步發展,從中央到地方、從中樞到基層的司法執法過程與機制,將逐漸由信息化、自動化升級為智能化。尤其是通過規則的代碼轉換和算法建模,使其由法律的“外在”控制轉變為技術的“內在”控制,實現司法執法過程的智能判斷、規則適用執行和裁量處理。于是,立足于以往單一物理空間和人力執法司法的法律思維與法律方法,必然難以適應司法執法智能化的新形勢、新要求和新任務,亟需進行適時的深度變革,以滿足雙重空間、人機混同條件下司法執法智能化的客觀需要。這就會涉及如何用數量、概率和邏輯來表達和定義善、惡、權利、義務、公正等倫理范疇,通過這種代碼轉換使人的倫理變成程序化的機器倫理。4例如自動駕駛技術的發展,就需要“我們必須將社會行為嵌入到這些汽車當中”,進行雙重意義的編碼——“我們必須將意圖寫入法律,同時寫入控制機器的軟件”。5當然,它難免會有失片面與偏頗,因此,“在人工智能日益代替人類進行各種決策的時代,設計出驗證、證實、知情同意、 透明性、可責性、救濟、責任等方面的機制,對于削弱或者避免機器歧視、確保公平正義,是至關重要的”。6與此相應,計量法學也開始逐步走向計算法律學,致力于探索法律規則代碼化的形式表達與推理。這無疑會推進法律思維和法律方法的革命性變革,“就像活字印刷術要求一個修訂版的人類一樣,計算機也會提出這樣的要求”。7但另一方面,在從工商業社會向智慧社會轉型的過程中,基層社會卻充盈著傳統、現代性和后現代性的諸多問題甚至沖突,將社會規則轉化為代碼規制、將社會倫理嵌入進智能系統的瓶頸明顯增多,通過執法司法智能化來回應基層社會治理的難度和風險大大增加,智慧社會基層治理所面臨的挑戰也更為嚴峻。因此,應繼續創新體制機制來予以有效應對。
五、消解問題之本:探索智慧治理的新機制、新策略
無疑,法律自古就發揮著規范秩序和控制風險的重要作用,但從沒有像今天這樣面臨眾多的挑戰和風險。2017年7月20日國務院發布的《新一代人工智能發展規劃》就明確指出,“人工智能發展的不確定性也帶來新挑戰。人工智能是影響面廣的顛覆性技術,可能帶來改變就業結構、沖擊法律與社會倫理、侵犯個人隱私、挑戰國際關系準則等問題,將對政府管理、經濟安全和社會穩定乃至全球治理產生深遠影響。在大力發展人工智能的同時,必須高度重視可能帶來的安全風險挑戰,加強前瞻預防與約束引導,最大限度降低風險,確保人工智能安全、可靠、可控發展。”因此,需要“制定促進人工智能發展的法律法規和倫理規范,開展與人工智能應用相關的民事與刑事責任確認、隱私和產權保護、信息安全利用等法律問題研究,建立追溯和問責制度,明確人工智能法律主體以及相關權利、義務和責任等”。這無疑代表了智慧社會的發展要求與基本方向,基于此,我們需要在法律體系的變革重塑和推進智慧社會治理的進程中,通過代碼規制、算法審計、規范標準等方式,嵌入體系化、制度化的風險控制機制。
首先,確立智慧社會治理的新理念、新思維。人類社會有史以來,一直生活在自然給定的物理空間中,但信息革命的到來,讓人類在物理空間外開辟了廣闊無垠的電子空間,從此進入了雙重空間(物理/電子、現實/虛擬)的生活時代,人們的生產生活、社會行為和日常交往都是在虛實同構的場景中展開的,智慧生活和智慧治理也變得日益基層化、普遍化、日常化。這樣,就亟需跳出傳統單一物理空間的思維習慣,確立雙重空間與智慧治理的新理念和新思維,按照雙重空間的生產生活、行為邏輯,融入和加持建模、算法、代碼等方式來設計規制方案,應對智慧社會基層治理的難題與挑戰,從而構建有效的智慧治理秩序。與此同時,也要充分認識智慧社會的高風險屬性,積極探索智慧治理的風險評估機制,努力抑制“一切皆可計算”所帶來的技術理性控制與人文精神流失,守住“以人為本”的價值底線。只有這樣,才能更好地推進智慧社會的治理秩序,實現新時代的“數字正義”。
其次,探索智慧社會的基層治理體制與機制。面對人工智能帶來的規制挑戰、算法決策的突出困境以及執法司法智能化的諸多問題,我們固然不能消極回避和等待,但更不能試圖沿用工商業時代的慣常方式,“簡單粗暴”地把這些挑戰和問題“拉回”“鎖定”在物理空間的規制框架內。1目前,各地的基層治理網格化就明顯帶有這種傾向,一些地方不是致力于探索順應智慧時代發展的基層治理新機制,而是借用全新的技術手段來打造“維穩”和“控制”的網格布局,它所實現的只是傳統治理方式的信息化、自動化和智能化,而不是反映智慧社會訴求和生活邏輯的制度創新,因而,偏離了智慧社會治理的自身目標,長此以往必將會加大社會風險,甚至產生危機。因此,亟需扭轉這種傾向,切實按照雙重空間的生產生活方式、社會關系和行為邏輯,來改造現有的法律規制體系,推動立足工商業時代的現代性法律體系向立足信息時代的智慧性法律體系的轉型升級。比如,新浪微博訴脈脈不正當競爭案就昭示,對數據采取何種法律保護方式成為解決案件的關鍵,而以新型的數據財產(權利保護)進路取代以往的法益保護(商業秘密)、行為保護(不正當競爭)進路才更為有效。2更重要的是,我們應加快構建一體融合的法律體系,圍繞人工智能的法律規制、算法決策的風險防控、執法司法智能化的難題瓶頸等等,來積極探索智慧社會的治理新機制。這無疑是一個長期的、復雜的、艱難的探索過程,需要全社會的共同努力,從而建立起智慧化的基層治理秩序。
再次,探索適應智慧社會發展要求的規制策略。面對網絡化、數字化和智能化的快速交融發展,人們對目不暇接的技術進步和新業態“破窗”一時難以迅速反應,政府監管部門也更多地關注它們所產生的風險后果,嘗試出臺新政策、新法規來加以控制和防范。然而,這仍然是一種傳統規制策略,仍是一種立足物理空間規則立場的外在的規制,沒有進入新業態的運行邏輯內部,規制的是代碼和算法的后果,而不是代碼和算法過程的本身。這就難以有效應對人工智能挑戰、算法決策困境和執法司法智能化難題。因此,需要實現智慧時代的法律規制轉向,通過代碼法律化,把行業的代碼技術規則上升為法律化規則,實現“技術法律化”;同時,通過法律代碼化,把法律規則轉換成代碼,并以代碼來規制代碼,實現“法律技術化”。這樣,就形成了雙向構建的規制策略,從而為塑造智慧社會的新型基層治理秩序奠定堅實基礎、提供有力保障。
[責任編輯 李宏弢]
Governance Problems in Intelligent Society and Their Resolution
MA Chang-shan
Abstract: ?The arrival of smart society not only brings people welfare and progress in life, but also brings high-risk society, in which the regulation challenge brought by artificial intelligence, the prominent problem of algorithm decision-making process, the difficulty and risk of grassroots law enforcement and judicial intelligentization have become the Times problems faced by grassroots social governance. Therefore, establishing new concept and thinking wisdom of social governance is in urgent need. According to production way of life and life logic of smart society in dual space, promote the transformation from the modern legal system to intellectual legal system, and then explore the new mechanisms and strategies of smart governance and finally create a new social order of grassroots governance in smart society.
Key words: ?smart society, big data, artificial intelligence, social governance, rule of law order