中共秦皇島市委黨校 張宇,于曉川,姚蘭
2022年10月16日黨的二十次全國代表大會順利召開,社會治理的格局迎來新發展趨勢。黨的二十大報告指出,完善社會治理體系,健全共建共治共享的社會治理制度,提升社會治理效能,暢通和規范群眾訴求表達、利益協調、權益保障通道,建設人人有責、人人盡責、人人享有的社會治理共同體。隨著互聯網、大數據和人工智能技術不斷取得新突破,積極運用現代智能技術,使其與經濟融合并進,推動社會治理創新,進一步加大社會治理的智能化水平。然而,我們也必須注意人工智能應用于社會治理智能化建設中可能產生的各類問題。本文旨在探析“三共”社會治理格局下,社會治理智能化應用人工智能的現實問題及解決對策,為我國提升社會治理智能化水平提供理論一些參考。
人工智能是人類按照一定的理論、方法、技術創造出來的機器智能,是對人類的思維、行為的延展和模擬。當前,人工智能已經廣泛的應用于信息處理、決策選擇以及輔助治理等領域,并且達到了預期成果。從整體發展趨勢預測,人工智能將深入社會治理領域發揮重要作用。2017年人工智能寫入十九大報告并且頒布《新一代人工智能發展規劃》,2020年中央網信辦等等五各部門頒布《國家新一代人工智能標準體系建設指南》,2021年國家新一代人工智能治理專業委員會發布了《新一代人工智能倫理規范》明確人工智能發展目標、重點任務,重點的應用領域。近期,中國信息通信研究院發布了《人工智能白皮書(2022年)》,從政策、技術、應用以及治理等領域回顧發展,分析了人工智能新的發展趨勢以及所處的發展階段,尤其在社會治理領域的應用受到高度關注。觀察關于人工智能部署與安排,社會治理過程中利用人工智能實現了政務智能化、交通智能化、環保智能化,安全智能化等方面的發展。同時,在醫療、教育、養老等社會關注領域,我國逐步加大人工智能的應用力度和融合深度,公共服務智能化進入新的階段,推動了人民群眾生活品質的提升。通過人工智能技術,提升社會運行的智能化水平,促進社會治理能力的巨大進步。
杭州是我國最早將人工智能應用于社會治理的城市,經過反復技術研發,設計可應用于城市社會治理的人工智能中樞,杭州市將城市智能中樞定義為“城市大腦”。杭州市政府通過收集、分類和平臺接入社會治理相關的數據,城市大腦平臺設計算法建模進行準確分析,實時將分析結果轉入城市治理相關部門,應用于基礎設施,優化公共資源配置,實現城市智能化運行。“城市大腦”是由數據采集系統、數據交換中心、超大規模計算平臺、開放算法和數據應用平臺這五個系統組成。其中數據采集系統是負責各類社會治理數據的采集,通過各類城市應用終端,例如:攝像頭、指紋采集器、客戶端設備等。數據交換中心是城市大腦平臺對各類數據進行轉換、融合,使其成為城市大腦可用的數據。超大規模計算平臺則是對城市內大數據提供各類大數據分析。開放算法平臺則是城市大腦用來進行社會治理各種算法建模的決策層,通過各種算法來對數據進行分析,幫助政府采取相應的社會治理決策。數據應用平臺負責社會治理決策的指令下達,指揮各基層做好相應的社會治理工作。
從社會治理應用人工智能的一些案例中可以看出,人工智能在社會管理與社會治理中應用,可以有效提升管理和治理智能化水平。然而,人工智能應用于城市社會治理可能也會帶來各種問題和挑戰。
社會公平是一種社會關系總稱,體現在人與人之間的平等。社會不公是打破公平的一些現象。隨著社會快速發展,多種多樣、類型復雜的不公平現象逐漸顯現,如歧視、失業等。社會出現的不公平現象越多,公眾的社會公平感、幸福感就越低,由此給社會帶來的潛在矛盾風險就越多,可能會產生影響社會穩定的因素也就越多。因此,推進社會治理智能化,應用人工智能,需要考慮社會公平問題。
1.傳統就業崗位減少
隨著人工智能應用領域的不斷增加,就業崗位勢必發生變化。根據影響程度的不同,有關學者將人工智能帶來的影響分為三個階段,即近期、中期和遠期,并指出近期的最大影響是大量重復性標準化的就業崗位將逐漸被智能機器人取代,一些需要人腦計算、規劃等的工作崗位也逐漸被人工智能取代。人工智能持續發展,深入應用,現在索引類的工作崗位也進入實驗室階段,創造性、監管性方面等工作仍然處于理論研究階段。
2.社會貧富差距加劇
人工智能作為新技術可能吸引更多的資本持續投入,轉向已經實現的發達經濟體,利潤越高的行業將吸引越多人工智能研究者參與研究、經營者參與經營,進而可能對其他行業的發展狀況產生不利影響,從而拉大貧富差距。在衡量社會貧富差距方面,全球公認的唯一指標是“基尼系數”,近幾年從數據上看我國基尼系數不斷上升,人工智能的研究應用在基于公共服務均等化、行業平衡性、區域協調性的基礎上基扎實推進。
我國社會主要矛盾發生轉變,社會治理也進入了新的發展階段。在推進人工智能與公共服務融合的同時,需要關注網絡化對信息安全的影響,需要關注智能化對信息安全機制的影響,關注網絡化、智能化對國家公共安全的影響。
1.算法容易受到人為影響
人工智能技術的底層核心是算法,算法本質是解決問題的指令,容易受人的決策影響出現偏離。算法在實際運行過程中,也可能出現程序漏洞和程序紊亂情況,如果通過漏洞破壞學習算法,智能應用程序就會出現運行錯誤進而引發信息泄露等公共安全問題。如果黑客破壞系統識別的圖像和語音,導致甄別錯誤,有可能非法利用系統進行信息詐騙和思想意識影響等。
2.技術壟斷影響公共信息安全
人工智能的研發者擁有人工智能獲得技術優勢,先進的技術手段、數據和算法也有可能被用來達成壟斷協議。從國家公共安全的角度來看,如果開發者在利用技術、數據壟斷優勢尋求私利,那么可能導致嚴重后果,智能產品的應用則失去本來的發展目的。與此同時,應用智能程序的治理機構和公民個人的信息存在泄露的可能性,導致對人工智能應用的約束力下降。一旦缺失治理、約束的能力,那么會對國家安全、信息安全造成潛在風險。
人工智能技術迅速發展,涉及人工智能的法律法規體系建設尚未完全匹配技術發展的速度、程度,在社會治理中應用人工智能可能存在一些法律困境。
1.難以界定人工智能產品的法律地位
智能機器人是人類創造的人工智能衍生品。機器人在人工智能技術的加持下,可以思考、判斷、行動,但智能機器人是否可以具備與自然人同等的法律地位,現有法律體系尚無定論。基于人工智能衍生的機器產品具有使用時限,與人類的生命權存在本質不同,功能設計取決于人類支配和使用權限,法律權利和地位必然低于人類。如果突破現實法律邊界超越人類,勢必會給人類社會法律適用帶來巨大影響。
2.難以界定人工智能產品的法律責任
人工智能衍生產品是創新技術和創新應用,智能機器人是程序、編碼、指令的執行者,缺少接受教育,辨別道德、審驗倫理等人類要素難以具備區分善惡標準,也就難以具備主體法律責任。法律是倫理道德的底線,法律約束人的行為并且加以矯正,機器行為是被設定,難以按照人類標準進行約束,智能機器只能明確使用者、銷售者以及制造者等法律責任。人工智能產品與傳統機械設備也有所區別,人工智能產品具備一定的學習能力,能夠在一定條件下實現功能的自主性,如果由人工智能產品使用導致的法律問題,責任難以厘清。
“共建共治共享”是中國式現代化的社會治理的發展方向,是習近平新時代中國特色社會主義思想科學理論中在社會治理方面所倡導的價值取向?!肮步ü仓喂蚕怼钡纳鐣卫碓瓌t要求人工智能在社會治理中應用時,必須堅持人工智能的公共性和社會性為基礎。此外,人工智能作為新興技術,有關部門也應加強人工智能的宣傳普及,使人們能夠對人工智能有一個正確的認知,積極參與技術創新,最終共享人工智能所帶來的社會紅利。在“共建共治與共享”原則下,可以從以下幾個方面來探討人工智能推動社會治理智能化的對策
1.加強社會公平風險的評估
針對人工智能技術在社會治理中應用帶來的各類社會不公的問題,推動社會治理與人工智能融合,需要科學全面的評估各類風險,提前預防在應用人工智能后可能會給社會造成的不公平現象,并做好解決預案。若應用人工智能后造成的社會不公平風險超出了當地監管部門的范圍,就當前的監管舉措進行研判,或者對當前應用人工智能的必要性做重新評估,圍繞著風險程度開展政策配套的研究。比如,當前自動化公共交通是當前應用人工智能最為廣泛的領域之一。對此,在應用人工智能技術前,相關應用以及監管部門可以在保證安全和具備實驗條件的實驗基地中積極開展各類自動化公共交通實驗,并基于實驗結果制定監管舉措。積極制定和出臺有關政策,既確保順利應用,同時避免由于人工智能的應用造成從業人員崗位替換等問題帶來公平風險的出現,推動人工智能所帶來社會紅利全民共享。
2.做好人工智能方面的宣傳教育
除了做好對社會不公風險的評估之外,需要關注人工智能普遍使用帶來的貧富差距加大的問題。針對拉大貧富差距的問題需要嚴格遵循“共建共享共治”的使用原則,通過開展宣傳、教育、培訓等方式方法,全面提高公眾在人工智能方面的認識和素養,積極推動全民共享人工智能技術的便捷,構建智能化社會治理的群眾基礎。在這一方面可以借鑒一些先進做法和經驗,比如將計算機科學教育納入整體學科教育,幫助適應智能化技術以及發展智能化技術。同時,可以通過教育培訓來積極引導公民參與到社會建設和社會治理中來,防范由于人工智能導致社會問題的進一步加大。
對于人工智能應用于社會治理可能引發的公共安全問題應針對性的建立相應的監管體系和應急體系。
1.構建人工智能應用的監管體系
在推動人工智能技術發展的同時,需要建立健全公開透明的人工智能應用的監管體系,相關主管機構或者部門可以圍繞人工智能的設計問責以及應用監督建立統一的標準機制,實現對人工智能算法設計、產品研發和成果應用等全過程監管。并且相關部門統籌規劃、制定行業政策,促進人工智能行業以及研發經營企業自律,構建人工智研發應用一體化的管理體系。明確監管機構和監管人員對系統設計規則和邏輯進行監管權責,重視智能系統在應用前的風險評估和測試,加大對人工智能領域的數據濫用、信息泄露等行為的懲戒力度。
2.構建人工智能風險的應對預案
按照趨利避害原則,處理好智能化應用與總體安全關系,既要發展人工智能技術促進社會治理智能化,也要在安全、可靠和可控的基礎之上設計功能、實際應用。加強對人工智能安全體系建設的規劃部署,圍繞使用人工智能帶來的安全風險因素,借鑒先進經驗,推進人工智能綜合安全防控體系建設。同時,組織模擬人工智能應用社會治理的場景,模擬容易產生的公共安全突發事件,制定有效的應對預案。比如,對于人工智能應用可能帶來的用戶隱私數據泄露的網絡公共信息危機,組織專人從技術與管理兩個角度建立相應的應對預案。
當前,各國對于應用人工智能在社會治理過程中可能產生的各類社會問題均處于探索階段,政府必須積極作為,明確應用的法律邊界。
1.以立法的形式明確人工智能開發邊界
從發展的角度積極引導提供基礎公共服務的人工智能,對于具有特殊功能的人工智能采取謹慎態度加以評估,以立法的方式明確人工智能各項功能開發的邊界。對于人工智能產品不需要普遍具備的功能禁區,相關管理機構部門和行業發展規范主體可以共同商討和制定法律標準,明確造成損害后應該承擔的法律責任。
2.完善人工智能安全評估的立法工作
在圍繞人工智能技術開展立法建設的過程中,可以參考國外在人工智能方面的法制建設經驗,積極推動我國在人工智能產品倫理和安全風險評估等方面的立法工作。作為基本的應用原則,“共建共享共治”要求在立法過程中,社會公眾享有知情權,人工智能產品在更新迭代中不僅要征詢專業學者的意見和建議,而且也要傾聽公眾聲音,確保自然人權益不受傷害,并努力維護國家和社會的共同利益。
面對人工智能產品技術在社會治理中廣泛應用可能帶來的倫理道德問題,組織研發智能產品程中,推動人工智能應用于社會治理的過程中,關注社會普遍認同的倫理道德標準。同時,強化人工智能功能設計以及應用領域的具體監管。
1.建立研發組織的準入機制
在制度層面,建立一套健全的企業準入機制,建立產業健康發展長效管理機制。社會普遍倫理到標準作為功能設計標準之一,明確功能產品的上市標準以及智能化應用的標準。研發組織建立合規部門,通過合規部門來做好人工智能應用在開發方面的合規工作,政府部分可以與開發企業簽訂相關的法律文書,明確研發企業法律責任、社會責任。
2.加強對人工智能開發從業者的倫理道德教育
政府有關部門也要加強對人工智能開發從業者的倫理道德教育,加強對技術人員的倫理教育,提高社會責任意識。同時明確每一個參與開發的成員的主體責任,在功能最初的階段預防和降低功能設計倫理缺陷風險和公眾社會權益的侵害。