陳淑蓮

人工智能是新一輪科技革命和產業變革的重要驅動力量,它推動人類社會迎來人機協同、跨界融合、共創分享的智能時代,對經濟發展、社會進步、國際政治經濟格局等產生了重大而深遠的影響,被認為是科技創新的下一個“超級風口”。然而隨著技術的發展和普及,人工智能在引發社會巨大變革的同時,治理方面和倫理方面的問題不斷涌現,引起了社會上的廣泛關注,為此本刊專訪了清華大學蘇世民書院院長、新一代人工智能治理專業委員會主任薛瀾,就人工智能如何健康發展等問題展開探討。
人工智能的倫理挑戰與應對
如同蒸汽時代的蒸汽機、電氣時代的發電機、信息時代的計算機和互聯網,人工智能正成為推動人類進入智能時代的決定性力量。在薛瀾看來,雖然人工智能已經在各個領域嶄露頭角,但實際上發展并不完善。在第四次工業革命的背景下,中國和世界上所有的國家一樣,都處于人工智能發展初期,還有許多問題需要解決。慶幸的是,中國在人工智能的應用領域已經躋身世界第一梯隊,在人工智能的研發力量、市場規模、應用場景的豐富以及推廣的力度等方面有著其他國家難以比擬的優勢。
科學技術的進步正如世界上的任何事物一樣,具有兩重性。無數事實表明,現代科技革命所帶來的科技進步就像一把“雙面刃”,對人類的利弊得失共有之。人工智能浪潮方興未艾,在很多領域展示出巨大應用前景,它不僅意味著前沿科技和高端產業,未來也可以廣泛用于解決人類社會面臨的長期性挑戰。從消除貧困到改善教育,從提供醫療到促進可持續發展,人工智能都大有用武之地。然而,隨著技術的不斷發展,由此引發的倫理爭議也不斷出現。
“人工智能的發展是一條漫長探索之路,存在很多不確定性,我們應該從歷史的眼光去看待它的發展。技術是否向善也取決于我們如何去使用,不同時代、不同場景、不同人群或許存在不同的判斷。”薛瀾以高鐵站為例,提到自“人臉識別”技術進入高鐵應用后,旅客通過“刷臉”就能快速進站候車,明顯提高了旅客進站候車的速度,杜絕了人工驗證的失誤。但其背后隱藏的道德倫理問題同樣值得關注,“人臉可以說是非常重要的生物特征,這種信息被采集之后,如果沒有得到很好的保護,可能會產生嚴重的問題,尤其在人們不知情的情況下對人臉進行遠程識別或分類的技術從根本上是危險的。”薛瀾認為使用這項技術的主體需要非常嚴格的按照國家的相關的法律法規去收集、使用個人信息,個人信息處理者要采取必要的安全保護措施,保護信息安全。
為進一步加強對個人信息保護,促進人工智能發展,即將于2021年11月1日起正式施行的《個人信息保護法》進一步細化、完善了個人信息保護應遵循的原則和個人信息處理規則,明確個人信息處理活動中的權利義務邊界,在個人信息保護方面形成了更加完備的制度,提供了更加有力的法律保障。“建立人工智能法律法規、倫理規范和政策體系,形成人工智能安全評估和管控能力,可以為智能社會定出法律底線和倫理道德的邊界,讓人工智能更好服務人類社會。”薛瀾說道。
從回應式治理邁向敏捷治理
關于中國人工智能治理模式的發展,薛瀾曾在很多場合分享過他的看法,他認為從2017年至2020年,我國處于回應式治理階段。由于這個時期人工智能處于快速發展時期,整體大環境非常有利于創新發展理念的實施,“讓子彈飛一會兒”以促進人工智能產業蓬勃發展。因此對于發展中出現的問題,監管部門采取了比較寬容的態度。當然,這個階段也出臺了一些軟性規則去推動人工智能技術發展。如為促進新一代人工智能健康發展,加強人工智能法律、倫理、社會問題研究,國家新一代人工智能治理專業委員會于2019年發布了《新一代人工智能治理原則》,提出了人工智能治理的框架和行動指南。此外,為加強人工智能領域標準化頂層設計,推動人工智能產業技術研發和標準制定,促進產業健康可持續發展,國家標準化管理委員會、中央網信辦、國家發展改革委、科技部、工業和信息化部等五部門于2020年聯合印發《國家新一代人工智能標準體系建設指南》。可以說這些引導性、規范性的措施營造出了有利于人工智能發展的創新大環境。
由于回應式治理階段出現的一些問題存在應對不及時,解決不規范、不完備等問題,從2020年開始,我國進入到了集中治理階段。相關監管部門采取了措施進行整治,如市場監管總局對互聯網經營者的違規處罰等都是集中治理的體現。在此期間,國家相繼出臺了相關法律法規,中國第一部有關數據安全的法律《數據安全法》已于2021年9月1日正式實行,它將與《網絡安全法》及即將實施的《個人信息保護法》一起,全面構筑中國信息安全領域的法律框架。集中治理模式明確了國家加強行業監管,促進制度落地的決心。
未來中國應該步入敏捷治理階段。薛瀾提到傳統的治理模式下,法律法規需要經過諸多政策制定程序,相對比較緩慢,往往很難趕上人工智能發展的速度。因此,我們需要進入敏捷治理模式,在不是那樣完整的政策制定條件下及時出臺政策,引導技術發展,推動治理原則貫穿人工智能產品和服務的全生命周期。同時,對未來更高級人工智能的潛在風險持續開展研究和預判,確保人工智能始終朝著有利于社會的方向發展。
薛瀾提到當前我國人工智能面臨的最大挑戰是沒有一套較為成熟的體系來規制其潛在的風險。與此同時,主要發達國家同樣在發展中前進,沒有現成的規制體系可借鑒,這也促使我們在發展科技的同時,要走出一條具有中國特色的人工智能治理體系。
構建人工智能治理體系
2019年時,為進一步加強人工智能相關法律、倫理、標準和社會問題研究,深入參與人工智能相關治理的國際交流合作,科技部決定在新一代人工智能戰略咨詢委員會基礎上成立新一代人工智能治理專業委員會,委員會由來自高校、科研院所和企業的相關專家組成,薛瀾任委員會主任。
談到委員會這些年開展的工作,薛瀾介紹為促進新一代人工智能健康發展,更好協調發展與治理的關系,委員會廣泛聽取各方面意見,在廣泛凝聚了學界、業界和社會的共識后,起草發布了《新一代人工智能治理原則》,“發展負責任的人工智能”成為治理原則的主題。在薛瀾看來,“負責任”涵蓋了人工智能的基礎研發層到應用層,應成為貫穿人工智能發展的一條主線。
“委員會持續參與了各部門關于人工智能政策、標準、準則的起草工作,也一直堅持對人工智能的應用做深入調研。”前段時間,委員會對長三角一帶的人工智能發展做了深度調研,他們希望這些工作能形成推動人工智能健康發展的合力。
薛瀾認為人工智能具有黑箱特征,其算法機理還有無法解釋的內容,社會影響或可能產生的風險存在不確定性,因此我國還需要加強基礎研究,降低技術風險,建立多元共治的人工智能治理體系。同時,應明確把數據和算法作為當前重點治理對象,結合具體應用場景規范人工智能倫理,利用技術和規范并行推動提高治理能力。“我們要通過敏捷治理等新的人工智能治理理念,來適應新時代的需求,進一步完善人工智能治理體系。”
關于如何在全球治理環境下形成具有競爭力的人工智能治理體系,薛瀾認為一定要把握好治理理念、治理主體、治理對象和治理工具四大核心要素。“我們首先要明確發展人工智能技術時要堅持的價值導向和治理理念;其次,在明確政府作為治理主體同時,要吸納包括科技界、學術界、企業界等社會各方意見;同時,我們要考慮治理對象的識別,治理主體是多元的,治理對象也并不單一,應自下而上分層治理,數據算法、應用場景、企業和平臺,都要作為治理對象被考慮在內;最后,作為治理工具的法律法規以及各類技術標準、行為準則、倫理原則等等都需要發揮作用,要剛柔并濟,靈活運用。”薛瀾說道。