許劭華
(上海人工智能實驗室,上海 200030)
人工智能通過自我學習、深度訓練可逐漸掌握人類的思維模式,代替人類完成部分工作,部分情況下工作質量、效率、數據處理能力甚至大幅度超越人類。人工智能的創造解放了人類生產力,使人類從枯燥乏味的機械化工作中得以解放,同時也推動社會進入了第4次工業革命中。當前人工智能模型日益完善,在不同領域均有所應用,例如,在醫療領域可輔助醫生完成疾病診療活動,在教育領域可自動評價教學質量,在人力資源管理領域可深度挖掘人力資源的內在優勢和價值。然而智能并不等于萬能,在實際使用中存在著難以預估的風險隱患,在智能化社會到來前要規范人工智能使用方式,提升人工智能應用的可靠性、可信性和可控制性。
數據是促進人工智能發展的關鍵,要求提升智能化水平必須要收集大量的數據信息,針對數據信息進行反復訓練、學習才能促使人工智能逐步掌握人類的思維模式[1]。人工智能在與人類思維模式對齊時也會對數據中所包含的敏感信息進行學習,這使得人工智能的應用也有著一定的意識形態立場。例如,在對傳統文化、國家歷史發展等信息進行解讀和學習時其中有較多和意識形態相關的內容,若未選取高質量信息和語言材料,人工智能便會接觸歪曲歷史的信息。當人類和人工智能進行對話和互動時有可能受到這一類不實信息的干擾和影響,導致部分意識形態不正確的信息和文化得以傳播。人工智能在推薦信息時存在引導性,會有某種價值觀念的傾向,導致社會主義道德根基被動搖,所傳遞的價值導向和主流價值觀念存在偏差,這也使得人工智能目前成為新時代下意識形態建設所關注的重要陣地。
人工智能應用時算法技術中立性有待提升,原因在于算法構建時存在著“黑箱”問題,所使用的參數、權重以及算法數據來源均處于“黑箱”狀態[2]。當前各類中小型科技公司缺少構建底層算法模型的意識,會從其他大型公司購買訪問權限,或者直接按照大型人工智能算法中獲取開源數據,根據自身的應用需求調整數據內容。人們普遍認為算法會對用戶行為活動所產生的數據進行挖掘、分析,以此來評估用戶對某種內容、信息的偏好。然而因“黑箱”問題在算法代碼編寫前便已經融入了價值觀,算法偏見問題明顯。例如,企業招聘算法中有性別歧視的思想,會使部分求職者的求職信息被低估,或者直接被淘汰、忽視。在技術設計層面算法獲得的數據集存在不均衡的問題,特征選取有所偏差,影響了機器的學習質量。例如,在醫療診療活動中由于算法數據收集不全面和偏差問題容易出現漏診、誤診的現象。原因在于算法缺少大體量訓練數據,科技公司通常只是以本公司所收集的有限數據作為測試內容,導致人工智能產品難以及時發現潛在的安全漏洞,如果將這一類產品大范圍應用在各個領域容易出現錯誤決策,帶來較為明顯的安全隱患。
生成式人工智能在目前日常生活中應用廣泛,其中ChatGPT 屬于代表性人工智能應用。這一類人工智能產品只需要在其中輸入文本數據便可自動生成不同類型的信息內容,如圖片、文字、視頻等,生成內容包括可讀可視、靜態動態多種類型信息,展現了人工智能的多模態生成能力。除此之外,紅外輻射分析溫度、運動軌跡等智能生成模型也開始逐漸應用于日常實踐中,能夠盡可能還原人類在觀察和理解世界時所使用的能力。跨模態生成重視將各類感官系統進行連接,除去按照人類思維進行分析外,會融入觸覺、嗅覺以及語音等各種內容,雖然豐富了人工智能模型,但是所生成的具體內容缺少公認的評價標準。這一類人工智能應用在創作層面存在著明顯的主觀性特點,多重解釋性特征突出,增加了對人工智能監管的難度[3]。同時生成式人工智能會廣泛獲取網絡上的各種數據和信息,人們在使用過程中會將生成的結果應用在不同領域,這也導致原創者的合法權益受到損害,引發了人們對生成式智能的質疑和廣泛討論。
人工智能以數據為基礎進行驅動,在開發人工智能應用時要匯聚海量規模的數據信息,為了保證人工智能應用的有效性,在采集時會收集大量涉及個人隱私的數據,容易導致個人隱私被外泄。人工智能所收集的信息與網絡上的虛擬信息不同,必須要保證信息可以代表個人身份,如指紋、面部、虹膜等,是與自然個體不可分割的重要生物數據。例如,當前在各個軟件中均開始使用人臉識別技術,以此來認定使用者和軟件登錄者的信息一致,但是在識別過程中會獲取面部信息,若在未經過本人認可下濫用面部信息會給個人隱私帶來安全隱患。同時,人工智能還會收集消費信息、生活行為、未知數據等敏感內容,未來人們的各種信息都將被人工智能收集起來,且向著主動采集、識別的趨勢發展。如果人工智能模型應用在重要領域,在外界攻擊、網絡安全漏洞的影響下會導致數據被盜取,給經濟、個人生活帶來明顯的安全隱患。目前人們的數據安全意識持續提升,在存儲數據時會使用加密存儲技術,但仍然有黑客會解密上述數據,解密后有可能將數據銷售給特定群體用于商業領域,例如,經常接收到的針對性廣告或者精準營銷等便是數據盜用、濫用的表現。
電信詐騙是網絡時代下所出現的一種新型的詐騙方式,通過撥打電話、網上聊天、信息偽造等多種方式進行詐騙。隨著詐騙套路被人們所熟知,詐騙方式也開始不斷更新,其中通過人工智能偽造人臉、偽造聲音是難以防范的詐騙手段[4]。利用人工智能收集個人面貌、聲音信息能夠智能生成相同的面貌、聲音,且人工智能會捕捉人表情的變化,這使得所偽造出的面目難以分辨。利用AI 生成的偽造面貌、聲音進行詐騙時,被詐騙對象無法及時分辨,容易導致人身經濟損失的問題。除此之外,部分人群在日常生產生活中對于人工智能的依賴性過強,從而導致個人生存能力持續下降,思維能力弱化。然而隨著人工智能應用便利性的不斷提高,越來越多的人將會利用人工智能工具,這也使得人們面臨著系統性退化的風險隱患。人工智能濫用和造假問題已經成為威脅社會安全發展的主要因素之一,如何應對這一倫理安全問題成為社會治理體系建設所關注的重點。
人工智能引領社會進入了新的時代,但是同時也要重視人工智能應用是否合理。要想規范人工智能的應用必須要以法律為基礎,通過合適的法律法規對人工智能應用進行監管,避免出現人工智能濫用、錯用的現象。雖然目前已經提出《中華人民共和國數據安全法》《中華人民共和國個人信息保護法》等法律規定,能夠在一定程度上對人工智能領域進行約束和監管,但是缺少以人工智能為核心的統一法律標準,存在法律空白和監管漏洞問題[5]。政府部門要加快立法速度,以統籌思想推進橫縱向立法進程,做好新法和已有法律法規的銜接工作。2023 年立法規劃中已經提出了有關人工智能法的草案,為了彌補法律空白,要對人工智能應用中存在的共性倫理安全問題進行探討,以提煉出的共性問題作為一般性法律法規的制定基礎,確保法律法規可以為實踐應用問題的解決提供參考。在技術治理方面要形成利用技術管理技術的模式,在法律中明確規定如何做好人工智能鑒別工作,針對人臉、聲音、場景等偽造行為進行鑒別和處罰,防止相關人員利用偽造技術獲取非法利益。
人工智能應用范圍的不斷擴大,也增加了市場上對于優質人工智能人才的需求。在智能汽車、機械設備開發研究時需要充分掌握深度學習算法應用和訓練的專業人才;在教育領域中需要可開發人工智能教學管理軟件的人才;在醫療領域需要可熟練開發智能醫療設備、使用智能診療技術的人才;在社會治理領域需要具有人工智能防偽鑒別、數據篩查能力的人才。培養專業人才能夠為各個領域人工智能應用創新提供源源不斷的人力資源支持,推進人工智能發展戰略的有效落實,強化國家在人工智能產業方面的國際競爭力。為了保證人工智能得以合理應用,各個國家要對人工智能專業人才培養體系進行細化和完善,將人工智能和其他領域進行緊密融合,調整專業教學內容,根據社會不同領域對人工智能人才的需求制定針對性教學目標和計劃。在專業教育中也應重視人文素養教育滲透,加強新時期人才對人工智能應用的認知,為倫理安全風險和挑戰的應對夯實人力基礎。
在全球化時代下,國家與國家之間的信息傳播渠道有所增加,通過網絡即可讓人們第一時間獲取各種各樣的信息,這也使得人工智能應用的安全倫理挑戰成為全世界所面臨的難題。為了合理應對挑戰,要重視并積極與國際進行合作,通過全球合作的方式提高人工智能治理質量,對人工智能的應用進行管控。各國政府要形成統一的治理標準和規則體系,堅持協同共治的原則和主張,通過不斷協調完成國家之間的對話,共同處理有關人工智能的安全倫理問題[6]。但是不同國家在地域條件、文化背景、經濟實力等方面存在差異,人工智能應用的認知也有所不同。這要求國家能夠從全人類角度出發構建相同的理念認知體系,在共同價值觀的基礎上設計符合智能時代發展趨勢的人工智能治理規則和秩序,促使全球各個國家形成相同的社會共識,推動人工智能應用向著可控的方向持續發展。在全球合作時要對與人工智能有關的國際法規進行細化,為跨國人工智能不合理應用問題的處理提供參考標準,例如,對新型人工智能應用類跨國電信詐騙案件的處理方式進行細化,合理應對人工智能詐騙帶來的經濟安全隱患。
人工智能應用迭代速度較快,在不斷迭代過程中也會產生新的風險,無論最終人工智能是否可以變為一種生命體,其均在不斷進行自我訓練和學習,對外在世界的影響已經超過最初算法模型的設計目標。因此,要重視風險監測,評估人工智能應用所帶來的新問題,并采取合適的策略對問題進行處理,避免人工智能的不合理應用造成不良影響。監管沙盒是一種在金融領域對新型產品進行風險評估的實驗模式,能夠對金融產品進入市場前的風險因素進行管理和控制。人工智能是風險預估難度大的一種產品,在人工智能應用中,也應當引入監管沙盒機制,并且目前在《AI 法案》中也提出了要建立人工智能監管沙盒的要求,人工智能產品在進入市場前或者使用前要先根據法案內容對其進行驗證。人工智能大模型目前正處于高速發展階段,將監管沙盒制度引入能夠做到在模型預訓練時期便控制風險因素,提升風險評估質量,避免人工智能應用投入使用后給社會秩序造成過大沖擊,解決人工智能的倫理隱患[7]。
人工智能應用要確保其價值觀體系與人類的道德要求保持一致,構建具有高可信度和高度道德意識的人工智能模型。因此,要重視構建倫理框架,為人工智能應用提供道德約束標準。公平性是倫理框架的核心要素之一,在開發和設計人工智能系統時要避免有歧視和偏見思想的植入,嚴格把控數據來源,在確保數據具有多樣性和代表性的同時刪除其中潛在的偏見信息。檢查人工智能模型的決策流程,要求其對每個群體均平等對待。重視提升人工智能應用的透明性,要求決策流程是可解釋、可審查的,強化用戶對人工智能系統的信任。保證人工智能系統的安全性,積極研發對抗性攻擊防御技術,有效面對外來的惡意攻擊。
人工智能的迅速發展給人類原有價值體系帶來了重要的挑戰,對人和人、人和技術的關系進行了再次定義。人工智能可大量收集數據信息,存在侵犯個人隱私、盜取數據的安全隱患,越過了倫理道德界限,導致人們開始對人工智能的高速發展出現抵觸情緒。新時期下要正確對待人工智能應用所引起的安全問題和倫理問題,通過推動立法、培養人才、國際合作、風險監測以及倫理框架建立等方式評估人工智能應用是否合理,優化應用方式方法,堅持公平透明、包容、保障隱私原則,將新技術應用在合適的領域,規避倫理道德和安全隱患的出現。