人工智能作為一種具有代表性的顛覆性技術,正在釋放科技革命和產業變革積蓄的巨大能量,深刻改變著人類生產生活方式和思維方式。習近平總書記強調:“要整合多學科力量,加強人工智能相關法律、倫理、社會問題研究,建立健全保障人工智能健康發展的法律法規、制度體系、倫理道德。”保障人工智能健康發展,需要采取合理有效的舉措,防范人工智能技術可能帶來的倫理道德風險,讓這一技術更好服務于經濟社會發展。
人工智能發展存在倫理道德風險。伴隨人工智能技術的發展,關于其可能誘發倫理道德風險的討論從未停止。有人擔憂,信息時代,人工智能創造物已不僅僅是技術化的工具,而是越來越具有類似于人類思維的能力,甚至在某些方面具有超越人類思維的能力。人工智能發展到一定程度,有可能威脅人類思維主體地位。也有觀點認為,人工智能應用存在隱私泄露的倫理風險。此外,隨著人工智能自主性的提高,人工智能侵權責任中的因果關系、過錯等要件的判斷日趨復雜,人工智能應用的權利責任歸屬問題也被廣泛關注和討論。
增強人工智能倫理道德風險防控意識。增強人工智能倫理道德風險防控意識是一項系統工程,涉及科技研發、應用各環節。在科技研發環節,重在完善人工智能從業機構與倫理道德研究、教育、監督機構之間的長期溝通交流機制,不斷提高科技從業人員的倫理道德水平,引導研發人員增強風險防控意識,嚴守科技倫理底線,強化倫理責任。在研發初始環節,尤須增強道德風險防控意識,預測和評估人工智能產品可能引發的道德危害,從設計源頭進行規范。進而將這種倫理意識貫穿于研發全過程,防止人工智能被非法利用進而危害社會,確保科技研發活動始終在倫理道德的軌道上平穩運行。在應用環節,同樣需要繃緊倫理道德風險防控這根弦,在全社會加強涉及人工智能的倫理道德教育,普及與人工智能相關的法律法規知識,引導社會公眾以正確的價值觀念看待和運用人工智能技術,在享受其帶來的便利的同時,對其中的倫理道德風險始終保持高度警惕,推動全社會共同參與科技倫理治理。
依靠制度確保人工智能安全可控可靠。將人工智能可能誘發的倫理道德風險降到最低,保障人工智能健康發展,必須根據人工智能發展實際,針對其可能帶來的倫理道德風險,不斷完善指導和規范人工智能發展的倫理道德原則。在此基礎上,建立健全相關制度體系,從而及時發現、有效解決人工智能技術發展中的各類倫理道德問題,確保人工智能安全可控可靠。