孫舒雨
(江蘇省南京市南京信息工程大學,江蘇 南京 211800)
面對人類與人工智能技術之間逐漸升溫的融合和摩擦,將人工智能技術的倫理思考放在關注個人權利保護、群體權益保障和社會關系穩固上顯得尤為重要。不僅要探究其AI技術產生倫理困境的成因,更要結合道德規范、社會評價、行業規則,國際精神以及法律體系來構筑完整的AI技術倫理問題的應對策略。
(一)人臉識別技術的倫理風險
人工智能與大數據結合的時代背景下,個人信息被看作是機遇和利益。人臉,由于其生理性、標識性等特點,毋庸置疑地屬于個人信息,且其為一種不同于傳統類別的新型信息,即生物識別信息[1]。在趨利心理以及好奇心的驅動下,人臉識別及置換技術如雨后春筍般大量出現在公眾視線中。
對于人臉識別技術失去控制而得到的濫用,首當其沖的反應表現為對個人權益的侵犯。對于人臉識別技術濫用而引發的個人風險,若不加以謹慎對待和嚴格規制,必然掀起對人工智能倫理問題的強烈沖擊。
(二)醫療應用的倫理風險
現如今的智能醫療打造了更加全面的信息檔案平臺,結合了物聯網技術,逐步縮小了患者與醫生之間的信息鴻溝,并且借助人工智能的醫療嵌入系統、云計算技術、AI醫療產品等等技術手段使人們獲得了更高科技的醫療服務。但目前人工醫療應用在主體及責任分配中尚處于模糊階段,而導致的倫理風險值得進一步探討。主導性診斷類醫療人工智能產品指的是在醫療服務中,承擔主導性診斷診療作用,而大大弱化醫療人員的參與。而有關于主導性診斷類醫療人工智能產品的相關人員是否具有和醫療機構、醫務人員同樣的法律定位,其糾紛可能適用的責任究竟定位為“醫療損害責任”或是“產品責任”,甚至競合的責任狀態,則需要進一步深入探討與研究。阿薩羅在對當前法律下人工智能機器的形勢進行分析時提出,法律法規是應對人工智能倫理道德問題時的最佳選擇,但是在法律所照不見的地方,人工智能的倫理問題依舊被忽視[1]。
(三)軍事領域的倫理風險
目前,自主武器在經過算法推演的智能化改造以及與軍用物理器械的結合下,逐漸暴露出倫理風險。如“機器人殺手禁令運動(Campaign to Stop Killer Robots)”組織公布的一段模擬視頻顯示:在AI控制下的殺人蜂機器人,在通過算法內嵌的推演下鎖定一群學生,并對他們進行瞬間屠殺。歐盟議會提出賦予人工智能“電子人”的法律主體地位,由人工智能對其造成的損害直接承擔責任[2]。而在國際人道主義的倫理辯論中,人們普遍承認在使用武力的決定之下,人類的代理性及其主觀意圖是至關重要的。
(一)在倫理侵害行為發生的前端采取打擊行動。是指在信息的流動渠道中,應當設置科學的AI技術評價監督機制。要求增加市場準入的壁壘,嚴格要求媒介提供商及其產品的合法性、合理性。
(二)在倫理侵害行為發生的末端采取打擊措施。是指在人工智能技術損害個人權益的情形之下,該利用立法、司法、執法部門的統籌規劃來對倫理和法律問題進行解決。如果法律不允許人工智能對用戶的隱私進行監視,則人工智能的運行不能隨意讀取用戶的個人信息[3]。目前我國已經出臺《個人信息安全規范》,以及于2020年3月1號實施的《網絡信息內容生態治理規定》等法規。其中《網絡信息內容生態治理規定》第七章規定了法律責任,在《網絡信息內容生態治理規定》第34條至40條詳細說明了當信息網絡內容生產者、網絡信息內容服務平臺等給他人造成權益損害時,法律如何對網絡違法行為進行責任分配等問題。我國這種法律觀念使得學者更關心實在的法律,更加看重法律的體系性[4]。除此之外還可以考慮,在匿名用戶通過AI技術侵犯了他人信息時,除了媒體平臺應該暴露其用戶的真實身份信息之外,法律應當詳盡規定匿名用戶身份信息的使用范圍以及保護規范,以免對他人信息權益進行二次傷害。
目前仍需集中國際社會組織、公權力部門以及相關智能應用參與者、智能技術設計人員、應用技術使用者的力量來突破人工智能發展至今對于個人風險、群體風險、國家風險的倫理困境。首先要求各界充分發揮效能影響,從源頭控制人工智能應用技術的不利影響,同時配合行業內置和社會各界的監管以及監督;其次必須明確人工智能應用技術的責任分擔機制;還要利用法律的公權職能,在人工智能算法程序內部嵌入道德標準以及法律決策;最后,國際各界在對倫理問題應用對策的同時,還要積極構筑人工智能應用技術在操作規范國際化、透明化、合法化;深化發展公平、公正、公開的人工智能技術聯動機制。