楊 曦
(漯河職業技術學院,河南 漯河 462000)
隨著科技的不斷發展,第五代移動通信、大數據、云計算、人工智能已經成為電子信息領域炙手可熱的技術,其中人工智能被認為是引發社會創新和產業變革的重要驅動力,具有巨大的發展空間。習近平總書記在中央政治局就人工智能發展現狀和趨勢進行集體學習時強調:“要整合多學科力量,加強人工智能相關法律、倫理、社會問題研究,建立健全保障人工智能健康發展的法律法規、制度體系、倫理道德。”我們在關注人工智能帶來的文明智慧和美好藍圖的同時,也需要不斷思考和探究其存在的諸多倫理道德問題。
馬克思主義倫理觀認為“倫理道德是人們現實生活中由經濟關系所決定,以善惡為評價標準,依靠人的內心信念、社會傳統習慣和輿論所維系的一類社會現象。”人工智能作為一項革命性技術,對一些領域具有顛覆性影響,不斷觸碰人們傳統的價值觀念。目前人工智能的開放性應用場景不斷拓展,不可避免地沖擊現有的人倫關系,引發諸多倫理沖突,帶來各種各樣的倫理道德難題,引發了人們對人工智能倫理道德問題的廣泛關注和相關討論。
任何事物都具有兩面性,科技也是如此,在人類文明進程中,經歷了許許多多“危機論”,源于對一些新生事物未知的想象而產生的恐慌和抵觸情緒。例如在19世紀中期,工業文明開始起步,蒸汽機車開始“轟鳴”著進入以馬車為傳統運送工具的西方人的生活,被稱為“魔鬼之車”。歷史的發展始終由科技所驅動,科技的兩面性源于其使用屬性,用蒸汽機生產的汽車,推動了人類社會的文明進步;而用蒸汽機生產的武器,卻威脅人類生存。人工智能也是如此。隨著大量企業使用人工智能技術,實現了生產流程的自動化,解放了大量勞動力,提高了產品的一致性和企業的生產效率。但同時,對于重復性高的生產崗位,由于自動化設備取代了傳統的人工操作,增加了這些崗位工作人員的失業風險。由此人們預見,人工智能的發展最終會取代人類勞動,人們可選擇的崗位會越來越少,“人”作為傳統意義上的勞動力概念將逐步被淡化,而“智能機器”則會成為勞動力的新符號。因此,人們在享受人工智能所帶來的便捷生活的同時,也擔憂崗位得失、貧富差距、身心健康等問題,感受到人工智能技術給自身帶來的威脅。譬如在今年我國新冠疫情期間,大量人工智能技術應用于防疫抗疫,在智能測溫、智能遠程服務、智能社區管理、智能辦公、在線教學等環節都發揮了無可替代的作用。疫情的存在,推動全世界應用人工智能的加速度,但人們擔憂人工智能技術在社會生活中的過度應用,會使人們對其依賴度上升,導致思維能力及學習能力下降,最終影響人類探索世界的靈感和改造世界的創造性。另外,人工智能的商業化、軍事化應用場景也使人類面臨諸多人工智能倫理道德問題。一些科學家認為,人工智能將是人類生存的最大威脅,甚至可能導致人類滅亡,人類需要敬畏人工智能的崛起。因此,我們應不斷提高對人工智能應用和發展的認知水平,對人工智能潛在的威脅保持高度警惕。
人工智能技術在快速發展和廣泛應用中走向成熟但遠未成熟,其可能導致的倫理道德后果難以準確預料。近期,網絡上類似“換臉”APP、DeepNude軟件引起的道德拷問不計其數;有關虛擬現實、智能駕駛帶來的倫理與道德規范問題,也在拷問著人工智能場域下的社會倫理秩序等等。自從IBM的計算機“深藍”在國際象棋人機對弈中擊敗加里·卡斯帕羅夫以來,以人工智能為核心的智能機器,雖然遵循人類賦予它的理性規則,但卻在與人類的較量中一次次獲勝。隨著技術的不斷創新,智能機器的自主程度會不斷提高,具備高度自主意識和高速自我更新、自我復制的再生能力,表現出超越人類的文明智慧,但其價值觀只能依附于過往的經驗數據,無法始終趨同于人類的價值觀。當與人類預期出現偏差時,會引發傳統倫理道德價值的沖突。人工智能所引發的倫理道德問題,不僅存在于公共社會層面,而且也存在于軍事博弈中,智能機器人武器系統已經有多個國家在研發,正如微軟公司總裁史密斯的判斷,未來我們將無法避免“殺手機器人”的出現,人類社會應該有一套道德標準來約束與引導人工智能的發展。就目前而言,人工智能技術所引起的倫理道德問題,只是少數技術操作者的行為,但是由于科技倫理規范的缺失以及網絡傳播的推波助瀾,極易被更多人模仿,其造成的社會危害程度無法估量,由此引起人們對人工智能瓦解社會倫理道德秩序的擔憂。對于人工智能所觸發的倫理道德問題,已經引起了各國政府及相關行業協會的重視,我們應針對科技公司開發者及使用者制定人工智能開發與使用的道德與法律規則,調整和約束開發者和使用者的行為,以促使人工智能在創新發展與倫理道德規范上找到平衡點。
人工智能倫理的水平,與人工智能的成熟度正相關。隨著時間的推移,人工智能與人文的異化作用凸現,其隱含的對于社會倫理道德秩序的挑戰也愈發明顯,已經涉及數據隱私、權責機制、公共安全等諸多倫理道德問題。
人工智能利用強大的信息挖掘能力和數據運算能力,在海量數據中提取“有用”的信息,其快速性和精準性為各行業構建了快捷高效的管理和服務體系,但目前為止,隱私保障問題依然是行業面臨的主要挑戰。如諸多政府部門、通信服務商、圖書檔案館、醫院、學校等機構為業務需要而對個人信息數據的采集與使用,往往模糊個人信息的所屬權,并且這些個人數據并非完全服務于原始目的。在人工智能的諸多細分應用領域中,人們認識較多的是移動支付、人臉識別、聲音識別、指紋識別以及智能駕駛、自動翻譯等,智能系統獲取個人信息數據變得更加容易,這些私人數據給誰用、用來做什么以及使用后如何處理等問題,數據采集方往往擁有更多的控制權和自主權,使大多數人開始擔憂人工智能會威脅到自己的隱私。在人工智能面前,算法拆解人的身份特征并使之數字化,通過不同身份特質的再組合重構,以虛擬形象擬制真人,必然造成嚴重的社會后果,對個人的隱私和人類社會固有的倫理道德形成沖擊和挑戰。
人工智能需要大數據及其算法優化的支撐,才能進行高效而精準的數據分析,從而通過數據驅動實現智能決策。機器行為通過一定的算法模型預先設定,算法程序的設計、訓練和使用場景受人類認知條件的約束,無法窮盡包括未知領域在內的所有場景情形,無論如何都難以避免誤差彈性。以目前最受關注的智能駕駛汽車為例,由于受大數據技術的支撐,可以通過自動規劃路線規避道路擁擠,提高乘用效率;通過智能化的無人駕駛規避交通事故,提高安全系數等等。但無人駕駛不可能做到盡善盡美,2018年3月9日晚,美國亞利桑那州一條普通的公路上發生一起無人駕駛汽車撞人致死事故,處于無人駕駛狀態的汽車通過傳感器探測到了行人,但自動駕駛系統并未實施避讓決策。這起事故反映出人工智能技術在機器算法上面臨的挑戰,在程序編制過程中,受制于對陌生情形的考量和預判,具有局限性和不可預見性,在遇到緊急情況時,系統根本無法得到對應的設定,只能從數據庫中隨機選擇類似的案例加以類推,無法像自然人那樣憑借經驗和直覺做出本能反應,由此映射出智能駕駛在極端情況下的“倫理困境”。
平等公平是人類社會體系構建的最基本準則,也是衡量人類社會文明水平的重要標志之一。社會平等公平的意義是,在同一事件面前,以同等的態度對待每個人,不分性別、身份、膚色以及所處地區。然而,當今社會,諸多不公平的表現形式往往在各個社會層面顯現,人工智能的應用加劇了這一現象。人工智能本身具有理性的算法和客觀的數據,不帶有情緒和偏好,能夠帶來中立的結果。但事實上,由于人為因素的存在,數據質量、算法歧視以及設計者的偏好往往導致非中立性的結果,如性別歧視、種族歧視等。有一項研究表明,在美國被普遍使用的COMPAS算法,存在種族歧視“偏見”,該算法在法院的犯罪預測評估中,預測黑人的再犯罪風險是白人的兩倍。面部識別是人工智能的一項重要算法,也無法避免性別和種族偏見問題,麻省理工學院的Joy Buolamwini發現,IBM、微軟和中國公司 Megvii的三個最新的性別識別AI可以在99%的情況下準確從照片中識別一個人的性別,但這僅限于白人;對于女性黑人來說,這個準確率會降至35%。人工智能早已滲入了各個領域,數據和算法導致的“偏見”往往具有隱蔽性,當遭遇不公平對待時,人們難以發現和消除。
虛擬現實是信息智能技術的產物,智能機器能夠“讀懂”人的語言、表情、手勢、動作,通過虛擬場景,讓人產生身臨其境的交互式感覺。虛擬現實可以在身體和精神上讓人獲得神奇的虛擬體驗,成為有別于現實的另外的人,可能會導致一些新穎的倫理道德問題。智能秘書、智能教師、智能醫生、智能保姆、智能護理等,往往會對傳統的人際關系形成挑戰。人越來越多地與智能終端相處,借助它并依賴它,仿佛已成為人體的一部分而離不開它。過度沉迷這種虛實一體的生活,極易產生不現實的幻想,尤其是各種虛擬游戲,充斥著血腥暴力、荒誕色情等毫無道德底線的內容,使人變得孤僻、冷漠、厭世、精神麻木,危害人格健康。虛擬現實技術還在不斷嘗試突破,應用場景不可限量,但其在倫理責任和道德規范方面的挑戰不容忽視。
只有重視人工智能發展過程中所蘊含的社會風險和倫理挑戰,并有意識地加以疏導和改變,共建規制,為技術發展清理路障,才能從本質上實現科技向善的發展理念。
在過去的幾十年里,世界范圍內高科技公司越來越強大,其掌握的數據量越來越多,在構建人工智能技術及服務平臺方案時,世界各國應該加強合作,以審慎、負責任的態度,更好地了解大家對人工智能倫理問題的認識,在爭議中尋求治理方案,共同應對新科技帶來的挑戰。科幻作家阿西莫夫出于保護人類的目的于1940年就提出了“機器人三原則”,其中第一條即機器人不得傷害人類,或看到人類受到傷害而袖手旁觀;2019年斯坦福大學成立人工智能研究院,基于人工智能的社會影響促進科技與人文的協調發展;Facebook公司借助德國慕尼黑工業大學的學術資源建立了人工智能倫理研究所,在包括公平、隱私、安全和透明度等領域探討“行業內無法單獨回答”的問題。我國在人工智能倫理道德問題的研究,也走在了世界前列,在2019年全國“兩會”上馬化騰提出《關于加強科技倫理建設 踐行科技向善理念的建議》,同年5月《人工智能北京共識》發布,提出了各參與方應該遵循的有益于人類命運共同體構建和社會發展的15條準則。由此可見,企業、行業協會、學術界和政府行業部門針對人工智能的研發、使用、治理,布局人工智能發展規劃,構建完整的人工智能倫理道德風險防控體系,監測新科技可能引發的倫理道德問題,從法律法規層面促使新科技與人文倫理道德的協調發展。