嚴衛 錢振江
摘要:隨著人類科技的提高,人工智能在現代經濟社會中發揮著越來越重要的作用。在某種程度上來說,人工智能的發展可以大幅度提高人們的生活質量,促進社會發展,甚至可以推動人類社會的變革。人工智能的不斷發展也意味著隨之而來的問題,其中在社會中引起最大爭議的就是人工智能可能帶來的倫理問題,本文列舉了人工智能發展主要面臨的八種倫理風險情形。根據研究人工智能可能出現的倫理風險,從而提出了人工智能倫理風險的應對措施,以促進人工智能技術的健康發展。
關鍵詞:人工智能;倫理;風險
中圖分類號:TP311? ? 文獻標識碼:A
文章編號:1009-3044(2019)18-0221-02
1 引言
從2001年的斯皮爾伯格所制作的《人工智能》到如今的《阿麗塔》,都代表一種趨勢——人工智能受到了全世界人廣泛的關注,從電影中我們也可以窺探出人工智能技術的興起和成熟,作為一個緊隨世界潮流,全面參與全球化經濟的國家,我國對于人工智能的研究當然不甘落后。國務院于2016年7月在北京隆重發布《“十三五”國家社會發展科技創新規劃》,自此開始人工智能正式被納入國家規劃中。[1]緊接著在2017年3月,政府工作報告中首次提到人工智能技術。從種種跡象中可以看出,國家對人工智能越來越重視,也將投入更多的資源給予人工智能,因此在未來,我國的人工智能產業必將走入一個大的跨越式發展階段。但科技的發展總是伴隨著不確定的因素,因此我們對待人工智能技術也必須抱有理性而謹慎的態度去觀察與研究。政府及相關部門應該盡快出臺一套科學的法律法規來規范人工智能倫理風險和過程監管。人工智能這項新技術的出現必然會給我們的生活提供很多便利之處,但這也意味倫理、法律和安全問題也接踵而至,因此目前人工智能對社會發展的影響和挑戰已經逐漸成為我國哲學社會科學研究不容刻緩的研究話題。
2 人工智能發展主要面臨的倫理風險
2.1 道德風險
未來,隨著人工智能道德自主性的突破,人工智能的道德觀念將從完全由人類設計轉變為完全由機器決定。如何賦予人工智能道德判斷能力是一個重要的現實問題。將人類道德寫入人工智能程序或許是解決問題的方法。早期,人工智能的道德判斷行為是可控的。隨著技術的進一步發展,人工智能的道德判斷行為可以完全獨立。穆爾教授認為,這種情況的標準是,人工智能程序具有成年人的平均道德水平。[2]在這個階段,人工智能會做出自己的行動策略和道德選擇,它的行為不會被人類控制。這將對現有的社會秩序和道德規范產生重大影響。為了避免這種情況,人工智能的道德自主性應該被限制在一個合理的范圍內,使其行為能夠被人類所期待。
2.2 失業風險
當人工智能取代一個又一個產業時,社會財富將逐漸集中在擁有先進人工智能技術的發達國家或科技巨頭身上。而發展中國家的勞動密集型產業往往被人工智能所取代,這些國家勞動力成本較低的優勢將不復存在,就業受到嚴重影響。[3]人工智能的應用在很大程度上對這些地區的就業穩定提出了挑戰。如何讓每個人都從人工智能創造的財富中受益,防止貧富差距擴大,這是我們需要思考的問題。
2.3 隱私風險
隨著人工智能的發展,大數據的運用將無處不在。通過深度學習和大數據算法,人工智能可以更有效地解決問題,但這將涉及隱私問題。許多重要的個人隱私信息,如收入,家庭狀況和健康等,可以實時收集和保存。通過數據挖掘技術,數據控制器可以從大量不完整或模糊的數據中提取有用的個人信息。這樣,人類就失去了對自己隱私的控制,甚至一些私人信息也被實時監控了很長一段時間。因此,在人工智能發展的過程中,如何加強對隱私的保護成為一個必須關注的問題。
2.4 算法偏見風險
雖然人工智能的倫理判斷本質上是算法,但在現實生活中可能會存在主觀偏見。這種偏見有多個方面的因素,可能是數據源的輸入也可能是程序員的世界觀和價值觀。如果算法中已經存在偏差,經過深度學習,可以進一步加強算法中的偏差。例如,在車禍現場,中國人和外國人都受了重傷。人工智能機器應該先拯救哪一個?是否存在種族、意識形態和算法上的偏見?這表明,機器處理各種類型數據時,可能會存在偏差。當然,與人類決策相比,人工智能的決策能排除人類情感因素而做出更為客觀理性的決策。但是,我們更要注意的是一旦人工智能算法出現偏見問題,那么就會形成廣泛的影響。因此,在算法中去除社會共識和法律規范偏見的工作任重而道遠。
2.5 人身安全風險
人工智能機器對任務的理解可能存在偏差,這將導致人工智能機器根據錯誤的理解來完成任務。比如,我們設置人工智能機器的任務是讓主人微笑,其可能通過饒癢癢的方式來實現。當人工智能機器將在特定環境中學習到的行動策略應用到新環境中時,可能會產生安全風險。又比如,機器人將成人牛奶給嬰兒喝等生活問題。人工智能技術還可以用來開發武器。霍金在2015年,就公開表示擔心人工智能技術遲早會強大到無意中殺死人類的地步。[4]
2.6 權利風險
從某種意義而言,人工智能擁有一定的思考能力以及學習能力,因此如果我們僅僅將人工智能看作工具或許有失偏頗。作為未來社會將與我們朝夕相伴的智能人,人工智能在一定程度上也需要獲得相關法律法規的保護,在法律上給予人工智能道德地位以及相應的權利,并嚴格禁止隨意處置、虐待與遺棄人工智能機器人的行為存在,使人工智能在未來社會的權益受到合理的保障。[5]
2.7 媒介風險
人工智能在給新聞媒介便利的同時,媒介風險也日益突出。比如,大型商業公司以商業利益為宗旨,其研究和開發的人工智能媒介易受公司營利的自然傾向。此外,像微軟、谷歌、阿里巴巴、百度等成熟的公司都有自己獨特的價值追求和企業文化,有意識或無意識地影響著基于人工智能的媒介發展。比如,谷歌的媒介算法偏向“新聞價值”的核心地位,而臉書的媒介算法偏向“家庭和朋友”的核心關系,有著明顯的社交風格。[6]
2.8 “奇點”風險
幾年前,美國未來學家庫茲韋爾根據其所提出的加速回報定理提出了著名的“奇點理論”。也正是在這個理論中他提出了一個預測——純人類文明將終止于2045年。或許我們會覺得這是無稽之談,但庫茲韋爾卻提出科技的發展迅速,甚至會導致“失控效應”。[7]但這也意味著人類的智慧將逐漸衰退,隨著科技的發展,人類只需要在網上搜索就能獲得知識,從而失去了深入探索知識的能力與自主性,人類對機器的依賴程度越來越高,而人工智能奇點卻足以讓機器人完全獨立自主地進行升級,因此人工智能在未來或許將擁有改變人類文明的能力。這也意味著我們必須時刻關注人工智能的發展情況,防止奇點的失控,從而影響人類與人工智能之間的關系混亂,斷絕人工智能奴役甚至消滅人類的可能性。綜上所述,對于在未來如何適應和引導人類與人工智能共存已經成了值得我們著重研究的問題。
3 人工智能倫理風險的應對措施
3.1 健全規范的法律法規
之所以人工智能會引發這么多的倫理風險,一切的根源都在于目前社會與政府對人工智能的法律法規的空缺。“沒有規矩,不成方圓”,政府應該制定相關的法律法規來規范人工智能的應用。積極承擔人工智能倫理法律法規的責任,引導和推動人工智能走上理性科學的正確軌道。文中提到的八大倫理風險造成的人工智能的負面社會影響,時刻提醒我們需要開發更完善,符合新時代的法律法規,具體到人工智能的作品界定、責任和限制使用做出更詳細明確的闡釋,同時可以根據相關法律查處違法行為。[8]
3.2 加強倫理制度建設
對于人工智能引發的倫理問題,倫理制度的建設是不可或缺的,將人工智能研究與倫理制度建設相結合是解決人工智能倫理問題的有效途徑。倫理制度建設至少應包括設計倫理和應用規范倫理。設計倫理應確保人工智能產品的安全性,應用倫理則強調人工智能應用過程中的安全性[9]。當人工智能沒有道德主體時,人工智能的使用者就是一種道德主體。因此,有必要為人工智能用戶制定合理的倫理制度規范。尤其應該禁止人工智能被用于可能對人類和整個社會造成危害的領域。此外,人工智能用戶還應注重自身倫理責任感的培養,將倫理制度規范內化為自己的主體信念和責任意識。
3.3 人與人工智能的和諧發展
隨著人工智能的不斷發展,人本身與人工智能的關系已經越發密切,已經逐漸成了相互融合的發展模式,也正是因為這種模式的存在,對我們人類自古以來所堅持的倫理產生了巨大的挑戰。人工智能與人類相互融合代表著我們產生了新的和諧人機關系,但不論人類智能與人類融合的何其緊密,我們在對待人工智能技術時都必須始終堅持以人為本的原則,時刻牢記人工智能只是一種工具,歸其根本還是用來推動人自身的全面發展的工具。因此我們應該樹立正確的科學觀和發展觀,利用合適的渠道普及人工智能知識,讓公眾正確認識人工智能,意識到人工智能技術只是計算機科學的分支的同時也要明確在我們使用人工智能技術的時候必須把握分寸,盡管目前人工智能技術發展尚存在于模仿人類行為的階段上,但我們必須理智對待人工智能,防止自身被人工智能所束縛和控制,時刻保持我們作為人類的自主性和尊嚴。作為科研人員而言,在研究過程中應該適當增加倫理關懷和人文精神。作為我們普通人,我們在面對關于人工智能的危險言論時,切記不要盲目跟風,綜合考慮各類因素之后做出準確的判斷。
3.4 加強監管與持續性改進
人工智能引發的一些倫理問題與該領域的監管松懈或空白密切相關。人工智能的價值就是為人類服務,因此人類在使用過程中必然會意識到人工智能所存在的問題與潛在風險。通過消費者的反饋,人工智能才能得以快速的完善與發展。同時通過科學家和倫理學家的專業知識進行人工智能現存問題的分析也是人工智能發展和監督的重要推力,以專業角度理智看待人工智能,從而推測出人工智能發展趨勢,提出有利于人工智能可持續發展的改進措施。
4 結論
人工智能已被提升到國家戰略層面。人工智能的迅猛發展需要從法律法規、倫理制度、人與人工智能的關系、監管等方面進行規制。只有這樣,才能在可控范圍內降低人工智能倫理的風險,才能更好地為人類服務。
參考文獻:
[1] 馬治國,徐濟寬.人工智能發展的潛在風險及法律防控監管[J].北京工業大學學報(社會科學版),2018,18(06):65-71.
[2] 周程,和鴻鵬.人工智能帶來的倫理與社會挑戰[J].人民論壇,2018(2):26-28.
[3] 陳偉光,袁靜.人工智能全球治理:基于治理主體、結構和機制的分析[J].國際觀察,2018(4):23-37.
[4] 張立文.和合倫理道德論——中華傳統道德精髓與人工智能[J].社會科學戰線,2018(8):34-48+281.
[5] 劉憲權.人工智能時代機器人行為道德倫理與刑法規制[J].比較法研究,2018(4):40-54.
[6] 趙瑜.人工智能時代的新聞倫理:行動與治理[J].人民論壇·學術前沿,2018(24):6-15.
[7] 雷·庫茲韋爾.奇點臨近 [M].北京:機械工業出版社,2011
[8] 劉茂錦.人工智能用于新聞業的法律、倫理問題及對策[J].青年記者,2018(6):96-97.
[9] 王軍.人工智能的倫理問題:挑戰與應對[J].倫理學研究,2018(4):79-83.
【通聯編輯:梁書】