摘 要:在人工智能廣泛運用于社會之際,從人權倫理的角度重新審視人工智能技術所帶來的社會影響以及探討人權倫理在人工智能發展中所起到的作用十分重要。
關鍵詞:人工智能;社會影響;人權倫理
現代弱人工智能的能力在一系列的活動中被認為已經取代了人類專家,并在不久的將來,人工智能會在各個領域不斷超越人類。直到最近,人類控制技術的能力仍是毋庸置疑的,但現在的趨勢傾向于權力差距的縮小,從而導致這種權力關系的逆轉。雖然這些影響目前只能在人類活動的有限領域內看到,但值得注意的是,弱人工智能的影響正在加深,其范圍正在擴大。因而,如何審視人權與人工智能技術之間的關系,如何理解人工智能技術給人權帶來的沖擊和影響,如何明確人權倫理規則在人工智能研究中的指導意義,這都是人類必須面對且亟須解決的問題。
1 人工智能與人權倫理的內在聯系
1.1 人權倫理對人工智能所產生的作用
迄今為止,人工智能引發了許多關于人與機器之間相互作用的討論,比如人工智能的社會影響以及人工智能在人類生活中起到的作用等。人權倫理幫助那些研究和開發人工智能的技術人員和企業劃定界限。例如,谷歌、微軟和DeepMind等主要人工智能企業已經制定了倫理原則,用以指導他們進一步開展人工智能活動。
人權倫理因為其具有普遍性,也更符合道德規范,它規定了問責制和糾正措施。這樣,人權倫理和人工智能可以相互依存。例如,一家公司可以制定合乎道德的人工智能原則,比如避免加深負面的社會偏見,確保其系統對人類的監督負責。然后,隱私權和不受歧視權等可以進一步界定這些倫理原則,如果違反這些原則,國際人權組織可以規定補救辦法。此外,如果人工智能的使用被認為是不道德的,那么它很可能也違反了人權,而國際人權制度中規定的原則和程序可以用來打擊這種不符合人權倫理的人工智能的使用。
1.2 人工智能對人權倫理的影響與批判
每一項重大技術的創新都有可能促進或損害社會的發展。人工智能的數據處理和分析能力有助于緩解世界上一些最緊迫的問題,比如,加快人們疾病診斷和治療的進展等。然而,這些人工智能的“有益”應用也可能造成潛在的負面影響。例如,人工智能在醫療保健中的許多應用對隱私構成了嚴重威脅。而隨著科技的發展,人工智能系統以及機器人的功能越來越多,在廣泛運用于社會各個領域的同時,它們對人權倫理造成的影響也值得人們深思。
重點需要注意的是,人工智能的應用會對工作權和適當生活水準權造成巨大的影響。一方面,人工智能在工作自動化中的大量應用可能會給傳統手工業者造成一定的威脅,導致了大量的工人因此而失業,使他們難以養活自己和家人。但人工智能的發展也催生了很多新的就業崗位,比如快遞、外賣的配送,電商客服以及專車司機等,人們可以通過更換職業類型來實現再就業。另一方面,工作自動化實際上提高了人們的生活水準,原本許多勞動強度大的工作崗位可以由人工智能系統替代,不僅提高了工作效率,改善了生活方式與工作環境,還大大降低了人力成本,減少了勞動時間,解放了人們的“雙手”,使更多的人從體力勞動轉向腦力勞動,從而更好地發揮自己的作用,并留出更多的閑暇時間享受生活。正如1966年聯合國大會通過的《經濟、社會和文化權利國際公約》中第11條規定:“本公約締約各國承認人人有權為他自己和家庭獲得相當生活水準,包括足夠的食物、衣著和住房,并能不斷改進生活條件。”[1]工作自動化在一定程度上保證了人們適當的生活水準權,并滿足了人民日益增長的美好生活需要。
2 解決與人工智能相關的人權倫理危害的路徑與方法
現在就采取應對人權風險的行動,不僅有助于防范人工智能可預見的有害影響,還為我們無法預測的問題提供了空間和框架。
2.1 從政府層面來看,應制定全面的人權倫理法律,并準備好各種有效的應對措施
第一,立法以減輕人工智能對人權倫理的負面影響,做到有法可依,有章可循。法律是國家維護各項事業和人們權利的必要保障,全面的人權倫理法律可以預見和降低人工智能帶來的人權風險,該法律應該同時適用于政府和企業。目前,雖然針對人工智能的立法進程相對緩慢,但全球各國都有關于人工智能的立法需求,盡快填補人工智能領域的空白。如果人工智能系統的開發人員在設計智能產品的時候都不考慮其倫理合法性,那么開發人員及其設計出的產品免不了會遭受負面后果。全面的人權倫理法不僅提供了減輕損害的問責機制,還降低了人工智能技術損害他人或整個社會的概率。
第二,政府應提前準備好與人工智能相關的有效措施,使人工智能技術對人權倫理的不利影響最小化。在自由民主的政府系統中,政府的人工智能系統往往隱含著與政治過程必然相關的價值判斷。因此,建議公共部門在使用人工智能方面提高標準。各國根據國際法負有促進、保護、尊重和履行人權的首要責任,無論是在設計還是在使用人工智能系統時,都不得從事或支持侵犯人權的行為,對于日后是否應該賦予強人工智能機器人“人權”,一定要有“度”的把握。
2.2 從企業和科學家的層面來看,應制定嚴格的道德政策并實行問責制
第一,企業和科學家應該秉承著“以人為本”的發展理念,堅持公共利益優先的原則。開發或者使用人工智能的企業和科學家有責任尊重和維護人權倫理,而不僅僅只是因為受國家義務的約束。為了履行其職責,企業領導人、科研負責人必須采取措施,制定嚴格的道德政策,增強開發人員的道德責任感,不能為了某些人的利益而損害公共福祉或者破壞生態環境,確保人工智能的開發和使用不會造成或助長侵犯人權倫理的行為。
第二,在設計之初最好將人類社會的道德倫理觀念輸入人工智能程序中。科學家可以將哲學和程序語言同時融入人工智能的系統里,這樣可以使機器人形成好的價值觀、世界觀,像善的方向進化,降低機器人的使用風險,滿足人類的正當需求,從而更好地為人類服務。
第三,進一步加強對人權影響的評估并嚴格把控倫理審查的過程。企業或科學家應保持其使用人工智能時的透明度和可解釋性,確定對人權可能產生的不利后果,評估人工智能系統可能導致或促成侵犯人權的風險,在識別、預防和減輕人工智能系統的危害方面,要做到透明公開,為人工智能系統的運作建立適當的內部問責機制和補救機制,不能謊報、瞞報,欺騙政府和消費者,要長期處于政府以及企業部門的監管下,采取有效措施預防和減輕危害,并隨著時間的推移跟蹤風險,切實維護好消費者的使用權和知情權,有效預防和減少人工智能對人類的侵權行為。另外,并不是所有人工智能的使用都具有同等的人權損害風險,預防和應對侵犯人權行為所需的行動應取決于具體情況。
參考文獻:
[1] 張軍蓮,龔志民,李時華.論農民工的適當生活水準權——以完善我國社會保障制度為視角[J].前沿,2006(03):169-172.
[2] 黃兵明,郭慧峰,趙良,薛金明.人工智能在通信網絡故障溯源的應用研究 [J].郵電設計技術,2018(12):35-40.
[3] 馬克思,恩格斯.馬克思恩格斯選集(第1卷)[M].人民出版社,2012.
[4] 焦鏡竹.人工智能技術應用發展中的人權倫理問題研究[D].延邊大學,2017.
[5] 馮德浩.關于人工智能的哲學思考[J].大連干部學刊,2019(05):22-25.
作者簡介:陳雯(1994—),女,江西吉安人,上海理工大學馬克思主義學院碩士研究生,研究方向:馬克思主義基本原理。