科研問題(Research Issues)
1)研究目標:人工智能研究的目標,應該是創造有益(于人類)而不是不受(人類)控制的智能。
2)研究經費:投資人工智能應該有部分經費用于研究如何確保有益地使用人工智能,包括計算機科學、經濟學、法律、倫理以及社會研究中的棘手問題,比如:
● 如何使未來的人工智能系統高度健全(“魯棒性”),讓系統按我們的要求運行,而不會發生故障或遭黑客入侵。
● 如何通過自動化提升我們的繁榮程度,同時維持人類的資源和意志。
● 如何改進法制體系使其更公平和高效,能夠跟得上人工智能的發展速度,并且能夠控制人工智能帶來的風險。
● 人工智能應該歸屬于什么樣的價值體系?它該具有何種法律和倫理地位?
3)科學與政策的聯系:在人工智能研究者和政策制定者之間應該有建設性的、有益的交流。
4)科研文化:在人工智能研究者和開發者中應該培養一種合作、信任與透明的人文文化。
5)避免競爭:人工智能系統開發團隊之間應該積極合作,以避免安全標準上的有機可乘。
倫理與價值(Ethics and values)
6)安全性:人工智能系統在它們的整個運行過程中應該是安全和可靠的,而且其可應用性和可行性應當接受驗證。
7)故障透明性:如果一個人工智能系統造成了損害,那么造成損害的原因要能被確定。
8)司法透明性:任何自動系統參與的司法判決都應提供令人滿意的司法解釋,以被相關領域的專家接受。
9)責任:高級人工智能系統的設計者和建造者,是人工智能使用、誤用和行為所產生的道德影響的參與者,有責任和機會去塑造那些道德影響。
10)價值歸屬:高度自主的人工智能系統的設計,應該確保它們的目標和行為在整個運行中與人類的價值觀相一致。
11)人類價值觀:人工智能系統應該被設計和操作,以使其與人類尊嚴、權力、自由和文化多樣性的理想相一致。
12)個人隱私:在給予人工智能系統以分析和使用數據的能力時,人們應該擁有權力去訪問、管理和控制他們產生的數據。
13)自由和隱私:人工智能在個人數據上的應用不能允許無理由地剝奪人們真實的或人們能感受到的自由。
14)分享利益:人工智能科技應該惠及和服務盡可能多的人。
15)共同繁榮:由人工智能創造的經濟繁榮應該被廣泛地分享,惠及全人類。
16)人類控制:人類應該選擇如何和是否讓人工智能系統去完成人類選擇的目標。
17)非顛覆:高級人工智能被授予的權力應該尊重和改進健康的社會所依賴的社會和公民秩序,而不是顛覆。
18)人工智能軍備競賽:致命的自動化武器的軍備競賽應該被避免。
更長期的議題(Longer-term Issues)
19)能力警惕:我們應該避免關于未來人工智能能力上限的過高假設,但這一點還沒有達成共識。
20)重要性:高級人工智能能夠代表地球生命歷史的一個深刻變化,人類應該有相應的關切和資源來進行計劃和管理。
21)風險:人工智能系統造成的風險,特別是災難性的或有關人類存亡的風險,必須有針對性地計劃和努力減輕其可預見的沖擊。
22)遞歸的自我提升:被設計成可以迅速提升質量和數量的方式進行遞歸自我升級或自我復制的人工智能系統,必須受制于嚴格的安全和控制標準。
23)公共利益:超級智能的開發是為了服務廣泛認可的倫理觀念,并且是為了全人類的利益而不是一個國家和組織的利益。