理查德·沃特斯
確保人工智能在不會帶來一些意想不到的后果的情況下造福人類,是很困難的。人類社會無法界定自身想要什么,因此通過編程讓機器為最多數量的人謀求最大幸福是存在問題的。
科技行業正準備迎接人工智能帶來的震撼世界的影響。如今人們意識到,從教育、就業,到如何收集人們的數據,人工智能將擾亂社會運轉的方式。
機器學習是一種高級形態的模式識別,能夠讓機器通過分析大量數據來做出判斷。這有望大大輔助人類思維。但這種與日俱增的能力引發了近乎“科學怪人”(Frankenstein)式的擔憂:開發人員能否控制他們創造出的機器?
加州大學伯克利分校計算機科學教授、人工智能專家斯圖亞特?拉塞爾表示,自動系統的失誤(就像去年駕駛一輛特斯拉汽車,部分自動駕駛汽車的美國駕車者死亡那樣)促使人們關注安全。他表示:“這種事件可能會嚴重阻礙行業的發展,因此這里有著非常直接的經濟自身利益?!?/p>
除了移民和全球化,對人工智能驅動的自動化的擔憂,正引發公眾對于不平等和就業安全的擔憂。唐納德?特朗普當選美國總統以及英國投票退出歐盟在一定程度上就是受到這類擔憂的推動。盡管一些政治人士聲稱,保護主義政策將有利于勞動者,但很多行業專家表示,多數就業損失是由科技變革(主要是自動化)造成的。
英國《金融時報》與高通聯合開展的Essential Future調查發現,全球精英(那些收入和受教育程度高、生活在首都城市的人)對于創新要比普通大眾熱情得多。除非彌合這種差距,否則它將繼續引發政治摩擦。
美國企業家、撰寫道德和科技文章的學者維微克?瓦德瓦認為,新的自動化浪潮具有地緣政治上的潛在影響:“科技公司必須對他們所創造出的東西承擔責任,并與用戶和政策制定者合作,緩解風險和負面影響。他們必須讓員工花時間思考哪里可能出錯,就像他們花時間宣傳產品那樣?!?/p>
人工智能行業正在準備應對反彈。人工智能和機器人領域的進步,已經把自動化引入白領工作領域,例如法律文書和分析財務數據。麥肯錫的一項研究稱,在美國員工的工作時間中,大約有45%用在可以借助現有技術實現自動化的任務上。
為了確保人工智能有利于人類,已經建立了一些行業和學術計劃。其中包括由IBM等公司創建的人工智能造福人類和社會合作組織,以及涉及哈佛大學和麻省理工學院的一項2700萬美元計劃。得到埃???馬斯克和谷歌支持的OpenAI等組織已取得進展,拉塞爾教授表示:“我們看到了一些論文,它們針對安全性的技術問題?!?/p>
這方面有一些過去應對新技術影響努力的回聲。微軟首席執行官薩蒂亞?納德拉將其與15年前相比,當時比爾?蓋茨動員公司的開發人員抗擊電腦惡意程序。他發起的“可信計算”倡議是一個分水嶺。納德拉在接受英國《金融時報》采訪時表示,他希望采取類似的舉措以確保人工智能造福于人類。
然而,人工智能帶來了一些棘手的問題。機器學習系統從大量數據中得出見解。
微軟高管埃里克?霍維茨去年底在美國參議院聽證會上表示,這些數據集可能本身就存在問題。他表示:“我們的很多數據集是在假設我們可能并不深入理解的情況下收集的,我們不希望讓我們的機器學習應用放大文化偏見?!?/p>
新聞機構ProPublica去年進行的一項調查發現,美國司法機構用來確定刑事被告人是否有可能再次犯罪的算法存在種族偏見。再次犯罪風險較低的黑人被告比白人被告更容易被標記為高風險。
提高透明度是一條出路,比如明確人工智能系統使用了哪些信息。但深度學習系統的“思維過程”不容易加以審查。霍維茨表示,人類很難理解這種系統?!拔覀冃枰斫馊绾巫C明(它們的)決策合理,以及這種思考是如何完成的。”
隨著人工智能影響更多政府和企業決策,影響將是廣泛的?!拔覀內绾未_保我們‘培訓的機器不會固化和放大困擾社會的人類偏見?”麻省理工學院媒體實驗室主任伊藤穰一問道。
納德拉等高管認為,答案將是結合政府監督(言外之意,這包括對算法的監管)和行業行動。他計劃在微軟成立一個道德委員會,以處理人工智能帶來的任何棘手問題。
他說:“我希望有一個道德委員會,它會這樣說,‘如果我們要在任何作出預測、可能具有實際社會影響的場合使用人工智能,那么它不帶有內置的一些偏見?!?/p>
確保人工智能在不會帶來一些意想不到的后果的情況下造福人類,是很困難的。拉塞爾教授說,人類社會無法界定自身想要什么,因此通過編程讓機器為最多數量的人謀求最大幸福是存在問題的。
這就是人工智能所謂的“控制問題”:智能機器將一心追逐武斷的目標,甚至當這些目標并不可取的時候也是如此。“機器必須考慮到人類真正想要的東西具有不確定性,”拉塞爾教授說。
然而,道德委員會無法平息人們對人工智能奪走工作的擔憂。在今年的達沃斯世界經濟論壇上,對反彈的擔憂很明顯,高管們對于如何采用人工智能并作出解釋十分焦慮。普遍的回應是,聲稱機器在可能取代一些工作的同時,也將讓許多工作更能帶來成就感。
對科技公司和它們的客戶而言,生產率提高帶來的利益可能是巨大的。如何分配這些利益將成為有關人工智能的辯論的一部分。“每當有人削減了成本,那就意味著有望創造出一些盈余,”納德拉說,“你總可以對盈余課稅,你總可以確保以不同的方式分配這些盈余。”
(本文來自英國《金融時報》)