李榮
人工智能是一個熱詞,已經對許多行業產生了明顯的影響,尤其是那些依賴大量體力勞動的行業。隨著人工智能技術日趨成熟,企業繼續加大對其投資,一些人擔心,人們對這項技術更廣泛的社會和道德影響未給予足夠的關注。美國全國廣播公司因此專門邀請了專家,對此進行討論,探索他們認為最駭人的五種人工智能發展前景。
一、全球性失業
分析人員和工人普遍擔心人工智能的廣泛應用將造成全球性失業,因為工作越來越自動化不再需要大量人工勞動力。英國愛丁堡大學信息學院教授Alan Bundy表示,“失業可能是人們最大的擔憂。人們需要精心策劃一系列非常有針對性的應用程序,并找出這些程序無法處理的邊緣案例,但這并不能取代預期的大規模失業,至少在很長一段時間內都不會。”
人工智能的支持者說,這項技術將創造新的就業機會。新技術的復雜性需要合適的人才來開發,因此對工程師的需求將會增加。他們還表示,為了在日常工作中發揮新的作用,人類也必須使用人工智能。
高德納咨詢公司預測,到2020年人工智能將創造230萬個工作崗位,同時減少180萬個崗位,凈增加50萬個崗位。但這并不能否認人工智能造成全球大規模裁員的可能性。
2013年,英國牛津大學一項研究指出,一些最可能被替代的工作包括經濟業務人員、銀行出納員、保險承銷商以及稅務籌劃員,這些工作雖然技術性不強但很關鍵,能維持金融行業的運轉。
盡管可以通過提高技能和創造新的工作崗位,甚至可能引入一種普遍的基本收入來最大限度地減少人工智能對勞動力市場的損害,但很明顯失業問題不會很快解決。
二、戰爭
隨著“殺手機器人”的出現以及人工智能在軍事領域中的運用,專家擔憂,這項技術可能最終會導致戰爭。特斯拉CEO埃隆馬斯克因其對人工智能直言不諱的觀點而聞名,2017年他警告人工智能可能會導致第三次世界大戰。
雖然馬斯克以夸張言論著稱,但他的評論卻傳達了專家們的真實恐懼。一些分析人員和活動家認為,致命自主武器的研發和人工智能在軍事決策中的使用造成了大量的倫理困境,增加了爆發以人工智能為主導的戰爭的可能性。
甚至還有一些非政府組織致力于禁用此類機器。2013年成立的“禁止殺人機器人”團體呼吁政府阻止人工智能驅動的無人機和其他工具的研發。2018年年初,美國國防智庫蘭德公司在一項研究中警告說,在軍事領域中應用人工智能可能會在2040年引發一場核戰爭。
阿姆斯特丹自由大學人工智能研究院Frank van Harmelen表示,“我認為‘駭人這個詞唯一能使用的領域是自主武器系統,那些看起來像機器人,也可能不像機器人的系統。任何自動決定生死的電腦系統,不管是人工智能還是非人工智能(例如發射導彈)都是非常可怕的想法。”這種大膽預測背后的真相是,如果軍事人工智能系統在分析形勢時出錯,會導致各國做出魯莽的甚至是災難性的決策。
三、機器人醫生
雖然專家們大多同意人工智能在醫學領域的應用益處良多,例如盡早診斷疾病,加快整體醫療體驗,但一些醫生和學者擔心,我們可能會過快地朝著數據驅動的醫療實踐方向發展。學者們還擔心,人們對人工智能的期望過高,認為它可以形成人類的智力,從而解決各種各樣的任務。
愛丁堡大學的Bundy表示,“到目前為止,所有的人工智能應用都非常成功,但應用范圍很窄。”Bundy還表示,這些期望可能會給醫療保健等行業帶來可怕的后果。近期,一份引用了IBM內部文件的健康刊物發布了一份報告。該報告顯示,IBM旗下的沃森超級電腦已經提了許多“不安全且不正確的”癌癥治療建議,但該軟件還是被訓練成只處理假設場景下的少量病例。
另一個令人擔憂的問題是,計算機占用和共享的數據,以及使用這些數據實現應用程序自動化的數據驅動算法可能會侵犯患者隱私。事實證明,數據的存儲以及分享是令人擔憂的。以“深度思考”(DeepMind)為例,2015年,這家谷歌旗下的人工智能公司與英國國家醫療服務體系簽署了一項協議,獲得了160萬英國患者的健康數據。該協議意味著患者將他們的數據交給了公司,以提高其項目檢測疾病的能力。這也催生了一款名為Streams的應用程序,該程序旨在檢測腎病患者,并在患者病情惡化時提醒醫生。
然而2017年,英國隱私監督部門信息專員辦公室裁定,NHS和DeepMind之間的協議違背了數據保護法。ICO表示,作為協議的一部分,倫敦皇家自由醫院在使用患者數據的方式上缺乏透明度。
四、歧視
有些讀者可能還會記得Tay,一款由微軟開發的人工智能聊天機器人,它在兩年前引起了轟動。
這個機器人有一個推特賬號,一些用戶用了不到一天時間訓練它發表攻擊性的推特,來支持阿道夫希特勒和白人至上的觀念。這個錯誤迫使微軟注銷了該賬號,這一事件也引發了激烈的討論,即人工智能有存在歧視的可能性。
Walsh表示,歧視是科技帶來的一系列“意想不到的后果”之一。他說:“我們在計算程序中看到了意想不到的偏見,尤其是機器學習,這種偏見有可能導致種族、性別歧視,在過去的50多年里,我們一直試圖將這些偏見從我們的社會中消除。”
專家表示,這個問題涉及到把人工智能變成一個客觀、理性的思考者,不偏袒某一特定種族、性別。這是研究人員和開發人員一直在認真考慮的問題。
IBM甚至有研究人員致力于解決人工智能領域的歧視問題。2018年早些時候,IBM表示將發布兩個數據集,包含不同膚色的面部和其他面部特征,以減少人工智能面部識別系統的偏見。