亞歷山大·弗里德曼(Alexander Friedman)
人們普遍認為,人類將會受到人工智能發展的威脅,其具體表現可能是《終結者》里的惡意機器人。然而,當進入千禧年的第三個十年時,我們正在迅速研發實打實的讀心術,而沒有任何關于如何控制這種技術的規則。
進化沒有使我們得以讀懂他人的心思,因為這種力量可能使我們這一物種走向滅絕。隨著我們的遠古祖先們開始群體生活以獲庇護,我們大多數人學會哪些話可以說,而哪些話則不能。它構成了我們現在所謂的情商的核心部分。
然而,科技現在開始從根本上威脅這種必要的進化適應。
第一階段已經發生在社交媒體上。俄羅斯人操縱Facebook影響2016年美國總統大選,便體現了這一趨勢。而Twitter則使用戶快速記錄一閃而過的想法或情感,然后可能與數百萬人分享,從而放大了這一趨勢。想象一下朝鮮領導人如何努力地嘗試去理解特朗普總統關于核武器“火與怒”的推文。這是來自新晉且不穩定的美國領導人的真正威脅,還是一時的沖動和一閃而過的念頭,所以應該最好被忽略?早在雙極格局的超級大國時代,就產生了標志性的美蘇熱線電話,以澄清雙方的意圖,以免由于一些誤解而使世界消失于核蘑菇云下。
今天,在我們更加復雜的多極化和非對稱威脅驅動的世界中,社交媒體為所有愿意使用一個巨型且未經校訂的擴音器的人們提供了便利。社交媒體已成為意圖破壞民主者的工具。但是,與我們現在面臨的情況相比,這只是兒戲而已。
從初創企業到跨國企業集團,最近都宣布了令人震驚的創新技術,使人們能夠讀懂心靈。馬斯克的公司Neuralink正在尋求對植入用戶大腦以讀取其思想的設備進行人體試驗的批準。日產汽車開發了“從腦到車”的技術,使汽車能夠從駕駛員的腦海中讀取指令。Facebook已經資助了使用腦電波來解碼語音的科學家。科學期刊《自然》上的一篇最新論文,解釋了人工智能如何通過分析大腦信號來創建語音。哥倫比亞大學的研究人員,開發了可以分析大腦活動以確定用戶想要什么,并通過合成器表達這些愿望的技術。
顯然,這些進步可以帶來真正的好處,包括幫助癱瘓或神經系統疾病的患者。早期的神經假體,例如幫助聾人恢復聽覺的人工耳蝸,或有望使盲人重見光明的裝置等,已經投入使用。
但是,潛在的應用有著暗黑的一面,例如使廣告商能夠微調其產品以滿足個人的潛意識,或者使雇主監視他們的工人,或者使警察能夠大規模監視公民可能的犯罪意圖。一個早期的警告是,最近曝出阿聯酋政府一直在使用社交媒體應用程序ToTok監視用戶。如果讀心術設備被黑客入侵,會發生什么?很難想象有比人腦更重要的“數據隱私”領域。
馬斯克認為,大腦接口對于人類跟上人工智能必不可少。這使我們回到了菲利普·迪克的科幻恐怖故事《少數派報告》(2002年電影由此改編)。如果警察可以通過閱讀腦波來“評估”一個人的意圖,那么他或她在犯罪發生之前就制止犯罪,將面臨何等棘手的道德、法律和社會秩序問題?
技術創新的主要挑戰是,它通常需要社會花費很長時間來跟上,了解如何使用新技術,并提供適當的法律和法規框架來規范其行為。
在本世紀的第二個十年中,社交媒體從一種工具轉變為具有傳播謊言和操縱選舉能力的平臺。社會正在努力解決如何利用這項創新的優勢,同時減輕其被濫用的可能性。也許,在我們甚至還沒有弄清楚這一點之前,千禧年的第三個十年將使我們面臨更為嚴峻的技術挑戰。
本文由Project Syndicate授權《南風窗》獨家刊發中文版。亞歷山大·弗里德曼是瑞銀(UBS)的首席投資官、比爾和梅琳達·蓋茨基金會的首席財務官。