尹傳紅
是否應該發展最終可能超過并取代我們的非人類思維?是否應該冒險失去對文明的控制?
開春以來,與人工智能(AI)相關的幾大新聞事件幾乎同時發生,引發了多個層面的憂思和倫理議題。
這當中,最令人咋舌的,要數足以亂真的美國前總統特朗普被捕照片在互聯網上瘋傳,真實信息和虛假信息之間的界限變得越發模糊;更因大量轉發后往往缺失“由AI生成”這一關鍵背景信息,不能不令人產生疑慮:虛構AI圖像這類事情極易被別有用心之人利用,成為發動虛假信息戰的武器,而不僅僅是對新聞真實的破壞性或會不會給攝影師帶來職業危機這些問題了。
與之多有關聯的是文本生成視頻的誕生:紐約一位軟件架構師在電腦上輸入了一段簡短的文字,描述他想看到的視頻內容:“森林中一條寧靜的河流”。不到兩分鐘后,一個實驗性互聯網程序就生成了一段短視頻:流動的河水在陽光下閃閃發光,它穿過森林和蕨草叢,拐了一個彎,輕輕地撞擊著巖石。
這一逼真的場景,實則也預示了諸科技巨頭競相開發AI新系統之未來,并且同樣令人喜憂參半:新的視頻生成系統可以加速電影制片人和其他數字藝術家的工作,也會成為一種快速制造難以察覺的網絡虛假信息的新方式,讓人更難辨別互聯網上的真實信息,甚而使得“深度偽造技術目前所帶來的問題可能會變得更為嚴重”。
恰恰就在這一波熱鬧中,“出事”了。3月底,當世界各地數以百萬計的人登錄ChatGPT(聊天生成預訓練轉換器),用它來創作歌曲、修改電腦代碼或是在家庭作業中作弊時,網站因龐大的用戶訪問量導致崩潰。有些登錄者遇到了一件怪事:系統中的一個漏洞把一些用戶的個人詳細信息隨機發送給了其他用戶,釀成了一起嚴重的數據泄露事件。意大利負責監管數據的機構指責開發ChatGPT的開放人工智能研究中心(OpenAI)未能遵守用戶數據保護法規,遂于3月31日宣布將禁止在其境內使用ChatGPT,成為第一個對利用人工智能的聊天機器人采取行動的西方國家。
盡管有人批評意大利對ChatGPT的“條件反射式”禁令有些草率,不愿承擔風險,也憂心此舉給創新帶來阻礙,并提醒政府應理智地評估怎樣才能利用ChatGPT這樣的技術來做有益的事情,但ChatGPT確實在更大范圍內引發了關切。已有人初步歸攏了它可能帶來的九大風險:不準確的信息、隱私問題、生成“釣魚”郵件、帶偏見的內容、取代工作、剽竊、創建惡意軟件、過度依賴、內容局限性。
似乎,又一個潘多拉魔盒被打開了!用一位人工智能研究先驅的話說:“社會還沒有準備好”接受這種性能強大的工具及其可能的濫用。前不久,特斯拉首席執行官埃隆·馬斯克、蘋果聯合創始人史蒂夫·沃茲尼亞克以及其他1000多人簽署了一封公開信,要求在AI技術變得日益強大之際,為其設置安全護欄,并暫停訓練更先進的AI模型。“只有在我們確信它們的影響是積極的、風險是可控的情況下才應該開發”。他們還發出了這樣的疑問:是否應該發展最終可能超過并取代我們的非人類思維?是否應該冒險失去對文明的控制?
一場深刻的社會、經濟與政治變化,已在潛伏之中。