張田勘
國際學術期刊《自然》雜志預計,位于美國舊金山的人工智能(AI)技術公司OpenAI將于2024年年底發布支撐聊天機器人的下一代AI模型GPT-5。與其前身GPT-4相比,GPT-5會擁有更多、更先進的功能。此外,GPT-4的競爭對手Gemini(另一個生成式AI工具,也是大語言模型)和其他AI工具也會推出新的版本。
《自然》雜志還預測,美國谷歌公司旗下的深度思維(DeepMind)人工智能公司將在2024年發布AI工具阿爾法折疊(AlphaFold)的新版本。此前,阿爾法折疊已經預測了高精度的蛋白質三維模型。新版本的阿爾法折疊將以原子級精度模擬蛋白質、核酸和其他分子之間的相互作用,將為藥物設計和發現開辟新的可能性。
從這些預測可以看出,人類對AI的快速迭代既驚喜又擔憂。我們驚喜于AI必然會改變人類的生活,并可能把人類文明推向新的高度;同時,令人們擔憂的是,AI可能會脫離人類的監控,給人類社會帶來意想不到的災難。
AI的發展有兩大主線:一是人類需要主動掌控AI,首先應制定關于AI的法律,并為AI的應用立下倫理準則;二是研發新的沒有爭議或爭議性小的AI工具,如診治疾病的AI工具,從而贏得社會的廣泛接受和支持。
對AI的掌控首先體現在為其“定規則、立法則”。可以預料,2024年很多國家會推出比較全面的AI政策和法規。但是,這也可能是一個比較長的過程。
歐盟三大機構—歐洲議會、歐盟成員國和歐盟委員會已于2023年12月8日就《人工智能法案》達成協議。這一法案將成為全球首部AI領域的全面監管法規。然而,圍繞歐盟《人工智能法案》的簽署和實施,還有漫長的路要走。
2023年10月30日,美國總統拜登簽署了美國首份關于AI的行政命令。美國參議院多數黨領袖舒默希望在幾個月內準備好AI立法。
歐美對AI的立法聚焦于推動技術突破,吸引全球投資,同時保護民眾不受AI“野蠻生長”的影響。中國也發布了《生成式人工智能服務管理辦法(征求意見稿)》和《互聯網信息服務深度合成管理規定》等法規,以規范AI技術的發展和應用。
根據現實情況,人類主動監管和掌控AI可能需要較長的時間,也需要全球的合作,以制定趨于一致的AI標準和法規,從而有效地監管AI。目前,聯合國已經表態,聯合國AI高級別咨詢機構將于2024年年中公布最終報告,為AI的國際監管制定指導方針。
對AI的主動掌控還體現在另一個維度,即對AI的發展和使用需要有前瞻性的思考。2023年11月,OpenAI公司上演的“權力的游戲”就體現了研究人員對人工智能發展方向的思考和擔憂。
2023年11月18日,OpenAI公司官網突然宣布,創始人兼CEO山姆·奧特曼辭職,公司首席技術官米拉·穆拉蒂擔任臨時CEO。但是,11月22日,被“踢出群”的奧特曼又回歸OpenAI公司,繼續擔任CEO。據說,此次“內斗”的起因是公司的幾位研究人員向董事會發出一封信,稱一款強大的AI模型Q*可能威脅人類。Q*模型能夠解決某些數學問題,這一能力意味著AI將擁有類似于人類智能的推理能力。
一些OpenAI公司的AI專家擔憂,先進的AI模型在商業化后可能會被濫用,奧特曼卻并未采納這些AI專家的意見。因此,這些“擔憂者”要求解除OpenAI首席執行官奧特曼的職務。奧特曼曾公開表示:“在OpenAI的歷史上已經有四次了,最近一次是在過去幾周,當我們揭開無知的面紗并向前推進發現的前沿時,我已經在房間里了,能夠做到這一點是一生的職業榮譽。”
對于AI產品的態度,奧特曼與ChatGPT的創造者伊利亞·蘇茨克維之間存在分歧。蘇茨克維對ChatGPT和其他AI產品的態度是比較保守的。他認為,如果人類無法有效控制生成式AI工具,它們有可能造成巨大風險和災難。因此,蘇茨克維正通過OpenAI的 “超級對齊”項目專注于控制AI系統。他認為,OpenAI和其他AI公司應將其代碼和訓練數據保密,從長遠來看,封閉系統將避免居心叵測者制造出強大的AI,這是負責任的做法,“到了某個時候,AI的能力將變得如此巨大,以至于開源模型顯然是不負責任的”。
顯然,不同的理念會影響AI的發展和應用,誰的理念更適合社會的發展,需要時間和實踐來檢驗。從科技發展的歷史規律看,一些具有顛覆性的創新產品通常是在使用過程中出現了問題,才引發關注,立法機關才會制定法律法規對其進行監管。幸運的是,人類已經預感到AI可能會出現問題,甚至有可能發展為“人類成為AI的奴仆”,因而,世界各主要國家、國際組織正在積極協商,希望在AI制造出大麻煩之前為AI的發展和應用立法。
不過,加快研發新的AI工具,即工具性AI可能產生的爭議較少,也會被人們廣泛接受。工具性AI只是按照人類的設計完成某一特定任務,并不生成新的產品或作品,可以算作AI的初級產品。因此,這類工具性AI將會有突飛猛進的發展。
現在,深度思維公司已經研發了最新的工具性AI—GNOME,該程序使用現有文獻進行機器學習,發現了超過220萬個化合物的穩定結構。美國加利福尼亞大學伯克利分校團隊研發了一種自動實驗室系統(A-Lab),可對擬定化合物創造最多5個初始合成配方。這一工具性AI還可以用機器臂進行實驗,經過17天的連續工作,A-Lab完成了355次實驗,生成了58個擬定化合物中的41個。如果將這項任務交給人類研究員,則需要花費數月進行推測和實驗。
這兩個AI系統表明,AI不僅可以自動研發新材料,而且可以操作實驗,相對于生成式大語言模型,人們對這樣的工具性AI并無太多爭議。因此,工具性AI未來的應用前景極為廣闊。
【責任編輯】張小萌