曉毅

人工智能研究公司OpenAI聯合創始人兼首席執行官薩姆·奧爾特曼(Sam Altman)近日在美國麻省理工學院“想象力行動”活動上談及大語言模型(編者注:大語言模型是指使用大量文本數據訓練的深度學習模型,可生成自然語言文本或理解語言文本的含義,處理多種如文本分類、問答、對話等自然語言任務)的發展趨勢和安全問題。
奧爾特曼認為,如今我們正在接近大語言模型規模的極限,規模越大并不一定意味著模型越好,有時候可能只是為了追求數字。大語言模型的規模不再是衡量質量的重要指標,未來將有更多的方式來提升模型的能力和效用。OpenAI的目標,是為世界提供最有能力、最有用、最安全的模型,而不是為了參數數量而自我陶醉。
此外,奧爾特曼還在活動上對此前一封要求OpenAI 暫停開發人工智能產品的公開信做出了回應,他同意能力越強大,安全標準也必須越高的前提,并透露OpenAI在發布GPT-4之前花費了6個月以上的時間研究安全問題,并邀請外部審計機構測試現有模型。他總結道,“我同意,隨著產品的能力越來越強,安全標準必須提高,我們在研發GPT-4的基礎上也對各種安全問題采取了非常謹慎的態度,但我認為公開信中提及的暫停研發并非解決安全問題的最佳方法。”