摘 要:ChatGPT在工程上創新性地整合了大數據、大模型和大算力,按照“共生則關聯”的原理,挖掘出自然語言中單詞和單詞共生概率知識,輔以人類反饋信息,以機器智能實現了統計關聯下的語言快速合成。ChatGPT推動人工智能由識人辨物和預測決策等技術賦能向內容合成這一新領域躍升,即人工智能內容合成(Artificial intelligence generated content, AIGC)。AIGC會塑造內容生產的新范式,成為智能數字交往的有力手段,并悄然引發一種文明范式的轉型。ChatGPT進行內容合成的計算機理及其所引發的倫理道德潛在風險,將使人機協同下可信內容合成更具有價值。
關鍵詞:內容合成;自注意力機制;潛在風險;人機協同
中圖分類號:G206文獻標識碼:A文章編號:2096-8418(2023)04-0024-08
一、 人造智能:清晰描述后計算模擬
1955年8月,時任達特茅斯學院數學系助理教授、1971年度圖靈獎獲得者麥卡錫(John McCarthy),時任哈佛大學數學系和神經學系青年研究員、1969年度圖靈獎獲得者明斯基(Marvin Lee Minsky),時任貝爾實驗室數學家、信息論之父香農(Claude Shannon),時任IBM信息研究主管、IBM第一代通用計算機701主設計師羅切斯特(Nathaniel Rochester)四位學者向美國洛克菲勒基金會遞交了一份題為“關于舉辦達特茅斯人工智能夏季研討會的提議(a proposal for the Dartmouth summer research project on artificial intelligence)”的建議書,希望洛克菲勒基金會資助擬于1956年夏天在達特茅斯學院舉辦的人工智能研討會,研究“讓機器能像人那樣認知、思考和學習,即用計算機模擬人的智能”的研究。[1]
在這份建議書中,“人工智能(artificial intelligence)”這一術語被首次使用。該建議書對能夠實現“人工智能或人造智能”的原因進行了如下描述:學習的每個方面或智能的大多數特性原則上都可以被精確描述,從而用機器來模擬。
大多數學科都有必須遵守的最基本的命題或假設,這些命題或假設不能被省略和被違反,即學科發展的第一性原理。比如,牛頓經典力學中“引力和慣性”以及達爾文進化論中“物競天擇、適者生存”都是需要遵守的第一性原理。在人工智能研究中,對智能行為過程的精確描述或許可以作為類似于第一性原理需要遵守的原則,也就是說以機器為載體來展示人類智能或生物智能,需要對智能行為發生過程予以清晰描述,從而通過程序設計語言被機器按序執行。
這份建議書同時詳細列舉了7個在達特茅斯會議中需要重點討論的問題,它們分別如下:自動計算機、計算機編程、神經網絡、計算的復雜度、智能算法的自我學習與提高、智能算法抽象能力、智能算法隨機性與創造力。
人工智能登上人類歷史舞臺后,研究者們圍繞智能行為的模擬進行了諸多研究,形成了如下多種人工智能方法[2][3][4]:以符號主義為核心的邏輯推理、以問題求解為核心的探尋搜索、以數據驅動為核心的機器學習、以行為主義為核心的強化學習、以博弈對抗為核心的群體智能(兩人及以上)。符號主義人工智能將概念(如命題等)符號化,從若干判斷(前提)出發得到新判斷(結論);問題求解的探尋搜索依據已有信息來尋找滿足約束條件的待求解問題的答案;數據驅動的機器學習方法則是從數據出發,從數據中發現數據所承載語義(如概念)的內在模式,利用學習得到的內在模式完成識別和分類等任務;行為主義為核心的強化學習根據環境所提供的獎罰反饋來學習所處狀態可施加的最佳行動,在“探索(未知空間)—利用(已有經驗)(exploration vs. exploitation)”之間尋找平衡,完成某個序列化任務,具備自我學習能力;博弈對抗則推動機器學習從“數據擬合”優化解的求取向“均衡解”的求取邁進。
1965年,諾貝爾物理學獎獲得者費曼(Richard Feynman)曾經說過:“不可造者, 未能知也(What I cannot create, I do not understand)。”透過今天計算機外在之形了解其計算之內稟,更能感嘆計算之偉大、計算之局限!
二、內容計算合成機理
近年來,人工智能領域出現了若干科技創新現象級產品,如耳熟能詳的AlphaGo、AlphaFold和ChatGPT,這些現象級產品表現出較強的內容合成能力(即“無中生有”)。AlphaGo根據當前落子局勢,從已有落子的學習中合成一個策略,以更好應對當前落子。AlphaFold從蛋白質的基因序列和其三維空間結構的配對數據中進行學習后,按照給定的基因序列輸入,合成一個刻畫生命功能的蛋白質三維結構。ChatGPT這一復雜的神經網絡大模型,按照“共生則關聯”挖掘所得單詞之間共生概率,實現統計意義下的語言合成。
ChatGPT的成功并非一蹴而就,而是源自于以深度學習為代表的人工智能技術的長期積累。其核心在于谷歌公司于2017年將自注意力(self-attention)機制引入所構造的Transformer神經網絡結構,這一結構可更高效挖掘句子或篇章中單詞與其上下文單詞之間因共生概率而形成的關聯關系。[5]
為了訓練Transformer,OpenAI主要采取了三種方法。首先,采取一種被稱為“完形填空”的訓練方法。給定任意一個自然語言句子,從中“移除”一個單詞,然后讓模型根據剩下單詞所形成的上下文來預測最合適的“填空詞”,以便完成填空任務。這一“完形填空”過程在人工智能領域被稱為“自監督學習(self-supervised learning)”。自監督學習在人工智能中具有重要作用。圖靈獎獲得者楊樂昆(Yann LeCun)曾表示,自監督學習讓人工智能推理更像人類,因為人類和動物是通過自監督模式獲得新知識,具備學會了學習(learning to learn)的能力。
其次,為了讓ChatGPT完成聊天問答任務,在訓練得到Transformer的基礎上,OpenAI研究者提出了一種“提示學習”(prompt)方法來讓Transformer具備“聊力”。在提示學習中,研究者設計“提示樣例”教人工智能模型學習更流暢合成語言。提示樣例可形象理解為“知識模板”,讓ChatGPT從中掌握各種“閑聊”固有套路。比較有意思的是,目前出現了一種編寫“提示案例”的工程師工作崗位(prompt engineer),被一些媒體稱為人工智能的私語者(AI whisperer),OpenAI 創始人之一山姆·阿爾特曼(Sam Altman)說:“這一職業需要強技能的水平。”
最后,為了進一步提高模型合成語言性能,ChatGPT還引入了人類反饋中強化學習(Reinforcement Learning from Human Feedback,RLHF)的技術,將人類反饋作為一種監督信息輸入給模型,對模型參數微調,提高語言模型回答的真實性和流暢性。
還要說明的是,微軟公司將其收購的開源及私有軟件項目托管平臺GitHub中數十億行源代碼開放給OpenAI,用來訓練ChatGPT的邏輯,使得ChatGPT從程序代碼中學習到思維鏈(chain of thought),因此ChatGPT所合成的語言中鮮見前后矛盾的語句。
ChatGPT是大數據、大模型和大算力的工程性創新整合,體現了“數據是燃料、模型是引擎、算力是加速器”的深度學習特色:
* 大數據:ChatGPT的訓練使用了45TB的數據、近1萬億個單詞(大概是1351萬本牛津詞典所包含的單詞數量),同時包括數十億行源代碼。
* 大模型:ChatGPT的前身GPT-3模型參數高達1750億。如果將這些模型參數全部打印在A4紙張上,一張一張疊放后,其高度將超過上海中心大廈632米的高度。
* 大算力:訓練ChatGPT所耗費的算力大概是3640 PetaFLOP/s-days,即用每秒能夠運算1000萬億次的算力對模型進行訓練,需要3640天完成。
在熱烈討論ChatGPT時,不由讓人想起另外一個人工智能現象級產品AlphaGo在2016年以4∶1擊敗李世石的場景。雖然AlphaGo在迎戰李世石之前,已經幾乎“閱覽完畢”人類選手所有圍棋比賽的棋局,且每天通過自我對弈來“華山論劍”(AlphaGo每天可完成200萬次的自我對弈),但李世石在其戰勝AlphaGo的唯一對局中落下了人類選手幾乎不可能落子的一招,這一落子是AlphaGo之前從未見過的,使AlphaGo無法從容應對而落敗。
可見,“數據有多大,智能就有多強”是計算獨大模式下人工智能算法不可避免的局限性。一旦數據無法覆蓋某些場景,則人工智能算法就會在這些場景中失效。這是因為算法無法理解數據背后所承載的機理、缺乏一種“靈氣”。
三、計算優勢:試錯與暴力
博弈對抗是檢驗人工智能能力大小的標桿。1997年5月,國際象棋冠軍卡斯帕羅夫和IBM公司的“深藍 (Deep Blue)”計算機程序展開了一輪令全球矚目的人機大戰。結果,深藍計算機發揮出色,以2勝3平1負的總比分戰勝了卡斯帕羅夫, 成為首個在標準比賽時限內擊敗國際象棋世界冠軍的電腦系統,這是人工智能領域一個里程碑事件。
在象棋比賽中,深藍需要判斷某一時刻棋局落子會對整個棋局勝負帶來怎樣的影響。即基于已知規則,深藍要從當前棋局出發,盡可能向前搜索更多可能的未來棋局,以便掌握更多信息來對當前落子的優劣進行判斷。由于可選棋局眾多,盡管深藍平均每秒能夠對1億個棋局進行判斷評估,還是無法在規定時間內計算得到當前棋局對勝負的潛在影響。1950年,香農(Claud Shannon)發表了一篇有關國際象棋編程的論文。在這篇論文中,香農估算國際象棋比賽中落子選擇從第一次移動時的20種會增加到第二次移動時的400種,在第六次移動時可能的落子選擇達到1.19億種。香農通過估算,認為國際象棋的落子總數為10的120次方種,遠遠超出了10的82次方這一宇宙原子總數。這就是國際象棋中“組合爆炸”難題。
為了從海量可能落子中選擇一種合適落子,以克服組合爆炸挑戰,深藍采用了由1971年圖靈獎獲得者約翰·麥卡錫 ( John McCarthy )發明的“阿爾法-貝塔(Alpha-Beta)”剪枝搜索算法。簡單來說,該算法主動“剪掉”對勝敗不產生任何影響的棋局,從而減少搜索空間以提高搜索效率,解決了組合爆炸難題。可以看到,搜索是很重要的一種人工智能答案求解方法。“你見,或者不見,我就在那里,不悲不喜”,解決某個問題的答案就在那里,需要運用搜索之術來獲得。
實際上,計算機在其誕生之初,就展示了其突破組合爆炸問題的優勢。二戰期間,德國研制出了密碼機,能將明文自動轉換為密碼(密文),再通過無線電或電話線路傳送出去,這就是有名的恩尼格瑪機(enigma machine)。每一次U型潛艇深海的奔襲及每一次殘酷的進攻都由恩尼格瑪機加密傳輸和解密閱讀。這些通信信號即使被截獲,也就是一堆毫無意義的亂碼。恩尼格瑪密碼機是一種電子系統和機械系統的組合,看上去像一臺很復雜的打字機,由按鍵、轉子、插接板和導線連接。恩尼格瑪機將“每加密一個字母就更換一次密碼表并且永不重復”的信息加密追求發揮到了極致。據估計,恩尼格碼的密鑰總數是1590萬萬億種。更為困難的是,德軍是每天更換1次密鑰,也就是說要在24小時內驗證1590萬萬億種密鑰的可能性,這幾乎是難以想象的困難。
英國科學家、計算機理論模型之父圖靈(Alan Twring)在二戰期間深信“機器創造出來的密碼怪獸,只有用機器才能戰勝”,提出密碼破譯的過程可用機械方法自動處理。1940年初,在波蘭數學家和密碼學家馬里安·雷耶夫斯基(Marian Adam Rejewski)通過暴力搜索方法機械式驗證恩尼格瑪機所有轉子組合思路的基礎上,圖靈研究通過概率學原理來推斷不同密鑰組合的可能性,優先運算出可能性最高的組合,研制成功了被稱為“炸彈(Bombe)”或“圖靈炸彈(Turing Bombe)”的計算機,極大加快了二戰結束的進程。
作為另外一種人工智能現象級產品AlphaGo,其在戰勝李世石之前已自我對弈了千萬次比賽。通過試錯(trial amp; error)與暴力(brute force)窮盡遍覽圍棋落子布局,對模型參數不斷進行調整。據估計,李世石一生僅能參加數千場比賽。人類智能以“經一蹶者長一智”模式,從有限嘗試中學習經驗,人類智能和機器智能在智能優化方面存在巨大差距。
與上述人工智能模型類似,ChatGPT以完形填空預測、提示樣例調教和人類相關反饋對齊等機制來訓練調優參數,是計算機在優化人工智能模型時試錯與暴力的一種體現。
四、內容計算合成的潛在風險
產生式算法推動人工智能由識人辨物和預測決策等向內容合成躍升,使得人工智能能夠被普通用戶使用。但由于這一技術架構在數據驅動為模式下的深度學習基礎上,存在著解釋性差、失真而失信、難以由果溯因等不足,從而帶來潛在的應用風險。筆者將分別介紹這些風險產生的技術原因以及人工智能的倫理風險。
(一)模型解釋性差
在物理學過去的發展歷史中,還原論(reductionism)的觀點一直是物理學工作者進行研究的最基本的指導原則,其將一切復雜系統中出現的各種現象都歸結為最基本組成單元以及單元之間相互作用的基本規律,或者說將復雜現象還原為簡單構成,然后再從簡單重建復雜。譬如,氣體、液體和固體都被分解為分子或原子,原子又被分解為原子核和電子,原子核被分解為質子和中子,質子和中子又被分解為夸克。但是,以還原論為基礎來研究和討論復雜系統的合作現象時,卻遇到了前所未有的挑戰。1977年諾貝爾物理學獎獲得者安德森在美國《科學》雜志發表了 “More is different”文章中深刻討論了物理世界中所具有的涌現這一現象[6]:還原論假說從來都不意味著建構論(constructionist)假說,將所有事物還原為簡單的基本定律的能力并不意味著從那些基本定律出發重建整個宇宙的能力。事實上,粒子物理學家告訴我們越多關于基本定律的本質,這些基本定律和其他學科的問題的關聯就越少,和社會問題的關聯也越少。在面對尺度(scale)和復雜性(complexity)的雙重孿生難題時,以還原論為基礎的建構論的假定完全崩潰了。
與之對應的是,我們對深度學習研究中所提出的MCP神經元、感知機模型、深度神經網絡、自注意力機制等,均可通過相應數學模型來刻畫。但一旦將這些基本單元或基本機制組合成龐大復雜的ChatGPT,其體現了難以解釋的涌現能力(emergence),即:模型參數較少時(如十億、百億等),ChatGPT無法表現其應有能力;而一旦模型參數增加到千億級別時,模型能力瞬間涌現和提升。機器學習模型具有涌現能力意味著重要的科學意義,因為如果涌現能力是永無盡頭的,那么只要模型足夠大,類人人工智能的出現就是必然。但是,研究表明,不存在明確表征可證明哪類任務最具涌現,并且ChatGPT在邏輯推理和因果推斷任務中的涌現能力最低。微軟公司因此把其稱為現象級產品(phenomenological)。[7]
(二)失真而失信
ChatGPT以“共生則關聯”為標準對模型進行訓練,會通過單詞和單詞之間的概率關聯產生非事實的合成結果(也有學者將其稱為人工智能幻覺,hallucination)。例如,ChatGPT一本正經地回答“林黛玉倒拔垂楊柳”這樣啼笑皆非的問題、捏造法學家性騷擾丑聞文章、發布澳洲某位官員因涉及澳大利亞儲備銀行子公司受賄案而入獄的虛假文章等,這些非事實結果產生的原因在于ChatGPT內容合成機理是“機械式共生匹配”。
1913年,法國科學家埃米爾·波雷爾(Emile Borel)發表了《靜態力學與不可逆性》( La mécanique statique et l’irréversibilité )論文,[8]闡釋了“無窮”概念:讓我們想象一下,假設猴子經過訓練學會了隨意按下打字機的按鈕,現在讓猴子們在一位文盲領班監督下工作。如果無限多猴子在無限多打字機上隨機亂敲,并持續無限久時間,那么在某個時候,將會有只猴子打出莎士比亞全部著作。這被稱為“無限猴子定理”。“無限猴子定理”試圖說明“隨機+無限=一切皆可能”。一旦在單詞之間建立了概率關聯,很顯然從“無窮”角度而言,ChatGPT可以合成任意的內容。但是,這一通過隨機概率將語言序列拼接在一起的合成模式也被若干學者稱為隨機鸚鵡(stochastic parrot)。
據估計,全球高質量文本數據的總存量在5萬億token左右(一個token可理解為單詞或符號等基本單元),這包括了世界上所有的書籍、科學論文、新聞文章、百科、公開代碼以及網絡上經過篩選的達標數據(如網頁、博客和社交媒體)。按照目前ChatGPT消耗數據的速度,人工智能算法可能在一個數量級內,耗盡世界上所有有用的語言訓練數據供應,而不得不使用ChatGPT合成的語言來訓練ChatGPT。這將是一個多么令人魔幻的時刻!
可見,“數據有多大、智能就有多強”是計算獨大模式下人工智能算法不可避免的局限性。一旦數據無法覆蓋某些場景,則人工智能算法就會在這些場景中失效。這是因為算法無法理解數據背后所承載的機理,“數據獨大、機理式微”這一計算模式缺乏“智慧之靈氣”。
(三)由果溯因弱
哲學上把現象與現象之間那種“引起和被引起”的關系,叫做因果關系,其中引起某種現象產生的現象叫做原因,被某種現象引起的現象叫做結果,如“力,形之所以奮也”。因果分析和推斷是一種重要的獲取知識的手段,是人類智能的關鍵組成。回答諸如“吸煙是否導致癌癥”和“某個廣告發布是否導致了某個商品銷量上漲”等問題時,往往需要因果推理的能力。
1973年,美國科學院院士、加州大學伯克利分校統計系教授彼得·畢克(Peter Bickel)在美國《科學》上雜志發表了一篇有趣論文來討論“伯克利分校錄取新生時性別歧視”的困惑。[9]在文章中,彼得教授對申請1973年秋季入學的12763名學生進行了統計,發現有8442個男生申請者和4321個女生申請者。在統計了當年度所錄取學生中男生和女生人數后,發現當年度男生錄取率為44%,遠高于女生錄取率35%。因此,從這個數據可以得出“伯克利分校當年在男生和女生錄取中性別歧視昭然若揭”這一結論,也就是女生更難被錄取。
然而,如果單獨統計每個院系的錄取情況,就會發現,對于每個院系而言,男生錄取率和女生錄取率相差無幾,甚至對伯克利六個最大院系分別統計男生和女生錄取率,竟然有四個院系女生錄取率大于男生錄取率。
也就是說,將所有新生按照院系分組后,統計得到男生和女生的錄取率,與不按照院系分組統計男生和女生的錄取率結果正好相反。這就是著名的辛普森悖論(Simpson’s paradox)。辛普森悖論反映了總體數據集上成立的某種關系卻在分組數據集合中“反其道而行之”這一怪異現象。彼得教授認為,在伯克利男生和女生錄取率這個案例中,產生悖論原因在于女生更愿意申請那些競爭壓力更大的院系(比如英語系),而男生更愿意申請那些相對容易進的院系(比如工程學系)。在分析伯克利分校錄取率時,不應該只看到男生和女生這個性別因素,還應該知曉“專業選擇”這一因素會對新生錄取產生作用。
辛普森悖論的重要性在于告訴如下道理:很多時候我們看到的數據并非反映現象全貌的數據,如果忽略產生數據的“潛在變量”,可能會改變已有結論,而我們常常卻一無所知。比如伯克利招生錄取中專業選擇就是一個潛在變量。從觀測結果中尋找引發結果的原因,“知其然且知其所以然”,由果溯因,就是因果推理。
“橫看成嶺側成峰”,通過機械匹配來挖掘單詞之間概率關聯的語言大模型,顯然會因為忽略了單詞所組成句子和篇章的內部隱性規律(如主題等),將會帶來錯誤之虞。
(四)倫理風險
“倫理”一詞來源于希臘語的“道德”(character,性格)一詞和拉丁語的“風俗(customs)”一詞。這兩個單詞結合在一起,刻畫了個體之間如何互動,用來描述人和人之間言行的道德與準則。“倫”表示人際各種關系,“理”則說明人際關系是有條有理。有原則有標準的倫理學就是對道德、道德問題及道德判斷所作的哲學思考。倫理學是哲學的一個課題,是對道德、道德問題和道德判斷所做的哲學思考。
倫理一詞在中國最早見于《禮記·樂記》中“樂者,通倫理者也”。在中國語境中,對“倫”的詮釋主要有三重含義:其一,“倫”者從“人”從“侖”,許慎《說文解字》訓“倫”為“輩也”,講“倫”起碼要兩人以上,“倫”即指人與人之間的輩分次第關系,單個人無所謂“倫”。其二,“倫”通“樂”,如《禮記·樂記》曰“樂者,通倫理者也”,強調音樂與倫理、美與善的相通性,或者說“樂”是通倫理的最佳方式,倫理以愉悅與和諧為要。其三,“倫”同“類”,如鄭玄注“倫理”曰:“倫,類也,理之分也”,強調“倫”的本質是一種“類”的“分”。可見,“倫”在中國文明中就是一種關系,一種規則,一種秩序。
科學技術作為人類理性實踐的結晶,對人類社會發展產生越來越深刻的影響,其產生和發展始終伴隨著倫理觀念、社會文化的演變。近代科學技術是伴隨著理性精神、人文精神的興起和傳播而崛起的,通過發現和應用新知識為人類謀幸福是近代科學興起的原動力之一。科技以前所未有的程度滲透進人類社會,甚至對政治、文化等產生深刻影響。當科學技術的探索與應用符合倫理規范,被引導至向善、負責任的方向,會更好地促進社會發展和人類福祉提升。倘若科學技術探索和應用打破了倫理底線,則可能給社會造成巨大危害。
傳統的科技發展往往采取一種所謂的“技術先行或占先行動徑路(proactionary approach )”模式,以發展技術為優先原則,體現出一種強大的工具理性,即“通過縝密的邏輯思維和精細的科學計算來實現效率或效用的最大化”。這種對技術效用單一維度的追求導致了科技異化現象,技術發展逐漸時而偏離“善”的方向,進而引發了一系列倫理風險。為確保科技發展的正當性與合理方向,在科學的社會建構思潮影響下,科技倫理應運而生。
科技倫理是科技活動需要遵循的價值理念和行為規范。人類已進入科技和信息時代,相較于傳統工業時期以安全性為表征的技術風險,關涉人類福祉、公正等核心價值的倫理風險正成為當代科技發展引發的主要消極后果。
隨著物聯網、移動終端、互聯網、傳感器網、車聯網、穿戴設備等的流行,計算與感知已經遍布世界,與人類密切相伴。網絡不但遍布世界,更史無前例地連接著個體和群體,開始快速反映與聚集他們的意見、需求、創意、知識和能力。世界已從“物理世界—人類社會”二元空間結構(Physics world-Human Society)演變為“信息空間—物理世界—人類社會”三元空間結構CPH(Cyber Space- Physics world- Human Society)。在CPH三元空間中,帶來的倫理學討論不再只是人與人之間的關系,也不是人與自然界既定事實之間的關系,而是人類與自己所發明一種產品在社會中所構成的關聯。因此,對于科技本身,需要既考慮其技術屬性、又考慮其社會屬性,形成人機共融所形成社會形態應遵守道德準則和法律法規。
一般而言,社會意識在很多時候落后于社會存在,如歷史上有名的“紅旗法案(Red flag traffic laws)”。19 世紀,汽車剛被發明出來時,被大眾認為是一種怪物,不少人憂心忡忡地認為汽車會給人類社會帶來重重危險。為此,1865年,英國議會專門通過了一部被稱為“紅旗法案”的《機動車法案》。這個法案規定:每一輛在道路上行駛的機動車,必須由3 個人駕駛,其中一人必須在車前面50米以外做引導,同時這個人還要用紅旗不斷搖動為機動車開道(提示人們危險將近),并且汽車速度每小時不能超過6.4公里。紅旗法案的結果是把汽車當馬車用,使得汽車工業發展幾乎處于停滯狀態,在人類汽車發展史上留下了令人深思的一頁。
這種對技術進步所帶來的負面感覺被稱為“技術恐懼”(technophobia),好比19世紀末20世紀初,在擁有電力設施的家庭里工作的女傭十分擔心電力設施會如同蒸汽鍋爐或煤氣廠一樣在房屋內突然爆炸。
2023年3月底,美國生命未來研究所(Future of Life Institute)公布一封公開信,呼吁所有AI實驗室立即暫停訓練比GPT-4更強大的AI系統至少6個月。這一公開信提出了如下四個令人深刻思考的問題:是否應該讓機器用宣傳和謊言充斥我們的信息渠道?是否應該自動化所有工作?是否應該發展最終可能超過并取代我們的非人類思維?是否應該冒險失去對文明的控制?
在這些問題中,機器通過機械匹配所合成的非事實內容已經出現,另外三個問題離我們還很久遠。從長遠來看,應該肯定這封公開信所作出的思考,但不應對這封信斷章取義。
如何看待一項新技術的發展,這是做技術預測時必須要有的一項認知準備。遺憾的是,我們人類總是習慣于線性思維(這符合人類自然的認知模式:節省能量與快速計算),但這種認知配置很容易出現認知偏差。其中最常見的認知偏差是對于技術近期與遠期影響的判斷出現不對稱性,這個關系被美國科學家羅伊·阿瑪拉(Roy Amara)發現,并形成了所謂的阿瑪拉法則(Amara’s Law)。所謂的阿瑪拉法則是指:短期內我們傾向于高估技術的影響,長期內我們低估技術的影響。
五、人機協同創新
人類進入信息時代以來,先后通過鍵盤(文字輸入)和鼠標(圖形界面)與信息交互,ChatGPT這一模型基座的出現使得人們可用自然語言與信息世界交互。人工智能這一能力第一次在聊天、虛擬助理、語言翻譯和內容生成等方面助力每一個普通用戶,成為像水和電一樣的通用資源。
隨著ChatGPT與不同領域App結合,整合不同領域的實時數據,如旅行軟件、購物軟件、支付軟件、在線訂餐平臺等,這樣ChatGPT就演變為xGPT。未來人們不必再自己去下載和使用各種App和網站,互聯網的統一入口將由不同xGPT開啟。每個人都可通過自然語言連接所需互聯網信息,極大改變了生活、生產和工作的生態。
美國數學家、哲學家諾伯特·維納(Norbert Wiener)在1950年出版了一本極具洞察力和先見之明的著作《人有人的用處:控制論與社會》,目的就是希望人類在技術世界的環繞中更有尊嚴、更有人性,而不是相反。未來將是人和人工智能共同進化的時代,人和人造物之間將如影隨形、協作共進、相得益彰。機器是人類創造出來的,人類的作用就是在人和機器共處的社會中,不斷用知識強化優化機器。我們需要用進化的觀點去看待這個過程,最大限度發展種種可能性,而不是陷入“人機相斗”和“人機相害”的臆想中。
不論怎樣,人類始終是人工智能高度、廣度和深度的總開關和決定者。因此,我們一方面要警惕將人工智能等同于人類大腦的不切實際之舉和“人工智能奴役人類”等杞人憂天之思,另一方面要善于利用人工智能這一幫手,在人機協同中進行更好的內容創造,創造更加美好的未來。
當前人工智能中知識引導方法長于推理(但其難以拓展)、數據驅動模型善于預測識別(但其過程難以理解)、策略學習手段能對未知空間進行探索(但其依賴于搜索策略),大模型提供了一種群智交互機制,可望建立人在回路的機器學習框架,最終充分協調數據驅動下歸納知識指導中演繹及行為探索內頓悟等不同學習手段和方法。
以ChatGPT為代表的復雜神經網絡大模型這類新型人造物的出現,將給人類社會諸多生產、生活模式帶來一次大變革。但這也為另外更多的奇妙“多樣性”打開了一扇窗戶,因為“人有人的作用” [10]。
參考文獻:
[1] McCarthy, J., Minsky, M. L., Rochester, N. amp; Shannon, C.E. A proposal for the dartmouth summer research project on artificial intelligence, Retrieved March 12, 2023, from https://doi.org/10.1609/aimag.v27i4.1904.
[2] Jordan, M. amp; Mitchell, T. (2015). Machine learning: Trends, perspectives, and prospects.Science, 349(6245):255-260.
[3] Yann, L., Yoshua, B. amp; Geoffrey, H. (2015). Deep learning. Nature, 521(7553):436–444.
[4] Pan, Y. (2016). Heading toward artificial intelligence 2.0. Engineering, 2(4): 409- 413.
[5] Ashish, V., Noam, S., Niki, P., Jakob, U., Llion, J., Aidan, N. G.,ukasz, K. amp; Illia, P. (2017). Attention is all you need. Proceedings of the 31st International Conference on Neural Information Processing Systems. Red Hook, NY, USA: Curran Associates Inc, 6000-6010.
[6] Anderson, P.W. (1973). More is different. Science,177(4047):393-396.
[7] Sébastien, B., Varun, C., Ronen, E., Johannes, G., Eric, H., Ece, K., Peter, L., Yin, T.L., Yuanzhi, L., Scott, L., Harsha, N., Hamid, P., Marco, T. R. amp; Yi, Z. (2023). Sparks of Artificial General Intelligence: Early experiments with GPT-4. Retrieved March 12, 2023, from https://doi.org/10.48550/arXiv.2303.12712.
[8] mile, B. (1913). La mécanique statique et l'irréversibilité. Journal de Physique Théorique et Appliquée,3(1):189-196.
[9 ]Peter, J., Bickel, E. A. H. amp; O’Connell, J. W. (1975). Sex bias in graduate admissions: Data from Berkeley. Science,187(4175):398-404.
[10] 吳飛.走進人工智能[M].北京:高等教育出版社,2022:167-175.
[責任編輯:高辛凡]