本刊記者/管浩
AI的人格化仍是人賦予的,并不是所謂的“自我意識”。
近日,關于“谷歌研究員稱人工智能(AI)已具備人格”的話題引發了大家對人工智能行業熱議。
事情起因是一名谷歌的工程師聲稱,他正在研究的計算機聊天機器人已經變得有知覺,并且能像人類一樣思考和推理。在其公開的聊天記錄中,LaMDA竟然說出了“我希望每個人都明白,我是一個人”的言論,這引發了人工智能領域的熱烈討論。
針對LaMDA是否真正具有意識的疑問,業界給出的結論是:這只是這名程序員的個人觀點,不代表業界看法。同時,谷歌也對這名程序員作出了“行政帶薪放假”的決定。
在去年I/O開發者大會上,谷歌發布了聊天機器人LaMDA的突破性對話技術,稱這款機器人LaMDA接受過大量對話的培訓,可以自由地和人類進行對話,內容不受限制,話題沒有窮盡,并且可以在開放式的對話中區分細微的差別,在互動中鼓勵展開多輪對話。
因此,像LaMDA等這樣的人工智能系統之所以具備如此強大的功能,其背后離不開預訓練大模型技術的賦能。
初始階段,人工智能的模型都是小模型,訓練需要從0開始,但后面的任務可以直接利用前面任務訓練好的模型和數據作為基礎。隨著預訓練大模型技術的不斷豐富,隱藏于人工智能系統背后的模型,無論參數量還是體系結構也越來越復雜和龐大,甚至已經超過了人腦神經元的數量。
但許多基于人類大腦的邏輯判斷,包含了道德和情感的成分,而非簡單的直接判斷。并且,無論是深度學習還是卷積神經網絡,這些AI基礎性算法的核心本質,仍然是在模擬人類大腦的決策過程。
同時,專家也認為,對已經公開的文本和模式識別的模仿以及再創造,使LaMDA更加逼真,但不是所謂的“自我意識”。
目前人們所感受到的AI的“自我意識”,其實更多的還是人賦予AI的,而不是AI自己所特有的。谷歌的“插曲”至少能說明LaMDA的對話能力確實越來越強、越來越“人格化”了,但不能說明它就已經具有意識。
聊天機器人最初的設計是為人類服務的,為用戶提供對話式服務。隨著技術的發展,機器人變得“越來越會聊天”,它開始像一個人在思考,而且有一定的思考深度和高度,但也正是由于這種“思考”,讓人類開始對他們感到擔心,擔心未來有一天AI會不會做出傷害人了的事情。
問題的出現和技術的發展總是相伴而生的。人類可以通過數據訓練出各種貌似有“人格”的聊天機器人,也是技術越來越強大的表現,而只要現實世界中有AI的技術進步,人們就將繼續探索關于機器人的道德難題及其對人類的影響。
事實上,人工智能一直是在這樣一種糾結的狀態下向前發展,我們只有不斷地在前進道路上進行摸索,在法律與技術等層面進行規范,才可能得出人工智能對于人類最合理的一種存在方式。
