井婷婷 張浩 李方南
隨著人工智能技術的飛速發展,人類與機器的連接已經越來越緊密。我們留意下自己的生活以及工作的周邊,經常可以發現智能機器人的身影:靈活避障的掃地機器人,飯店里可上下電梯、準確把菜送到客人餐桌上的送餐機器人,打敗職業圍棋手的AlphaGo,甚至能夠看到通過腦機接口可以用意念準確書寫英文字母的病患……諸多現象說明,人機共生并不只是電影中的猜想,它已經實實在在地發生了。聊天機器人ChatGPT的橫空出世所呈現的全新的人機交互方式宣告著人機關系已經進化到了人機耦合的時代。
作為一種人工智能算法,ChatGPT隸屬于自然語言處理領域,在文本生成和對話系統方面,ChatGPT的能力非常強大。其可以通過學習大量的語言數據來自動生成高質量的文本,使得機器能夠像人類一樣“理解“語言,甚至可以產生非常類似人類的反應。通過這種技術,ChatGPT已經可以作為虛擬助手、客戶服務機器人等,為人類提供更自然友好的增強型互動交流體驗。
而在新聞傳播領域,ChatGPT也讓整個行業面臨巨大革新。過去幾年,機器人寫作、自動糾錯、傳感器新聞等運用了大量人工智能數據采集的優勢的報道方式已經大大提高了新聞創作的效率和質量,而融合VR、AR等前沿技術的新聞產品更是大大提升了用戶的新聞消費體驗。ChatGPT的出現,則進一步推進了新聞行業從內容到組織的系統性升級,引領了新聞行業向著更加智能化、個性化、人性化和社會化的方向發展。
雖然ChatGPT的優勢顯而易見,但其自身缺陷也十分明顯,如新聞倫理、版權歸屬等。此前人工智能領域一直存在但是沒能解決的問題,在新技術的刺激下,這些問題的解決顯得更為迫切。很多人一直質疑AI的原因,也是因為這些問題的解決過程,并不比新技術的開發簡單,所以業內也存在一種觀點:放棄AI,停止繼續開發ChatGPT。
當然,很多問題短時間內是沒辦法解決的,所以部分學者以及科學家們認為,人機共生是未來人類使用AI的最好方式。人機各有所長,互為補充。在工作當中,大量重復的工作都可以交給機器人去完成,而人類可以去完成更具價值的工作。
與人類相比,AI沒有感情,但這也意味著其“羈絆”會更少。同樣以內容創作的場景為例,人類需要學習,需要積淀,這也導致人類在信息的獲取以及輸出中,是有門檻和邊界的,但是AI沒有這些問題。在與人類的交互中,不管是信息獲取,還是創作效能,AI的優勢非常明顯。
優勢一:獲取信息的途徑更加多元。眾所周知,ChatGPT是具備自然語言處理(NLP)能力的聊天機器人,其可以通過自然語言處理技術與人交互,能智能回應人類提出的各種問題,并提供相關領域信息。而這些能力是因為ChatGPT擁有一個非常廣泛的知識庫,它的知識一部分來源自訓練數據,這些訓練數據包括大量的文本內容,如維基百科、書籍期刊、新聞報道、互聯網論壇等。
ChatGPT-3據稱訓練數據總大小超過了45TB,通過對這些文本數據進行分析,ChatGPT模型掌握了大量知識,包括事實、觀點、寫作風格等。而且其還可以從互聯網上收集最新的信息,進行整合,然后輸出。雖然每個人都有自己的知識體系,但是與ChatGPT的全能相比,相差甚遠,畢竟沒有一個人的知識庫可以大過維基百科、谷歌等。因此,現在ChatGPT已經成了一種新的獲取信息的方式,用戶可以通過與ChatGPT交互來獲得他們想要的信息。在這一過程中,就涉及ChatGPT的效能優勢。
優勢二:創作效能顯著提升。人類需要休息,需要飲食,但是ChatGPT只需要人類的反饋即可!從這一點上看,ChatGPT在輔助人類進行內容創作的效能優勢異常顯著。
在信息提供端,ChatGPT可以提供更為全面的資訊檢索服務。創作者可以使用ChatGPT搜索全球范圍內的互聯網資源和素材,以提高創作的深度和廣度。例如,創作者在撰寫一篇科技類文章時,可以使用ChatGPT搜索相關的學術論文和專家觀點等信息,使其寫作的內容更具深度,創作時長也會大大縮短。當然,必須要提到的是,因為ChatGPT具有多語言處理功能,所以其可以幫助不同國家和地區的創作者克服語言的障礙。雖然會有語言理解能力的水平差異,比如,在中文語境的使用過程中,ChatGPT被質疑水土不服,但是不可否認,其的確大大提升了人們理解他國語言的效率。
很多有經驗的內容創作者表示,只要你在創作之初,明確自己的寫作動機、目標受眾,以及喜好的文風等,ChatGPT就可以通過其智能算法,為創作者精準提供適合他們創作風格或話題的文本供創作者選擇。當然,在這個過程中,需要不斷地給予ChatGPT實時的建議和反饋,這樣ChatGPT才能更加理解“客戶”的訴求,最終呈現出創作者想要的內容。
總的來說,從人的角度看,以往需要三天時間才能創作完成的文章,對ChatGPT而言,可能只需要半天甚至10分鐘而已。創作效率直接呈現出“加速度”模式。
優勢三:打破“人”的創作邊界。如果說在速度層面的PK,可以靠著人的勤奮去彌補一部分差額,但是創作邊界這個問題,對人類來說,是無解的。作為一種大型語言模型,ChatGPT能夠對大量文本數據進行學習,從而可以生成高質量的文本,因此,其覆蓋的領域是多元的,可以應用于各行各業,如寫作、編輯、翻譯、客服、計算機、辦公自動化等領域。尤其是在自然語言處理領域中,ChatGPT已經實現了非常驚人的成果,打破了人們以往對于自然語言處理技術的認知。
然而,雖然ChatGPT的生成文本已經達到了非常高的質量水準,但其仍然需要人類進行監督和調整,以確保生成的文本符合文化、道德和法律的標準,同時保護信息的安全性和保密性,畢竟AI本身是沒有邊界意識的。總的來說,在ChatGPT的基礎上,可以將人類對語言的思維能力和創造力進行最大程度延伸和擴展,打破“人”的創作邊界,并且開創了一種全新的人機交互模式。所以業內有一種說法,將ChatGPT稱為“超級輔助者”。
盡管ChatGPT的價值顯而易見,但人們對其的擔憂之聲同樣不絕于耳。擔憂的主要觀點集中在其對于人類職業的取代性、內容的版權以及隱私等問題上,許多人因為人工智能的進化速度過快,而對人類的未來產生極為悲觀的情緒。以馬斯克為例,他曾和116名全球人工智能和機器人領域的專家聯合發表公開信。信中稱人工智能機器人為“殺手”,并表示了深切的擔憂,認為“一旦這個潘多拉的魔盒被打開,就很難再次關上”。
事實上,馬斯克們的擔憂不無道理,因為ChatGPT在其發布時就引發了許多版權爭議以及隱私保護的問題,這些問題至今仍未被完全解決。
問題一:ChatGPT生成的內容版權到底屬于誰?這涉及AI生成的內容到底有沒有版權問題。ChatGPT的模型是通過分析大量的文本數據來學習的,很多文本是人類創作的,本身有版權歸屬。但ChatGPT的很多文本,是在基于用戶輸入的上下文產生的回復,因此回復輸出的內容可能包含其他人的原創作品,這可能會引發知識產權糾紛。此外,與準確的源數據和版權檢查相比,ChatGPT模型會對內容進行深度地整合輸出,這就導致生成的內容很難發現版權問題,最終使得ChatGPT產生內容的版權問題變得更加復雜。
針對這個問題,今年3月生效的美國版權局關于AIGC版權注冊最新指南明確指出:“當AI只接收來自人類的提示文本,并輸出復雜的文字、圖像或音樂時,創作性的表達是由AI技術而非人類確定和執行。上述內容不受版權保護,不得注冊為作品。”這表明目前在美國ChatGPT類產品生成的內容并不屬于任何個人或者組織,不會被注冊為作品。
雖然ChatGPT模型的訓練過程本身并不違反版權規定,但生成的內容可能潛在地涉及版權問題。為了避免任何版權爭議,人們在使用ChatGPT模型生成的內容時還需格外謹慎,特別是在商業應用場景下。
問題二:隱私到底怎么保護?與版權并存的另外一個頗受行業質疑的問題是用戶的隱私保護,因為用戶與ChatGPT進行的對話可能會被記錄和保存,這就導致用戶的隱私存在被泄露的風險。
針對這個問題,OpenAI已經開始了一些隱私保護行動,例如,部署ChatGPT時使用的加密協議和使用約定。今年4月25日,OpenAI官方宣布推出新的控件,允許ChatGPT用戶關閉他們的聊天記錄。該公司在一篇博客文章中提到,在聊天記錄被禁用的情況下發生的任何對話都不會用于訓練OpenAI的模型,也不會出現在“歷史”邊欄中。OpenAI的做法,當然會在一定程度上讓用戶的隱私得到部分保障,但正如當下互聯網無法完全杜絕用戶隱私泄露的問題一樣,在人工智能的領域,用戶的隱私是很難保障的,仍然需要持續關注和妥善解決。
問題三:輿論控制以及武器化的潛在風險如何化解?馬斯克之所以將機器人稱為殺手,主要原因還在于,ChatGPT在給予人們想要的信息的同時,也可能潛在地成為“有毒甚至武器化”信息輸出的通道。
雖然,ChatGPT本身是一個自然語言處理模型,沒有任何攻擊性或者傷害性。但與所有新技術一樣,ChatGPT也存在被濫用或者用于非道德目的的風險。比如,ChatGPT的能力可以被濫用來生成攻擊性的文本,特別是在社交媒體上可能會被用來故意侮辱、歧視個人或群體等。甚至可以用來操縱輿論和觀點,因為其可以生成虛假新聞或者謠言,這些被深度偽造的信息可能會通過郵件、社交媒體帖子等分發給傳播鏈條上的每個人,在極富有說服力的文本加持下,影響人的決策,比如,在政治領域可能會被用來干預選舉結果和政策制定等。
盡管ChatGPT本身并不存在實體武器,但是與所有新技術一樣,其可能被“武器化”。被譽為“深度學習之父”的計算機科學家Geoffrey Hinton認為,AI或許會對人類構成威脅。因為個人和企業不僅允許AI生成代碼,實際上AI也有能力運行這些代碼。因此,Hinton認為有朝一日那種具有自主能力的殺手機器人,很有可能會成為現實。這種憂慮甚至讓這位計算機科學家表示:我對自己畢生的工作,感到非常后悔。
問題四:失業危機到底會不會來?與上文所涉及的問題相比,很多人擔憂的失業危機反而顯得不那么突出。目前,ChatGPT的智能雖然還沒有達到通用人工智能(AGI)的水平,但其已經有能力模擬人類的語言行為,并可以將人類對語言的思維能力和創造力延伸并擴展,從而可以勝任很多行業的工作。這雖然可以把人類從一些枯燥乏味的工作中解放出來,但同時也會使一些人喪失工作機會,如編輯、翻譯、客服、語音識別等工種,確實會減少相應的人工成本。
但是,這并不意味著ChatGPT的出現將會產生一系列失業浪潮,因為在真實的工作場景中,ChatGPT是一種輔助工具而不是替代人力的工具。而且,ChatGPT適用于一些簡單機械重復性工作,而不適合處理更復雜的任務。此外,人工智能技術將繼續升級和改進,進而創造更多的新的崗位和工作機會,如AI訓練師等工種。
回顧和研究內容行業的發展史,可以看到,所有的變革都會伴隨新機會的出現。10年前,新媒體開始迅猛發展時,很多人認為記者編輯會失業,但是10年后的現在,記者編輯們消失了嗎?因此,不管是ChatGPT,還是AI,對待他們的態度,還是應該辯證一些。
雖然目前行業內對于AI的看法仍不統一,說其技術革命也好,說其風險不可控也罷,不可否認的是,人類對于AI的探索腳步一直沒有停止過,而人機交互的深度,也一直在加速。
人機交互的發展至少經歷了三個階段。第一代人機交互是一維的鍵盤、鼠標,屬于確定性交互,人需要適應交互,而機器屬于被動式交互,屬于單項式交互。第二代人機交互是二維的觸控模塊,屬于模擬性交互,機器可以預定人的交互范圍,缺點在于無法提供更真實的感知。第三代人機交互是三維的AI人機交互,這個階段已經屬于理解和推斷性交互,機器利用大數據和計算推測人的意圖,進入“人機共生“的通道。
在第三代人機交互模式下,計算機系統不僅能夠響應用戶輸入,還能夠主動分析并確定用戶的意圖,并進行即時的反饋和自我調整。而人類則能夠通過不同交互方式和不同層面的參與,對計算機系統進行更深入的指導和控制。這種交互模式總體會呈現出智能化、自適應性、多模態交互的趨勢,業內將其稱之為“人機耦合”的時代。
或許是技術的發展速度超過了很多人對其的想象,因此,行業內對AI的擔憂之聲不絕于耳。但卡耐基梅隆大學機器學習學院院長Manuela Veloso認為,未來人類與AI系統不但不是分割對立的,相反還會緊密結合,并且互相交流信息,這種關系被稱為“共生自治”,這種說法的本質跟“人機耦合”是一致的。
可以預想的是,在不遠的未來,當我們擁有了更為先進的人機交互界面,搭載類似腦機等更為精細的AI傳感技術,將人類的聽覺、視覺以及感覺等物理入口進行無縫鏈接,進入更自然的三維交互時代,那時人類距離“人機共生,人機耦合”將會再近一步。很多人覺得這種猜想純屬無稽之談,但是可以回想一下,20年前人類對于智能手機的猜想,以及當下人們對于智能手機的依賴程度,其本質都是一樣的。正如電影《超能陸戰隊2》中的臺詞,“你的思維局限是它唯一的限制”。
在技術發展之勢不可逆的情況下,作為個體,最重要的還是如何在把握自身主體性的同時,充分發揮出技術的優勢。正如海德格爾所言:“技術是時代的座駕,然而能夠駕馭技術從而影響時代進程的,永遠是具有主體性意識的人”。因此,首先要正面迎接這股“人機耦合”的浪潮,在這個過程中,不斷改善自己的生產與運作方式,以專業精神合理利用并驅動技術發展,這樣才能迎來行業以及個體的春天。
作者井婷婷系騰訊新聞智庫欄目《時間會客廳》主編、騰訊媒體研究院公眾號主編
張浩系騰訊媒體研究院公眾號編輯
李方南系內蒙古赤峰廣播電視臺主任編輯
【編輯:沈金萍】