999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

AI嵌入新聞生產的強勢與限度

2023-11-19 22:50:33郝雨文希
編輯之友 2023年11期
關鍵詞:人工智能

郝雨 文希

【摘要】作為依靠大數據、強算法、超算力快速生成文本的大語言模型,人工智能頂流產品ChatGPT真的會顛覆人工新聞生產嗎?文章分析了未來新聞業將被大模型全面再造及其天然存在的技術局限,首先肯定了ChatGPT的新聞內容生產確有超越人工的極大優勢,但由于其基礎邏輯還是依賴被馴化的語料庫,必須在人類的指令下才能進行輔助性工作,所以ChatGPT做不到完全取代記者甚至淘汰新聞業的人工生產。在未來新聞生產的人機關系主場博弈中,人、機主體性及主導地位問題,人工智能與新聞生產的硅基體與碳基體本質關系等,仍將引發持續的討論。

【關鍵詞】人工智能 新聞生產 新聞記者 新聞職業 ChatGPT

【中圖分類號】G210 【文獻標識碼】A 【文章編號】1003-6687(2023)11-052-07

【DOI】 10.13786/j.cnki.cn14-1066/g2.2023.11.007

ChatGPT一夜火爆,熱度持續不減,喻國明認為,大模型是一個“出道即巔峰”的現象級媒介,對人類社會的影響越來越深刻和全面。[1]美國國家工程院外籍院士張宏江認為,ChatGPT迎來AI的大爆炸時期,且將持續最少十年。[2]2023年7月召開的2023年世界人工智能大會指出,大模型作為今年大會的核心概念,顯然是未來人工智能發展的風向標,也是學界研究的現實基點。2023年5月14日,北京師范大學舉辦“ChatGPT啟示會”,聚焦大語言模型的信息生產、倫理、文化等領域,提出66個傳播學研究新問題,表明關于人工智能的學術探索任重而道遠。以ChatGPT為代表的大數據驅動的大模型已不僅僅是一個純算法問題,更是一個系統性工程問題。技術會造成人類的分化,甚至一些職業的消失,人與人工智能的矛盾將持續存在,人—機關系更是不可繞開的話題。其實ChatGPT的爆火在很大程度上可以說是一次恐慌營銷的成功,因當時信息發布刻意加裝了其取代人類十大職業的技術神話,放大了各行各業人士對人工智能的恐慌。尤其在新聞行業,更是一度產生了未來人工智能會取代人類記者的擔憂和恐懼。

學界關于ChatGPT的討論,多著眼它能干什么,或者應該干什么以及從倫理層面不可以干什么。本文則討論ChatGPT完全不能干什么,從學理上分析其無法做到的事情,尤其是在新聞傳播方面,對技術的原生性局限進行了分析,推翻了其可取代記者等夸大說法。社會學家米爾斯認為,想象力是一個視角轉換為另一個視角的能力。美國哲學家約翰·杜威認為,每一次科學的進步都源自大膽、嶄新的想象。傳播學家芭比·澤利澤在《想象未來的新聞業》中提出,無論是理論還是實踐的新聞業,核心都是想象力。史安斌教授在為該書撰序時談及,芭比·澤利澤試圖在新聞業激變的理想愿景和現實狀況之間搭建起一座闡釋之橋,回答新聞業未來可能會怎樣的問題。這一角度是本研究的源起和立足點。筆者試圖沿用想象未來新聞業的理念,站在智能技術發展的視角,從根本上回答未來人工智能與新聞生產的硅基體與碳基體本質關系的問題。

一、ChatGPT嵌入新聞生產的結構性優勢和強勢

2023年7月13日,澎湃援引路透社報道:美聯社與ChatGPT的開發公司OpenAI達成協議,授權OpenAI使用美聯社部分新聞存檔,以探索生成式人工智能在新聞領域的應用。這一舉措成為新聞業與生成式人工智能合作的標志性事件。ChatGPT確實有許多超人的能力,使得未來新聞在很多方面都離不開它,必須掌握充分利用但又不依賴甚至放縱它的度,與其協同共生。

1. 高效整合數據與同步直播

人類的新聞傳播活動最基本的功能就是傳播信息,在網絡社會,數據是信息的基本構成單元,內嵌到新聞生產活動全流程中,在智能新聞傳播中擔任著愈發關鍵的角色。采集階段,數據是新聞生產的基礎要素和資源;加工階段,數據轉換為文本作為精準闡釋社會變動趨勢的科學依據;反饋階段,數據成為評判什么會成為新聞的價值標準。大模型的出現更是奠定了大數據在智能新聞傳播中舉足輕重的地位,建構起未來新聞業中人與數據、機器、社會之間廣泛的聯結關系。

在人工智能與新聞進行技術對話的前ChatGPT時代,智能新聞生產已出現在人們視野中,財經新聞、體育報道、地震資訊發布等信息處理體現出人工智能在數據挖掘、整合、分析方面的獨特潛力。ChatGPT時代標志著多模態自然語言識別技術和機器深度學習的新躍進:ChatGPT根據傳感器傳回的數據自動生成文本、視頻,最快速地固定、捕捉新聞現場的信息,實現新聞的同步直播,極大地增強了記者生產傳播新聞的時效性;ChatGPT的全能代理、多場景應用、對話交互的特征全面滲透到數據采集、處理、整合、潤色、校對等環節,全面賦能新聞內容生產與傳播格局;相對于傳統新聞生產流程效率延宕的問題,ChatGPT的龐大文本體量運算將新聞人從重復、冗雜、海量的基礎性工作中解放出來,有效提升整個新聞行業生產流通的效率;對于一些危險性的現場,人工智能也能代替記者采集信息,保障新聞從業人員的生命安全等。

大數據作為現下可媲美資本、勞動力的一類新型資源,被認為是網絡社會中的重要信息生產力,是社會運行不可或缺的燃料。ChatGPT由大數據驅動加上自然語言處理技術輸出內容,再通過機器學習不斷更新迭代,因此,AIGC的底層邏輯是巨型大數據結構,體現了大模型搜集、分析大數據能力前所未有的提升。智能新聞業的顯著特征——人、非人、物、非物四者作為行動者交織在新聞生產運作中,給新聞業帶來巨大的結構性變革。對現有數據的高效整合處理是ChatGPT生成內容的一大優勢,不僅體現出其強大的新聞生產效能,且ChatGPT與用戶交互能力及塑造認知能力,將對整個國際生態產生不可估量的影響。如在國際綜合性報道供給方面,生成式人工智能可以減少國際信息檢索的難度和廣度,尤其是國際關系中的一些重要數據、用戶真實的觀點立場以及因各種復雜因素不便獲取的數據,都無差別地納入了ChatGPT的數據庫中,為綜合性報道提供了廣泛豐富的素材;同步語音識別翻譯系統可以實現不同國家語言的自由切換,打破跨文化傳播中受眾解讀異質文化信息的障礙,完善了國際傳播中跨語言服務的業務體系,實現同步直播等。

2. 激活時間維度與擴展延續性敘事

芭比·澤利澤在《想象未來的新聞業》中將新聞業視作闡釋共同體,認為記者與雙重時間的關系擴展了新聞共同體邊界,而雙重時間的敘事闡釋模式又分為在地性和延續性。[3](181)在地性是記者身處事發地、親身在場目擊真相,以此加固新聞人職業的專業框架,維護記者報道新聞話語的權威性。相較依附移動端和計算機界面窗口的ChatGPT,在地性被認為是人類記者不可取代的獨特優勢,但不排除未來給ChatGPT裝上眼睛、耳朵、嘴巴、四肢,研發人形機器人的可能性。

如果說在地性是正在發生事件的初始闡釋,那么延續性就是補償“未在那里”的再次闡釋。人們需要在延續性話語中標記關鍵事件并將之納入集體記憶,記者作為“歷史學家”將前后其他事件聯系起來,進行比單個代表性事件更具普遍意義的闡釋,彌補未在場造成的文化權威缺失。大模型可以說將延續性發揮到了極致,它充分利用過去海量的數據庫生產具有現代價值的作品,顯示生成式AI建立闡釋權威的深遠能力。一方面,智能驅動新聞被期望提供源源不斷的新聞敏感,ChatGPT作為貫穿古今的遠距離觀察者,與不同關鍵事件聯系,再結合當前的語境從不同的角度勾勒新聞線索,呈現解讀新聞的不同方式,延展了新聞生產的寬度,為整個新聞業邁向分析啟發式新聞打下基礎;另一方面,ChatGPT利用算法系統性裁剪有關聯的時間和事件,計算“可能性的窮盡”,洞察大數據的發展趨勢,延伸新聞生產的長度,這也標志著AI“第六感”預測性新聞的強勢崛起。

3.打造多維交互模式與深度綁定用戶

新聞作為公眾參與公共事務的平臺,在數智時代已成為共識。正如芭比·澤利澤所言,新聞生產者就像探尋平常人們不能接觸到的世界并帶回關鍵見解的薩滿巫師,新聞的本質就是創造公眾平常不能接觸事件的想象性參與。[3](2)新聞能容納受眾與他人共享信息,同時受眾參與也可以幫助新聞機構建立長期目標受眾與新聞分眾服務間的連接。ChatGPT應用于新聞,有助于提升公眾的參與度,更好地為公眾服務。

在交互傳播層面,身為聊天機器人的ChatGPT可用對話的方式激發受眾深度參與到ChatGPT構建的信息交互的模擬情景中,ChatGPT、媒體與受眾之間形成了多維的自然語言交互模式。ChatGPT是連接媒體和用戶的橋梁,ChatGPT在回答用戶提問的同時,用戶實際上也在協同幫助新聞生產機構完成對算法程序的訓練。礙于當前人工智能技術的水平,機器算法模型尚不能實現完全獨立和全自動化。“人在回路”交互系統在ChatGPT中占據重要地位,主要體現在兩個方面:其一,ChatGPT的預訓練模型所用到的數據需要人工標注,人工標注越精確,ChatGPT輸出的答案越接近人的預期;其二,ChatGPT的算法只是構成輸出結果的一部分,其中用戶的輸入和反饋也會直接作用于機器深度學習與決策過程。因此,ChatGPT的人機情境對話是對用戶回饋的數據信息進行實時更新、精準分析,這為私人信息定制服務和知識付費墻的應用提供了發展前景。定制化、分眾化的信息服務與用戶深度捆綁,為智能新聞提供了新的創收模式。再者,ChatGPT多元場景應用服務和持續人機聊天的功能使人工智能從工具型產品演化為交互對話的人格化參與角色。換言之,未來以ChatGPT為代表的自然語言處理系統深度融入新聞生產傳播的不同環節和場景,依據場景變換及時優化用語,對受眾的提問迅速作出反饋,不但起著傳遞信息的作用,而且其類人屬性還滿足了受眾的陪伴需求。同時,通過對ChatGPT的深度機器學習馴化,能夠掌握媒體機構和新聞人的特點,生產出更具個性化的新聞作品。

二、ChatGPT應用于新聞生產的原生性限度

ChatGPT不是人,它不具有人可以自由行動的身體,尤其是可以抵達任意物質空間和位置的四肢,而新聞的采訪和生產,往往需要在各種場合和不同空間之間移動。不能獨立思考,無法深入第一現場,判斷第一時間獲取的一手材料,只進行數據、算法、算力的概率組合,不可能生產出有價值的新聞。因此,ChatGPT在與新聞人爭奪職業主場中存在著不可避免的原生性限度。

1.“以歷史為初稿”,大數據內爆

按照新聞理論的最權威定義,“新聞是最新發生的事實的報道”,而ChatGPT生產的基礎全憑已知的輸入。如美聯社與OpenAI公司合作,將之前產出的大量新聞提供給ChatGPT充當訓練數據,但新聞應用研發依舊進程緩慢,主要原因是其不符合新聞時新性的要求。此外,事實錯誤、人類知識與AIGC內容混雜,也是美聯社探究大模型應用新聞的困擾。如果說社交媒體實現了所有人對所有人的傳播,那么生成型人工智能則實現了所有信息對所有人的傳播。人們從與媒介生活在一起到完全生活在媒介中,媒介的影響之所以如此深刻,恰恰是因為另一種媒介逆轉成了它的內容。ChatGPT作為生成式AI的突出成果,能夠將之前所有媒介生產的內容結構化處理為自己生成內容的基礎,[4]只能算作“以歷史為初稿”。換言之,ChatGPT的生成是集合的生成、已知的生成、從前的生成,從已有到再有的生成,“昨日歷史,今日新聞”,新聞最基本的特征——時效性,需要的恰恰是記者創造的生成、未知的生成、現在的生成,從無到有的生成。對既有信息進行轉譯后重新排列組合的文檔,是初級人工智能就能完成的任務,還未達到能夠進行思維革命的強人工智能時期,取代新聞人更是危言聳聽。

ChatGPT的生成從技術上而言是經驗主義或歸納邏輯的認識論在機器學習算法中運用的體現,是按部就班的純理性統計計算過程,而記者的寫作卻是充滿靈韻與人文關懷的非純理性的思考過程。根據智能生產的演繹邏輯,人工智能可以分為分析式人工智能和生成式人工智能:分析式人工智能依靠已存在的信息推算出在前提中已包含的結論,遵循的是從一般到個別的演進推理;生成式人工智能更多的是對數據庫中已有的信息進行歸納概括,生成來自已有又不等同于已有的新的自然語言表達模式,遵循的是從個別到一般再到個別的演進模式,即從海量數據中馴化出模型,再用模型指導新的個別。[5]充分利用生成式人工智能的這種歸納功能,千億級別數據的投喂才成就了ChatGPT,但從嚴格意義上講,ChatGPT只能算作信息的加工者,其生成的文本既非被驗證過的事實,又非原創性的真知灼見,還常常出現“一本正經胡說八道”的現象,究其原因是歸納邏輯和數據差異造成的。不似分析式人工智能基于演繹推理的輸出結果具有唯一性,生成式人工智能會因材料的變化導致輸出結果存在不確定性,輸入同樣的問題會出現不同的回答。現實世界分秒變幻,記者每時每刻都面臨著突發的新情況,需要及時作出反應,ChatGPT只能應對數據庫里意料之中的情況,對于意料之外的情況則束手無策。物理力學中將物體向內的爆炸稱為內爆,引申到生成性AI上變異為大數據的內爆,背靠大數據和網絡資源的ChatGPT看似無所不知,其實對正在發生變化的現實世界一無所知。因此,對于ChatGPT制造的替代人類創造性工作的擔憂是不必要的。

2. 現場的身體缺席,獨家新聞隕落

依據傳播的層級,人工智能運用到新聞傳播領域目前大致可分為人際傳播AI和大眾傳播AI。[6]聊天機器人、語音問答助手是人際傳播AI的代表,此時的技術充當的不再是生產傳播的媒介,而是一種具有擬人化身份的平等對話者。大眾傳播AI作為嵌入新聞生產—分發環節用來提升效率的工具,具體可分為生產端和分發端兩大類:寫稿機器人、虛擬智能主播是生產端—大眾傳播AI應用的代表,算法推薦則是分發端—大眾傳播AI的代表。ChatGPT與個人用戶單獨展開微觀語境對話,是點對點的傳播,歸屬于人際傳播AI;但ChatGPT同時與多個用戶展開對話,并將對話內容作為人類反饋重新納入語料庫中進行強化訓練學習,是點對面的傳播,又應歸屬于大眾傳播AI。因此,套用傳統傳播層級理論難以解釋ChatGPT的特殊傳播類型,應從人機傳播的視角將其視為融合大眾傳播和人際傳播的復合式傳播。從1950年圖靈提出圖靈測試以來,AI的擬人化程度成為判定機器是否具備智能的公認標準,然而,機器具備人腦智慧目前還處于人類的主觀想象,ChatGPT模擬人類語言產生的擬人主體性并不等同于人類的主體性,不能代替記者獨立進入現實世界的新聞生產實踐領域,且共用一個網絡數據庫,決定了其無法生產出獨家新聞。

首先,ChatGPT作為人際傳播AI,對新聞當事人的采訪難以達成,主要有三方面的原因。其一,采訪者與被采訪者之間的交往建立在平等對話的基礎之上,但是ChatGPT服務人類的設計初衷就決定了人機不平等的主客關系,平等對話只是對技術努力方向的一種美好期待。ChatGPT內嵌的服務用戶屬性使其不會對使用者產生論辯行為,而是帶有討好和服從的特點。人對機的絕對控制助長了個人中心主義的滋生,在ChatGPT與個體用戶持續對話的過程中,二者形成互相強化偏見觀念和態度極化的共軛效應。其二,ChatGPT能作為被采訪者回答問題,但不能作為采訪者提出問題。ChatGPT的生成行為可被分解為刺激—反應兩部分,ChatGPT需要用戶給出提示指令,繼而才會做出與提示相關聯的反應,與其將之稱為對話模型,不如稱為問答模型。其三,采訪者與被采訪者的個人隱私在網絡公共領域“裸奔”。為了保護被采訪者的個人隱私,在報道中記者通常會進行匿名、化名的人性化處理,有機選擇、使用采訪素材。當人際交流關系變成人機交流關系,任何向ChatGPT的自我披露都存在著被泄露的風險。美國人工智能的發展由互聯網巨頭和初創科技公司主導,OpenAI是初創型科技公司,2019年跨國科技巨頭微軟強勢加入,反觀主流媒體和通訊社則在人工智能發展上存在明顯短板,記者、編輯、通訊員等新聞從業人員缺乏專業的技術教育背景,采集的用戶數據最終流向生產人工智能的公司或重新進入語料庫進行再生產,用戶不但處在透明化的“全景監獄”中,而且其自我表達、傾訴有可能從虛擬世界蔓延到現實世界,對用戶的實際生活產生負面影響。總而言之,ChatGPT無論是作為采訪者還是被采訪者都是不可靠的,面臨著最基本的人機信任問題。

其次,ChatGPT作為大眾傳播AI,在新聞生產端,第一時間趕赴現場獲取一手資料難以達成;在新聞分發端,人工智能鴻溝和人工智能霸權風險逐漸顯現。從生產方面而言,一方面,ChatGPT的擬人主體性僅存在于語言符號層面,不具有身體的物質屬性,不能成為獨立的生產者直擊新聞現場。雖然數字化媒介讓數據新聞可以脫離身體在場的束縛,但并不能因此否認身體對新聞生產傳播的重要意義,具身性是確保新聞真實的關鍵途徑。縱觀人類發展史,先有身體后有語言,但以ChatGPT為代表的無物質實體的計算機程序,僅依靠移動智能終端呈現在屏幕上的對話輸入窗口與人展開交流,是很明顯的先有內容后有載體的發展路徑。另一方面,盡管ChatGPT不受物質身體的制約,漂浮在虛擬網絡世界中,但也因為缺乏身體等物質存在導致其無法感知真實的世界。新聞從根本上說是一項社會生產實踐活動,包含著對現實世界的基本關懷,在新聞生產中堅守人是媒介的尺度和具身傳播的理念是新聞被社會需要的前提,ChatGPT的自然語言模型并不能觸達語言的含義層,不能作為單獨的社會行動者生產新聞被社會需要的價值。此外,計算機程序本身不具有社會職務、權力、地位、公民身份,一旦發生侵權行為,無法承擔相應的道歉賠償義務。

從分發層面而言,傳統的大眾傳播是一次性生產、批量復制的傳播,ChatGPT同時和海量用戶對話生成不同內容,屬于批量生產、一次性傳播。但人工智能打破了傳統金字塔式的信息傳播秩序,編織了一個高度原子化的傳播網絡,每個用戶都是網絡上的一個節點。歷經77年的數字化(1946年世界上第一臺計算機誕生),54年的網絡化(1969年美國阿帕網誕生),30年的移動化(1993年世界第一部智能手機IBMSimon誕生),7年的智能化(2016年AlphaGo擊敗人類圍棋冠軍),人類傳播范式從大眾主流媒體主導的自上而下、集中控制的大教堂模式轉變為智能數字媒體主導的自下而上、開放分布的大集市模式,但這種智能媒體生態下權力下沉形成的去中心化、私人化、反權威化,并不意味著會帶來更大程度上的公共性、多元化,反而可能導致人工智能霸權。從互聯網和人工智能崛起的那一刻,主導社會信息環境的技術邏輯便朝著信息私人化的方向發展,無論是社交媒體平臺的用戶個人信息界面的優化,還是智能算法的個性分發,無不指向海量信息私人化的聚合與離散。[7]人工智能造就的私人化格局壓縮了信息傳播的公共性,形成了新的社會區隔,用戶在人機對話中完成了對信息的獲取、分享和觀點的輸出,用戶與用戶之間的連接實際上變成了弱關系的、形式上的、有名無實的,人工智能搶占社會公共領域的討論空間,由其他代理媒介向全能媒介轉型,形成新的霸權結構,而用戶的認知則局限于智能算法的分發。在人工智能現象熱的背后存在著多種話語權的爭奪,正如澳大利亞社會科學院院士狄波拉·勒普頓所言:“技術非中立的客體,他們被賦予性別、社會階層、種族、年齡相關的意義。”[8]國家層面,人工智能創造越發精準、隱蔽的數字利維坦,需要警惕技術所有國隱性的意識形態霸權;社會層面,先進智能傳播技術背后的科技研發公司和使用接口的互聯網公司存在資本的博弈,搶奪用戶的注意力;個人層面,了解、掌握和熟練使用人工智能的人群擁有更大的話語權,個體間使用信息能源和智能技術存在顯性能力溝,人工智能鴻溝造就的不平等將成為新的社會問題。

3. 數據容器,深度造假的迷思

新聞最基本的原則就是報道事實。李普曼將新聞業想象為充分調查、仔細辨別、接受檢驗的科學,認為一個出色的記者應該做耐心無畏的科學家,呈現真實的世界。然而曾經歷盡千辛建立的新聞事實原則,被大到不可知的網絡數據所替代。[9]需要記者具身驗證的事實采集如今外包給了大模型程序,而大模型運算的數據是經過多層轉譯的結果,并不等于事實,更不是真實世界的代表,大語言模型代表ChatGPT的技術特性決定了其生成假新聞的必然性。人工智能的三大技術要素是大數據、強算法、超算力。算力是機器處理數據的能力,算法是解決問題的指令或策略機制,數據則居于基礎性地位,互聯網是實時海量數據的供應商。[10]ChatGPT生成虛假信息與此三大技術要素互為因果,這與真實是新聞的生命形成悖論。

(1)大數據失實,引起事實錯誤。大規模的網絡公開文本是ChatGPT的訓練數據,初代版本GPT-1使用的訓練文本為5GB、1.17億參數量,GPT-2的訓練文本為40GB、15億參數量,GPT-3的訓練文本為45TB、

1 750億參數量,雖然GPT-4未公開訓練文本和參數量,保守估計為GPT-3的6倍,照此速度投喂數據,有研究預測,到2026年,ChatGPT將窮盡互聯網可用的人類原創數據資源。[11]在大數據海嘯中,人類已經無法就如何獲取信息來源達成一致,網絡中的每一個數據事實都有被撕裂切割成碎片的可能以及與事實方向相反的作用力,彼時,人工智能合成數據加入ChatGPT預訓練中,“劣幣驅逐良幣”,導致ChatGPT生成的內容質量直線下降。被實踐檢驗過的事實本是為解決分歧而存在,人人都拿著不知來源且奉為真理的網絡事實,正是開啟分歧的鑰匙。ChatGPT被譽為生成式AI的一次革命,聯合機器人公司首席營銷官塞西莉亞·坎貝爾將生成式AI分為數據生成文本模型和文本生成文本模型。[12]數據生成文本模型最關鍵的特征就是生成的文本是基于數據的事實,排除了數據之外的文本信息,保證了事實的正確性,如美聯社的寫稿機器人Wordsmith、英國天氣預測系統Arria。而文本生成文本模型,又名大型語言模型(LLM),它的運作模式是利用深度機器學習現有文本創作新的文本,這意味著它會引用所有來自互聯網可訪問的文本,這些海量的無標注文本數據構成ChatGPT自監督預訓練的語料體系,當中不可避免地會包含虛假信息。ChatGPT是典型的文本生成文本模型,所有回答都是對人類語言邏輯的模擬,看似有理有據,實則不具真實性。ChatGPT編造與現實無關的內容又用極其自信的陳述輸出,用在新聞自動化生產上,極易出現扭曲真相、傳播錯誤信息的現象。目前聊天機器人尚停留在人—機的一級傳播交互之中,當大語言模型深入人類生活場景,引發人—機—人的多級傳播,反而加劇了破解后真相時代迷局的危機。

(2)數據為真,算法黑箱運算成假消息。跟一般預設任務型AI不同的是,ChatGPT構建的是模擬神經網絡從海量數據庫中進行深度機器學習的大型語言模型,整體的技術架構遵循的是“語料體系+預訓練+微調模式”。[13]語料體系來自OpenAI公司從各渠道搜羅而來的巨量無標注數據,ChatGPT無監督完成預訓練,形成原始模型。在ChatGPT自主學習基礎上,采用人工標注數據的方式進行有監督的微調,標注人員會根據人類偏好對原始模型生成的答案進行排序打分,如此循環強化,直至原始模型變成掌握人類偏好的智能模型。在算法方面,ChatGPT的優勝之處在于引入自注意力機制,相對于傳統逐字識別處理的神經網絡,其能快速計算出一個序列中單詞與下一個單詞出現的概率,單詞之間乘積越大說明關聯度越高,越符合人類語言表達。也正是因為此獨特的算法公式,導致ChatGPT的輸入輸出不是已有信息的復制粘貼,而是由詞預測算法無監督自動生成后續文本的數據庫信息結構重組。基于語義相關性拼接而成的文本底層邏輯是統計方法,并非源自現實觀察和實踐的語言表達,算法程序也并不理解詞句組合的真正含義,ChatGPT輸出的是概率信息。因此,即便保證預訓練數據庫中的所有信息為真,也無法排除ChatGPT生成符合算法運算邏輯但存在事實性錯誤的假新聞。

(3)超高算力系統GPGPU是虛假合成數據的最強輔助。GPGPU(圖形處理器)是比CPU(中央處理器)具有更高精度算力、超強可編程性和并行處理能力的計算機芯片,在航空航天和防務信號處理中均有應用,為ChatGPT的飛速進化提供了不可或缺的硬件基礎。超高算力同樣映射著超高能源損耗,以GPT-3的1 750億參數為例,需要上萬個GPGPU連續不斷輸入數據,一次運算費用高達450萬美元,[14]如此巨大的資源消耗讓大部分企業和機構望而卻步,只有極少有足夠資金技術支持的龍頭集團才能進行大模型的研發,一定程度上造成了算力壟斷,在國際競爭中,算力技術領先的國家搶占戰略布局先機,形成人工智能界國際傳播的“馬太效應”。古希臘哲學家亞里士多德認為,每個系統中存在一個既不能被違背又不能被刪除的最基本命題,換言之,對技術化的認識必須在多變的現象中抓住不變的本質。技術化的本質在于拓展人類身體和感官的能力,幫助人類改善生活和促進文明進程。ChatGPT需要資本能源、算力技術的持續投入,這直接關系到投入產出比的現實問題。再者,在高精度算力系統GPGPU的加持下,ChatGPT生成數據的數量和效率呈幾何倍數增長。形式規范、真假難辨的再生成數據重新回歸網絡空間,被無差別地納入人工智能預訓練的數據庫中,如此循環往復,導致合成數據的真實性愈來愈小,人類終將湮沒在人工智能制造的虛假信息世界中。

三、走向新聞業未來

記者報道的新聞之所以具有價值,是因為他們帶來了常人接觸不到又無人分享的知識和信息,這些未知性、不確定性構成公眾想象力的源頭,新聞本質也是公眾的一種想象力參與。在急劇變化的媒介生態環境中,將新聞業發展的關鍵要素且正占據越來越重要位置的技術引入未來新聞業的想象之中,無論是滿足研究者的旨趣、解決新聞從業人員的基本生存問題,還是尋找新聞業前進的方向都是大有裨益的。因此,以更加自省、透明、主動的方式參與未來新聞業的大討論,才能讓新聞人更有自信、更從容、更有效地駕馭、引領、走向新聞業的未來。

法國思想家米歇爾·福柯在《詞與物》中曾說,人終將被抹去,如同沙灘上的一張臉。人工智能對人類主體性的沖刷隨著ChatGPT入侵自然語言系統進入新的臨界點,面臨技術帶來的巨大未知性和不確定性,一個“剔除人”的未來智能圖景浮現在人們的想象之中。縱觀每一次科技進步,都有被視為對現有社會職業結構體系造成威脅的一段時間,關于人工智能究竟是潘多拉魔盒還是阿拉丁神燈的討論從未停止。想象未來的新聞業究竟是智能替代人工還是人工替代智能?目前主要有三種主流觀點,分別是人取代機、機戰勝人、人機協作。其實這個問題的實質不是在探討誰最終會被取代,而是在辨析智能與人工誰能長久占據職業主場的問題,因為人作為智能的造物者,不會停止追求美好幸福生活的科技探索,技術作為“機之為人”的服務者,不會停止提高生產能效和無止境的更新迭代。正如麥克盧漢在《理解媒介:論人的延伸》中所言,技術轉換具有有機體進化的性質,技術延伸人體,具有替代性的生殖機能,人體透過技術增長的速度與力量作出反應,產生新的延伸。[15]智能機器與人共生共存于數智時代,誰都不會被取代甚至離奇消失,這是一個生生不息的宇宙演化進程。只能說在一次次的技術革新中,人類還能不能時時保持人是萬物尺度的主導地位,處處掌控技術的應用場景。如果非要用ChatGPT取代新聞人,首先需要解決的問題是人工智能生成內容的真實性、時新性、具身性、創造性以及對現實世界的感知、思考能力,目前看來,完全依賴大數據、算法、算力的計算程序還有很長的路要走,也許能到達,也許永遠不能到達。

參考文獻:

[1] 張爾坤,張一瀟. ChatGPT啟示:大語言模型時代傳播學研究新問題[EB/OL].[2023-07-08].https://mp.weixin.qq.com/s/HPFxE30uhgzmhvb_CziZnA.

[2]程瀟熠. 對話張宏江:AI大爆炸至少將持續十年[EB/OL].[2023-07-05].https://mp.weixin.qq.com/s/3AHFPVhYHJmpStCjs7KslQ.

[3] 芭比·澤利澤. 想象未來的新聞業[M]. 趙如涵,譯. 北京:中國人民大學出版社,2022.

[4] 方興東,顧燁燁,鐘祥銘. ChatGPT的傳播革命是如何發生的?——解析社交媒體主導權的終結與智能媒體的崛起[J]. 現代出版,2023(2):33-50.

[5] 肖峰. 何種生成,能否創造——ChatGPT的附魅與祛魅[N]. 中國社會科學報,2023-03-06(5).

[6] 姜澤瑋. 功能局限、關系嬗變與本體反思:人機傳播視域下ChatGPT的應用探討[J]. 新疆社會科學,2023(4):146-153.

[7] 常江,王雅韻. 審美繭房:數字時代的大眾品位與社會區隔[J]. 現代傳播,2023(1):102-109.

[8] 曾一果. 人工智能迷思與數字技術倫理的現實建構[J]. 新聞與寫作,2023(4):24-30.

[9] 胡泳. 論事實:美麗、謊言與ChatGPT[J]. 新聞大學,2023(4):38-58,121.

[10] 方興東,鐘祥銘. 智能媒體和智能傳播概念辨析——路徑依賴和技術迷思雙重困境下的傳播學范式轉變[J]. 現代出版,2022(3):42-56.

[11] 舒洪水,彭鵬. ChatGPT場景下虛假信息的法律風險與對策[J].新疆師范大學學報(哲學社會科學版),2023(5):124-129.

[12] 張建中,西莉亞·坎貝爾. 面對ChatGPT,新聞記者不應該有身份危機[J]. 青年記者,2023(5):97-98.

[13] 錢力,劉熠,張智雄,等. ChatGPT的技術基礎分析[J]. 數據分析與知識發現,2023(3):6-15.

[14] 朱光輝,王喜文. ChatGPT的運行模式、關鍵技術及未來圖景[J]. 新疆師范大學學報(哲學社會科學版),2023(4):113-122.

[15] 馬歇爾·麥克盧漢. 理解媒介:論人的延伸[M]. 何道寬,譯. 南京:譯林出版社,2019:248-249.

作者信息:郝雨(1957— ),男,上海人,上海大學新聞傳播學院教授、博士生導師,主要研究方向:新聞傳播理論、新媒體研究;文希(1994— ),女,四川廣安人,上海大學新聞傳播學院博士研究生,主要研究方向:智能媒體。

猜你喜歡
人工智能
我校新增“人工智能”本科專業
用“小AI”解決人工智能的“大”煩惱
汽車零部件(2020年3期)2020-03-27 05:30:20
當人工智能遇見再制造
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
AI人工智能解疑答問
人工智能與就業
IT經理世界(2018年20期)2018-10-24 02:38:24
基于人工智能的電力系統自動化控制
人工智能,來了
數讀人工智能
小康(2017年16期)2017-06-07 09:00:59
人工智能來了
學與玩(2017年12期)2017-02-16 06:51:12
主站蜘蛛池模板: 午夜老司机永久免费看片| 国产精品无码影视久久久久久久 | 东京热高清无码精品| 国产成人精品亚洲日本对白优播| 国产成人艳妇AA视频在线| 少妇极品熟妇人妻专区视频| 欧美在线导航| 青青操视频免费观看| 欧美无专区| 国产精品片在线观看手机版 | 国产美女叼嘿视频免费看| 久青草免费在线视频| 婷婷丁香色| 国产导航在线| 久久综合亚洲色一区二区三区| 99久久国产综合精品2020| 国产jizz| 少妇露出福利视频| 欧美日韩免费在线视频| 9丨情侣偷在线精品国产| 欧美成人精品高清在线下载| …亚洲 欧洲 另类 春色| 青草精品视频| 国产成人三级| 亚洲无码电影| 国产欧美亚洲精品第3页在线| 国产精品太粉嫩高中在线观看| 就去色综合| 欧美黄网在线| 国产欧美日韩综合在线第一| 国产成人久视频免费| 国产无码网站在线观看| 免费无码AV片在线观看国产| 毛片最新网址| 毛片在线播放a| 亚洲中文字幕无码mv| 视频二区欧美| 99视频国产精品| 幺女国产一级毛片| 国产人人干| 国产偷倩视频| 国产毛片高清一级国语 | 免费国产福利| 天天综合色天天综合网| 青青青国产精品国产精品美女| 女人爽到高潮免费视频大全| 天天操天天噜| 福利小视频在线播放| 国产美女免费网站| 日韩久草视频| 国产午夜无码片在线观看网站 | 国模沟沟一区二区三区| 欧美一级高清视频在线播放| 内射人妻无套中出无码| 99久久无色码中文字幕| 欧美性久久久久| 国产精品久久久久久久久kt| 国产精品页| 色婷婷在线播放| 久久综合国产乱子免费| 日韩欧美91| 国产福利在线免费观看| 天天综合网色中文字幕| 国产视频一区二区在线观看| 99热最新在线| 国产欧美日韩18| 广东一级毛片| 香蕉视频在线观看www| 亚洲视频无码| av一区二区三区高清久久| 亚洲成年人网| 精品一区二区三区波多野结衣| 国产精品自拍露脸视频| 日韩第一页在线| 国产欧美网站| 国产一区二区三区日韩精品| 国产黑丝视频在线观看| 一级毛片不卡片免费观看| 亚洲综合精品香蕉久久网| 欧洲欧美人成免费全部视频| 在线欧美一区| 国产清纯在线一区二区WWW|