999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

GPT 技術下的深度媒介化、知識秩序與政治秩序

2023-12-29 00:00:00高奇琦
現代出版 2023年3期

內容摘要:大模型出現之前的媒介化,更多是一種表面媒介化。以GPT為代表的大模型技術,會產生一種內在的賦權效應,從而可能會推動一種內在媒介化。然而,這種內在媒介化同樣蘊含了新的風險。人類的知識生產是一種慢速生產,而以大模型為中心的知識生產卻會打破這種慢速節奏,并可能會導致兩種形式的深度混淆,一是正確與錯誤的混淆,二是高質量和低質量的混淆。在知識泡沫和深度混淆的雙重影響之下,真正的后真相時代可能會來臨,這就會出現一種真實的“自我舉證困難”。知識秩序和政治秩序處在某種異形同構的關系之中。以GPT技術為代表的通用大模型對傳統政治秩序的沖擊會體現為兩種困境:一種是“必須監管,但又不能監管”的約束困境,另一種則是與“政治秩序需要高度確定性”完全相反的不確定性困境。以GPT技術為代表的大模型,可能會形成某種知識大一統格局,并可能會在一定程度上削弱知識中產的意義。在知識帝國主義的背景之下,民族國家需要成為抵御這種知識侵略的重要力量。

關鍵詞: GPT;深度媒介化;知識秩序;政治秩序

課題: 上海市人民政府發展研究中心與華東政法大學2022年度“數字法治與治理現代化”決策咨詢課題“全國統一大市場背景下的公共數據開放制度研究”(編號:2022-YJ-K06)

DOI:10.3969/j.issn.2095-0330.2023.03.004

自2022年11月底發布以來,ChatGPT已經引發全球性的社會關注。ChatGPT是GPT技術的一種,其本質是通用大模型。通用大模型的發展使人們看到了通用人工智能突破的可能性。通用人工智能對人類的知識秩序和政治秩序都將形成較為深遠的影響。本文所思考的問題是:GPT技術對人類社會的知識生產究竟會產生何種影響?這種知識生產與目前的深度媒介化發展會產生何種關聯?這種新型的知識生產及其加速的深度媒介化最終會對人類的政治秩序形成何種效應?

一、知識即媒介: 大模型加劇深度媒介化

馬歇爾·麥克盧漢(Marshall McLuhan)幫助我們打開了媒介社會的大門,其對“媒介”一詞進行了徹底的革新性定義,并掀起了媒介社會研究的熱潮。在《理解媒介:論人的延伸》一書中,麥克盧漢提出了“媒介是人的延伸”“媒介即訊息”等著名命題,為我們理解媒介技術與社會塑造、過程(介質)與內容(訊息)等關系提供了廣闊的思路。 目前,人類社會正日益往媒介社會的方向急速推進。按照施蒂格·夏瓦(StigHjarvard)等學者的觀點,我們已經進入一種深度媒介化的社會,現代社會已被媒介完全“浸透”,媒介成了“我們呼吸的文化性空氣”。

同時,安德烈亞斯·赫普(Andreas Hepp)也在《深度媒介化》(Deep Mediatization )一書中用“深度媒介化”(deep mediatization)一詞概括了媒介化在數字時代的新特征,他認為數字化已經使我們進入一個新的媒介化階段,在這個過程中,社會世界的所有元素都與數字媒體及其基礎設施建立起復雜的聯系,媒介對社會發展產生了至關重要的影響。喻國明等學者則指出,“深度媒介化”表明數字媒介作為一種更高維度的媒介,正以新的傳播關系重構舊有的社會關系并激活個體力量。換言之,從“媒介化”到“深度媒介化”的范式變革,意味著由數字媒介引發的傳播革命正極為深遠地改變社會的基本形態。綜合這些學者的觀點可以發現,“深度媒介化”指向一種媒介技術越發向社會滲透而引起巨大變化的狀態,即在深度媒介化的過程中,社會世界的各類元素(涵括帶有整體與結構性質的制度、文化、結構及帶有個體性質的個人、實踐活動等)都與數字媒介及其基礎設施發生相互“型構”(figuration)。簡言之,“深度媒介化”具有雙重特征:一方面,媒介的技術相互關聯度越來越高;另一方面,媒介技術與社會世界諸元素的關聯與互動越來越深入,彌散于社會世界的各個罅隙之中,重構著以往的各種社會關系。

不過在筆者看來,大模型出現之前的媒介化,還不能完全被稱為深度媒介化,其更多是一種表面媒介化。這種媒介化的力量是向外的。例如,普通人通過社交媒體發布自己的家庭生活、工作點滴和日常游歷,這樣的內容更多的是一種過程性記錄,展示的中心多為表面的生活。阿德里亞娜·馬納戈(Adriana Manago)等學者通過調查青年人在MySpace這一社交平臺上與同齡人的互動時發現,其自我表達與自我呈現往往是理想化、美化和夸大的。 埃里卡·貝利(EricaBailey)等人在研究中也指出,社交媒體看起來就像一個人造世界(artificial world),人們在其中的生活幾乎完全由具有異國情調的假期、廣泛堅固的友誼和上鏡的健康膳食組成,而整個行業也都圍繞著人們在社交媒體上渴望展示理想自我形象的愿望而建立。由此,大模型之前的媒介化社會,往往會出現一種內在的悖謬,即人們在社交媒體中越多地進行展示,其越容易把自己的內心世界隱藏起來。

然而,以GP T為代表的大模型技術,則會產生一種內在的賦權效應,從而可能會推動一種內在媒介化。這種媒介化的力量是向著人的內心世界來推動的,其核心是知識本身,即在知識上人們會附著更多的價值觀、愿景及深度思考。例如,在大模型的輔助之下,人們可以結合自己今天的心境用詩歌來表達思想狀況。這種表達顯得更有知識內涵,似乎也更隱晦,更能匹配不愿直白表達而隱晦表達、想要表達卻表達不出等不同群體展示內在世界的需求。

為何在大模型出現之前內在媒介化的大眾化會比較困難?這是因為要反映人的內心世界,需要大量的復雜知識。對于那些受教育程度不高的人而言,這是一種巨大的困難。如何以優雅的、極富內涵的方式來表達自己,并以數字化的方式呈現在自己的社交媒體平臺上?這往往是少數受過較好教育或修養深厚的群體才能實現的。

換言之,傳統的知識生產具有較高的門檻,缺乏嚴格訓練且沒有充分知識表達能力的個體,無法很好地加入這一知識生產過程。然而,大模型卻會產生巨大的知識賦權效應,以ChatGPT為代表的大模型可以在較為通用的領域內進行廣泛應用,可以執行廣泛的語言任務,包括寫代碼、創作散文及翻譯文本等。在這個知識生成工具的輔助下,任何個體只要掌握了一定的提示工程技巧,就可以引導大模型根據自己的需求產生大量知識。而喻國明等學者同樣敏銳地觀察到了以GPT為代表的大模型技術對個體的賦權作用,并指出“生成式人工智能將更加深刻地對個體賦能賦權”,主要表現在生成式人工智能突破了資源使用整合層面的能力局限,提高了個體的傳播能力,同時促進了普通個體與精英的“能力溝”的彌合。 深度媒介化的意義在于,這樣的知識生產本身就意味著傳播活動的開始。“一鍵生成”的知識生產模式和“一鍵發布”的知識傳播模式會結合在一起,大大縮短從知識產生到他人接受知識的過程。在這樣的背景之下,大模型勢必會帶來一場全新的知識生產革命。

每個個體只要掌握了一定的提示工程技巧和能力,就可以利用大模型生成巨量知識,可以進入知識生產的中心。這種新型的知識生產明顯是去中心化的。每個個體似乎在形式上都能夠扮演在傳統知識秩序中學者和專家才具有的角色。

只要具有一定的流量和粉絲,就能夠影響其他個體。學者和專家在整個知識生成秩序中的作用會不斷被稀釋,會出現一種“量化的平庸”現象。

在傳統的知識生成秩序中,學者和專家的知識被賦予了更多的權重,因此其知識會自動地浮現出來,從而引導社會發展的方向。然而,在一種巨量且快速生成的新知識秩序之中,學者和專家的知識如果不被賦予更多權重,那么他們生成的知識只能作為將被加權平均的基數而存在。從這一點來講,這種內在媒介化同樣蘊含了新的風險。

在這樣一個人人都進行知識生產和表達的時代,我們需要反問:這樣的表達中哪些是個體自身的內在想法?換言之,在一個人機雜糅的知識生產時代,人類知識和人類的真正思考是否已經被機器知識完全稀釋掉了?

二、知識泡沫與深度混淆:后真相時代的真正來臨

人類社會的傳統知識生產是一種較為精致的知識生產。這樣的創作過程往往需要花費較長的時間。例如,要創作一首歌曲,首先就需要創作者到各地或者各場景中去采風,在創作的過程中獲得某些靈感,并在靈感的激發下完成作品。同時,其也是在與大量人類個體的互動中誕生的。

這樣的作品要獲得社會的認可和承認,同樣需要經歷一個漫長的過程,甚至可能會被不斷地再創作。用保羅·利科(Paul Ricoeur)的話來講,這種對原作品不斷創作的過程,就是解釋的過程。

由于“解釋是思想的工作,這工作在于對隱藏在表面意義中的意義加以辨讀,在于展開包含在字面意指中的意指層次”。因此,這種解釋過程甚至可能比作者的原創作過程更加重要。人文藝術一直被認為是人類知識創造的最高水平,好的人文藝術作品可以激發人的某種情感。比如,格奧爾格·黑格爾(Georg Hegel)認為“美就是理念的感性顯現”,并主張藝術之本質是一種精神性的存在。然而,這些領域目前都在面臨人工智能生成物的侵蝕,如智能繪圖工具Midjourney和Stable Diffusion可能會逐步使得人類繪畫失去意義。目前,插畫師行業已經受到這些AIGC工具的威脅。從2023年上半年開始,一些動漫公司的插畫師就被大范圍裁員,而那些被保留下來的插畫師還被要求必須會使用Midjourney等工具。與AIGC工具相比,人類插畫師的創作速度實在太慢。人類插畫師要完成一幅作品,至少需要2—3天的時間,而對于Midjourney這樣的工具而言,其在10秒鐘就可以完成4幅作品的創作。這種一鍵生成和快速創造對于人類的知識生產而言是一種巨大的沖擊。人工智能生成工具的進化速度也讓人越來越驚訝。在從V1到V5不到一年的進化時間中,Midjourney實現了各方面能力的巨大提升。

例如,之前讓人工智能對人類手部進行臨摹是較為困難的,然而在最新的版本中,這一問題得到了有效解決。在最新的V5.1版本中,Midjourney的像素大大提升,已經完全達到能在經濟活動中替代插畫師工作的水平。而在現實中,出于經濟效率的考慮,動漫公司會毫不猶豫地裁掉人類插畫師,而選擇Midjourney這類工具。近期另一個重要的案例是“AI孫燕姿”在社交媒體中的爆火。翻唱經典歌曲是人類音樂創作的一部分。如前所述,翻唱的過程實際上是讓經典變得更加經典的過程。然而,AI翻唱出現后,人類個體通過AI工具從孫燕姿的音樂中提取其音色特征,可以快速且海量地生成用AI孫燕姿翻唱的華語歌壇的諸多作品。

整體而言,人類的知識生產是一種慢速生產,在慢速生產過程中,人類會精心地進行知識的挑選,使得那些高質量的知識浮在人類社會的頂端,并將其作為人類社會前行的重要指引。

因此,每個時代都會有最具藝術創造力的作品。

以中國文學為例,我們可以看到楚辭、漢賦、唐詩、宋詞、元曲、明清小說等經典作品的流傳。

一個時代所流行的作品,終會以某種經典藝術的形式被保留下來。而這樣的藝術形式是人類社會在漫長時間中逐步發展并積淀下來的。在機器看來,人類的知識生產無疑是一種龜速。實際上,人類知識生產慢速的重要原因是要擠壓泡沫。

然而,以大模型為中心的知識生產卻會打破這種慢速節奏。與之類似,丹尼爾·貝爾(DanielBell)曾提到快速的視覺文化對慢速的印刷文化的沖擊,其認為“當代文化正在變成一種視覺文化,而不是一種印刷文化”,而“印刷媒介在理解一場辯論或思考一個形象時允許自己調整速度”,但視覺媒介“則把它們的速度強加給觀眾”。換言之,由于知識在較短的時間內大量生成,就會失去泡沫擠出的時間,最終導致的結果便是一種深度混淆。這里的深度混淆主要表現為兩種:第一,正確與錯誤的混淆。ChatGPT有非常嚴重的幻覺問題,即其會一本正經地說瞎話。

雖然GPT-4在一定程度上大大減少了幻覺的出現,但這一問題仍然存在。從某種意義上講,幻覺是不可能完全消除的。GPT是一種根據上文預測下文的大語言概率模型,其本質上是通過上文的詞語來生成下文,而下文選擇哪一詞是在概率運算的基礎上得到的。換言之,機器生成的基礎是概率,而概率就意味著各種可能性都會存在。

幻覺是小概率事件,但小概率意味著其仍然有可能產生。實際上,人類的知識同樣會存在錯誤和偏差,但是人類的知識生產存在一種自我認同和糾偏機制。換言之,知識秩序的出現本身就是一種認同的表現,其會通過一體化的力量來塑造這種認同。當然,這些認同并不意味著錯誤的完全消除,因為正確和錯誤是相對的。某種知識在一種語境中是正確的,但在另一語境中卻可能是錯誤的。然而,在大語言模型那里,人類價值觀的不同語境問題會被同一化,都會被轉化為概率問題,這實際上就會把人類的知識偏差或者錯誤內嵌到機器的知識生產之中。

另外,數據是機器的食物。大模型之所以表現出如此高的智能,是因為參數數量的增加使其智能以涌現的方式出現。換言之,機器智能是“大力出奇跡”的結果,需要大量的人類知識投喂。這就會面臨人類數據被用盡的問題。

OpenAI的首席科學家伊利亞·蘇茨科弗(IlyaSutskever)在訪談中就曾談到這個問題,其認為未來人類的數據可能會被用盡。一個新問題是,當人類數據被用盡之后,我們將會用何種知識來訓練機器?人類的選擇便可能是機器產生的知識。實際上,今天機器產生的知識已經大量進入人類的知識體系,以至于我們有時已經很難辨認哪些是人類的知識,哪些是機器的知識。從這個角度來講,機器生成產生的偏差或錯誤會以語料的方式再次進入大模型的訓練之中,這會導致一種偏差或錯誤的自我循環,最終使得人們很難辨認正確和錯誤。

第二,高質量和低質量的混淆。盡管質量高低評判的尺度非常復雜,而且在一些情況下,質量高低也往往是一種主觀評價,但人類社會在數千年的演進中還是形成了諸多關于質量的評價。

如前所述,每個時代都有那個時代的經典作品。

經典作品實際上是在人類后期知識秩序產生的過程中,通過大量的人工活動被挑選出來的。今天的困難在于,在海量的知識生產面前,人類的挑選變得非常無力,因為數據量過于巨大,人類無法進行有效的挑選。在人類社會的絕大多數階段,記錄是例外,遺忘是常態。絕大多數知識并沒有被有效地記錄下來,那些被記錄下來的知識本身就已經被遴選過。同時,在記錄的過程中,由于記錄載體是相對稀缺的,所以這一記錄過程本身也是一個信息精簡的過程。人類社會早期的文字記錄,形式都比較精簡。隨著記錄手段的不斷發展,人類記錄的知識變得越來越冗長,有意義的和無意義的信息都會被記錄下來,這給后來者的學習和信息挑選都帶來了一定的困擾。在今天短視頻和直播大行其道的背景之下,人類的高質量選擇活動會變得更加困難。何況,未來的短視頻和直播中還會增加更多機器的身影,而人類沒有充足的時間去觀看這些內容。

所以,在深度混淆的背景之下,人類進入了一個知識的冗余時代。冗余的最大問題就在于其對真相的蒙蔽。伊萊·帕里澤(Eli Pariser)曾提道,“一個充斥著已知的世界也是一個無法學習新事物的世界”,人們被知識的“虛假繁榮”幻象籠罩著,以至于人類探尋真相與新知的腳步被極大地阻礙。2016年,“后真相”(posttruth)一詞曾被牛津詞典選作“年度詞匯”,其主要指客觀事實對于形塑公共輿論的影響力,不如訴諸個人的情感與信念。同時,其具有權威性與影響力倒置、客觀性“破產”等特征。如今,在知識泡沫和深度混淆的雙重影響之下,真正的后真相時代可能會來臨。在傳統的知識秩序中,人們對于真相的信念往往需要通過大量的學校教育以及主流媒體的宣傳來不斷加以確認。然而,在今天,對于那些新媒體的原住民而言,其可能從內心上就排斥這樣一種所謂的真相。再加上大量人工智能生成物的泡沫洗禮,這些原住民從內心情感上似乎已經不再愿意辨別真相。“有圖有真相”已經成為過去式。譬如,近期深耕數字技術研究領域的心理學家蘇菲·南丁格爾(Sophie Nightingale)等人進行了一項研究,其對志愿者是否能夠區分人工智能系統創建的類似于護照的頭像和真實圖像進行了測試,實驗結果表明,人們很難可靠地辨別人工智能合成的面孔與真實面孔之間的區別。同時,南丁格爾等人指出,基于音頻、圖像和視頻的合成(即“深度造假”),已經使好萊塢級特效技術大眾化。換言之,如果人們認為圖片就代表真相的話,只要人們有一個想法,Midjourney等應用在瞬間就能生成“真相”。目前,由文字生成視頻的技術也在快速發展當中,例如Gen-2便可以通過人們的提示生成視頻。當然,這樣的技術目前還不完全成熟,但是按照機器迭代的速度,可能在未來1—2年,文字生成視頻的技術就會大行其道。

知識泡沫和深度混淆的最為嚴重的后果就是信任的困難。由于圖像的巨量使用,真相常常被人為地進行操控與扭曲,并呈現出對事實及真相的解構。在“深度偽造”(Deepfake)流行的背景下,人們變得無法對那些看到的東西產生信任,進而誘發嚴重的社會信任危機。對于人類的知識生產而言,就會出現一種真實的“自我舉證困難”。換言之,假設一個人發布了一段關于自己的真實的視頻,那么如果他要向大家證明這段他自己拍攝的視頻是真實的,就會出現舉證困難,即真實的自己在“舉證自己是真實的”過程中的舉證困難。最終結果就是,既然大家都不相信人們的行為是真實的,那人們為何還要表現出真實的行為?

三、知識秩序的打破及其對政治秩序的威脅

知識秩序和政治秩序處在某種異形同構的關系之中。知識秩序是基礎,其涉及大眾的日常生活,而政治秩序是上層建筑,其涉及政治統治和國家治理。良好的政治秩序往往需要建立在穩定的知識秩序基礎之上。例如,儒家便極為強調這種知識秩序與政治秩序的辯證關系。《論語》是儒家構建政治秩序的關鍵著作,其第一篇是《學而》篇,這在一定程度上表明,儒家力圖通過知識秩序來構建政治秩序。學習是知識秩序的基礎。對于學習的內容,儒家一方面強調那些經典的文本(如四書五經),另一方面則更為強調對四書五經中“仁義禮智信”等內容的實踐。四書五經是儒家知識秩序的象征。政治秩序的主權者往往會委托代表性學者(如朱熹等)主持某些典籍的編纂工作,以便通過這些編纂來強化知識秩序,從而在知識秩序中傳播孔子所強調的“君君臣臣父父子子”這種各方角色履行其職能的觀念。最終,知識秩序會服務于政治秩序。從另一個角度來講,傳統知識秩序的慢生產節奏與政治秩序緊密結合。政治會采用一種遴選機制,將一些符合政治統治的知識上升為國家意識形態。比如前述的四書五經的編撰,或者歷史上一些大型百科書籍的編撰,都在很大程度上產生了一種知識大一統的效應,以服務于政治秩序。從這個角度來講,以GPT技術為代表的通用大模型會對傳統的政治秩序形成巨大沖擊。這主要體現在以下兩點:第一,約束困境。大模型本身是以知識秩序的外生力量出現的。用馬克思的概念來說,其是一種異己的力量。通用大模型是以一種生產力工具的面貌出現的。在GPT技術的發展過程中,微軟是一個極為關鍵的角色。OpenAI在開發GPT的技術過程中遇到了重要的算力瓶頸。沒有強大算力,即便OpenAI的首席科學家蘇茨科弗對大模型有非常強的信念,這樣的智能涌現還是無法出現。對于微軟而言,大模型給其帶來的直接收益就是其可能會改變搜索市場的生態。在此前的國際搜索市場中,谷歌在很大程度上是一種強勢的壟斷性存在,微軟的必應在其中所占的市場份額很小。然而,大模型的出現卻可能會改變這一格局。從目前的例證來看,微軟必應的個人用戶在短期內已經有較大的增長。微軟推動GPT技術的目的很簡單,就是要改變搜索市場的格局。同時,微軟還希望通過將GPT技術全面接入Office系統,大大提升Office系統中各個組件的性能。

目前,微軟首席執行官薩蒂亞·納德拉(SatyaNadella)已證實,Office正在與GPT-4進行新的集成。而這些組件在人們的辦公或生活過程中都是一些非常重要的生產力工具。例如,在新的Office Copilot系統中,人們可以輕易地實現一鍵生成PPT。只要人們說出對PPT的某些相關要求,在幾十秒的時間之內,一份PPT的制作便可完成。正如默里·沙納漢(Murray Shanah)在《技術奇點》一書中所強調的那樣,人工智能龐大的數據量和出色的處理速度正在越來越讓人感到驚訝。總之,大模型是作為一種提高生產力的經濟力量而出現的,其與現有知識秩序本身就是不相容的。

然而,這其中悖謬的是,大模型又表現為一種強大的知識生成工具。換言之,其以經濟力量出現,卻將自身納入了知識生成的秩序之中,這就會出現一種約束困境。作為政治秩序的代表,國家要維持基本的治理秩序,就需要對大模型的力量進行監管和約束。如果不約束,其最終發展很可能危及政治秩序本身。然而,如果約束過強,不僅大模型的生產效率將會受到影響,而且政府本身在脫離技術力量的快速發展之后,也難以達成較好的社會治理效果。 強監管之下的大模型會受到多方面的掣肘,極有可能在國際競爭中落敗,而這種落敗無疑又會影響到經濟秩序。

經濟基礎決定上層建筑,在代表經濟秩序的生產力競爭中落敗,在很多國家看來都是不能被接受的,于是就會出現一個“必須監管,但又不能監管”的約束困境。

第二,不確定性困境。大模型的另一個重要特征是生成智能。GPT中的“G”是Generative的縮寫,其中文含義是“生成的”。生成智能意味著其生成的內容本身就是不確定的。如前所述,通用大模型的本質是大語言的概率模型,這意味著各種可能性都會出現。換言之,大模型本身就是一種不確定性的工具,這就與政治秩序產生了一種內在沖突。因為政治秩序本身需要高度的確定性,不確定性就意味著某種程度的失序的可能。大模型作為人類社會生產力基礎的大趨勢是不可改變的。未來,為了推動生產力的不斷發展,無論是生產部門還是社會組織,抑或政府相關部門,都不可避免地要接入大模型,而大模型本身內在的不確定性又可能會增加政治秩序的失序風險。

另外,與生成智能相關的知識產權問題也會涉及政治秩序。目前,知識產權界對于生成智能往往會采取直接拒斥的做法,即認定生成智能不具備相關的知識產權。 例如,馮曉青等人認為,人工智能的生成物不能真正體現創作者的獨特性,因而無法被認定為著作權法意義上的作品。這個做法的優點是,其在很大程度上捍衛了傳統的知識秩序,可以避免人工智能生成物對傳統知識秩序的沖擊。

然而,其也會產生相應的問題,即對于目前日益發展的人工智能生成物世界,人類并沒有建立相應的規則。由于目前對人工智能生成物僅僅是采取一種拒斥的做法,因此人類社會很難對這樣的人工智能生成物進行保護。而一些人工智能生成物的經典作品(例如那幅獲得了國際大獎的《太空歌劇院》畫作),也需要人類付出大量的提示工作。因而,這其中會產生如下問題:第一,提示詞本身是否具備某種知識產權?

因為提示詞決定著生成物的質量,而且提示詞在很大程度上也是人類知識的一種新創造形式。第二,機器的創造性是否需要得到保護?因為知識產權本質上保護的是創造性。例如,一些新型的外觀或者藥物的分子組合都表明了這種創造性。

機器在這一過程中同樣可能會產生類似于人的創造性。如果人類只是簡單地對其進行拒斥,這實際上是人類傲慢的一種表現。這種拒斥產生的最大問題是,其并沒有為這一新世界創造某種秩序。第三,知識產權的建立不僅涉及經濟體系,還涉及責任體系。由于目前人工智能生成物并不具備相應的知識產權,因此會導致大量盜用情形的出現。對于那些花了大量時間通過提示來創作經典作品的人而言,這是不公平的。另外,經濟體系還會誕生責任體系。人們從某個作品中通過知識產權獲得某種經濟利益的同時,也被要求進入某種責任體系之中。當某個作品產生相應的負面影響時,這一作品的所有者將要承擔相應的責任。

因此,對人工智能生成物的排斥性做法最大的問題就在于,這種拒斥權利不僅導致了經濟收益無法保障,還會導向無責任的情況。實際上,在知識產權的實踐當中,一些在相應的判決中產生的處罰往往是以經濟收益為中心的。換言之,經濟利益的確認在很大程度上導致了一種責任體系的誕生。如果我們不給予人工智能生成物以知識產權的認定,那就排斥了其經濟利益,同時也排斥了相關的責任界定,出現一種極化的處置方式。未來,如果人工智能生成物的知識產權不能被給予界定,可能會出現大量規模較小的侵權活動。當然,這樣的侵權更多的是從人類知識產權的角度來理解的。由于法律上沒有界定,所以就沒有辦法對其進行懲戒。另外,當涉及的社會影響極其巨大時,其會被定義為一種惡性事件。這就會出現一種極化的處理方式,即極小的懲戒不存在,而只會進行較大的惡性事件的重罰,這最終并不利于法治的發展。

四、大模型的知識大一統與知識帝國主義

以GPT技術為代表的大模型,可能會形成某種知識大一統格局。以OpenAI開發的GPT技術為例,其訓練的核心語料以英文為主,其他的語言只占到非常小的比例。現有的公開資料顯示,GPT-3的預訓練語料集主要由Common Crawl數據集、Reddit鏈接、書籍、期刊及英文維基百科數據等組成,而微調語料則主要源于GitHub上的公共代碼庫。從這個意義上講,OpenAI的GPT技術是“西方知識的孩子”。從知識基因的角度來講,其持有典型的西方價值觀特征。另外,在大模型的微調過程中,OpenAI要啟動與人類對齊的工作,問題是,這里的對齊是與誰對齊?很明顯,這樣一個與人類培養人才類似的對齊過程,其內含的對齊價值觀明顯是西方價值觀。

換言之,通用大模型是一種當代的“巴別塔構架”,其在很大程度上會打破語言的壁壘。盡管GPT訓練的語料主要是英文知識,然而涌現的意義在于,其一旦達到某種智能突破之后,就會在不同語言任務中表現出極為優異的效果。例如,在眾多網友的測試中,即便是對中文語義的理解,GPT系列的表現仍然大大優于以中文語料訓練為主的“文心一言”。因此,大模型的發展可能會有利于形成某種基于西方文化的知識統一,其可能會構建一種新型的知識帝國,對于其他文化可能會形成壓迫和打擊效應。在這一過程中,各類小語種會面臨極為不利的困境,并被動地承受來自英文知識的話語權力擠壓。 語言的價值在于學習和使用,然而在大模型大行其道的背景之下,英語學習可能會迎來新一輪的熱潮。

從效率的角度來講,如果未來GPT技術一直處于非常領先的地位,其他國家并未產生與之相抗衡的大模型技術,就意味著各國的使用者要獲得這樣的先進生產力,將不得不借助GPT這樣的大模型。同時,基于GPT等大模型技術的發展,機器翻譯的水平會越來越高,對小語種而言,這同樣會形成巨大的遏制效果。最后可能會出現的一種情形便是,大模型技術與西方少數知識精英形成聯合,這種聯合為整個世界范圍內的知識生產提供基礎構架,再通過知識民粹主義的方式發動大眾,在大眾的提示和誘導之下產生巨量的知識生產,最終結果是動搖傳統知識秩序中的知識中產階級。路易·阿爾都塞(Louis Althusser)認為,通過對人的“詢喚”(interpeller)能夠使其成為服從的主體(sujet),即“所有意識形態都通過主體這個范疇發揮功能,把具體的個人呼喚或傳喚為具體的主體”。在這一過程中,GPT將發揮路易·阿爾都塞筆下的“詢喚”功能。換言之,GPT能夠通過對個人的詢喚使其服從于“他者”,并引導具體的個人為西方少數精英這個主體的意識形態提供服務。這里要特別討論的是中產階級在大模型產生的新知識運動中的可能走向和地位。人類歷史上的諸多思想家都極為重視中產階級的作用。例如,亞里士多德就討論過中產階級對于政治穩定的特殊功能。作為社會發展的穩定器,中產階級可以在很大程度上避免政治極化的出現。同時,中產也是知識生產的主力軍。在第三產業中,占據較大比例的服務業主體便是知識中產。這些中產包括編程人員、辦公室工作人員、會計師、律師、教師、醫生和心理咨詢師等。知識中產在人類傳統的知識生成秩序中發揮著重要的基座功能。絕大多數知識中產承擔著知識傳播和知識實踐的功能,少數的知識中產則會發揮知識創造和知識生成的作用。這里要特別提及的是,知識傳播對于知識秩序而言同樣極為重要。知識中產在這一過程中通過一種相對穩定的慢傳播,會對政治秩序形成穩定效應。然而,大模型的發展可能會在一定程度上削弱知識中產的意義,甚至會掏空知識中產的存在價值。

大模型會變成一種普遍性的生產力工具。那些并未受過較好高等教育的人,都可以通過大模型來進行巨量的知識生產。這將導致的后果之一就是知識的世俗化甚至庸俗化。而教育作為知識傳播的核心環節,也將不可避免地趨于平庸。帕克·帕爾默(Parker Palmer)認為,知識分子在知識傳播過程中有其獨特的價值意義,但知識的大眾化生產對教育的崇高化產生沖擊的另一個副作用就是“我們最多只能達至平庸”。同時,這樣的知識生產可能會內含西方的價值觀,而西方的知識精英會與資本精英和技術精英聯合起來,通過知識民粹主義的方式,不斷創造新的知識熱點。如果作為穩定器的知識中產在這一過程中不斷地被邊緣化,則會最終導致知識生產秩序的極化問題。并且,這種極化最終可能會蔓延到政治領域,并加劇政治領域的極化問題。譬如,調用OpenAI的API需要支付一定的費用,具體收費標準則主要根據通證(token)數量而定。而近期技術專家丹尼斯·林可夫(Denys Linkov)通過測試和統計發現,向GPT-3詢問同一個問題時,某些小語種要比英語貴15.77倍。小語種除了因通證量的增加而帶來高成本問題外,還蘊含著更長的等待時間、更少表達的提示及更有限的響應等內在約束。進言之,在大模型使一切信息“通證化”的趨勢下,通證將扮演一種新型通貨的角色。由于美西方國家在API調用上相對于使用其他小語種的國家具有明顯優勢,因此在未來極有可能出現一種由大模型導向的新美元秩序,進而出現一種數字空間中的新型地緣政治格局。換言之,未來,關于大模型的競爭,很可能會演變成新型文明的競爭。

結 語

我們目前處在一種深度媒介化的過程之中,這種深度媒介化不可避免地帶來了知識泡沫和深度混淆問題。在加速主義的背景之下,正確與錯誤、高質量與低質量都變得越來越難以辨別。這其中蘊含的最大風險就是,人們會認為沒有什么是真正值得信任的。這樣一種深度不信任的蔓延,最終會使得知識秩序的危險轉變成政治秩序的危險。西方國家很可能會利用其在大模型技術上的優勢地位,推動一種基于語言大一統的知識大一統,這在本質上是一種新型的知識帝國主義。要破除這種知識帝國主義,對于較大的主權國家而言,開發自己的大模型變得尤為重要,而對于那些沒有能力自己開發大模型的國家而言,則需要審慎地進行大模型的使用。

因為這種使用背后反映的是一種價值觀一體化的力量。如果使用不當,可能會使本國的弱勢文化陷入覆滅的風險。

另外,由西方資本所推動的加速主義情形同樣是我們要反對的。因而,在一定程度上,人類社會要形成某種減速或者反加速。在這一過程當中,形成GPT時代的新知識秩序至關重要。我們當前面臨著一種舊世界被打破的情形,更加需要通過協商民主合力構建新的人機秩序。如果這樣的新秩序無法在大模型被廣泛應用之前就建立好,那么大模型很有可能會對人類社會產生巨大的創造性破壞影響。

換言之,在知識泡沫和深度混淆的背景之下,我們要形成一定的知識沉淀和鑒別機制,以對抗機器的巨量泡沫創造。同時,在這一過程中,民族國家和公民個體的內在能力就會變得至關重要。知識在本質上還是人的知識,而要實現自由人的知識生產,關鍵是要提高人的內在知識能力。對機器的使用,不能導向一種基于機器的人類異化。同樣,這種內在能力也需要擴展到民族國家層面,民族國家需要成為抵御這種知識侵略的重要力量。在這一過程中,民族國家需要有效地調動資源,形成新的知識屏障和秩序,同時還需要在激烈的市場和知識競爭中,充分地參與到這類新型的人機共生的知識生產之中。各國都需要為這樣的新知識秩序的創立貢獻力量,并且應該在這一過程中通過全球協商民主的方式來構筑一種新型的智能文明。

(作者系華東政法大學政治學研究院院長,教授)

主站蜘蛛池模板: 日本国产精品一区久久久| 99999久久久久久亚洲| 亚洲精品在线影院| 久久精品国产免费观看频道| 日韩精品无码免费专网站| 午夜视频日本| 国产制服丝袜91在线| 亚洲swag精品自拍一区| 毛片在线看网站| 国产欧美日韩视频怡春院| 国产精品亚欧美一区二区三区| 欧美中文字幕一区| 国产SUV精品一区二区6| 国产激情国语对白普通话| 亚洲av色吊丝无码| 狠狠色综合久久狠狠色综合| 丰满人妻被猛烈进入无码| 毛片网站在线播放| 亚洲国产天堂久久综合| 国产又爽又黄无遮挡免费观看 | 成人福利在线免费观看| 五月天丁香婷婷综合久久| 一级一级一片免费| 无码'专区第一页| 国产又黄又硬又粗| 一本大道无码日韩精品影视| 国产主播在线一区| 99久久国产精品无码| 99九九成人免费视频精品| a毛片在线| 婷婷丁香在线观看| 免费一级无码在线网站| 亚欧乱色视频网站大全| 九色综合伊人久久富二代| 国产精品毛片在线直播完整版| 国产亚洲视频中文字幕视频| 日韩精品视频久久| 制服丝袜在线视频香蕉| 免费激情网址| 免费一级全黄少妇性色生活片| 国产熟女一级毛片| 亚洲免费播放| 国产99精品视频| 欧美激情视频一区| 国产免费好大好硬视频| 国产一级一级毛片永久| 亚洲精品成人福利在线电影| 日本欧美一二三区色视频| 一级一级一片免费| 伊人福利视频| 国产呦精品一区二区三区下载| 国产精品一区二区无码免费看片| 欧美中文字幕在线视频| 国产精品成人免费视频99| 欧美日本激情| 四虎亚洲精品| 青青青草国产| 99青青青精品视频在线| 一本色道久久88综合日韩精品| 在线中文字幕日韩| 中文字幕不卡免费高清视频| 青青热久免费精品视频6| 欧美国产精品不卡在线观看| 久久一本精品久久久ー99| 欧美a在线视频| 九九线精品视频在线观看| 国产精品极品美女自在线网站| 亚洲欧美精品在线| 欧美色视频日本| 亚洲精品国产成人7777| 丁香五月亚洲综合在线 | 国产免费a级片| 亚洲中文字幕在线一区播放| 国产女人在线| 制服丝袜一区二区三区在线| 成人午夜视频网站| m男亚洲一区中文字幕| 先锋资源久久| 97影院午夜在线观看视频| 精品亚洲麻豆1区2区3区| 色综合网址| 扒开粉嫩的小缝隙喷白浆视频|