陳全真
關鍵詞:Web3.0 生成式人工智能 ChatGPT? 平臺 平臺權力 中心化
一、問題的提出:生成式人工智能如何影響平臺權力?
早期萬維網的“去中心化”試驗表明,互聯網的初衷是構建一個去中心化的空間。也就是說,在網絡空間中鮮有特權和偏見。但后來伴隨著互聯網商業化進程的加快,以攫取和擴張為天性的資本在互聯網這塊公共荒地上不斷開墾,技術性強制措施和對財產的排他性占有重新成為互聯網領域的權威法則。一批具有媒體屬性的門戶和垂直專業網站,形成吞噬互聯網流量的超級黑洞,而不久后這些超級網站的流量和影響力又不得不依附于更齊全、更強大的門戶網站。網絡空間中形成中心化的平臺權力。但在Web2.0與Web3.0的過渡時期,平臺權力發生流散。一方面,國家開始頻繁介入互聯網平臺內部治理機制,開始收回彌散在“平臺社會”的中間制度的創設權和實施權;另一方面,一種新的分布式網絡被構筑,用戶創造的權利與價值的分配,不通過第三方即可得到高效、準確、可信的執行,用戶開始擁有數據主權。
然而,以ChatGPT為代表的生成式人工智能的問世,預示著用戶享有數據主權的美好理想將化為泡影。美國人工智能研究機構OpenAI將ChatGPT定義為人工智能技術驅動的自然語言處理工具。它解決了這樣一個核心問題,即如何讓人工智能模型的產出和人類的常識、認知、需求、價值觀保持一致。與從大量數據中尋找隱藏模式并形成預測的分析式人工智能不同,生成式人工智能最顯著的技術優勢在于它可以基于人類反饋的強化學習尋找完成人類指令的最優解,擁有對自然語言的理解、解釋和生成內容等方面的能力,甚至在人類知識貯存與計算機超級算力的加持下,其能力可以遠遠超過人類。作為一種基石性的大型語言模型,生成式人工智能可以被應用到搜索引擎、內容平臺、應用軟件等一系列下游場景中,可以作為數字技術市場的“看門人”,與下游應用場景的結合將會帶來巨大的市場支配力量。這是否意味著,在嵌入生成式人工智能后,Web3.0時代的互聯網平臺將迎來重新賦能的機會,進而產生一種更為中心化的平臺權力? 倘若如此,此種平臺權力的生成、作用方式以及對用戶權利的影響將是我們不得不思考的問題。未來如何通過技術、法律或政策的指引,既不遏制人工智能技術的創新和產業化應用,又能實現“平臺+生成式人工智能”的規范化運行,引導其向有利于人類福祉的方向發展,將成為一項重要議題。
二、Web3.0時代平臺權力的流散
就本質而言,平臺權力是一種社會權力形式,或者說平臺權力是社會權力的Web2.0形態。在前互聯網時期,傳統社會權力至少在社會團體內部是一種中心化的權力,但又不可避免受到國家權力的侵擾甚至解構,時刻面臨去中心化的威脅。Web2.0時期,互聯網技術迎來大規模的商業化應用,互聯網寡頭借助原始資本和技術先占優勢,重新改造權力的發生機制和作用于人的方式,使得傳統社會權力進化為平臺權力。平臺借助技術架構控制信息生產、篩選和分發機制,制造平臺與用戶之間的信息不對稱,從而過度參與社會公共管理,引發社會公眾質疑,國家開始加強對平臺經濟的規制。從國家互聯網治理實踐來看,平臺所能掌控的公共空間正在縮小,所能參與社會公共管理的深度正在下降,平臺權力正在發生流散。
(一)從競價排名的法律定性看平臺權力流散
競價排名的法律定性之所以產生爭議,立法的缺失、行政機關的回避以及司法裁判的分歧僅是表面原因,競價排名引發的社會風險在歸因層面早已超出了其法律定性,更深層次的原因在于其從信息生產到信息交換,再到信息發布的整個過程,不再像以往的廣告發布那樣依賴和遵循市場邏輯,而是更多地依靠互聯網平臺的技術架構。在平臺技術架構的支撐下,廣告不再是一種基于特定媒介的信息發布形式,而是在搜索引擎、商品或服務經營者和廣大網民三方互動中呈現出的信息動態交換過程,從整體來看是由搜索關鍵詞、算法匹配系統、搜索結果頁、鏈接跳轉頁等內容構成的一系列信息和技術架構。因網絡搜索的技術壁壘和信息不對稱問題尤為嚴重,網民完全依賴中心化的平臺了解商品和服務信息,缺少可替代性的選擇。在信息過剩的前提下,平臺逐利傾向驅使其濫用技術選擇性呈現出價更高、質量更低的商品或服務信息,引發公眾認知偏差,最終導致“逆向淘汰”效應。平臺權力的中心化使得既有的信息篩選機制失靈,消費者的知情權、選擇權受到侵犯,甚至生命健康權都遭受到威脅。競價排名引發的社會風險表明,平臺公司試圖將自身定義為獨立且中立的工具性客體,企圖和使用者、生產關系和生產背景等社會性要素相分離,免于承擔雇主責任,即便與使用者存在法律關系,也只是單一的服務關系,持續獲利的同時不需要承擔更加直接的生產責任。
從根本上而言,社會公眾的注意力并非僅僅停留在競價排名的定性上,而是開始擔憂平臺設置的技術壁壘和信息不對稱導致的公眾知情權和選擇權受限。在價值認同層面,部分平臺的技術架構受到公眾道德質疑,公眾信任度降低。在規則治理層面,面對輿論質疑,國家機關開始否定部分平臺對競價排名的自我定性,試圖收回散落在平臺中的治理權力。《互聯網廣告管理暫行辦法》和電子商務法均將競價排名定性為商業廣告。這將產生如下兩種法律效果:其一,搜索引擎服務商成為廣告發布主體,對廣告主的資質以及廣告內容具有較高的審查義務,這也說明國家法律開始介入,尤其對于那些影響公眾判斷和選擇的行為機制,平臺的自我定性權力受到否定,主體責任卻在加強。其二,競價排名被認定為商業廣告,意味著廣告發布主體即平臺公司將不再受到民法典“避風港規則”的庇護,而是要納入剛性更強的廣告法加以嚴苛的公法規制。這都在一定程度上表明,國家權力開始注意到平臺權力的過度中心化現象,開始在規則層面確立對平臺經濟的規制權。
(二)從信息監控的法律邊界看平臺權力流散
曾經有直播平臺實時直播通過智能攝像機拍攝的公共場所影像,引發網民圍觀和評論,這被部分公眾認為是侵犯個人隱私而遭到聲討。從該事件來看,攝像頭原本只具有監控功能,用于公共領域的安全防范,本應是公眾喜聞樂見的,而在攝像頭上加上直播功能,卻引起部分公眾的反感。這實際上反映了互聯網時代人們對于全場景監控的擔憂。平臺通過與具有監控功能的攝像頭相連接,具有了直播功能,這實際上是模糊了私人領域和公共領域的邊界。一般意義上的“公共領域”是指可以隨意進出的公共場所,但公共場所并非全無隱私之地,公共場所還包含那些“掩面而過不為人知”的私人領域。平臺公司通過技術的濫用達成權力的擴張,將“公共場所”中具有私人性質的空間不斷暴露在社會公眾面前,導致“公共場所”這一概念的范圍不斷擴大,極大地壓縮了私人空間的范圍。而與此相對的是,社會公眾的隱私保護訴求在提升,法律在回應公眾訴求時,會嘗試擴大隱私保護范圍,并時刻注意劃清私人空間和公共空間的界限,統籌兼顧公共領域安全防范與個人隱私、個人信息權益保護。
在平臺權力擴張所導致的私人領域被侵犯的問題上,一些學者已經給出初步建議,通過考量互聯網隱私侵權行為與損害結果之間的分散化, 以及侵權人與被侵權人之間舉證能力的懸殊地位,傾向于采用一種實質標準判別隱私利益, 在歸責原則上采用較為嚴苛的過錯推定原則來重構侵權規則,以增加被侵權人勝訴的可能性。在當前的司法實踐中,“侵犯公民個人信息罪”的認定,也已開始從狹隘的“隱私權保護模式”轉向更為寬泛的“公民個人信息”概念進行解釋,這實際上對平臺隱私合規提出了較高要求,對平臺權力的蔓延作出了較大限制。這些對策,有的已經被國家立法機關所采納,有的被司法機關在審判實踐中予以傾斜解釋,這些應對方法都遵循一個基本思路,即力圖劃清私人領域與公共領域的界限,擴大私人空間的保護范圍。
從近年國家互聯網立法和司法實踐來看,平臺權力過度中心化問題已得到足夠的重視,并得到一定程度的管控,平臺權力擴張引發的信息不對稱,以及公共領域與私人領域之間的緊張關系也已得到一定程度的緩解。種種跡象表明,平臺權力正在發生流散,面臨去中心化。
三、生成式人工智能:Web3.0時代的網絡集權工具?
Web3.0時代, 分布式互聯網的構筑使得原本由平臺所經手的各項數據權益分散在用戶手中,用戶所創造的數字內容及其控制管理權歸用戶所有, 用戶內容所創造的價值也由自動化合約來分配。在這種情況下,平臺權力發生流散是預料之中的現象。但生成式人工智能的出現,意味著這些散落在用戶手中的數據資源可能會再次聚集,生成式人工智能與下游平臺的結合,可能會使得互聯網寡頭重新掌握用戶數據,作為一種基礎性平臺,生成式人工智能將會淪為互聯網寡頭的網絡集權工具。
(一)生成式人工智能的知識生產
生成式人工智能主要依賴于以源源不斷的數據輸入人機交互接口,輔之以算法技術對大型語言模型的訓練, 從海量的數據中學習各種知識以輸出新內容。從生成式人工智能的發展歷程來看,自GPT1.0開始,大型語言模型就被視為通往通用人工智能的必由之路。在美國人工智能研究機構OpenAI看來,未來的通用人工智能應擁有一個能夠無差別完成人類任務的超大型語言模型,可以從海量的數據中學習各種知識,通過自動生成新知識解決實際問題。
生成式人工智能的強大功能主要源自具有強大自主學習能力的大型語言模型。生成式人工智能的知識生產高度依賴數據,也就是學習材料,想要讓生成式人工智能應對無數未見的情況,就必須提供數量足夠多、種類足夠豐富以及質量足夠高的學習材料,否則將無法學到通用規律,給出的回答將是以偏概全的。生成正確且權威知識的前提是以算法技術對大型語言模型的訓練,即通過人類反饋進行強化學習的訓練方式,包括人類與機器相互提問和回答,訓練出語言模型對答案的評判能力。生成式人工智能之所以能夠生成符合人類偏好的新知識,是因為向模型中輸入的初始數據并非世界知識,而是帶有人類價值偏好的知識。當人類偏好知識注入反饋模型的訓練中,大型語言模型就能夠輕易聽懂人類語言并可以進行一定程度的價值判斷,主要包括語言生成能力、上下文學習能力和世界知識生成能力。通過這一訓練過程,生成式人工智能的知識輸出質量將會得到大幅提升,輸出的知識會越來越符合人們的需求和認知觀念。當然,模型訓練的背后離不開海量數據的支持。大型語言模型雖具備強大的數據記憶能力,但這并非促使生成式人工智能變得更加“聰明”的關鍵因素,只有具備強大的推理能力才意味著生成式人工智能的“智力”得到提升。推理能力的本質是綜合運用豐富多樣的知識點,推導出新知識,當語言模型的規模足夠大時,就會具備相應的推理能力。生成式人工智能的一大貢獻就是實現了一種較為理想的人機交互模式,通過設置語言模型的接口層,讓語言模型去適配人類習慣的命令表達,而非讓人類去理解和適配語言模型。人類只需要以自己現存的知識形式包括數據、文字、圖片等信息輸入語言模型中,生成式人工智能就能理解人類訴求并進行解答。
生成式人工智能生成知識的關鍵一步是數據的輸入,Web3.0時代分布式網絡的構筑使得平臺數據開始逐漸流向分散的用戶,只要用戶自愿將其所擁有的知識數據輸入接口層,那么知識的生成將是水到渠成的事情。Web3.0時代的一個重要特征,是分布式文件傳輸和存儲的區塊鏈網絡帶來的“去中心化”效應。這不僅僅是一種技術上的革新,更多的是一種理念上的創新,即互聯網發展將從平臺技術創新走向用戶理念創新。在這個時期,作為知識的范疇,思想觀念將成為影響他人和社會的重要力量,它可以延伸到社會成員存在的每個角落,不同的思想觀念在互動溝通中會產生更具吸引力的知識和觀念,進而爆發出巨大的作用和能量。信息分布式呈現使得社會結構中掌握信息的主體發生改變,打破了政治權力和平臺權力的壟斷地位。正如美國學者曼紐爾·卡斯特(Manuel/Castells)所定義的,網絡社會圍繞用戶的信息權力組織起它的制度,人們建立了自己的生活并決定自己的所作所為,這種權力來源于人們的心靈。與其他權力形式相比,卡斯特這里所指出的信息權力,不像以往源自意識形態的少數精英權力,權力的主體來自社會公眾,源于人們的思想和觀念,是一種分散化的、大眾化的權力。每個人都可能成為信息傳遞的發起者,處于數據區塊鏈條當中的每個人,都可能因為了解事實真相而掌握話語權,數據信息彌散在社會個體手中。當互聯網平臺嵌入生成式人工智能后,這些散落在用戶群體中的數據將再次匯集到平臺上。
(二)知識權威性來源的改變
傳統知識往往來自人類自身的經驗和思考, 而生成式人工智能的知識生產主要源于技術人員“投喂”海量的數據,“投喂”數據的質量基本上依靠互聯網公司及其人工智能工程師把關,通過輸入基礎數據材料,然后對大量數據進行分析和計算,自動生成新的知識或者推理出未知的知識。
有觀點認為,生成式人工智能的知識生產本質上是知識的重組,即把已有的知識構造和知識材料重新組合起來,在一定時間內、一定的限度內抽象出來,然后重組一套答案。數據主義者的闡述證明了上述觀點:大型語言模型以新的方式綜合文本,重組它們所接受訓練的內容,而不是提供簡單的重復或并置。也就是說,如果收集的數據足夠多且計算能力足夠強,就可以創造足夠權威的知識。在這種觀念之下,知識的來源是那些能夠創建海量數據以及提供超強算力的技術人員。簡言之,不但知識本身正在被重新定義,而且知識的權威性正在被技術巨頭所壟斷,因為生成式人工智能創造知識的方法反映了互聯網技術寡頭的知識觀。傳統的知識源于科學家,其權威性在于科學家的專業知識、研究成果和經驗。而生成式人工智能創造的知識,雖然主要來自計算機技術人員,但其算法和數據源也是經過科學研究和驗證的,因此在一定程度上也能具備權威性。因而知識權威性來源的改變,并不意味著知識的權威性會降低,而是說明知識權威性的來源變得更加多元化。這意味著知識權威性的來源將不僅僅是科學家對專業知識和研究成果的驗證, 而是也可以源于計算機技術人員,或者更直接地說是源于互聯網技術公司。
當然,知識是否權威還要考慮知識的合法性問題。就知識的合法性而言,生成式人工智能在生成知識內容的過程中學習了大量人類之前已有的作品,這是否侵犯了他人的著作權? 現階段已有權威雜志進行了表態,比如《科學》雜志就發表聲明,表示不接受ChatGPT作為論文的作者,但這并不意味著ChatGPT生成的內容侵犯了著作權。這是因為,生成式人工智能僅僅是學習這些文本內容,是根據已知文本規則使用概率模型來生成新的文本,并非單純的復制粘貼。在ChatGPT上輸入“生成式人工智能在生成文本時抄襲了人類已有作品,這是否意味著侵犯了他人的著作權”。ChatGPT回答,生成式人工智能并不會直接抄襲人類作者的文本,它很多時候表現為一種知識的組合。的確,在制度層面,著作權法律制度并不保護人的觀點或思想,只保護觀點或思想的表達形式。所以說,生成式人工智能所創造的新知識很可能規避既有著作權制度。除了著作權制度之外,更為公眾所關注的是隱私保護問題。在分析式人工智能時代,隱私保護問題已經是一個十分嚴峻的問題,生成式人工智能的出現使得這個問題更加惡化。一方面是因為生成式人工智能的訓練需要大量的數據,其中難免包含一些個人私密信息,一旦泄露會給用戶造成損失,比如在GPT-2的訓練過程中,就出現了用戶私密信息被泄露的現象;另一方面,生成式人工智能在嵌入下游互聯網平臺后,所采集的數據一定是散落在用戶群體中的數據,用戶完全是基于自愿交出數據控制權,否則就無法使用嵌入生成式人工智能的互聯網平臺。因此,隱私與公開的邊界如何確定,隱私又在多大程度上可以獲得保護,都是難以確定的,在這種情況下,很難說嵌入生成式人工智能的互聯網平臺侵犯了人們的隱私。
當然,生成式人工智能創造的知識不一定都是權威的。生成式人工智能通過學習大量數據來生成新的內容,生成的新知識是否權威、有價值,取決于所使用的數據集和算法的質量。如果數據集不足或者不準確,算法也不夠優化,生成的知識可能存在偏差或錯誤。因此,需要謹慎地審視生成式人工智能創造的知識,不應一概地看作是權威的,否則將有可能引起平臺權力的異化或腐敗。
(三)知識生產者的集權傾向
隨著社會生活的復雜化, 絕大多數社會問題都不再能夠憑借個人的或群體的經驗得到解決,而必須求助于系統化的知識。同樣,當生成式人工智能與下游平臺相結合,知識的供給方式、知識本身的內涵以及知識的來源都發生了改變, 許多現實問題的解決都不能再僅憑個人或群體的生活經驗,而是開始求助于嵌入生成式人工智能的互聯網平臺。這就導致人的行動開始受到代碼化邏輯的支配,互聯網平臺及其背后的技術寡頭作為知識的生產者,產生了集權化傾向。
由于生成式人工智能的知識創造過程融合了專門學科和現實經驗,所創造的知識必然有著技術理性的影子。人們在實際生活中將會養成一種價值分離、不作判斷的立場。無論是哪一種社會組織,知識的產生都依賴于整個組織網絡的管理,知識生產的過程既是組織服務的過程,也是組織管理的過程。兩者的顯著區別就在于,組織管理中的知識生產意味著要經過“符號化”改造。平臺作為知識生產的組織者和管理者, 在知識的生產和管理過程中也一定會將所有用戶的行動納入規范的平臺系統中來,而平臺系統所遵循的規則就是代碼或符號。只要運用這些統一的代碼或符號,就必然伴隨著權威出現以及得到權威的支持,也就會在尋求共識的過程中以尊重技術理性、尊重客觀事實的名義控制不同的意見。此時權威就會被用來操控代碼或符號,而代碼或符號也會反過來支配用戶行為。所有的行為都要符合平臺系統的要求,而不是符合人的要求,這就是代碼化的技術邏輯。福柯曾在《知識考古學》一書中指出,真理并不外在于權力,真理可被理解為生產、規格、分配、流通以及運作聲明的一套有條理的程序系統,真理在一種循環的關系上連結到生產并維持它的權力系統,以及它所召喚出來并反過來擴張它的權力效應。概言之,知識產生權力,知識為權力辯護,繼而權力又生成新的知識。
??抡J為,知識是權力產生和掌握的重要手段。他強調,知識和權力之間的關系是一種互動和透明的關系,即權力不斷地利用和塑造知識,同時知識也在不斷地影響和重塑權力。??略凇兑幱柵c懲罰:監獄的誕生》中提出了“懲罰技術”這一概念,即通過知識來實施懲罰,并倡導“知識權力”的觀念。他認為,現代制度中的權力并不是像過去一樣簡單地依靠暴力和強制,而是依靠知識來制造和維系的。通過掌握和運用知識,權力可以不斷地在創造和建構中掌握和維持對人的支配關系。福柯提出了知識的“規范化”和“權力化”兩個重要的概念。規范化是指社會和文化中逐漸形成的約束人們行為的規矩和標準。這些規范和標準隨著許多機構的建立,如學校、醫院、監獄等,逐漸被系統化、普及化和正規化,從而使得人們的行為逐漸受到約束。而權力化則是指在知識的形成、傳播和運用過程中,權力不斷地利用和支配知識,在人們的行為和思考中起到潛移默化的作用。誠然,知識雖然是可以創造的,并一再地被創造出來,但知識并不是權力的目標,而是權力作用的手段,權力也只有依憑不斷創新的知識才能維持、延續、擴張其影響力和控制范圍。從外部視角來看,由于缺乏科學驗證過程,人們對技術的依賴導致其成為人工智能的被動接受者,對于ChatGPT所構建的知識網絡感到敬畏而非理解。在福柯看來,人類所有的行動都被“權力”“知識”“真理”這些觀念所迷惑。這就從根源上剝奪了人們理解、質疑和挑戰的能力。換言之,只要生成式人工智能所創造的新知識既能引導人們的行為,且這種新知識又能被互聯網平臺利用來加強對用戶的支配,從而剝奪人們對自己的控制力和判斷力,使得人們成為權力的被動擁護者和執行者,那么生成式人工智能就具有集權化傾向,也就能夠被潛藏在背后的互聯網寡頭利用,從而淪為Web3.0時代的網絡集權工具。
四、生成式人工智能與平臺權力的再中心化
(一)生成式人工智能重新掌握用戶數據
Web3.0時代,普通社會成員均可通過互聯網的接入,形成自下而上并向周邊輻射的信息力量。就其本質而言,Web3.0致力于服務龐大的經濟和社會組織體之上的復雜商業鏈條、社會系統和交易契約。在其中的一些應用場景中,Web3.0改變了信息傳播的起點或發源地,改變了社會少數精英與普通公眾之間在信息資源擁有上的不對稱關系,增加了信息自下而上傳播的通道?;诖?,普通社會成員借助區塊鏈網絡獲得了可以將知識、意志、觀念和評價等作為信息資源,為其他社會成員提供信息評價、情感傾訴和寄托的可能,進而生成價值以鞏固社會契約關系,各區塊中的每一社會成員都可能成為自身數據信息的掌控者。人與物、物與物之間基于契約經濟建立商業連接,數據存儲技術發生底層重構,“分布式網絡”的興起減少了對平臺信息中心的依賴。因此,與Web2.0時期存在中心化的實體控制機構不同,Web3.0+時代的分布式網絡遵循用戶創造、用戶所有、用戶控制和協議分配利益,即用戶掌控數據主權,平臺的中樞功能逐漸降低,更多地表現為數據生產主體對自身數據的控制。
當然,數據資源作為互聯網時代最為關鍵的生產要素散落在用戶手中,一定會引起互聯網寡頭的覬覦。因而Web3.0時代分布式網絡所建構的分配秩序是不穩定的,互聯網寡頭可以隨時打破這種分配秩序,設法重新收集散落在用戶中的數據資源。這說明,Web3.0并非意味著用戶重新掌控自身的數據資源,而是意味著互聯網寡頭對數據資源的重新分配,進而在市場上重新占據壟斷地位。比如目前市場上已經出現的生成式人工智能,其中部分著名產品都是由谷歌、微軟、臉書等公司生產的,其中微軟是OpenAI的大股東,而谷歌則是DeepMind的控制者,因此現階段整個人工智能市場其實是少數互聯網寡頭的舞臺。從目前這些互聯網公司的態度來看,它們均全力支持生成式人工智能產品,最重要的原因就是借助生成式人工智能收集的基礎數據,和自己下游業務相結合,從而強化在相關業務領域的市場優勢地位,而這將會強化它們各自的市場力量。
由于大型語言模型所能改善的是群體協作過程中創造和應用知識時的語言處理效率,因而只有和下游互聯網平臺相結合才能發揮出效用。對于用戶而言,因為需要連接互聯網應用,倘若生成式人工智能嵌入下游互聯網平臺,則會產生新的方式和形式來聚集用戶數據。不同于以往通過用戶輸入、網頁瀏覽等方式獲得數據,生成式人工智能可以通過圖像、視頻等用戶生成的內容獲取數據,從而擴大數據來源。同時,生成式人工智能也能夠分析和理解用戶生成的內容,更好地挖掘用戶需求和偏好。對于互聯網平臺而言,最重要的就是數據材料,而且數據材料越多越好,除非用戶斷開互聯網,否則數據將會重新被收回平臺中, 生成式人工智能最重要的功能就是將分散在大眾手中的數據資源、知識貯存再次集合起來。
(二)生成式人工智能對平臺權力的重構
生成式人工智能基于人類反饋的強化學習這一方式,可以使得“人工智能+深度學習”這一方式在社會生活各個領域得到普及應用。從社交媒體、網上購物到影視娛樂、深度寫稿,生成式人工智能的出現有望形成“思維革命”,改變人類思考和處理問題的方式,與下游平臺結合后可能會顛覆每個原本需要人類創作的行業,由此重塑各領域生態。如卡斯特所言,權力是基于對信息及其傳播的控制。如果說Web3.0時代的網絡空間中仍有權力存在,那么也只是一種分散的、大眾化的權力。Web3.0走向的是一種協議互聯網,它的初衷是構建一個去中心化的空間。也就是說,Web3.0時代的網絡空間中不存在信息特權和偏見。但是,生成式人工智能所具有的技術邏輯將驅使其成為Web3.0時代的互聯網連接中樞。復雜網絡科學的“中介性”概念指出,一個人在網絡中的中心度取決于其多大程度參與網絡中的信息鏈,當其成為信息傳遞的中間人,那么他就在網絡中占據中心位置。從網絡中介性的概念出發,生成式人工智能具備從網絡社會中匯集來自無數節點的知識和數據信息的能力,基于海量的用戶數據和復雜的信息鏈條,生成式人工智能將成為Web3.0網絡社會中具有極高中介性的樞紐。從技術與“空間—權力”的關系視角來看,生成式人工智能作為一種“權力的媒介”,通過創造新的權威知識重新分配權力,其性質早已超出技術工具本身。
因此,生成式人工智能的興起很可能會強化互聯網寡頭在市場上的壟斷。當互聯網平臺嵌入生成式人工智能,生成式人工智能需要海量的數據來訓練模型,如果一個互聯網平臺掌握了大量生成式人工智能所需的數據,并且能夠有效地進行分析和應用,那么它就將成為市場的主導者,其他競爭者將很難進入。從這個層面而言,生成式人工智能其實是傳統力量的延伸,是互聯網中心化壟斷模式的又一次強化,所有與生成式人工智能相關的產業,其背后都站著互聯網技術寡頭。因此,當互聯網平臺嵌入生成式人工智能,兩者的結合也意味著平臺權力再次走向中心化成為可能。
傳統社會權力的生長多依賴于市場,以市場資源的占有和累加達成權力聚集的目的。但當平臺嵌入生成式人工智能,數據和算法成為新的權力要素,平臺賦權不再過多地依賴于市場,而是更依靠計算機原理實現代碼控制,以及借此對數據和算法進行操控,通過掌握社會基礎設施來實現對人的影響和支配,進而對整個社會產生支配力。平臺的控制能力是借助技術來實現的。平臺的技術控制能力直接體現為平臺通過應用場景、嵌入程序和分發結構的設計來控制信息流,并將一系列規則、條款作用于用戶主體,保證用戶信息在平臺技術框架體系內有序流動。這本質上是一種技術性的權力,憑借其在數據資源獲取、分析和使用上的技術性優勢,對公民、社會組織甚至政府產生決策和行為等方面的控制力或影響力。當用戶數據被導入生產、消費環節,平臺就會利用算法技術組織框架體系,通過應用場景匯聚數據資源,形成數據關系,促成高效的信息流通,并對用戶形成數據監控和追蹤。這一過程類似于商業數據監控,但同時具有極高的智能性、隱蔽性和精準性,在用戶行為分析、商業情報挖掘以及社會輿情監控等方面均發揮著重要作用。也正是在這一過程中,平臺通過算法架構體系吸引和保持用戶數量,增強用戶黏性,使得用戶一直處于平臺所設計的應用場景、通信協議以及分發模式所決定的信息流中,用戶數據被分解為更細小的微粒。人們在不知不覺中成為平臺進行資本積累的“數字勞工”,在無形之中接受平臺權力的控制和影響。
Web3.0所秉持的包容、開放、共享、自由和平等的技術規則和價值觀,原本意味著用戶將從財產排他性占有的壟斷中掙脫出來。但生成式人工智能的嵌入,意味著平臺權力的重新崛起,Web3.0時代網絡空間去中心化的理想可能會落空。
五、“平臺+生成式人工智能”帶來的治理挑戰與應對
英國科技哲學家大衛·科林格里奇曾在《技術的社會控制》一書中指出,如果因為擔心一項技術產生不良后果而過早實施控制,那么技術很可能就被扼殺在搖籃中而難以惠及民眾;相反,如果控制過晚,技術已經內嵌于經濟社會結構中,此時再來解決技術引發的社會問題,成本將會變得高昂且為時已晚。這說明,技術的社會控制,關鍵在于時機的把握。就本質而言,以ChatGPT為代表的生成式人工智能是一種基礎性平臺,和下游互聯網平臺結合后,它的影響將是基礎性、全局性和社會性的。相關的制度建設與保障,不僅關系到產品管理秩序、精神文化的生產繁榮,也關乎研發者、投資者、制造者、使用者等多元主體的切身利益,政策與制度安排可以說是牽一發而動全身。因此,就“平臺+生成式人工智能”的治理而言,首要的問題就是時機的把控。生成式人工智能的作用并不在于作為聊天機器人或者搜索工具,而是未來將會作為一種基礎性平臺,被陸續整合到下游互聯網平臺中,呈現出高度的滲透性和延展性,進而支撐起整個科技、社會、文化、商業、經濟等不同層面。比如微軟不但將ChatGPT嵌入Bing搜索引擎中,還嵌入Office辦公軟件中。因此,雖然生成式人工智能的出現和應用提升了人工智能技術在互聯網及其下游產業中的主導性地位,并且可能會帶來一系列的社會治理困境,但當生成式人工智能并未大規模嵌入下游互聯網平臺時,其對社會治理造成的影響并未完全顯現,在具體制度層面進行規制依然為時尚早,可以借鑒域外國家或地區的人工智能治理經驗,先從技術控制和宏觀政策方面入手,引導“平臺+生成式人工智能”實現規范化運行。
(一)技術控制先行
技術問題的治理必須首先立足于有效的技術手段和技術工具之上,倘若一項新興技術引發的社會問題能夠依靠技術手段予以內部優化,那么治理路徑應該以技術為先,外部政策與法律控制無需過早介入。生成式人工智能的內容生成機制依托數據庫和算法模型兩大關鍵技術。因此,內容生成的基礎是數據,對海量數據的分類和管理是實現技術控制效果的重要前提,主要包括對基礎數據材料的采集整理、數據的質量檢驗、數據的標準化、數據的存儲和數據的分類管理等環節的把控,以實現數據的安全、高效和可靠的利用。內容生成的關鍵技術是算法,對于訓練模型的訓練是實現技術控制效果的關鍵因素,主要包括對算法程序的選擇、評估、優化和可解釋性的治理,盡可能排除算法程序的偏見,提高算法的安全性和可靠性。
具體而言,互聯網平臺應建立由相關領域專家參與的生成式人工智能的訓練機制,開發可信賴的增強學習算法, 人工智能從業者需要對生成式人工智能的工具能力和可靠性進行持續跟蹤和反饋,預防將偏見注入訓練模型。比如,在訓練階段,人工智能工程師需要采取理性中立和客觀真實的立場提供人類反饋,這樣在強化學習階段就不會產生不必要的偏見。OpenAI也承認在對ChatGPT的訓練中,“投喂”的訓練數據存在某些類型的偏見,比如工程師更喜歡更全面、更長的答案。此外,人工智能工程師需要設計方案來評估生成式人工智能生成新知識的偏見程度,以及時矯正偏見。若用戶惡意誤導,某些惡意言論可能會通過大型語言模型自動生成誤導性或虛假內容,從而制造影響力暗中操縱輿論。對此,對于采用生成式人工智能的互聯網平臺,應當要求用戶實名認證,規定用戶不能上傳虛假信息和發布色情、暴力等不良信息。
(二)包容審慎的政策立場
生成式人工智能剛剛崛起,其在產品形態、社會化應用和產業發展方面的走向都處于初期但快速發展階段,因而堅持一種包容審慎的政策立場,對于塑造一個良好的智能互聯網產業生態至關重要。
作為全球智能互聯網制度建設的風向標,歐盟正試圖在人工智能全球治理規則的制定上掌握主動權。以往的人工智能監管主要集中于傳統的人工智能模型,而非以ChatGPT為代表的生成式人工智能模型。隨著ChatGPT的出現,歐盟委員會正嘗試增加規制此類生成式人工智能的規則,擬出臺全盤的人工智能治理方案。歐盟人工智能法案修正案第4a-4c條規定,可用于任何高風險領域的通用人工智能系統,如就業、醫療、信用評分、行政執法都必須遵守人工智能法對高風險系統規定的全部義務。這一條款一定程度上可視為監管生成式人工智能的核心條款??梢姡瑲W盟制定的人工智能法案對高風險人工智能系統的提供者課以較重的義務。但一些學者提出,此類法規可能會阻礙大型人工智能模型的開發和使用,對人工智能產業的發展帶來不利影響,歐盟應將人工智能法案的全盤監管方案轉到具體的監管職責和內容治理方面。目前,人工智能法案的修改草案在歐盟議會受阻。
歐盟的人工智能監管態度可為我國相關政策的制定提供一定的經驗。就我國而言,必須認識到過去直接針對信息、內容和傳播過程的互聯網規制模式可能不再那么有效,但在目前生成式人工智能尚未完全落地應用之前,過于超前地規劃立法方案和建構規制路徑,可能會阻礙人工智能技術的創新,迫切推進基礎性人工智能立法并不合時宜,單純的“圍追堵截”模式將處于防不勝防的尷尬境地。為了確保不阻礙人工智能領域的創新,同時保障社會公眾免受新技術崛起帶來的不利影響,針對生成式人工智能的治理不宜過早地實施法律控制,以免妨礙人工智能的研發和社會化普及,但也不能放任發展,而是需要在其社會化普及之前掌握好主動權,積極醞釀相關政策。在前期政策層面,我國可以秉持“邊發展,邊治理”的立場,采取一種包容審慎的監管態度。目前,ChatGPT主要用于機器人聊天和搜索引擎整合,主要面向個人消費者,但ChatGPT的橫空出世,對于大型互聯網公司而言是一個完成顛覆性創新的絕佳機會。因此,當下可以先采取包容審慎的治理態度,在政策層面既要強力支持相關互聯網公司,激發其積極參與生成式人工智能產業布局,當技術應用出現負面影響時,又要避免一刀切式的消極治理,堅持問題導向,有針對性地對在社會層面產生嚴重負面影響的內容進行整治,避免出現簡單一刀切的情況。
在人工智能政策方面,我國政府及其部門正在積極探索,包括國務院發布的《新一代人工智能發展規劃》、人工智能治理專業委員會發布的《新一代人工智能治理原則》《新一代人工智能倫理規范》,以及科技部等六部門印發的《關于加快場景創新以人工智能高水平應用促進經濟高質量發展的指導意見》。2023年4月11日,國家互聯網信息辦公室起草了《生成式人工智能服務管理辦法(征求意見稿)》(以下簡稱《征求意見稿》),目前正面向社會公開征求意見?!墩髑笠庖姼濉返?條開宗明義地指出,“為促進生成式人工智能健康發展和規范應用……制定本辦法”, 官方層面表明鼓勵和支持人工智能技術及其產業創新發展的態度,所制定的一系列對策也均以引導和規范為主;同時,國家也對人工智能技術可能引發的倫理和法律風險保持重點關注,《征求意見稿》第4條規定,“提供生成式人工智能產品或服務應當遵守法律法規的要求,尊重社會公德、公序良俗”,并提出了具體要求。值得一提的是,當前我國的人工智能政策幾乎建基于分析式人工智能進行的,對于生成式人工智能可能引發的知識體系再造,以及與下游平臺結合后對數據的收集和利用、互聯網內容生產、網絡社區環境等問題未有回應。《征求意見稿》的發布,意味著我國將在原有人工智能政策的基礎上進行補充和完善,出臺專門適用于生成式人工智能技術及其產業化應用的官方政策,“平臺+生成式人工智能” 的運行將具有專門性政策的規范和引導。
結語
在前互聯網時期,權力形式較為單一,只有國家權力和社會權力之間的博弈。Web2.0時代,以互聯網企業為代表的社會力量借助資本與技術的雙重加持,演化出平臺權力,并在國家與個人之間創制了一系列的“中間制度”,這一定程度上分散和削弱了國家在網絡空間中的治理能力。隨著國家對網絡空間治理不斷加強以及人們權利意識的增強,平臺權力發生流散,社會成員開始掌握信息生產、分發和利益分配環節。從傳統社會權力到平臺權力,再到Web3.0時期的分散化的用戶數據主權,每一種中心化的權力都不可避免地面臨去中心化的命運,而權力的每一次去中心化都將有一種更為中心化的權力產生。大型語言模型ChatGPT的出現, 意味著用戶數據主權的存續時間是短暫的, 潛藏在ChatGPT背后的的互聯網寡頭將可能從根源上剝奪人們對知識的理解、質疑和挑戰的能力,Web3.0時代可能會再次形成更為中心化的平臺權力。當互聯網平臺嵌入生成式人工智能,平臺權力出現恣意和過度中心化特征時,如何確保現代法治的基本原則能夠在網絡空間有效貫徹和實施,防止平臺利用其中心化的角色濫用權力,這將是互聯網發展進入Web3.0時代所要面臨的法治難題。