中圖分類號:F224.32 文獻標識碼:A 文章編號:2097-0145(2025)03-0025-08 doi:10.11847/fj.44.3.25
0 引言
人工智能技術(artificialintelligence,AI)在帶來革命性變革的同時,也引發了數據隱私侵權、個人隱私泄露等安全問題。如何有效治理人工智能技術帶來的隱私風險已成為產業發展的當務之急。人工智能隱私風險治理的關鍵是如何取得技術可用性和可治理性之間的平衡[1],然而由于監管資源受限、法律法規滯后等原因,單靠政府力量無法滿足人工智能數據處理、運營建設的治理需求[2],需要企業與消費者等社會群體共同參與。因此,構建多方參與的協同治理體系以建立健全隱私保護機制,對提升人工智能產業化能力、推動數字經濟健康發展具有重要意義。
人工智能技術的復雜性、不確定性和隱象性要求更靈活、包容、綜合的協同治理框架[3]。在技術邏輯層面,人工智能技術的發展和應用涉及多元利益主體,其風險治理也應倡導社會合作,而不是由政府單一治理[4],這種深層性、復雜性契合協同治理的關鍵技術特征;在理論淵源層面,協同治理吸納社會契約理論和可持續發展理論成果,主張社會成員通過共同的契約意識參與決策,并在決策中考慮多方的需求,實現可持續發展目標[5];在治理方法層面,已有研究主要從社會學、法學、倫理學等視角探討人工智能技術的隱私風險等倫理問題及其治理手段[6],進一步證明了協同治理的關鍵作用[8];在治理實踐層面,2023年7月我國發布《生成式人工智能服務管理暫行辦法》,明確了協同共治是人工智能技術風險治理的基本原則
然而,不同主體之間的信息不對稱性和利益沖突可能導致協作困難。例如,企業可能因為競爭優勢而不愿意共享其數據處理方式或算法邏輯,企業行為難以被有效監控。此外,隱私保護與技術創新之間的關系復雜,過度的監管可能抑制技術創新,監管不足則可能加劇隱私風險的蔓延。在探究其他類似的治理問題時,學者們普遍構建演化博弈模型來剖析協同治理機制:數字化平臺數據共享過程中,隱私保護成本、隱私泄露損失、用戶信任等均為影響數字化平臺策略選擇的重要因素[10],而合理的獎懲機制也會提升區塊鏈政務數據共享的質量水平[11];平臺企業在價值創造與數據保護之間存在沖突時,政府獎懲機制對企業和用戶存在異質性調節作用,而對于政府自身而言,降低監管成本有助于政府積極履行監管職責[13]。Sun 等[14]則強調用戶自身也需要權衡長期收益與隱私成本,進而利用演化博弈模型探討了用戶在面對服務質量與隱私保護之間矛盾時如何實現最優決策。因此,利用演化博弈分析各主體在面對隱私保護責任時的最優策略,可以為人工智能隱私風險治理提供突破口。
現有研究主要從社會學、法學、倫理學等視角探討人工智能的隱私風險等倫理問題及其治理手段,將演化博弈理論應用于人工智能隱私風險治理的研究較少,無法厘清該體系中不同主體間相互作用和決策演化的微觀過程;部分研究遵循的靜態研究邏輯難以匹配人工智能快速發展背景下新的隱私風險所衍生的復雜性、多樣性等新特征[3],亟須建立更加動態和前瞻性的研究框架來有效應對這些挑戰。此外,已有研究證實了企業會更傾向于消極治理或濫用數據等不自律行為[1-12],在格外依賴數據的人工智能產業是否存在此類現象[4],以及如何激勵企業積極治理是亟須解決的現實問題。
本研究可能的創新點如下:(1)區別于現有文獻多采用的靜態理論推演、政策文本分析等傳統研究范式,本文構建演化博弈模型系統分析各參與方最優策略演化,為人工智能隱私風險治理提供了一種動態的決策框架,有助于更精準地設計長效的治理機制;(2)本文創新性地引人數據隱私侵權程度系數,有助于從動態視角探討不同發展階段下各參與方實現有效協同治理的“最優解”,進一步豐富了人工智能隱私風險的治理研究;(3)從管理實踐的角度,研究基于協同治理產生的協同效應,為激勵企業積極參與治理提供了新的視角,為企業積極實現數據隱私保護提供了新的解釋。
1基本假設與模型構建
協同治理是在開放系統中形成的有效治理范式,指一個或多個公共機構與非政府利益方共識協商決策,以提升治理效果,實現“善治”的目標。現有研究普遍將政府和企業作為協同治理的主體,因為政府擁有技術風險治理方面的監管資源和權力優勢,而企業也需要權衡隱私風險保護和獲取更多數據提升利潤的沖突[15],動態調整策略[10]。但是,現有文獻尚未提及消費者在其中發揮的重要作用。消費者不僅有權利參與監管以保護自身權益,而且具備通過多種方式合理參與人工智能的隱私風險治理的能力[16],需要將消費者作為重要的利益相關方共筑到協同治理體系中。
1.1 基本假設
理論上所有企業的經營活動都需要政府的監管,然而由于企業數量眾多,且受限于人力、財力條件,政府便會有所監管、有所不管[17],因此,政府的可選擇策略除了嚴格監管外,也包括寬松監管;由于企業存在獲取更多數據提升利益的動機,同時也要面對數據侵權帶來的潛在風險,因此,企業可選策略為積極提供數據保護服務和消極提供數據保護服務;依據《中華人民共和國消費者權益保護法》,消費者享有對商品和服務以及保護消費者權益工作進行監督的權利,因此,消費者的可選策略為積極監管和消極監管。
假設1政府、企業與消費者均為有限理性個體。政府選擇嚴格監管和寬松監管的概率分別為x 和 1-x ,企業選擇積極提供數據保護服務和消極提供數據保護服務的概率分別為 y 和 1-y ,消費者選擇積極和消極監管的概率分別為 z 和 1-z :x,y 和 z∈(0,1) 。
假設2政府嚴格監管和寬松監管的收益分別為 R1 和 R2 。與寬松監管相比,嚴格監管時政府需要額外付出成本 C1 ,比如嚴肅查處違法企業、設立專業監管部門等[17];參考盧超等[12]的研究,當企業積極提供算法保護時會帶來長期收益 U?1 ;若政府的監管力度不夠,出現相關問題政府將承擔損失 L1 ,比如社會信任和公信力的流失[18];若政府嚴格監管且消費者積極監管時,無論是否出現問題,政府均需付出后續改進成本 C2 ,如跟蹤調查、整頓等[11]
假設3企業積極提供數據保護服務的收益為 R3 ,消極提供數據保護服務的收益為 R4 。企業積極提供數據保護服務需要額外的技術和資源投入成本,設為 C3 ,而消極提供數據保護服務可能會減少企業的直接成本,為簡化模型設為 0[13] ,但當數據隱私侵權事件發生時,企業可能面臨品牌形象受損和政府罰款等長期風險[19],企業將承擔品牌形象損失 L2 且將面臨政府的罰款 D? ;當政府嚴格監管時,若企業積極提供數據保護服務,將獲得政府獎勵 R6 ,如減免稅收或財政補貼[20];當政府寬松監管時,消費者進行積極監管時對應的獎勵為R7 ,此時若出現數據隱私侵權行為,消費者獲得獎勵 R8 ,企業則會承擔額外罰款[12],設為 D1 。
假設4當企業積極提供數據保護服務時,消費者獲得收益 R5 ;當出現數據隱私侵權行為時,消費者的損失為 L3 ,積極監管需要付出成本[13],設為C4 ;當政府嚴格監管時,出現數據隱私侵權行為,消費者積極監管將獲得企業補償[21],設為 BE ;若政府寬松監管,數據隱私侵權行為會以一定概率被發現[12],設為 p,p∈(0,1) 。
假設5當政府、企業等均進行監管治理時,會產生協同效應[18.21],如政府公信力提升、企業形象改良和產品質量優化等,借鑒史歡和李洪波[22],曹霞等[23]的研究,這種協同效應可以利用柯布一道格拉斯生產函數來描述: θλC1aC3b 和 (1-θ)λC1aC3b ,λ 為協同效應系數, θ 為協同效益分配系數,且a,b∈[0,1]?λgt;0 。
假設6特別地,研究設數據隱私侵權程度系數 β 且 β∈(0,1) ,一方面侵權程度越大將惡化企業、政府的損失,另一方面將提升政府和企業的懲罰及補償力度,在支付矩陣中表現為以線性形式影響政府公信力損失 L1 、政府罰款 DG 和 D?1 、企業品牌形象損失 L2 等。
1. 2 模型構建
政府、企業及消費者的策略及收益矩陣如表1所示。
(1)政府的復制動態方程
設政府嚴格和寬松監管的期望收益為 E1 和E2 ,平均期望收益為 ,則
故政府的復制動態方程為
βyDG-βzL1-pzR8-yzR2+yzR6+
yzR7+pβz(D6+D1)+pβzL1+yzβL1+pyzR8-
yθλC1aC3b-yzpβ(DG+D1+L1)]
(2)企業的復制動態方程
設企業積極和消極提供數據保護服務的期望收益為 S1 和 S2 ,平均期望收益為 ,則
(1-y)S2 。
故企業的復制動態方程為
F(y)=-y(y-1)(R3-C3-R4+βL2+xβDG+xzR6+
zpβD?G+pβzD?1+xzβB?E+xλC?1aC?3b-
xθλC1aC3b-xzpβDG-xzpβD1)
(3)消費者的復制動態方程
設消費者選擇積極和消極監管的期望收益為G1 和 G2 ,平均期望收益為 ,則
0
故消費者的復制動態方程為F(z)=-z(z-1)(y-1)(G4-pR8-xβBε+xpR8)
2模型求解與穩定性分析
令三方利益主體的復制動態方程為0可得局部平衡點,進而利用李雅普諾夫第一方法判定最終會趨于哪個均衡點:均衡點為演化穩定策略(ESS)的充要條件是雅可比矩陣的所有特征值均為負值;若特征值至少有一個為正或零,均衡點為演化的不穩定點。根據微分方程的穩定性原理,僅需要分析8個純策略均衡解的穩定性。
將研究建立的博弈模型8個可能的演化穩定策略代入最終得到三個演化穩定策略組合,如表2所示。
根據表2,進一步探究博弈系統中的政府、企業和消費者的穩定策略的演化過程。
(1)情形一下各主體策略分析
當滿足 R1-C1-C22-β(1-p)(D?+L1)- pR8+pβD6.R3-C34-βL2-pβ(D6+D1) 和 C4 1pR8lt;0 的先決條件時,政府、企業和消費者的演化穩定策略為(寬松監管,消極提供數據保護服務,積極監管)。
對于政府而言,一方面由于監管資源有限、相關問題嚴重性不足,嚴格監管帶來的凈收益R1-C1-C2 小于政府寬松監管帶來的凈收益,政府傾向于將工作重心放在其他領域的工作;另一方面,政府面臨著如何維持監管與促進經濟增長之間的平衡,過于嚴格的監管不利于企業的技術創新和進步,政府也傾向于寬松的監管以促進技術發展。對于企業而言,企業發展的重點在提升算法效用,通過大量挖掘用戶偏好、行為等隱私數據,更精確、全面地掌握消費者的需求以進行精準營銷、產品優化等[24],不斷提升企業收益 R4 。對于消費者而言,人工智能帶來的隱私風險影響消費者個人生活,新媒體時代下消費者可以通過短視頻、線上平臺等多種方式維權,積極參與監管的成本 C4 降低,持續曝光隱私侵權事件的外部輿論壓力也促使消費者更加積極地行使其監管權利。
(2)情形二下各主體策略分析
當滿足 C1-R1-βD?lt;0,R3-C3+λ(1-θ) :C1aC3b4-β(DG+L2) 和 βBE-C4lt;0 的先決條件時,政府、企業和消費者的演化穩定策略為(嚴格監管,消極提供數據保護服務,消極監管)。
個人信息和隱私保護等相關倫理問題顯現對政府監管提出了強烈的需求,因此,政府有義務制定和執行法律法規以確保社會穩定和公眾利益免受侵害,進行嚴格監管。企業通過收集、存儲、分析消費者數據來優化產品、提升營銷效果,相較于損失β(DG+L2) ,企業的收益 R4 仍高于企業積極提供數據保護服務的凈收益 R3-C3+λ(1-θ)C1aC3b ,此時企業選擇消極提供數據保護服務。出于對政府的信任,當政府嚴格監管時,消費者相信盡管有侵權行為,但在政府的監管下足以保障消費者權益[18],特別是面對復雜的隱私政策,消費者認知能力的缺陷放大了與企業之間的信息鴻溝[25,消費者對于政府監管的信任不斷提升,此時消費者選擇消極監管。
(3)情形三下各主體策略分析
當滿足 R2-(1-p)β(D?+L1)-pR81- β(BE+DG+L2) 和 C4-βB?Elt;0 的先決條件時,政府、企業和消費者的演化穩定策略為(嚴格監管,消極提供數據保護服務,積極監管)。
在滿足情形一和情形二中所需條件時,政府、消費者共同監管不斷推動人工智能隱私保護治理體系的完善。但是,企業的穩定策略仍為消極提供數據保護服務:一方面,人工智能技術的發展格外依賴于數據的大量獲取與使用,人工智能算法優化或產品改進受到影響可能會阻礙其在新技術領域的創新能力,2018年百度因未授權收集用戶數據的問題被中國網絡安全審查辦公室處罰,但由于人工智能技術在拓展企業某些業務上具有關鍵作用,比如,在車輛自動駕駛技術方面,企業仍然需要通過分析海量的用戶數據以提升智能決策能力;另一方面,盡管企業會面臨政府的罰款 DG 、品牌形象損失 L2 等,但經濟效益的提升更加顯著[12],如某公司因違反《數據安全法》《個人信息保護法》等,過度收集員工司機、用戶等敏感信息被罰款80.26億元,而該公司當年收入為1407.92億元[26]。此外,激烈的市場競爭甚至會導致“劣幣驅逐良幣”的現象,企業不可避免地需要數據對算法進行改進、革新[27],在隱私監管上采取觀望甚至抵制的態度,避免因過度合規導致成本增加或利潤下降。
(4)企業策略選擇分析
由表2可知,企業的策略選擇均為消極提供數據保護服務,但是 E3、E4、E5 和 E6 在一定條件下企業的策略會單方面收斂至積極提供數據保護服務,即 C3-R3+R4-βD?-βL2-λC1aC3b+θλC1aC3blt;0. C3-R3+R4-R6-βBE-βDσ-βL2-λC1aC3b+θλC1aC3blt;0, C3-R3+R4-βL2lt;0 或 C3-R3+R4-βL2-pβDG-pβD1lt;0 是否得到滿足。可得以下推論:
推論1企業選擇積極提供數據保護服務的概率隨著政府嚴格監管及消費者積極監管的概率提升而提升。
推論2企業積極提供數據保護服務的概率與企業獲得獎勵 R6 正相關,與企業所受罰款 DG 正相關,與企業消極提供數據保護服務的收益 R4 負相關。
3數值仿真分析
合理的獎懲機制能充分調動企業等主體積極性[28-29],而收益與成本則是影響消費者監督策略的關鍵因素[30]。因此,本節將分別討論相關因素變化產生的影響,利用MATLAB對三方主體的策略選擇進行仿真,探究三方主體行為傾向和內在規律。同時以不同的數據隱私侵權程度系數 β 刻畫不同發展階段的環境。
3.1 政府獎懲策略分析
根據國家市場監管總局年度部門結算文件中對于“一般公共服務支出市場監督管理事務”的“2013805市場秩序執法(項)”的定義:反映反壟斷、價格監督、反不正當競爭、規范直銷與打擊傳銷、網絡交易監管、廣告監管、消費者權益保護、綜合執法等市場秩序執法專項工作支出,故選擇該項作為政府兩種監管的收益 R1 和 R2 的設定依據。由2023年《國家市場監督管理總局年度部門決算》中收入、支出決算表的“2013805市場監管執法”項,設 R1=100,R2=60 ;參考文獻[10,12]對于平臺企業數據濫用行為治理的參數設置,設p=0.5,L2=14,B?E=10 C4=5 , C2=10 , C3=20 ,
R4=50,R8=10 ;設 C1=40 , U?1= 10 , L1= 10 ,R3=30,D1=10,R5=1,L3=0.8 參考曹霞等[23的研究,設 θ=0.8,λ=1,a=b=0.1 ,討論不同情形下罰款 D 和獎勵 R6 對企業策略的影響。借鑒文獻[12,18],初始概率組合為 x0 取 取0.5和1。此外,光明日報與武漢大學聯合調研組2021年的調查結果表明,超過七成的App存在過度索權行為[31],因此,分別設 β=0.6,β=0.8 代表不同數據隱私侵權程度對應的情形。設 R6=20,R7=30 探究不同情形下罰款 DG 產生的影響,如圖1和圖2所示。
由圖1和圖2所示,當政府積極監管,兩種情形下提升政府罰款均有助于企業單方收斂至積極提供數據保護服務。當數據隱私侵權程度不斷加大(即 β=0.8 時,相同懲罰金額下企業選擇積極提供數據保護服務的概率增加,政府提升罰款帶來的積極效應更加明顯。同時,對比圖1(a)和圖1(b)、圖2(a)和圖2(b),當消費者積極監管時,政府提升罰款對企業的約束作用更加明顯,且數據隱私侵權程度不斷加大時這種積極效用更大,這也印證了推論1和推論2。
設 DG=30 ,探究企業獎勵 R6 對企業策略的影響,如圖3和圖4所示。
由圖3和圖4可知,當政府選擇嚴格監管時,提升獎金將有助于推動企業單方面選擇積極提供數據保護服務,這種現象在人工智能發展的初期(即 β=0.6 更加明顯。同時,對比圖3(a)和圖3(b)圖4(a)和圖4(b)可知,當政府選擇嚴格監管時,消費者積極監管也有助于督促企業規范自身行為自律,進一步解釋了上文中情形二和情形三消費者演化穩定策略出現不同的原因。
3.2監管成本、補償與獎勵對消費者決策的影響
數字時代,消費者可以及時獲取、傳播信息,隱私侵權等事件通過多媒體快速傳播,故設 U1=20 ,L1=25,C2=20,D1=20,R5=5,L3=1 ;相關問題也不斷引起消費者的重視,因此,不妨設 p=0.5. β=0.6 來反映這種現象和趨勢。設 BE= 5 ,R8=10 ,初始概率為0.5,消費者監管成本 C4 對消費者決策的影響如圖5所示;設 C4=5 ,分別探究消費者補償 Bε 和消費者獎勵 R8 對消費者決策的影響,如圖6和圖7所示。
由圖5所示,當消費者監管成本下降時,消費者會傾向于選擇積極監管,特別是人工智能技術不斷發展,相關問題嚴重性不斷提升的情況下,這種積極作用更加明顯。由圖6所示,及時充分的補償可以有效激勵消費者參與監管,消費者積極監管意愿不斷增強。圖7表明,設立積極維權獎勵并不能有效提升消費者參與監管的動力,消費者由于專業知識和認知的不足,往往難以及時識別隱私侵權問題,因此,獎勵機制難以真正激發消費者的積極性。
3.3協同效應對演化結果的影響
當政府、企業等均進行治理時,會產生協同效應[18,21],可以用經濟學中的柯布—道格拉斯生產函數來描述[23]。參考曹霞等[23]的描述,當a+bgt;1 時為遞增報酬型,表明擴大規模增加產出是有利的;當 a+b=1 時為不變報酬型,表明效率并不會隨著規模的擴大而提高,只有提高技術水平,才會提高效益;當 a+blt;1 時為遞減報酬型,表明擴大規模增加產出是得不償失的。因此,本節將分別設 a=b=0,9 , a=b=0.5 和 a=b=0. 1 討論協同效應對演化結果的影響。
由圖8所示,在人工智能隱私風險協同治理體系中,企業過早參加監管不利于企業自身經濟效益提升與長期發展,但是當政府和企業具有較高的監管效率,并且企業具有較為成熟的技術水平和較高的產品服務質量時,協同效應帶來的積極作用將促進企業主動遵循監管要求參與治理,從中獲得實際的利益,比如提升品牌形象和用戶信任等。
4研究結論與啟示
本文得到人工智能隱私風險的協同治理體系,如圖9所示,并得到如下研究結論:
(1政府應該采取“先獎勵、后懲罰”的策略。在人工智能發展的初期,政府提升獎勵力度能夠有效激勵企業加強數據保護,同時調動企業的創新積極性,促使其在技術創新與隱私保護之間找到最佳平衡點;當數據隱私侵權程度較高時,政府強化懲罰機制能夠有效威懾企業在隱私保護方面的疏忽或不作為,避免不良的社會影響。
(2)消費者參與能有效規制企業行為,但消費者是否積極監管主要受到監管成本和應得補償的影響。具體來說,信息鴻溝所產生的“信息繭房”導致消費者的監管意愿和能力受制于其獲得的回報與投入的成本之間的權衡,因此,降低監管成本能夠顯著激勵消費者參與監管,而當消費者能夠獲得應得補償時,其監管的意愿也明顯提高。相比而言,設立獎勵并不能顯著促進消費者參與監管。
(3)協同效應會驅動企業積極提供數據保護服務。當企業具有較為成熟的技術水平和較高的產品服務質量,并具備成熟的內部治理體系和一定的自我監管能力時,企業與政府共同治理產生的協同效應將促進企業主動遵循監管要求,同時這種協同效應反過來也激勵企業提升自身治理水平,優化產品和服務,形成一種良性的互動循環。
根據上述研究結論和分析,本文提出以下建議:(1)政府靈活調整策略,構建多元協同治理體系。對于企業,政府應根據不同的發展階段,靈活調整獎勵與懲罰的力度。對于消費者,通過落實消費者補償、及時回應需求、提供權威的信息公開平臺和多元途徑激勵消費者參與協同治理
(2)政府、企業降低監管成本及優化治理機制,激勵消費者積極參與治理。一方面,政府應建立高效的維權平臺,確保信息透明化,降低消費者維權的時間與經濟成本,及時準確的補償一反饋機制也能增強消費者的監管動力;另一方面,企業需不斷優化用戶體驗,降低消費者在隱私風險監管中的操作門檻,加強技術與市場的對接,從用戶需求出發傳遞人工智能價值,增強消費者對技術的信任。
(3)企業規范自身行為,積極承擔社會責任。隨著大數據、云計算、LLM等信息技術的發展,我國人工智能產業發展的社會影響日益顯著。企業在追求技術創新和經濟效益的同時,必須深刻認識并承擔自身對消費者、社區和環境的多重社會責任,在提升自身產品或服務質量的同時,規范數據使用和獲取流程,減少數據侵權、濫用等問題的出現。
參考文獻:
[1]朝樂門.人工智能治理框架及其人文社會科學研究問題分析[J].情報資料工作,2022,43(5):6-15.
[2]李政,洪瑩.基于隱私保護的政府大數據治理研究[J].大數據,2020,6(2):69-82.
[3]羅會鈞,查云龍.人工智能時代的全球治理轉型與中國應對[J].上海交通大學學報(哲學社會科學版),2023,31(12):13-24.
[4]鄭志峰.人工智能時代的隱私保護[J].法律科學(西北政法大學學報),2019,37(2):51-60.
[5]郭小東.生成式人工智能的風險及其包容性法律治理[J].北京理工大學學報(社會科學版),2023,25(6):93-105,117.
[6]Cotton D R E,Cotton P A,Shipway J R.Chatting andcheating:ensuring academic integrity in the era of ChatGPT[J].Innovationsin Education and Teaching International,2024,61(2):228-239.
[7]Muhlhoff R.Predictive privacy:towards an applied ethicsof data analytics[J].Ethics and Information Technology,2021,23(4):675-690.
[8]Carrillo MR.Artificial intelligence:from ethics to law[J].TelecommunicationsPolicy,2020,44(6):101937.
[9]中國政府網.生成式人工智能服務管理暫行辦法[EB/OL].(2023-07-10). https://www. gov. cn/zhengce/zhengceku/202307/content_6891752.htm.
[10]楊斯博,褚曉璇,李敏強,等.區塊鏈技術驅動下數字化平臺隱私保護行為演化博弈策略研究[J].工程管理科技前沿,2024,43(4):17-26.
[11]韓普,顧亮,葉東宇,等.獎懲視域下區塊鏈政務數據共享演化博弈研究[J].管理工程學報,2024,38(4):122-132.
[12]盧超,王璇璇,周迪,等.平臺企業數據濫用行為的治理機制研究:基于多主體演化博弈視角[J].工程管理科技前沿,2023,42(2):16-24.
[13]徐璐,鐘濤,潘禹辰,等.大數據時代招聘平臺用戶數據隱私保護研究[J」.情報理論與實踐,2022,45(12):68-75.
[14]Sun Z,YinL,LiC,et al..TheQoS and privacy trade-offofadversarialdeep learning:anevolutionarygameapproach[J].Computersamp;Security,2020,96:101876.
[15]ShyO,StenbackaR.Customer privacy and competition[J]. Journal of Economics amp; Management Strategy,2016,25(3):539-562.
[16]袁靜,劉曉媛,臧國全.用戶參與共治:政府開放數據隱私風險治理的新思路[J].圖書情報知識,2022,39(6):101-112.
[17]劉長玉,于濤,馬英紅.基于產品質量監管視角的政府、企業與消費者博弈策略研究[J].中國管理科學,2019,27(4):127-135.
[18]趙哲耘,靳琳琳,劉玉敏,等.社會化媒體環境下政府、企業與消費者的質量監管演化博弈[J].管理評論,2023,35(6):248-261.
[19]盧安文,何洪陽.互聯網信息服務業多元共治模式的作用機制研究:基于多參數影響的演化博弈視角[J].中國管理科學,2021,29(3):210-218.
[20]陳美,何祺.基于演化博弈的開放數據隱私風險治理研究[J].管理工程學報,2024,38(6):84-96.
[21]朱立龍,何慧,徐艷萍.協同視角下消費者參與的網購商品質量監管策略研究[J].宏觀質量研究,2022,10(2) :86-99.
[22」史歡,李洪波.考慮政府監管的農機裝備產學研協同創新演化博弈研究[J].運籌與管理,2023,32(8):93-100.
[23]曹霞,于娟,張路蓬.不同聯盟規模下產學研聯盟穩定性影響因素及演化研究[J」.管理評論,2016,28(2):3-14.
[24]羅敬蔚.數字經濟背景下消費者權益保護面臨的挑戰與治理對策:兼析利用算法侵害消費者權益的規則路徑[J].價格理論與實踐,2023(2):32-35.
[25]WangXQ,Yuen KF,WongYD,et al..It is green,but is it fair? Investigating consumers’fairness percep-tionof green service offerings[J].Journal of CleanerProduction,2018,181(APR.20):235-248.
[26]國家互聯網信息辦公室.國家互聯網信息辦公室對滴滴全球股份有限公司依法作出網絡安全審查相關行政處罰的決定[EB/OL].(2022-07-21).https://www.cac.gov.cn/2022-07/21/c_1660021534306352.htm
[27]Fox G.“To protect my health or to protect my healthprivacy?”A mixed methods investigationoftheprivacyparadox[J].Journal of the Association for InformationScienceamp;Technology,2020,71(9):1-15.
[28]余泳澤,夏龍龍,段勝嵐.市場監管與企業成長:基于行政處罰數據的經驗分析[J].中國工業經濟,2023(8):118-136.
[29]潘大鵬,郝亞杰,喬朋華,等.數據跨境流轉風險分類監管策略研究[J].管理評論,2024,36(7):43-53.
[30]雷麗彩,高尚,陳瑞祥.大數據“殺熟”如何破?基于政府一消費者協同監管的演化博弈[J.系統管理學報,2021,30(4):664-675.
[31]光明日報與武漢大學聯合調研組.保障安全的“權利書”,還是竊取信息的“任意門”:App隱私協議現狀調查[N].光明日報,2021-08-19(07).
The Multi-volutionary Game Model of Collaborative Governance Strategies for AI Privacy Risks
LIN Zeyuan,YU Xiao,CHEN Qian,XUQian (School of Economics and Management,China Jiliang University,Hangzhou 31oo18,China)
Abstract:Thedevelopment of artificial intellgence(AI)has exacerbated concerns regarding data privacy violations and personal information leakage,intensifying thegovernance challngeswithin theindustry.The inadequacyofunilateral government regulation in addressng the complex andevolving nature of AI-related risksnecesitates adynamic and collaborativegovernance framework.Tothis end,thispaperconstructsatripartiteevolutionarygame model incorporating thegovernment,enterprise,and consumer to analyze governance mechanisms and their dynamic interactions. Furthermore,it examines the influence of regulatory incentives,punitive measures,consumer monitoring costs,and compensation schemes on the strategies.
This study employs evolutionary game theory,integrating key variables such as the government’s incentive-penalty mechanism,enterprises’compliance incentives,consumers’ monitoring costs and compensation structures into the model.Aditionall,adata privacyinfringement degreecoeficient issettocharacterize environmentalvariations across diferent stages of AI technological development.In thesimulation phase,relevant policy documentsandacademic literatureareutilizedtoestablishinitial parametervalues,ensuringdataaccesibilityandreliability,whileother parameters areadjustedaccordingly.Finally,through stabilityanalysis and model evolution,the study examines the evolutionary equilibrium states of stakeholderstrategiesand evaluates the impact of relevant parameters to derive the optimal collaborative governance system for AI privacy risks.
The keyfindings of thisresearch include:(1)Thegovernment’soptimal regulatorystrategyshould follow the “reward-then-punish\"principle.Increasing financial incentives intheearly stages encourages enterprises toadoptrobust data protection measures,while stricter penaltiesare imposed inthe later stages asAI technologies mature.(2)Consumer engagement in privacy oversight ispredominantlydictated by monitoring costsand expectedcompensatory.However, financialincentivesexhibit limited efectiveness infosteringactive consumerparticipation.(3)Thesynergiesof government and enterprise significantly enhance regulatory compliance,as enterprises are more inclined to proactively align with regulatory frameworks and elevate internal governance standards when enterprises possess mature technology capabilitiesand governance systems.Thispaper contributes to thetheoretical discourse on AI privacy risk governance by integrating evolutionarygametheoryand providesempirical insights forrefining regulatorypoliciesandoptimizing selfregulationframeworks.The findingsofervaluable policyrecommendations foradvancing the healthyandsustainable development of China’s AI industry.
Key words:artificial intelligence;privacy risk;collaborative governance;evolutionary game