999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

生成式人工智能風險治理元規則研究

2023-07-25 09:42:34商建剛
東方法學 2023年3期
關鍵詞:人工智能

商建剛

關鍵詞:ChatGPT 生成式人工智能數據風險元規則算法大型語言模型

一、引言

生成式人工智能(AIG),也稱生成合成類人工智能,本文采用生成式人工智能的提法。作為一種生成式人工智能,ChatGPT的技術原理可用“預訓練+微調”進行簡單概括。支持ChatGPT運行的是算法與數據,兩者的不斷優化,提升了ChatGPT利用數據的能力及輸出內容的質量,算法與數據的疊加效應使ChatGPT的智能級別不斷提高。隨著GPT-4的發布,ChatGPT除輸入輸出文本外,還包括圖像識別、前端設計等功能。有學者認為,GPT-4可能具備改造人類思想和創造的能力,形成人工智能超越專業化和大眾化趨勢,可能在某些方面替代人類。對ChatGPT這一新興事物,互聯網之父Berners-Lee稱,今后每個人都將有類似ChatGPT的個人助理。比爾·蓋茨評價,ChatGPT的出現不亞于互聯網和個人電腦的誕生。可以說,ChatGPT的出現具有劃時代的意義,其進一步解放了人類創造力。

關于生成式人工智能的法律定位尚存爭議。王遷教授認為,ChatGPT是“智能搜索引擎+智能文本分析+洗稿器”,智能搜索策略功能可以根據關鍵詞找到最相關的信息;智能文本分析功能支持列舉相同和不同點并進行智能組合;智能洗稿功能實現同義詞替換。鄭戈教授則認為,GPT-4的出現賦予其更多能力,這種定位具有局限性。根據2023年1月10日施行的《互聯網信息服務深度合成管理規定》,利用深度學習、虛擬現實等生成合成類算法制作文本、圖像、音頻、視頻、虛擬場景等網絡信息的技術統稱為“深度合成技術”。2023年4月11日,我國網信辦發布《生成式人工智能服務管理辦法(征求意見稿)》(以下簡稱《征求意見稿》)采用了近似的定義,將生成式人工智能定義為“基于算法、模型、規則生成文本、圖片、聲音、視頻、代碼等內容的技術”。故此,本文認為以ChatGPT為代表、具有上述生成合成類功能的生成式人工智能,當屬于深度合成技術規制范圍。

新技術可能帶來從未有過的新問題, 也可能并未產生新問題而僅是凸顯了原本存在的問題,應首先厘清哪些問題是值得研究的“真問題”。有些問題,例如“微調”環節致使部分工作人員產生心理疾病等,還停留在純粹的道德問題層面,并不能作為數據法學研究的客體;而有些問題,例如ChatGPT復刻人類的偏見和歧視等,則暴露了相應的數據風險。生成式人工智能突破了虛實邊界,帶來的風險級別更高、風險范圍更為廣泛,其在數據收集、加工、生成等方面引發的一系列風險值得關注。對此,2023年3月29日,著名安全機構生命未來研究所發布公開信,呼吁暫停開發比GPT-4還要強大的AI系統,并提倡在6個月的暫停期間內出臺相應治理制度,這份公開信已經獲得了包括馬斯克、蘋果聯合創始人等在內一千余名科技領袖和研究人員的簽名,且人數還在持續增長,進一步體現了生成式人工智能治理的迫切性。

在這種需要應急治理的情形下,既往治理措施卻難以為繼。我國行政法、民法、刑法能在某種程度上對生成式人工智能進行分散治理,但尚未形成周延的法律體系,表現為對底層技術治理不足、對技術提供者監管不充分,數據與場景分類分級標準繁雜且未形成有機體系,相應的規則需要作出調整。同時,在生成式人工智能的現有理論研究中,人工智能的法律主體地位、人工智能生成物的法律地位和“換臉”是核心場景,但研究場景分散。在治理原則方面,以生成式人工智能的上位概念人工智能為主體的研究居多,尚未有學者針對生成式人工智能進行理論統合的研究。總體上看,生成式人工智能對現有數據、算法、算力分而治之的不成體系的治理范式提出了嚴峻挑戰,與網絡安全、數據安全、個人信息保護、數據跨境流動等現有制度存在不適恰性,生成式人工智能的治理范式、現有制度和理論均存在缺失,亟需理論補強,以促進制度完善。

構建生成式人工智能風險治理體系,應首先提出生成式人工智能風險治理的元規則。所謂元規則,是指最基本、最具全局影響的規則。在本文中,元規則是生成式人工智能風險治理中的首要、起始和關鍵的規則,被廣泛認同和明確定義,可成為生成式人工智能風險治理的基本準則,以至于滲入法律和政治制度層面。簡言之,元規則是決定規則的規則。構建元規則的目的在于對目前分散的治理體系和研究進行統合,以形成生成式人工智能的治理框架。元規則是生成式人工智能風險治理規則譜系中最為基礎的部分,它源于理性、實踐與社會核心價值,反映技術風險治理的客觀規律、價值選擇和內在邏輯,構成技術風險治理體系的神經中樞。生成式人工智能風險治理的現有法律制度和理論研究不能為此提供充分鏡鑒,但目前存在相當多的人工智能治理原則,從該視角切入,通過梳理不同國家、地區、組織、企業所構建的人工智能治理原則,提煉其共性,有針對性地提出生成式人工智能風險治理元規則是可行進路。

二、構建生成式人工智能風險治理元規則的必要性

生成式人工智能在國家、社會、私權利三個層面產生的風險,具有損害方式隱蔽、損害結果嚴重兩大特點。該類型技術應用便捷、場景豐富,生成內容具有價值取向和誘導性,通過簡單的人工提示和算法運行即可產生高風險系數的輸出,實質上起到風險放大作用。然而,生成式人工智能的責任承擔機制不明確,相關法律制度分而治之,不成體系,理論研究呈現缺失,需要在實踐、制度、理論層面形成統一的元規則,為生成式人工智能的治理提供底層邏輯。

(一)損害方式具有隱蔽性

數據與算法是生成式人工智能的核心,但其數據固有瑕疵、數據處理瑕疵、數據標注瑕疵,以及算法設計理念瑕疵、算法模型設計瑕疵、算法安全保障瑕疵等問題會傳導并生成負結果,以人類無法感知的方式造成損害。

在國家層面,以ChatGPT為代表的生成式人工智能基于西方價值觀和思維導向建立,其回答也通常迎合西方立場和喜好,可能導致意識形態滲透。相較于其他人工智能,ChatGPT能根據用戶的意愿修正回答,有針對性、選擇性地輸出結果。并且,在ChatGPT的學習語料庫中,中文資料比重過低,根據GPT-3數據倉的語言比例,中文資料僅占0.16012%,而英文資料占比達92.09864%,不利于真實中文信息的分析。同一問題用不同語言提問,其措辭的激烈程度會明顯不同。可以說,ChatGPT具備明顯的偏見,并會潛移默化影響用戶,動搖國民意識形態,形成新的國家安全風險。

在社會層面, 類ChatGPT生成式人工智能的輸出內容可能會以人類無法察覺的方式對人類進行道德操控,從而影響社會整體倫理道德風尚。通過對ChatGPT的道德影響能力進行社會實驗,〔由研究人員向志愿者提出具體問題,證明ChatGPT缺乏穩定的道德標準,其道德建議會對人類產生影響,且人類往往會因為“過于自信”而低估了這種影響。換言之,不具備穩定道德標準的ChatGPT,以人類難以察覺的方式對人類道德標準產生的影響超過人類預期。

在私權利層面, 生成式人工智能的訓練數據多源自數據爬取, 而數據爬取行為具有隱蔽性。ChatGPT的訓練數據似乎并未獲得個人授權,不僅因未列明要收集的信息而違反知情同意原則,也因收集與個人使用ChatGPT無關的數據而違反最小必要原則, 更加違反我國司法實踐中的三重授權原則。值得說明的是,雖然三重授權原則受到學界一致批評,但司法判決是現有個人信息保護法律制度下“行動的法”,是現有規則不完善所導致的結果。除通過數據爬取獲取訓練數據外,ChatGPT的對話數據也會被收集并用來“喂養”該模型,員工向類似語言模型中輸入商業秘密等敏感信息,可能在企業不可知的情況下侵犯企業權利。

(二)損害結果具有嚴重性

生成式人工智能及其結果通過網絡傳播,能直接或間接對國家、社會、私權利造成嚴重損害。類似深度偽造技術,ChatGPT所生成內容具有難以分辨的特征,其算法和數據瑕疵可能產生“胡編亂造的真話”,從而造成嚴重后果。

在國家層面,生成式人工智能可能直接或間接誘發暴力沖突,被用于煽動暴力與對立。西方政治活動中經常使用互聯網引導輿論,包括美國前總統特朗普的競選,利用了諸如Twitter、Facebook、Telegram等平臺服務其政治目的,最終導致“國會山”事件。一些聊天機器人已被惡意編程,用于傳播虛假信息或實施非法行為, 可見某些生成式人工智能可能被植入惡意程序或被政治和陰謀論所利用,引發暴力沖突。

在社會層面,生成式人工智能可能形成數據壟斷和基于數據的壟斷,最終形成信息壟斷,提高信息辨別成本。相較于傳統搜索引擎,ChatGPT可通過對數據庫或語料庫的學習獲得競爭優勢,從而通過應用來壟斷數據,以此形成基于數據的壟斷。根據OpenAI《使用條款》第3(a)條聲明,OpenAI保留了自己對用戶交流與輸出內容的使用權,證明了其具有壟斷數據的意圖。一旦ChatGPT進入“獲得用戶—獲得數據—提升模型—再獲得用戶”的正循環,就可能形成數據壟斷和基于數據的壟斷,通過算法共謀、算法推薦等方式推動企業進一步擴大壟斷,甚至采取算法預警的方式扼殺其他生成式人工智能企業。一但形成信息壟斷,將導致人類無法真正辨別生成式人工智能所產生的結果是否真實,從而產生數字鴻溝。

在私權利層面,生成式人工智能的強大性能和簡單的操作邏輯,可進一步降低犯罪門檻,提高犯罪治理難度。當ChatGPT與Codex,一起使用時,可能生成被注入惡意代碼的釣魚郵件。研究人員已構建了始于釣魚郵件、終于包含惡意應用程序語言(VBA)代碼Excel文檔的完整惡意軟件傳播鏈,這意味著可以將惡意軟件編譯成可執行文件并在終端運行。ChatGPT可以間接地侵犯個人權利,而利用ChatGPT進行編程直接攻擊網絡所帶來的風險更高。一些黑客已開始使用ChatGPT開發惡意工具,如用于盜取信息和建立暗網市場。盡管使用ChatGPT應用開發惡意軟件仍需一些技術手段,但隨著這些應用的不斷迭代與學習,未來可能會為犯罪分子提供更便利的犯罪手段。可以說,ChatGPT通過簡單便捷的交互方式和強大的生成能力,對潛在犯罪分子的惡意起到放大作用,甚至某種程度上促生了犯罪行為。

(三)責任承擔機制不明

生成式人工智能在國家、社會、私權利層面都可造成損害,然而其損害過程和結果隱蔽,責任承擔可能橫跨國家、地區、部門、私權利主體等多層次,如何承擔責任難以界定。生成式人工智能仍然是數據驅動型產品,OpenAI的相關協議是生成式人工智能治理范式的良好鏡鑒。應當基于數據生命周期,對OpenAI公司的相關協議進行責任分析,但其相關協議表現出責任承擔機制不明的情況。

首先,生成式人工智能過度收集個人信息,但未明確數據挖掘原則。OpenAI可能對其所收集的用戶信息進行挖掘,了解用戶喜好甚至突破匿名,從而侵犯用戶權利,但未明確數據利用規則。如在消費領域,可能實現對部分用戶的惡意欺詐或誤導性宣傳,導致用戶的知情權、公平交易權等權利受損;在信息傳播領域,可能引發“信息繭房”效應,拉大不同群體的認知鴻溝,侵犯用戶自由選擇權。事實上,數據實際控制者和數據挖掘者并不滿足于簡單調取數據原始主體資源披露的數據和其他必要數據,而是運用智能再識別技術復合勾勒零散無序的準標識符屬性值與敏感屬性值之間的特殊關聯,這很可能打破匿名狀態,侵犯用戶隱私,從而“降低參與者對于數據隱私匿名存取的信任與參與熱情”。因此,過度收集行為和尚不明確的數據挖掘原則伴隨的侵權隱患對生成式人工智能產品的數據合規、數據挖掘可責性提出了新的要求。

其次,生成式人工智能對其數據共享與傳輸的規定語焉不詳,可能造成用戶訪問權、修正權等數據主體權利失效。根據OpenAI《用戶隱私協議》,OpenAI會向供應商、服務提供商、關聯公司共享個人信息;如果發生合并、重組、破產或其他導致數據移交的情況,數據會同其他資產被交易至第三方。OpenAI特別說明,加州用戶享有個人信息刪除權、更正權、訪問權等數據主體權利,并表示不會出售加州用戶的信息。然而并未聲明其他州、地區、國家的用戶是否享有相應數據主體權利,反而規定了“用戶的個人信息將從用戶所在位置傳輸至OpenAI在美國的設施和服務器”。換言之,根據OpenAI現有規定,其籠統的數據共享與傳輸處于無序狀態,大概率會違反以歐盟《通用數據保護條例》為代表的用戶權利保護模式,在數據跨境流通方面也規避了許多國家的監管程序,可能對數據主體的基本權利造成侵害。類似OpenAI的公司如何承擔數據處理者責任、數據主體如何保障自身權益的問題,對生成式人工智能的數據安全和數據主體權利保障等方面提出了要求,也對不同國家、政府之間的數據監管協作提出了要求。

最后,生成式人工智能所輸出的內容歸屬不明,容易產生爭議。盡管OpenAI試圖給予用戶Chat-GPT輸出內容的所有權,但其自身仍能對輸出內容進行實際控制,甚至,OpenAI還禁止用戶轉讓或委托《使用協議》中包括控制權在內的權利或者義務,致使用戶無法行使“輸出內容所有權”。生成式人工智能的輸出內容的歸屬仍然是學界尚存爭議的問題,OpenAI此舉目的在于形成“所有權”和“使用權”的二分,將“所有權”給予用戶實際上是希望用戶承擔更多責任,而OpenAI反而能通過“使用權”實質上對數據進行利用。不明確責任劃分無疑會助長生成式人工智能企業對個人權益的剝削和利用法律漏洞逃避責任的風氣。

總之,OpenAI試圖逃避數據侵權責任,給用戶施加過高的義務。《使用條款》聲明用戶對內容負全部責任,且OpenAI對輸出的可靠性、適用性、質量、不侵權、準確性等不作任何保證,甚至“在被告知有損害可能性的情況下,也不對間接的、偶然的、特殊的、后果性的或懲戒性的損害負責,包括對利潤、商譽、使用或數據損失或其他損失的損害承擔責任”。這一系列免責條款幾乎完全免除了Ope-nAI對輸出內容的責任,但同時卻對用戶責任進行了較為詳盡的規定,如在保密、安全以及數據保護等方面,要求用戶采用“像保護自身機密信息的方式一樣”對待OpenAI定義的“機密信息”;要求用戶發現安全問題后立即匯報;并且,如果在用戶使用過程中涉及個人數據處理,要求用戶已經獲得相關主體同意并提供相關法律說明。權利歸屬不明確和責任承擔不平衡不利于研發公司開發負責任的人工智能產品,不利于社會整體效益,這也是人工智能風險治理中亟待解決的問題。

(四)生成式人工智能治理范式的缺失

正如上文所述,目前生成式人工智能損害隱蔽、破壞性大,且相關責任承擔機制不明。然而,我國尚未形成周延的法律體系,對生成式人工智能進行規制。生成式人工智能應當屬于深度合成技術的范圍。然而,深度合成相關的法律規制也尚未形成體系,仍需進行法律體系的構建。現有行政責任無法進行事前規制,民事責任不具體且難以落實,刑事條款可能直接適用,但仍存在弊端。理論中的制度構建無法涵蓋生成式人工智能的特征,相應治理范式研究分散,生成式人工智能的綜合治理范式缺失。

1.現行法律制度不足

在行政責任方面,政府能對生成式人工智能起到監管作用,但僅從政府視角無法充分規制。行政責任并不能充分規制生成式人工智能風險。例如在算法層面,由于生成式人工智能通過對數據制作標簽的方式進行微調,難以解釋從“輸入層”到“輸出層”的原理,大大提高了政府的監管成本,無法對其進行充分治理。此外,數據流動涉及多主體,現有機制無法聯動不同部門展開數據監管協作,更無法在數據跨境中同他國機構進行協作,不具有協同治理的可能。若采取行政責任路徑,現有事前監管、事后處罰的模式不足以應對生成式人工智能損害隱蔽、損害結果嚴重的特點,表現為事前無法偵測損害風險、事后損害結果無法恢復。

在民事責任方面,相關實踐不足,理論研究有所缺失。現有實踐中的涉數據治理范式集中于采用著作權、反不正當競爭等途徑保護相關數據權益,這些保護范式大多基于涉案企業進行了人力、物力等投入,所形成的產品帶來了競爭利益,從而給予相關數據的專門保護。采取上述模式進行風險治理無法規制生成內容,以人格權利益作為保護路徑可以作為一種嘗試。但生成式人工智能的侵權行為隱蔽,無法及時進行規制,同時其危害結果嚴重,通過人格利益令相關主體承擔“停止侵害”“賠償損失”等責任規制名譽權受損等情況,無法消除業已產生的影響。此外,如何承擔民事責任涉及知識產權、反壟斷、生成內容歸屬等尚未形成結論的新問題,又涉及數據、算法等底層問題,還可能牽涉公平公正等價值判斷問題,而“算法黑箱”下的舉證困難也是導致現有民法體系難以對生成式人工智能進行規制的原因。

刑事法律確有一些具體條款能進行規制,但均有缺陷。例如,“編造、故意傳播虛假信息罪”僅能涵蓋“編造虛假的險情、疫情、災情、警情”的行為,然而ChatGPT生成內容是通過用戶“提示”自動生成的,并不限于這四種情況,能否追責尚存疑問。再如,“煽動顛覆國家政權罪”的構成要件要求犯罪嫌疑人以積極、主動的方式實施煽動行為,然而生成式人工智能應用通過與用戶互動的形式提供信息,與上述刑法規定的犯罪構成要件不完全吻合,因此即便能起到煽動的有害作用,仍難以用刑法煽動顛覆國家政權罪予以規制。同時,刑法作為更謙抑的法,不能越過行政法、民法規制的可能而直接采取刑事治理模式,過高的刑事責任和過低的入刑門檻不利于該類技術的創新。

2.統一治理原則缺失

生成式人工智能的輸出結果包括文本、圖像、音頻、視頻、虛擬場景等,理論研究多集中于人工智能生成物的權屬、生物信息保護、主體地位及其責任承擔,而未有全場景下的生成式人工智能治理理論,也未形成統一治理原則。

文本、圖像等創作場景下,現有研究集中于著作權歸屬及其責任承擔。有學者認為,生成式人工智能的著作權應歸屬于人工智能的使用者,生成式人工智能的輸出存在侵犯復制權、改編權、信息網絡傳播權風險,并提出“人工智能創作”合理使用制度來化解風險。類似觀點認為,在生成式人工智能語境下,人類作者的角色正在淡出,作者中心主義與三步檢驗法限制了生成式人工智能的發展,構建適應人工智能的著作權合理使用制度是必要的。非創作場景下,相關研究內容多樣,但不成體系。不少學者對規制“換臉”進行了研究,個人生物信息保護、加工利用、存儲保管往往被作為制度構建的重點,甚至有學者將深度合成技術下的深度偽造與個人生物識別信息的濫用問題畫等號。人工智能的主體資格、責任承擔等問題也是研究熱點。從法哲學視角看,法律主體不限于人,人工智能法律主體化也存在可能,可將人工智能作為自然人、法人和非法人組織之外的“技術人”。還有學者提出算法法人的概念,賦予人工智能基于算法構架的實體獨立地位。反對觀點則認為人工智能的可解釋性才是解決人工智能主體地位和法律責任的基礎,應首先明確人工智能的可解釋性,基于不同場景進行算法公開或者算法透明,不應考慮將人工智能法律主體化。顯然,現有理論研究局限在權屬、地位、責任等生成式人工智能制度構建的基礎層面,且研究較為分散,未對生成式人工智能的治理模式進行全盤考量,不能解決生成虛假信息、道德操弄、數據處理不合規等問題。

總之,我國行政法、民法、刑法能在某種程度上對生成式人工智能進行分散治理,尚未形成周延的法律體系,理論研究無法涵蓋生成式人工智能治理,現有治理范式缺乏統一的元規則。現有法律框架下生成式人工智能無法得到妥善規制, 深度合成技術理論研究更多聚焦在人工智能主體地位、人工智能生成物著作權地位、個人生物識別信息保護等領域,其所形成的制度設計主要目的在于明確責任承擔、降低侵權風險、防止個人生物識別信息濫用等。已有研究過于分散,不能作為生成式人工智能治理的理論基礎,亟須以更廣闊的視角構建生成式人工智能治理理論,通過整體原則統合分散的治理體系。

三、生成式人工智能的治理原則

生成式人工智能由數據和算法驅動,促進社會發展的同時也帶來巨大隱患,應建立相應制度對其進行規制。制度構建中,最重要、最核心的議題即針對生成式人工智能,建立相應的風險治理元規則(Meta-rule)。然而現行制度和研究中并未形成生成式人工智能的體系化思維,需從人工智能治理原則入手進行分析。

世界各國針對人工智能數據安全與風險治理已進行了一些探索。美國注重數據集質量的提升和數據風險的應對。2016年,美國連續發布《為人工智能的未來做好準備》和《國家人工智能研究和發展戰略規劃》兩份報告,提出“人工智能公開數據計劃”,為人工智能提供高質量和可追溯的聯邦數據、模型和計算資源并將其作為訓練集;2019年發布新版《國家人工智能研究和發展戰略規劃》,要求所有機構負責人審查聯邦數據與模型,確保數據安全、隱私和機密性;2022年,美國政府發布《人工智能權利法案藍圖》,對人工智能數據安全、算法歧視、數據隱私等方面給予指導。可見美國人工智能數據風險治理的元規則主要圍繞數據質量與數據安全展開。

歐盟在人工智能數據治理方面則較為關注個人數據與個人權益保護。2018年3月,歐洲政治戰略中心發布《人工智能時代:確立以人為本的歐洲戰略》,戰略提出要擴大人工智能所需的數據源,避免數據偏見,確保數據的收集、使用和共享遵守通用數據保護條例的規定。2018年4月,歐盟委員會發布《歐盟人工智能發展戰略》,鼓勵在遵守個人數據保護相關法律的基礎上更廣泛地分享私人數據。2019年歐盟委員會人工智能高級專家組發布的《可信AI倫理指南》確立了3項AI道德原則,即遵守所有適用的法律法規、尊重道德原則和價值觀、技術和社會效應的穩定。2020年,經過350多人的參與,歐盟委員會人工智能高級專家組發布了《可信人工智能評估清單》,確定了7項關鍵評估標準。可見歐洲人工智能數據治理的元規則以數據公平和個人隱私保護為核心,總體上以保護人權為核心進行人工智能制度構建。

我國也在規制人工智能方面進行了一定的探索。最具代表性的是,2021年9月,新一代人工智能治理專業委員會發布《新一代人工智能管理規范》,提出“增進人類福祉、促進公平公正、保護隱私安全、確保可控可信、強化責任擔當、提升倫理素養”6項基本倫理要求,以及針對管理、研發等特定活動的18項具體倫理要求。最新的《征求意見稿》則提出生成式人工智能應體現社會主義核心價值觀、避免算法偏見和歧視、尊重平等競爭、內容真實、保障個人權益的5項基本規定,總體上我國現行的生成式人工智能治理框架比較完善。

除了美國、中國以及歐盟為代表的國家和地區外,大型企業與一些世界性組織也曾發布人工智能治理文件。如2018年,谷歌曾提出7項人工智能應用的原則用以自律,分別是:對社會有益、避免制造或加強不公平的偏見、構建并測試安全性、對人負責、隱私保護、堅持高標準的科學追求、使用符合目的。此外,微軟、英特爾、IBM也曾提出過類似AI準則。2021年5月,經合組織(OECD)也確立了5項人工智能基本原則:包容性增長、可持續發展和福祉;公平及以人為本的價值觀;透明性和可解釋性;穩健性、保護與安全性;可問責性。大型企業與世界性組織所構建的規則為生成式人工智能的治理提供了商業和人類共同體視角,補足了相關國家所提出治理原則的缺失之處。

不同國家與國際組織可能制定不同的原則,但不同原則之間又具備一定程度的共性。正如上文分析,人工智能具有不確定的技術風險、偏離設計應用的風險、非法使用的風險、社會風險、倫理風險。由此帶來人工智能產業“代替排擠”“差異擴展”“風險聚集”3類消極效應。為盡量降低人工智能技術帶來的社會負效應,安全、可信、公平、可解釋性、保障數據主體權利等內容已經成為人工智能治理的基本原則。季衛東提出了更多原則,認為應當將共享互信、個人尊嚴、民主參與、國際合作、相機規制、公開透明、雙重規制、追蹤制裁、預防響應9個方面作為人工智能開發的主要原則和實施方法。何淵則認為,應從政府與市場、立法與行政、中央與地方、政府與社會4個維度構建授權與集權的雙向治理模式,打造以多元、開放、分享為基礎的治理體系。總之,國內學者認為在人工智能時代,確立風險控制理念,構建法律、倫理、行業、自律等元素下的多元互動規制體系是人工智能發展的重要保障。

然而,這些原則或治理范式多是針對人工智能的領域通則,面對不同人工智能應用,還應具體細化其原則。例如,對于醫療健康領域的人工智能應用,有學者提出“數據與隱私保護、可責性和政府監管、可信和可理解、醫患關系、衡平”5項原則,前3項原則是通用型原則。醫患關系原則是指病人與醫生之間存在信任關系,僅用AI診斷無法代替醫生對病人的心理支撐。衡平原則是指對人工智能應用所產出的結果進行利弊分析,衡平考量。可以說,治理人工智能應用的元規則除考量數據、監管、算法等因素,還應將應用場景、用戶心理和社會效應等因素納入考量。還有學者認為現已形成人工智能的多主體、多部門、多學科的多中心治理模式,社會效益與人工智能系統之間具有三層結構。最下層為技術層,對該層要利用數據管理、數據可責、數據標準等進行管理;中間層為道德層,需要建立相關原則;最上層是社會和法律層,需要采取立法、合作等措施進行管理。也就是說,構建元規則的過程中要考慮結構性與可行性。總之,盡管現階段已有大量的元規則對人工智能應用進行規范,但仍應當結合具體行業的要求進行更為細致的法律制度設計,從而將元規則落地。對生成式人工智能領域,亦應當構建有針對性的元規則。

四、生成式人工智能治理元規則

原則導向的治理機制,能在宏觀道德和微觀原則之間尋找平衡點,以平衡技術發展和人工智能治理。通過上文對風險的梳理,吸取國家、組織、企業人工智能數據風險治理的經驗,對現有人工智能數據風險治理的原則進行梳理可知,現有國家、組織、企業實踐中的人工智能治理制度體現了14個原則,這些原則彼此關聯,可被進一步提煉總結,形成普遍適用的生成式人工智能風險治理元規則。

在元規則的構建過程中,要在核心價值上達成充分共識,保證人類自主性、責任承擔的有效性。其中,算法公開透明、數據主體權利保護是人工智能法律規制的核心。采取算法解釋、算法審核、非歧視開發準則和精準的數字平權行動等治理措施有助于人工智能治理。同時,數字福祉、內生監管、合作治理等機制不可缺失。總的來說,生成式人工智能元規則的構建要以維護人類主體地位為核心,以算法和數據規制為主要內容,保持多元利益的動態平衡,并時刻防范社會風險。對于生成式人工智能,應當從4個角度進行元規則的構建:第一,協同共治,涵蓋算法監管、算法安全、社會效益、算法可責;第二,提升透明度,涵蓋目的正當、算法透明、保護隱私、數據安全;第三,保障數據質量,涵蓋算法可信、算法公平、算法公正;第四,倫理先行,涵蓋以人為本、價值多元、反對歧視。

(一)協同共治

協同共治包含國家內部不同部門、不同主體間的協同,也包含國家間的協同合作。通過對生成式人工智能的風險分析可知,跨部門甚至跨國家的治理合作具有必要性。我國《網絡信息內容生態治理規定》強調網絡信息內容生態治理的主體是政府、企業、社會、網民等,體現了國家內部多主體參與的協同治理思路。首先,政府與其他機構相比更具合法性,能確保算法監管、算法安全;其次,政府具備強制執法能力,能確保數據的穩定、可靠以及合規;最后,政府能更好地收集信息并開展協調工作,保障工作效率。當政府調節機制成效不明顯時,可發揮企業、社會和個人的能量,讓相應主體承擔更多的自治責任,特別是在生成式人工智能這樣的新領域,法律法規尚未充分更新,采用公私結合的路徑能讓目前的治理手段發揮更大效用,充分釋放社會效益,而協同共治的理念也能實現算法責任合理分配,使算法可責性落地。

同時,不同國家采用的不同治理方式可能會對人工智能的創新和擴散造成阻礙,如數據訪問限制、數據本地化、歧視性投資等,不同的風險分類制度和治理要求會增加全球性企業的服務成本與合規成本,尤其可能對一些小規模企業造成致命的打擊。因此,除各國內部需促進多主體、多部門協同治理外,還應積極推進生成式人工智能風險治理方面的國際協同合作。2023年1月27日,歐盟-美國貿易技術委員會簽署《公益人工智能管理辦法》,該協議遵循了《互聯網未來宣言》中的原則,建立在雙方共同利益和使用數字技術手段應對新興挑戰的共同需求之上,并規定雙方會聯合支持人工智能的社會應用,包括農業、醫療、天氣等領域。協議簽署后,雙方官員表示美國和歐盟的研究人員將在5個主要領域合作開發“聯合模型”。2022年12月,委員會就多項人工智能事項達成一致,包括承諾制定人工智能國際治理標準以及就人工智能對勞動力的影響開展合作研究。未來,該委員會可成為歐美開展人工智能治理合作的主管機構。美歐這一合作協議雖然著重于人工智能的應用,但未嘗不能作為生成式人工智能風險治理國際合作的可參考范例。

2021年10月,人工智能合作論壇(FCAI)發布的一份中期報告評估了彼時人工智能國際合作的前景,并提出了發展建議。報告闡述了缺乏合作的國際環境的消極后果以及加強合作的好處,強調了人工智能國際合作在應對全球挑戰方面的積極影響,認為“沒有國家可以單獨行動”,并展示了合作性國際框架對人工智能的治理和開發有何種積極影響。在治理合作方面,報告建議將治理合作視為一個循序漸進的過程,可從較小的合作逐漸展開,最終形成較為全面的合作。于我國而言,可通過雙邊、多邊合作的形式,與價值取向相近或享有共同利益的國家開展合作,共同制訂人工智能風險治理的標準和程序。以促進國家安全為基礎,人工智能應用和數據在合作各國間可以流通,并循序漸進構建較為全面的人工智能風險治理合作體系。

互聯網作為當今社會的重大核心技術已蓬勃發展60余年,但至今未成立以聯合國為核心的國際多邊機構,這不利于互聯網行業的有序發展及相關國際合作的展開。目前大部分互聯網自治委員會和自我監管機構都由美國控制,它還阻止了一些國家試圖建立國際互聯網監管機構的努力,只為繼續利用其科技霸權地位在政治、社會、商業領域主導輿論甚至操控不同國家的公民。馬長山認為:“掌握了數據,就意味著掌握了資本和財富;掌握了算法,就意味著掌握了話語權和規制權。”互聯網是國際公共產品,關系著全人類的共同利益,不能任由個別國家或利益集團擺布,因此,以聯合國為核心構建國際多邊互聯網監管機構是各國面臨的緊迫任務。應在開展雙邊或多邊人工智能風險治理國際合作的同時,推動建立聯合國框架內的互聯網監管機構,以此為包括人工智能在內的全球互聯網活動提供機構保障與制度框架,推動出臺公平、統一的人工智能風險治理標準,降低不合理的成本,充分利用人工智能進一步解放生產力。

(二)提升透明度

為防止人工智能應用侵犯各類主體的權利,應提高人工智能工具在算法、挖掘原則及數據共享方面的透明度。我國算法治理體系將算法定位為“互聯網信息服務算法”和“算法推薦服務”,要求算法信息服務應公平公正、透明可釋,企業應及時、合理、有效地公開算法基本原理、優化目標、決策標準等信息,作好算法結果解釋;鼓勵算法推薦服務提供者綜合運用內容去重、打散干預等策略,并優化檢索、排序、選擇、推送、展示等規則的透明度和可解釋性。算法監管制度中已經創新性地提出了針對特征庫、用戶標簽、算法機制機理等技術規范的措施,但這些具體的措施很難應對生成式人工智能濫用造成的風險,應結合生成式人工智能的新技術發展與應用場景作出相應調整和改進。

算法是人工智能的決策原理,即其使用數據的方式。包括ChatGPT在內的生成式人工智能均使用了神經網絡,因神經網絡技術的特征,要求這類應用達到算法透明化客觀上非常困難,若強制要求透明化可能會阻礙神經網絡技術的應用。因此,立法者應結合類似的應用場景、應用效果和受眾等因素,對算法透明度要求進行調整。如用于降低輕型飛機碰撞率的FLARM系統并未采取任何提升算法透明度的措施,但它在降低飛機碰撞幾率方面取得了明顯的成效,保護了大量乘客的生命安全,若僅因算法透明度不達標就禁用該系統顯然有悖常理。目前越來越多的算法開發機構將算法解釋納入人工智能學習的一部分,針對“算法黑箱”的反向推理研究也已展開,算法透明度問題可能隨著技術的發展得以解決。

除算法原理解釋外,還應增加生成式人工智能挖掘原則方面的透明度。比如ChatGPT“看人下菜碟”的能力昭示了其為西方價值觀服務的本質,為防止別有用心的政府或企業利用類似工具潛移默化向廣大受眾強加己方意圖和觀念,應確保各方參與者擁有平等的數據表達機會,以保障相關技術不會完全淪為政治工具。同時,應對數據挖掘的范圍有所限制,確保數據挖掘滿足最小必要原則且具有合法目的,數據挖掘的范圍不得超出最初聲明的范疇。此外,數據挖掘能長久留存和控制巨量信息,為不侵犯包括數據遺忘權在內的數據主體權利,在主體要求、授權超期、數據資源超范圍等情況下,應確保相關數據能得到徹底刪除。綜上所述,提升生成式人工智能挖掘原則的透明度是為確保數據挖掘的公允、保證不同主體的公平參與、限定挖掘范圍并及時刪除不必要的數據以確保數據主體的權利在數據挖掘過程中不受侵犯。

提升生成式人工智能數據跨境流動方面的透明度能確保國家安全,加深各國政府對人工智能的信任。ChatGPT的一大特點是獲取跨境數據流,它可以在不同國家和地區獲取數據,不受數據跨境流通障礙的束縛。為滿足我國數據跨境流動國家安全的要求,生成式人工智能必須明確數據跨境流動的原則,確保對一般數據和敏感數據進行區分,且重要數據的流動應按照要求進行審批。生成式人工智能數據跨境流動應以數據安全主權為原則,該原則不僅可從規制風險的角度統一各國在人工智能數據跨境流動上的思路,還與我國安全與發展兼顧的規制進路相符,有利于我國發展獨立自主的數據話語體系,為全球提供促進數據有序跨境流通的生成式人工智能產品。

(三)保障數據質量

保障數據質量應關注原始數據的準確性與產出結果的準確性。原始數據的準確性決定了產出結果的準確性,而產出結果的準確性還受到算法的影響。保障數據質量是正義的要求,保障正義能預防人工智能帶來的極端分化。算法透明原則能夠促進算法可信,算法公平與公正是輸出質量的基石。生成式人工智能設計人員應當秉持公平公正的道德觀進行數據標簽工作,并要求結果符合公平公正的道德標準。

正如《降臨》一書的作者特德·姜所描述的那樣,ChatGPT是網上所有文本的“有損JPEG”,雖然保留了大部分信息,但只能形成原圖片的近似值。特德·姜認為,ChatGPT并未從互聯網逐字引用,而是重新表達材料,給人ChatGPT已經理解了材料的誤解。ChatGPT的輸出結果只是在模仿人類對信息進行壓縮,而非真正理解信息,因此ChatGPT無法保證內容的真實性。例如,ChatGPT撰文稱紐約市市長“通過金錢收買權力”。但經核實,該自述為編造,并引用了虛假材料。一方面,ChatGPT會壓縮信息,并可能將經壓縮的內容收集作為訓練素材,使人類信息庫中充滿信息的“有損JPEG”。例如,人類信息庫中本來只有“無損信息”,但隨著ChatGPT使用的增多與數據收集,人類信息庫中的“有損信息”會越來越多,最終真正的“無損信息”可能會被淹沒在“有損信息”中。另一方面,ChatGPT在撰寫新聞、論文、社評等文章時生成虛假信息,讓用戶難辨真偽,致使人類信息庫變得“模糊”。為避免生成式人工智能可能帶來的人類信息庫“失真”,應當保障數據質量。

具體而言,生成式人工智能應盡可能達到信息的無損壓縮與復現。ChatGPT生成的答案是對學習文本的壓縮和重新包裝,這也在一定程度上解釋了ChatGPT有時會編造事實并輸出一些“幻覺”,即當一個壓縮算法將原件有損壓縮成1%的大小并重建時,原件的內容會有很大程度的損失,輸出的結果就可能是捏造的。保障輸入的真實性是提升數據質量的關鍵板塊,應增加對所收集信息進行真偽鑒別的模塊。ChatGPT的預學習模型并未鑒別信息的真偽,只通過人工標注的方式去除有害信息,而互聯網本就含有大量的虛假信息,將這些信息作為學習材料無疑會降低模型輸出的真實性,從而對用戶造成錯誤印象或財產損失。此外,在復現階段應對生成式人工智能的產出進行質量把控,可將相關開發企業是否愿意用模型生成的文本作為新模型的訓練材料當作判斷指標, 若不能作為訓練材料,則意味著模型生成的文本較為模糊(訓練價值低),若可以作為訓練材料,則意味著生成的文本與原件具有相近的“清晰度”(訓練價值高),由此入手管理大型語言模型的數據質量。

(四)倫理先行

倫理先行的理念作為生成式人工智能設計、使用時的典范性原則,不能成為空洞的表達,應當貫穿于公法和私法的法律實踐中,體現以人為本的理論內涵,反對技術濫用帶來的歧視風險,最終實現對人類尊嚴的維護。現有生成式人工智能缺乏全面的倫理道德過濾機制。人工智能技術應當以最大程度造福全體人類技術為倫理基石,同時不設定統一的價值判斷標準,促進多元價值判斷體系的生成,尤其是不能形成價值立場,潛移默化進行文化輸出,其應用應當是客觀的陳述,需要尊重不同人群的國家、地區、民族、性別、宗教等元素,不良信息甚至違法犯罪信息的輸出可能對社會造成嚴重影響,倫理先行是必要原則。

開發人工智能應用時,相關法學研究與制度構建的目的是為了避免引發人類風險與災難,其最終目的應以人為本。新技術的出現帶來人類尊嚴危機,數據瑕疵和算法瑕疵都可能導致人格尊嚴受損,人格尊嚴等以人為本的理念不能作為空洞的原則性指引要求,而應當積極融入法律制度構建之中,并對公共決策起到規制等實質性作用。另外,還應注重對用戶的引導。實踐中存在用戶超授權使用生成式人工智能的情況,應當避免用戶通過誘導繞開系統限制,違反相關準則,輸出有害內容。加強用戶引導不是僅僅提示人工智能有違反倫理的可能性,而是還應告知人工智能的能力和局限,確保用戶知曉如何降低倫理風險,朝正確的方向使用人工智能,而非突破底線濫用生成式人工智能。

結論

ChatGPT的驚艷表現昭示了生成式人工智能帶來的技術革新,市場為之沸騰的同時,生成式人工智能的數據風險逐漸顯現,在國家、社會和私權利三層面帶來了不確定性。基于現有企業、國際組織、國家不同的人工智能治理模式,應通過四大元規則針對生成式人工智能進行風險治理:協同共治、提升透明度、保障數據質量、倫理先行。協同共治包含國家內部不同主體、不同部門之間的協同,旨在發揮政府、企業和個人的不同作用,確保數據風險處于可控范圍;還應開展國際合作,先以價值取向相似的國家為起點展開合作,共同制定人工智能風險治理的標準和程序,并循序漸進地構建范圍更廣、更全面的國際合作。提升透明度意在提升生成式人工智能算法、挖掘原則及數據共享方面的透明度,幫助數據主體了解數據的獲取和處理過程,建立個人、企業和政府對人工智能應用的信任。保障數據質量,一是要提升生成式人工智能訓練數據的質量;二是要對輸出內容進行真偽鑒別,避免人工智能應用輸出具有迷惑性的錯誤言論,從而降低侵犯用戶權利導致用戶損失的可能。倫理先行意味著將倫理道德融入人工智能研發和應用的全生命周期, 需不斷強調其實質性指引作用, 避免成為空洞表達。無論技術怎樣變革,以上四個元規則是生成式人工智能數據風險控制方面不能突破的底線,隨著生成式人工智能與社會規則、倫理規范、群體意識的融合,未來可對上述元規則的內涵和外延進行適當的調整和解釋,以適應技術的發展和社會的變化。

猜你喜歡
人工智能
我校新增“人工智能”本科專業
用“小AI”解決人工智能的“大”煩惱
汽車零部件(2020年3期)2020-03-27 05:30:20
當人工智能遇見再制造
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
AI人工智能解疑答問
人工智能與就業
IT經理世界(2018年20期)2018-10-24 02:38:24
基于人工智能的電力系統自動化控制
人工智能,來了
數讀人工智能
小康(2017年16期)2017-06-07 09:00:59
人工智能來了
學與玩(2017年12期)2017-02-16 06:51:12
主站蜘蛛池模板: 国产麻豆精品在线观看| 国产精品久久自在自线观看| 国产精品专区第1页| 亚洲成人免费看| 国产va在线观看| 97国产成人无码精品久久久| 一个色综合久久| 极品性荡少妇一区二区色欲| 国产裸舞福利在线视频合集| 午夜精品国产自在| 91区国产福利在线观看午夜| 亚洲男人在线天堂| 黄网站欧美内射| 在线播放国产99re| 思思热精品在线8| 永久成人无码激情视频免费| 精品国产一区二区三区在线观看| 成人小视频网| 国产免费一级精品视频| 免费在线a视频| 毛片最新网址| 四虎综合网| 日韩小视频网站hq| 一级在线毛片| 欧美日韩国产在线人| 欧美一级爱操视频| 国产色偷丝袜婷婷无码麻豆制服| 91热爆在线| 亚洲永久色| 国产色爱av资源综合区| 波多野结衣无码中文字幕在线观看一区二区| а∨天堂一区中文字幕| 伊人91在线| 五月激情综合网| 四虎成人免费毛片| 99re66精品视频在线观看| 99热国产在线精品99| 国产精品私拍99pans大尺度| 成人免费一级片| 国产凹凸一区在线观看视频| 久久这里只有精品8| 亚洲无线国产观看| 国产精品浪潮Av| 亚洲性视频网站| 91久久偷偷做嫩草影院免费看| 欧美一区二区三区欧美日韩亚洲| 538精品在线观看| 久久精品中文字幕免费| 久久精品视频亚洲| 成年看免费观看视频拍拍| 亚洲视频一区在线| 欧美国产日韩在线| 91九色最新地址| 国内精品小视频福利网址| 国产精品视频久| 成年免费在线观看| 欧美福利在线| 99国产精品国产| 日韩一级二级三级| 97青青青国产在线播放| 午夜福利网址| 国产午夜在线观看视频| AV网站中文| 国产一区在线视频观看| 亚洲国产午夜精华无码福利| 国产剧情国内精品原创| 一本大道香蕉中文日本不卡高清二区 | 在线观看国产黄色| 精品亚洲麻豆1区2区3区| 91热爆在线| 在线无码私拍| 五月婷婷综合网| 亚洲最大福利网站| 99在线观看精品视频| 亚洲成年人片| 久久精品国产国语对白| 99在线视频网站| 亚洲av无码久久无遮挡| 国产精品久久久久久久久| 亚洲一级毛片| 国产精品欧美亚洲韩国日本不卡| 亚洲swag精品自拍一区|