999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

以DeepSeek為代表的生成式人工智能信息證據(jù)能力問題研究

2025-08-26 00:00:00韓旭
湖南大學學報(社會科學版) 2025年4期
關(guān)鍵詞:證據(jù)司法人工智能

中圖分類號]D915.3;TP18 [文獻標識碼]A [文章編號]1008-1763(2025)04-0131-09

Abstract:Generative Artificial Inteligence (AI) technologies,represented by DeepSeek,enable content generation in various forms through deep learning and big data analysis. This raises the possibility of utilizing such content in criminal proceedings,with the core issue being the evidentiary capacity (i.e.,admissibility)of such information.While information generated by Generative AI may serve as litigation evidence under certain circumstances,it must meet requirements such as reliability,relevance,and legality. As DeepSeek has been applied for a short period,its technical maturity remains insufficient,and its reliability requires further validation. Therefore,caution should be exercised in treating its outputs as litigation evidence. Generative AI offers advantages in improving evidence-processing efficiency,expanding evidence types,and supporting objective fact-finding. However,it also poses the risks related to authenticity verification,algorithmic transparency, privacy protection,and technical immaturity,which present challenges in determining its evidentiary capacity. Drawing on international experiences such as the EU Artificial Intelligence Act and the U.S. AI Risk Management Framework,this study proposes building a technology credibility mechanism,refining evidence rule systems,and enhancing judicial capabilities to address challenges posed by advancing AI technologies.

Key words: Generative Artificial Intelligence; DeepSeek;criminal proceedings;evidentiary capacity; technical credibility

一 引言

無論是《刑事訴訟法》還是《民事訴訟法》,均將“電子數(shù)據(jù)\"作為證據(jù)種類之一,也就是在立法上承認電子數(shù)據(jù)的證據(jù)能力。生成式人工智能經(jīng)過算法分析“輸出\"的內(nèi)容已經(jīng)不同于“輸入\"的資料。這與傳統(tǒng)的存貯于電子介質(zhì)中,“輸人”與“輸出”內(nèi)容一致的“電子數(shù)據(jù)\"具有顯著的差異。如果說之前是A與A的關(guān)系,那么現(xiàn)在則是A與B的關(guān)系。現(xiàn)在的B是否屬于電子數(shù)據(jù)?如何保證其作為電子數(shù)據(jù)的適格性?這些問題均值得探討。長期以來,人們普遍認為,諸如寫詩、創(chuàng)建軟件、設計時裝和創(chuàng)作歌曲等藝術(shù)、創(chuàng)造性任務只能由人類來完成。人工智能的發(fā)展改變了這一判斷,尤其是以DeepSeek為代表的生成式人工智能的出現(xiàn),完全可以實現(xiàn)對人類創(chuàng)作模式的模擬和再現(xiàn)。在刑事訴訟中,這一技術(shù)作為證據(jù)使用的可能性已經(jīng)成為訴訟法學界和司法實踐關(guān)注的問題之一。

傳統(tǒng)刑事證據(jù)制度強調(diào)證據(jù)的真實性、合法性和關(guān)聯(lián)性,即“三性\"特征,這一特征主要是基于司法程序中對證據(jù)來源的可靠性與取證過程的規(guī)范性的要求。然而,以DeepSeek為代表的生成式人工智能在提供證據(jù)的形式和內(nèi)容上體現(xiàn)出顯著的差異性,沖擊了傳統(tǒng)證據(jù)規(guī)則。生成式人工智能在刑事訴訟中的證據(jù)適用,從真實性角度看,生成內(nèi)容高度逼真,傳統(tǒng)的鑒定技術(shù)難以快速辨別真?zhèn)危粡暮戏ㄐ院完P(guān)聯(lián)性角度看,現(xiàn)行刑事訴訟法和證據(jù)規(guī)則對人工智能生成證據(jù)的規(guī)定尚屬空白,導致司法機關(guān)在采信此類證據(jù)時面臨巨大障礙,尤其是在對證據(jù)能力的判斷方面。此外,生成式人工智能的普及也存在被不法分子利用以干擾司法程序的可能。

本研究將以生成式人工智能的基本特征為切入點,結(jié)合其在刑事訴訟中的具體應用情境,探討其作為證據(jù)使用的現(xiàn)實意義及法律適用困境,并結(jié)合對國際經(jīng)驗的借鑒,提出我國相應的解決路徑。

生成式人工智能信息的應用場景和優(yōu)勢

(一)生成式人工智能信息的主要類型及司法應用

生成式人工智能信息是指通過生成式人工智能(GenerativeAI技術(shù)生成的、可以作為證據(jù)使用的信息[1],它利用生成對抗網(wǎng)絡GAN等先進的深度學習算法和大數(shù)據(jù)訓練模型生成逼真的文本、圖像、音頻或視頻等內(nèi)容。相較于傳統(tǒng)證據(jù),生成式人工智能信息具備顯著的特征差異。其一,生成式人工智能信息并非直接來源于現(xiàn)實記錄,而主要依賴復雜算法和深度學習模型生成內(nèi)容,具有高度的技術(shù)性。從本質(zhì)上來說,生成式人工智能證據(jù)是通過技術(shù)手段對現(xiàn)實素材的再加工,是技術(shù)驅(qū)動的結(jié)果[2]其二,生成式人工智能技術(shù)的操作門檻較低,容易被不法分子利用并生成虛假信息,因而,它具有一定的可塑性和偽造風險。也正因為這一特征,在驗證生成式人工智能信息的真實性時,其技術(shù)依賴性更強。其三,生成式人工智能信息形式更加多樣化,包括文本、圖像、音頻和視頻等多種媒介,還可同時生成文本和圖像的組合內(nèi)容,在刑事訴訟中具有廣泛的應用前景。

人工智能生成的信息主要包括文本、圖像和數(shù)據(jù)三大類型,每種類型在具體案件中的作用和性質(zhì)各具特點[3]。一是常見的文本證據(jù)。生成式人工智能在文本生成方面應用廣泛。AI通過算法分析基礎材料的潛在屬性,可以按照用戶指令生成特定書寫風格和語言習慣的文本內(nèi)容。例如,在涉及網(wǎng)絡經(jīng)濟犯罪的案件中,犯罪分子可以使用AI工具生成虛假的文件內(nèi)容或聊天記錄來誤導受害者或構(gòu)建虛假的案情陳述。這樣的文本證據(jù)很難被迅速識別,且不易通過傳統(tǒng)方法進行真實性驗證,可能誤導偵查方向或干擾訴訟程序。而生成式人工智能技術(shù)通過快速分析海量文本數(shù)據(jù),可以為司法工作節(jié)省大量時間,有效緩解當前國內(nèi)司法機關(guān)案件處理周期長、法官數(shù)量少、案件增長速度快的困境,極大地提高辦案效率。

二是圖像證據(jù)。生成式人工智能在圖像生成技術(shù)上的突破以Deepfake技術(shù)為代表。特定的AI技術(shù)可以實現(xiàn)將任意圖片或視頻覆蓋在源圖片或視頻上,生成虛假內(nèi)容。該項技術(shù)也包括語音模擬、人臉合成、場景構(gòu)建等多方面聲音、文字、圖像結(jié)合的生成功能。這些內(nèi)容除了被不法分子用以犯罪活動外,也能對警方的刑事偵查起到一定的輔助作用。例如,洛杉磯警察局(LAPD)自2012年開始使用名為PredPol的預測性警務軟件,該軟件利用大數(shù)據(jù)分析和機器學習技術(shù),幫助執(zhí)法部門更有效地調(diào)查和預防犯罪[4]。除此之外,運用生成式AI對犯罪分子進行畫像及通過輸入描述性文字以重構(gòu)犯罪現(xiàn)場的技術(shù)都已在實踐中發(fā)揮了一定的作用。

三是數(shù)據(jù)證據(jù)。在現(xiàn)代刑事司法中,生成式人工智能的智能設備或系統(tǒng)數(shù)據(jù)已經(jīng)普遍作為一種證據(jù)類型使用。例如,在交通事故中,車輛智能系統(tǒng)生成的行車記錄數(shù)據(jù)可能成為核心證據(jù)。這些數(shù)據(jù)往往被認為具有客觀性,但如果其生成過程受到干擾或數(shù)據(jù)被偽造,則可能對案件的事實認定造成誤導[5]。因此,對于該類生成數(shù)據(jù),在作為證據(jù)采信之前,需對其來源、生成路徑及完整性進行嚴格審查。

(二)生成式人工智能在刑事司法中的應用優(yōu)勢

生成式人工智能在刑事司法中的優(yōu)勢主要體現(xiàn)在以下三個方面:

一是提升證據(jù)處理的效率與精準性。刑事案件中的證據(jù)收集和審查往往耗時且煩瑣,生成式人工智能憑借強大的數(shù)據(jù)處理能力,可以在短時間內(nèi)完成大量復雜任務,從而顯著提高司法程序的運轉(zhuǎn)效率。正如波斯納所言:“效率是公正的第二含義。”司法程序應以盡量少的資源實現(xiàn)最優(yōu)的案件處理效果。生成式人工智能可以快速篩查和分析數(shù)據(jù),生成系統(tǒng)化的報告,避免在數(shù)據(jù)整理方面出現(xiàn)司法資源浪費問題,有效減少案件的拖延,提升程序的效率。例如,張某某走私、販賣、運輸、制造毒品案,法院將智能軌跡分析結(jié)論作為確認被告人系毒品所有人的證據(jù),極大提升了司法效率[。而我國研發(fā)的DeepSeek又在司法領域具備獨特的優(yōu)勢。相較于開放式人工智能(OpenAI),DeepSeek具備極強的邏輯分析能力,其法律文本分析能力更是優(yōu)勢盡顯,可以更精準地識別刑事案件中的關(guān)鍵要素,并生成符合司法語言規(guī)范的文本報告。例如,在證據(jù)整理環(huán)節(jié),DeepSeek可以自動提取案發(fā)時間、地點、人物關(guān)系,并以法律邏輯格式化,使得法官和律師能夠更高效地進行證據(jù)比對。此外,DeepSeek的深度思考(R1)模型可以將生成過程和生成邏輯可視化,并對用戶可能的潛在要求進行分析,這有助于弱化生成式人工智能本身的不透明度,一定程度上可以增強其生成證據(jù)的可信性。

二是生成式人工智能證據(jù)能夠在一定程度上排除證據(jù)中的非客觀因素。刑事訴訟中,證據(jù)的客觀性是事實認定的先決條件。生成式人工智能基于技術(shù)驅(qū)動的中立性,極大避免了傳統(tǒng)證據(jù)收集中存在的人為干預或者主觀偏見,有力保證了證據(jù)的客觀性。盡管這種客觀性可能受到算法設計偏差或基礎材料的影響,但這種證據(jù)總體上比傳統(tǒng)取證更具中立性。此外,在偵查過程中,AI生成技術(shù)能夠通過模擬重建犯罪現(xiàn)場、生成嫌疑人畫像來輔助偵查。

三是生成式人工智能證據(jù)具有一致性和高精確度[]。AI生成的證據(jù)基于算法規(guī)則和輸人數(shù)據(jù),無人為偏見或主觀干擾,顯著增強了證據(jù)的客觀性和一致性。例如,AI生成的時間戳和操作記錄能夠精確還原事件發(fā)生的時間鏈,為司法判斷提供可靠支持。此外,在處理復雜數(shù)據(jù)時,AI能有效避免傳統(tǒng)人工分析中的疏漏或錯誤,通過對網(wǎng)絡聊天記錄、多媒體證據(jù)等的處理,提供細節(jié)精準的證據(jù)重建[8]這種技術(shù)的適應性與擴展性也使其在新型證據(jù)形式中表現(xiàn)出獨特優(yōu)勢,能夠快速整合數(shù)字化數(shù)據(jù)、跨國案件中的多語言文檔,以及復雜技術(shù)證據(jù),為全球化和數(shù)字化司法提供有力支持。同時,AI生成的證據(jù)具備較強的證明力,能夠與傳統(tǒng)證據(jù)相互印證,例如結(jié)合監(jiān)控錄像和電子郵件記錄,形成強有力的證據(jù)鏈條,進一步增強案件的證明能力。此外,AI還可以針對專業(yè)領域的數(shù)據(jù)進行精細化生成與分析,如生物特征識別和金融數(shù)據(jù)審計,增強技術(shù)證據(jù)的專業(yè)性。

通過上述優(yōu)勢,生成式人工智能在實現(xiàn)更高效、更精準的案件事實發(fā)現(xiàn)過程中,可以為刑事司法的實質(zhì)公正和程序正義提供重要支撐。

三生成式人工智能證據(jù)的適用困境

首先,AI證據(jù)的真實性與可靠性難以認定。AI生成的證據(jù)涵蓋范圍十分廣泛,不僅包括文檔、圖片、視頻等常見的證據(jù)類別,還包括數(shù)據(jù)分析及算法學習等特殊的應用場景。相較于傳統(tǒng)證據(jù)通過人工直接追溯信息來源以驗證信息的真實性,生成式人工智能產(chǎn)生的證據(jù)則往往通過復雜算法得出。這種復雜性導致AI生成的證據(jù)難以被常規(guī)化地審查其準確性與可靠性。一旦AI證據(jù)被質(zhì)疑是基于有偏見的算法產(chǎn)生的或者是被篡改過的,就需要專業(yè)人員來解釋證據(jù)是如何產(chǎn)生的,而這種知識并不總是被訴訟當事人或法院、檢察院等訴訟參與人員掌握或者理解的。當前我國大多數(shù)法院都不具備認定AI證據(jù)真實性與可靠性的能力。

其次,AI證據(jù)的可采性是司法實踐領域一個亟待解決的問題。一般來說,證據(jù)的可采性取決于其真實性、合法性和相關(guān)性等幾個關(guān)鍵因素。即便AI算法能夠保證AI證據(jù)的“三性”,在生成式人工智能證據(jù)可采性上仍然存在一個關(guān)鍵問題一一能否向裁判者解釋產(chǎn)生AI證據(jù)的人工智能系統(tǒng)是如何運作的,從而使他們理解該證據(jù)是如何產(chǎn)生的,最終正確評估該證據(jù)是否具有可采性。根據(jù)《中華人民共和國刑事訴訟法》第56條、第59條之規(guī)定,法官在審理案件時,必須對提交的證據(jù)根據(jù)其真實性、合法性和關(guān)聯(lián)性進行審查,并決定是否采納及其在裁判中的分量9。只有審理者理解人工智能的運行原理,才能夠決定是否采用AI證據(jù),是否將其作為關(guān)鍵證據(jù)或輔助性證據(jù),當證據(jù)之間存在矛盾時,應當優(yōu)先采納哪類證據(jù)。目前,法官一般并不具備人工智能領域的基礎知識,理解AI算法的運行存在一定的難度。

再次,我國現(xiàn)行法律在人工智能生成證據(jù)規(guī)制方面存在空白。法律的滯后性直接導致了AI證據(jù)既與現(xiàn)行證據(jù)規(guī)則存在兼容性問題,又受到現(xiàn)行法律規(guī)范的限制。我國現(xiàn)行的證據(jù)規(guī)則主要基于來源和呈現(xiàn)方式對證據(jù)屬性進行分類,例如書證、物證和電子數(shù)據(jù)。然而,AI證據(jù)由于其技術(shù)與生成機制的特殊性,使其難以被納人現(xiàn)有的證據(jù)體系。AI生成的內(nèi)容在形式上既可以屬于法定證據(jù)種類的一種(如作為電子數(shù)據(jù)的自動駕駛信息),也可以同時具備多種形式(如兼具鑒定意見和電子數(shù)據(jù)屬性的大數(shù)據(jù)分析報告),存在證據(jù)種類交叉的情形。此外,AI證據(jù)自身具有不同于其他證據(jù)的特質(zhì)。例如,生成式人工智能具備近似人類的“表達\"能力,卻同時存在區(qū)別于“人類證言\"的“黑箱危險”。若將AI證據(jù)引入審判,其并不屬于現(xiàn)有八種法定證據(jù)類型的任何一類,而是類似于機器證人,能夠基于自身的評估確定案件事實(即“機器證言”)[10]。因此,它必須接受類似于證人證言的法庭審查。舉例來說,AI生成的圖片與拍照產(chǎn)生的圖片雖然在外觀上并無區(qū)別,但是AI生成的圖片是算法運行的結(jié)果,與傳統(tǒng)依靠光線與感光材料將真實事物形成可視的影像截然不同。又比如,“刑事訴訟法解釋”中對電子數(shù)據(jù)的審查強調(diào)其完整性與可驗證性,因此對電子數(shù)據(jù)的收集、保存、調(diào)取等程序有著嚴格要求。AI證據(jù)難以完全符合相關(guān)要求,法官面對AI證據(jù)難以在現(xiàn)有證據(jù)規(guī)則框架下進行處理。法官是否可以使用第三方存儲以及對生成過程進行檢驗、是否需要全程可追溯等均缺乏具體規(guī)定,難以確保裁判過程具有確定性,由此可能產(chǎn)生“同案不同判”問題。

最后,AI證據(jù)的適用也會引發(fā)隱私侵犯與責任追究的爭議。人工智能生成證據(jù)建立在對海量網(wǎng)絡數(shù)據(jù)進行分析與整理的基礎上,這不可避免涉及隱私數(shù)據(jù)和敏感信息。因此,在訓練運算模型或者生成AI證據(jù)的過程中,人工智能可能未經(jīng)過當事人同意就擅自獲取、存儲或者使用個人信息。近年來,域外已經(jīng)發(fā)生了數(shù)起人工智能侵犯個人隱私權(quán)的案件。2018年,英國咨詢公司劍橋分析公司擅自收集Facebook超8000萬用戶的個人信息用以輔助分析美國總統(tǒng)選舉情況[1]。谷歌旗下的YouTube私自搜集該平臺兒童的信息用以準確地投放廣告[12]這種擅自收集并使用個人信息的行為嚴重違反了《中華人民共和國個人信息保護法》和《中華人民共和國民法典》。如果不受個人隱私權(quán)保護的限制,人工智能用于訴訟案件尤其是刑事訴訟案件時,可能會突破合理限制,不利于保障人權(quán)。此外,當人工智能被指控偽造證據(jù)或者侵犯個人隱私時,追責存在明顯困難。一方面,對于開發(fā)者來說,如果算法存在缺陷或者技術(shù)漏洞而導致偽造內(nèi)容的生成,開發(fā)者對該問題應當承擔何種責任,相關(guān)界定不清。特別是開發(fā)者對該偽造結(jié)果應當承擔主觀故意還是過失責任難以確定時,責任的追究更為困難。另一方面,對于AI證據(jù)的使用者來說,在使用人工智能生成的證據(jù)時,是否知道或應當知道生成的AI證據(jù)系偽造的也是追責的關(guān)鍵。但是,對于技術(shù)層面的黑箱問題,以及使用者是否盡到了注意義務,我國法律并無明確規(guī)定,這更為追責增加了障礙。

生成式人工智能信息作為訴訟證據(jù)使用存在較大的潛在風險。人工智能技術(shù)的三大基本要素是數(shù)據(jù)、算力和算法。在當前的刑事司法中,人工智能的運用至少在數(shù)據(jù)和算法上存在技術(shù)障礙[13]211。

一是生成式人工智能信息的廣泛使用可能威脅程序正義和實體正義。AI的使用幾乎沒有門檻限制,其可實現(xiàn)的任務范圍卻非常廣。除了犯罪分子會使用AI生成的虛假內(nèi)容誤導司法之外,執(zhí)法過程中對生成式人工智能信息的運用潛藏著更大的風險,這一點卻往往容易被法律學者忽視。在警察執(zhí)法過程中,AI常常被用于快速渲染逼真的嫌疑人肖像、起草部分法律文書、為少數(shù)語言群體提供實時翻譯等。中國科學院的研究團隊就研發(fā)出一個AI人像生成模型,該模型可以依據(jù)簡筆畫生成逼真的人臉肖像[14]。在普通法系中,大多數(shù)司法轄區(qū)允許警察在審訊期間向嫌疑人出示AI生成的虛假證據(jù),以誘導嫌疑人承認罪行。捏造的證據(jù)本身對嫌疑人定罪是不具備法律效力的,只要警方在嫌疑人認罪后補足真實證據(jù)就沒有問題。這樣的審訊手法,雖然表面上有效欺騙了嫌疑人,讓其認為除了認罪別無選擇,卻誘發(fā)了人們關(guān)于警方采用偽證的擔憂。此類“假證據(jù)策略”對于審訊來說是有效的,卻也對司法提出了很高的審查要求,而依賴傳統(tǒng)鑒定手段很難準確鑒別逼真的AI生成內(nèi)容。鑒別的不確定性使得法院在具體案件中難以通過現(xiàn)有規(guī)則或方法驗證部分證據(jù)的真實性,這不利于維護司法審判的程序正義和實體正義。

二是生成式人工智能信息的高技術(shù)性可能會削弱法院獨立審查、判斷證據(jù)的能力。鑒別生成式AI信息的真實性及判斷其是否具備作為證據(jù)采信的條件,需要依賴專業(yè)技術(shù)人員運用高度復雜的算法工具。然而,這種高技術(shù)門檻遠超傳統(tǒng)證據(jù)的審查要求,基層司法機關(guān)由于設備不足、專業(yè)人才匱乏,通常缺乏進行復雜技術(shù)鑒定的能力。這導致法院在面對生成式AI信息時,不得不依賴第三方機構(gòu)進行技術(shù)驗證,而無法獨立對證據(jù)的合法性和真實性進行判斷;即使引入第三方機構(gòu)協(xié)助,也可能因為技術(shù)標準不統(tǒng)一或?qū)I(yè)能力參差不齊而產(chǎn)生不一致的鑒定結(jié)果。這不僅進一步增加了訴訟的不確定性,還可能導致“同案不同判”問題,影響司法公信力和權(quán)威性。同時,生成式AI信息的高技術(shù)需求還顯著增加了司法成本。一方面,AI信息的鑒定需要耗費大量時間,例如對復雜的算法進行分析或?qū)ι蛇^程進行溯源,可能需要數(shù)周甚至更長的時間;另一方面,技術(shù)鑒定所需的設備和工具也會帶來高昂的經(jīng)濟成本,對于偏遠或經(jīng)濟條件有限的地區(qū),這種高昂成本會嚴重制約AI信息的使用。

三是AI算法的不透明會對刑事訴訟被告人獲得公正審判權(quán)產(chǎn)生消極影響。在算法方面,當前有兩個方面的問題:一是技術(shù)水平較低;二是具有封閉性和秘密性。因為上述原因,法官對人工智能技術(shù)容易產(chǎn)生疏離感[13]212。生成式人工智能的運行機制常被稱為“黑匣子”,運行過程往往不透明,無人了解其具體是按照怎樣的邏輯生成數(shù)據(jù)的。當AI被越來越多運用在DNA分析、重建犯罪現(xiàn)場和評估犯罪者再犯風險等刑事司法場域,其隱秘性令人擔憂。即使算法存在代碼錯誤問題,也往往很難被發(fā)現(xiàn),這可能影響審判的公正性。例如,美國使用一種替代制裁的懲教罪犯管理分析軟件(COMPAS)作為風險評估工具,可以通過犯罪者的個人信息分析其再犯風險。該軟件生成的報告可作為法官裁決的參考。人們對COMPAS這種典型的生成式人工智能軟件的擔憂并非多余,有研究表明,COMPAS更可能將黑人被告人錯誤地判斷為具有更高的再犯風險,而白人被告人更有可能被錯誤地評估為低風險[15]。這種明顯的不公平問題是AI算法不透明的產(chǎn)物,不僅會動搖證據(jù)的可信性,還會影響判決的公正性和可接受性。

四是運行過程不穩(wěn)定,甚至會出現(xiàn)邏輯推理錯誤、數(shù)據(jù)偏差和事實編造的情況。在實際使用DeepSeek進行證據(jù)分析時,部分情況已暴露出其生成內(nèi)容可能存在虛假信息或錯誤推理。例如,在分析某起金融詐騙案件時,DeepSeek被要求自行從網(wǎng)上搜集并整理該案件的交易記錄,并生成犯罪嫌疑人的資金流動分析報告。然而,系統(tǒng)在缺乏真實數(shù)據(jù)支持的情況下,為了支撐其“嫌疑人資金異常往來”的結(jié)論,自行編造了一組并不存在的銀行交易數(shù)據(jù),并將其納入最終的分析報告。此類情況如若未經(jīng)嚴格審查,就有被誤認為真實證據(jù)的風險,從而導致錯誤裁決,甚至影響案件最終定性。這種錯誤的產(chǎn)生主要源于DeepSeek的訓練機制。作為基于大語言模型(LLM構(gòu)建的人工智能系統(tǒng),其核心邏輯并非依賴嚴格的事實核查,而是基于概率性預測生成文本。因此,在復雜的法律問題中,DeepSeek可能會根據(jù)有限的訓練數(shù)據(jù)推測缺失的信息,而非直接檢索或引用真實數(shù)據(jù)。當其用于刑事證據(jù)分析時,這種推測性生成模式可能會導致“事實編造”或“邏輯錯位”的情況。例如,當你要求DeepSeek為某結(jié)點尋求法律文獻時,如果它未能找到合適的文獻,就會編造一個虛假的文獻交給你,且在報告中不會明確標注該內(nèi)容為AI生成,而是以“已知事實”形式呈現(xiàn)。這種數(shù)據(jù)編造行為既影響了證據(jù)的真實性,也影響了AI證據(jù)的可采性,凸顯了AI證據(jù)在刑事訴訟中的潛在風險。由于人工智能并不具備真正的事實認定能力,而是依賴既有數(shù)據(jù)進行模式匹配,其生成的結(jié)論雖然在表面上邏輯合理,但并不一定符合客觀事實。因此,在刑事司法領域,必須對DeepSeek生成的信息進行嚴格的真實性審查,確保其所有數(shù)據(jù)來源均可追溯,所有推理過程均可驗證,避免AI證據(jù)的不穩(wěn)定性導致錯誤結(jié)論。同時,法律層面應規(guī)定,由DeepSeek生成的信息必須經(jīng)過技術(shù)鑒定,并具有可驗證性;由專家進行二次核驗,以防止AI生成的虛假信息影響司法公正。

四 域外經(jīng)驗的啟示

歐盟、美國等都采取了相應措施,從法律層面對生成式人工智能證據(jù)予以規(guī)制。歐盟在應對AI浪潮時反應迅速,早在2021年4月,歐盟委員會就提議制定《人工智能法案》。該法案于2024年3月獲得歐洲議會通過,5月被歐洲理事會接受,最終于8月生效。該法案將人工智能系統(tǒng)按照風險級別分為“不可接受風險”“高風險”“有限風險”和“最低風險”四級,其中,AI系統(tǒng)本身是某種類型的產(chǎn)品、AI系統(tǒng)是某種產(chǎn)品的安全組件及AI系統(tǒng)滿足列出的“高風險”描述這三種情形被“法案”視為“高風險”[16]。應用于司法領域的生成式人工智能屬于該法案中所列舉的“滿足‘高風險’定義的具體系統(tǒng)\"中的一類。歐盟基于基本權(quán)利、個人安全、社會利益和用途等方面的考量來劃分人工智能系統(tǒng)的風險級別,即該人工智能是否會侵犯平等權(quán)、隱私權(quán)等基本權(quán)利,是否會對生命安全及生理、心理雙重健康造成影響,是否會破壞社會經(jīng)濟穩(wěn)定、改變現(xiàn)有的社會結(jié)構(gòu),是否會被用于高風險、高影響力領域(如醫(yī)療、執(zhí)法、基礎設施建設等)。

由于生成式人工智能算法的不透明性和數(shù)據(jù)偏見,將其應用于司法領域可能直接影響案件裁決的公正性,其生成的逼真的虛假證據(jù)或誤導性內(nèi)容會破壞司法的真實性和合法性。因此,對生成式人工智能在執(zhí)法或司法中的使用需要嚴格監(jiān)管,以防止對基本權(quán)利和社會秩序造成重大影響。《人工智能法案》對高風險AI的透明度、算法質(zhì)量及可解釋性都提出了嚴格的要求,并將責任進行了更加具體的劃分。具體來說,供應商需要確保人工智能的透明度、可追溯性及技術(shù)文檔符合法律的要求,保證數(shù)據(jù)來源的合法性與風險管理,確保系統(tǒng)的合規(guī)性與風險管理;進口商則主要保證從非歐盟地區(qū)引進的人工智能系統(tǒng)符合歐盟的規(guī)定,對合規(guī)性、風險管理、文件記錄與可追溯性承擔責任;經(jīng)銷商則承擔產(chǎn)品的可追溯性與監(jiān)督產(chǎn)品使用的責任[17]。綜上,歐盟法案不僅對AI的風險予以分類并提出嚴格的要求,而且還將責任進一步劃分,以便將使用AI帶來的風險降至最低。

美國于2023年發(fā)布《人工智能風險管理框架》,該框架要求開發(fā)者從數(shù)據(jù)收集、算法設計到內(nèi)容生成的全過程進行風險評估,以避免生成式AI生成虛假或者誤導性的證據(jù);要求開發(fā)者在透明度、驗證工具及系統(tǒng)監(jiān)測記錄三個方面做出詳細報告,以確保生成的證據(jù)既不會輕易被偽造,又能夠滿足美國法律的要求[18]。除此之外,雖然《聯(lián)邦證據(jù)規(guī)則》并沒有為適用AI證據(jù)作出專門規(guī)定或者對現(xiàn)有證據(jù)規(guī)則進行修正,但是其第901條、第104條和第702條作為可采性的兜底性條款,對于“可采性”作出的一般性規(guī)定同樣適用于AI證據(jù)。這三條規(guī)定明確了可采性規(guī)則的一般原則,即提交足夠的真實性證明,具備明確的證明力以滿足可采性標準,使用生成式人工智能證據(jù)的一方需要提供專家報告及技術(shù)驗證資料[19]。《人工智能風險管理框架》為AI開發(fā)和使用提供了風險控制指導,而《聯(lián)邦證據(jù)規(guī)則》則明確了生成式人工智能證據(jù)在司法中的適用標準,二者結(jié)合,形成了從技術(shù)規(guī)范到法律應用的完整規(guī)制體系。

歐盟和美國除了紛紛制定專門性法律外,還針對生成式AI制定了具體的規(guī)范,在司法實踐中,也同步設立了相應的制度和標準。以Deepfake技術(shù)為例,雖然目前還沒有一起以Deepfake技術(shù)為中心的具有指導意義的標志性案件,但該技術(shù)在美國已經(jīng)與隱私侵犯、非自愿色情內(nèi)容、詐騙等犯罪密切相關(guān)。2024年,美國知名歌手泰勒·斯威夫特成為人工智能深度偽造技術(shù)的受害者[20],有人運用Deep-fake技術(shù)生成她的虛假不雅照片并在網(wǎng)上廣泛傳播,該事件也讓Deepfake司法問題再次成為討論的焦點。美國在司法領域也對Deepfake證據(jù)形成了規(guī)范性要求,要求提供Deepfake證據(jù)的一方必須向法院提供完整的技術(shù)支持資料。為了保證證據(jù)的真實性與可采性,提交的技術(shù)資料必須包括該人工智能模型使用了哪些生成技術(shù)、生成過程中的關(guān)鍵參數(shù)資料、是否具備內(nèi)容水印或者追溯標記的真實性保障機制、用于訓練模型的數(shù)據(jù)來源、該證據(jù)是否基于真實證據(jù)的二次加工。此外,美國部分司法機構(gòu)還要求引人第三方技術(shù)機構(gòu)對生成式證據(jù)的技術(shù)可靠性進行獨立評估。第三方技術(shù)機構(gòu)會審查生成工具的技術(shù)原理、數(shù)據(jù)及參數(shù)的設置情況以及生成內(nèi)容的真實性,并追溯或重現(xiàn)該證據(jù)的生成過程,比對Deepfake證據(jù)一方所提交的技術(shù)資料,以此來避免技術(shù)性問題影響司法的公正性。需要提及的是,《聯(lián)邦證據(jù)規(guī)則》中 902(13)和 902(14)條款提出基于可靠技術(shù)認證的電子數(shù)據(jù)不需要提供人進一步證明其真實性[17]。這些條款的通過為驗證AI證據(jù)的真實性提供了一種全新的思路,防篡改技術(shù)尤其是區(qū)塊鏈技術(shù)逐漸成為最為契合這一思路的技術(shù)。這是因為區(qū)塊鏈技術(shù)可以通過時間戳有效地記錄視頻或者圖像的生成及修改歷史,能夠清晰明確地防止證據(jù)被篡改。目前,區(qū)塊鏈技術(shù)與AI證據(jù)驗證的結(jié)合成為美國部分學者的主要研究方向。

以歐盟和美國為代表的地區(qū)和國家,針對AI證據(jù)問題積累了豐富的經(jīng)驗,這些經(jīng)驗為國內(nèi)生成式人工智能的法律適用提供了重要參考。域外的分類監(jiān)管模式和技術(shù)治理經(jīng)驗可以為我國的立法和司法實踐提供啟發(fā),并為應對技術(shù)與法律深度融合的復雜性提供方向。

歐盟提出了系統(tǒng)化的分類監(jiān)管模式,將運用于司法領域的AI模型分級,使其受到最嚴格的監(jiān)管,同時在一定程度上對商業(yè)性AI模型放松監(jiān)管,實現(xiàn)了保障司法公正性與促進創(chuàng)新發(fā)展的平衡。歐盟還提出了具體而明確的責任劃分模式,要求供應商、進口商、經(jīng)銷商三方分別承擔不同的責任,明確各方義務,強化了AI模型全鏈條監(jiān)管。美國通過的《人工智能風險管理框架》,展示了從技術(shù)開發(fā)到法律適用的全鏈條治理模式,并將生成式人工智能證據(jù)納入《聯(lián)邦證據(jù)規(guī)則》的規(guī)范之下,予以規(guī)制使用,實現(xiàn)了技術(shù)與法律規(guī)范的融合。在司法實踐中,美國司法系統(tǒng)在處理新技術(shù)相關(guān)證據(jù)時,通常借助《聯(lián)邦證據(jù)規(guī)則》中關(guān)于“專家證詞\"和“證據(jù)認證\"的條款,例如要求使用者提供可靠的技術(shù)分析和專家意見,這體現(xiàn)了美國司法系統(tǒng)對新技術(shù)適應的靈活性[21]

五生成式人工智能信息證據(jù)能力的規(guī)制

生成式人工智能生成的信息在某些情況下可以作為訴訟證據(jù),但需滿足可靠性、相關(guān)性、合法性等條件。最近國內(nèi)比較流行的DeepSeek技術(shù)條件尚不成熟,其生成的信息目前尚不足以作為訴訟證據(jù)使用。生成式人工智能信息在可靠性方面,需要評估其是否可信。這涉及對數(shù)據(jù)來源、算法透明度和生成方式的審查。在相關(guān)性方面,信息必須與案件相關(guān),能夠證明或反駁案件中的關(guān)鍵事實。在合法性方面,信息的獲取和使用必須符合法律規(guī)定。如果信息是通過非法手段獲取的,則不具有可采性。此外,生成的信息必須具有可驗證性,即該信息應能夠被驗證,如果無法通過其他證據(jù)或方法驗證其真實性,就不應予以采納。當然,在某些情況下,需要專家證言來解釋生成式人工智能的工作原理及生成信息的可靠性。除此之外,還需要從以下三個方面進行規(guī)制。

(一)技術(shù)規(guī)制:構(gòu)建生成式人工智能證據(jù)的可信機制

生成式人工智能證據(jù)生成過程涉及數(shù)據(jù)訓練、算法分析和整合內(nèi)容進行輸出等多個復雜的環(huán)節(jié),這些不透明的環(huán)節(jié)使得傳統(tǒng)證據(jù)驗證手段無法得到良好適用。基于此,需要引人溯源技術(shù)以保證AI生成內(nèi)容的過程具有透明性、可驗證性和可信性。溯源機制對證據(jù)生成過程的要求是確保每一個環(huán)節(jié)都被詳細記錄,包括數(shù)據(jù)來源、算法版本和生成所用模型訓練參數(shù)等,以保證證據(jù)在技術(shù)上具有可驗證性。為此可以考慮數(shù)字水印的使用,通過為每份人工智能生成的證據(jù)嵌入數(shù)字水印,記錄其生成時間和算法模型等詳細信息,以方便溯源,還可以記錄證據(jù)是否被篡改[22]。同時,AI生成證據(jù)需包含數(shù)字水印標識,這樣可以放大數(shù)據(jù)處理過程的透明度,提升其在司法程序中的可信性。

引入?yún)^(qū)塊鏈技術(shù)也是一種可行的思路。區(qū)塊鏈技術(shù)是一種去中心化的存儲技術(shù),能夠在多個節(jié)點之間共享數(shù)據(jù),并通過共識機制確保數(shù)據(jù)的安全性和一致性。區(qū)塊鏈技術(shù)通過加密算法和鏈式存儲結(jié)構(gòu),確保存儲在鏈上的數(shù)據(jù)無法被隨意篡改。同時,區(qū)塊鏈中每個數(shù)據(jù)都會記錄時間戳和操作記錄,使證據(jù)生成和使用的全過程透明且可追溯[23]。在預防人為破壞和保護證據(jù)安全性方面,區(qū)塊鏈的去中心化設定可以為此提供有效的保證。區(qū)塊鏈中的信息分布在多個節(jié)點上,沒有固定的數(shù)據(jù)中心,這可以盡量排除單點故障或人為干擾導致的數(shù)據(jù)損壞問題。綜上,區(qū)塊鏈技術(shù)能夠最大限度保證證據(jù)內(nèi)容的透明性、可靠性和安全性。

此外,建立統(tǒng)一適用的技術(shù)標準對于人工智能證據(jù)的使用來說是至關(guān)重要的。技術(shù)標準需要覆蓋人工智能數(shù)據(jù)從生成到檢驗的全流程,包括數(shù)據(jù)合法采集的要求、算法運行的透明性以及溯源技術(shù)的具體使用規(guī)范。

(二)法律規(guī)制:人工智能證據(jù)的法律地位與適 用規(guī)則

DeepSeek作為國內(nèi)新興熱門的生成式AI,其在刑事訴訟中的證據(jù)價值已經(jīng)受到一定關(guān)注。比如,DeepSeek可以基于大量判例和法律文本,生成符合法律邏輯的推理結(jié)果,并輔助法官和律師篩選證據(jù)。但在實踐中,DeepSeek生成的法律分析是否能被法庭采納,仍然缺乏明確的法律依據(jù),因此,有必要通過法律或者司法解釋,明確AI證據(jù)的法律地位,并制定適用規(guī)則。例如,要求DeepSeek生成的證據(jù)必須具備可驗證性、可追溯性和可解釋性,以確保其在司法實踐中的適用合法、真實和有效。明確生成式人工智能證據(jù)的法律地位與適用規(guī)則,是應對人工智能技術(shù)快速發(fā)展的必然要求。鑒于AI證據(jù)的可靠性不足,當前應考慮在可能判處三年以下有期徒刑的輕罪案件和民事、行政案件中使用,在重罪案件中則應限制使用。即便是在訴訟中引入AI證據(jù),證明標準仍不能降低,刑事定罪的證明標準仍應堅持“事實清楚、證據(jù)確實充分和排除合理懷疑”。

生成式人工智能信息與電子數(shù)據(jù)具有交叉性,應明確哪些信息屬于電子數(shù)據(jù),哪些具有獨立的證據(jù)地位。生成式人工智能信息和電子數(shù)據(jù)均以電子媒介存在,區(qū)別在于前者經(jīng)過了算法分析過程,而后者僅是原始的存儲。正是由于多了中間環(huán)節(jié),生成式人工智能信息的可靠性比電子數(shù)據(jù)弱很多,法律上應當明確算法無偏見和無歧視,保持客觀中立。在此基礎上,應進一步明確生成式人工智能信息的技術(shù)標準。

為確保信息真實有效,應在原有“三性”基礎上增加技術(shù)審查標準。生成式人工智能證據(jù)的形成過程通常涉及復雜的算法計算與數(shù)據(jù)訓練,因此,法律應要求提供證據(jù)方確保算法模型具有透明的生成路徑,并能夠提供完整的技術(shù)文件以供核實。同時,應構(gòu)建統(tǒng)一的技術(shù)審查機制,通過引入技術(shù)專家協(xié)助法庭對生成式人工智能證據(jù)進行技術(shù)評估。我國刑事訴訟法規(guī)定的“有專門知識的人”出庭制度可以在該領域使用,通過控辯雙方或者法院邀請,人工智能技術(shù)專家可以出庭對涉及的專業(yè)問題進行解釋、補充或者質(zhì)疑。此外,生成式人工智能證據(jù)的使用范圍和限制條件也需明確規(guī)定,對于不能驗證、檢驗和回溯的信息,不能作為證據(jù)使用。立法應加強提供方對該事項證明責任的承擔。在配套設施方面,需要設立或授權(quán)特定的第三方機構(gòu)作為法定的AI證據(jù)鑒定單位,能夠鑒定生成式人工智能證據(jù)的真實性、完整性和可追溯性,并出具具有法律效力的鑒定報告。為保證第三方機構(gòu)的鑒定過程公正且獨立,應在此類機構(gòu)中設立包含資質(zhì)認證、監(jiān)督評估和責任追究的機制,同時配備跨學科技術(shù)團隊,將技術(shù)標準和操作流程統(tǒng)一化,以防止因標準不同而產(chǎn)生的結(jié)果混亂和沖突。

(三)規(guī)制能力:實現(xiàn)技術(shù)與法律的深度融合

生成式人工智能證據(jù)的技術(shù)復雜性對司法人員提出了全新的能力要求,法官、檢察官和律師需要具備人工智能專業(yè)知識。

首先,司法人員的技術(shù)培訓應被視為提升司法能力的核心內(nèi)容。這種培訓需要覆蓋生成式人工智能的基本原理及相關(guān)技術(shù)特性,如深度學習算法、生成對抗網(wǎng)絡的工作機制等。此外,還應注重技術(shù)審查的具體方法,例如證據(jù)來源的真實性與完整性評估、技術(shù)操作相關(guān)法律程序等,即通過模擬法庭和案例研討等方式,使司法人員能夠在實踐中熟悉生成式人工智能證據(jù)的應用場景,理解技術(shù)性爭議的主要問題,并提高獨立判斷能力。

其次,引入跨學科協(xié)作機制。這種協(xié)作可以通過建立技術(shù)專家輔助機制來實現(xiàn),例如,建立技術(shù)專家顧問團隊,為法官和檢察官提供咨詢與支持。專家顧問團隊可以涵蓋計算機科學、信息安全和數(shù)據(jù)分析等領域,為復雜的技術(shù)問題提供多角度解讀。此外,司法機關(guān)與高等院校和專業(yè)科研機構(gòu)的合作也至關(guān)重要,通過共同開展研究,探索生成式人工智能證據(jù)的適用規(guī)則、鑒定標準及技術(shù)評價體系,以便為司法實踐提供理論支持。

最后,可考慮建立國家級生成式人工智能證據(jù)技術(shù)支持中心。該中心可以為各級法院提供統(tǒng)一的技術(shù)服務,包括鑒定標準化指導、技術(shù)問題解答和在線咨詢等。同時,推廣標準化的技術(shù)鑒定工具能夠減少不同機構(gòu)在方法和結(jié)果上的差異,為證據(jù)合法性提供更加一致的技術(shù)保障。國家還可通過構(gòu)建智能審判輔助系統(tǒng)和司法大數(shù)據(jù)平臺,提高證據(jù)的篩查和分析效率,為證據(jù)的公開性和透明性提供技術(shù)支持,提升司法部門對AI技術(shù)的分析與應對能力,以面對迅速發(fā)展的AI技術(shù)。例如,法院、檢察院可以引入DeepSeek作為智能法律助手,讓法官、檢察官在日常辦案過程中熟悉AI生成證據(jù)的技術(shù)特點,并掌握AI證據(jù)的應用方法。

六結(jié)語

以DeepSeek為代表的生成式人工智能的迅猛發(fā)展,讓生成式人工智能大模型逐步嵌人社會治理[24],這標志著技術(shù)與社會的深度融合到達了新的高度,其在刑事訴訟中的應用潛力不可忽視。作為一種具有高度復雜性和技術(shù)性的證據(jù)形式,生成式人工智能證據(jù)在提升傳統(tǒng)司法體系效率的同時,也對現(xiàn)有的證據(jù)規(guī)則構(gòu)成了挑戰(zhàn)。在某些情況下,生成式人工智能生成的信息可作為訴訟證據(jù),但必須滿足可靠性、相關(guān)性和合法性等條件。目前,由DeepSeek生成的信息尚不足以作為訴訟證據(jù)使用。

生成式人工智能信息與現(xiàn)有的電子數(shù)據(jù)在證據(jù)內(nèi)容和形式上均存在差異,它們之間具有一定的交叉性。人工智能生成的信息,其證據(jù)屬性還未被司法實務部門所認可,但是,如果其可靠性、真實性和合法性得到保障,不僅可以解決刑事司法中的證據(jù)短缺問題,還可以極大提高司法效率。未來,若要將人工智能信息作為證據(jù)使用,需要從以下方面著手:引人區(qū)塊鏈和數(shù)字水印等技術(shù)手段,以強化證據(jù)生成過程的溯源性與透明性,從而為生成式人工智能證據(jù)的可信性提供技術(shù)保障;通過確立生成式人工智能證據(jù)的法律地位和適用規(guī)則,為技術(shù)性證據(jù)的采信提供依據(jù);通過組織專業(yè)化培訓,提升司法人員的技術(shù)素養(yǎng)和實踐能力,加強跨學科協(xié)作,讓司法人員面對AI信息時不再感到陌生。

[參考文獻]

[1]格雷斯.法庭上的人工智能:刑事審判中機器證據(jù)的比較分析 [EB/OL].樊文,譯.(2022-06-27)[2025-01-12]. https://law.ucass.edu.cn/info/1986/6634.htm.

[2]王蕊.生成式人工智能著作權(quán)侵權(quán)問題研究[J].Open Journal ofLegal Science(法學),2024(2):1325—1329.

[3]張熙,楊小汕,徐常勝.ChatGPT及生成式人工智能現(xiàn)狀及未 來發(fā)展方向[J].中國科學基金,2023(5):743—750.

[4]The Intercept. How the LAPD and Palantir use data to justify ra cist policing[EB/OL].(2021—01—30)[2025—01—12].https:// theintercept.com/2o21/o1/3o/lapd-palantir-data-driven- policing/.

[5]何宇,許磊,劉春社,,等.一起非正常死亡案件中行車記錄儀視 頻檢驗及啟示[J].刑事技術(shù),2021(2):218-220.

[6]張國逵.走私、販賣、運輸、制造毒品二審刑事裁定書[EB/OL]. (2020—07—13)[2025—01—15].https://www.pkulaw.com/ pfnl/a6bdb3332ec0adc4c92eldb7eb90c3b6fd8a89a4de-43eec7bdfb. html.

[7]鄭飛.數(shù)字證據(jù)及其階梯式分類審查機制[J].法學研究,2024 (5):169—188.

[8]Jurva G. Unlocking justice:2 ways AI is impacting evidence analysisand forensics[EB/OL].(2024—04—30)[2025—01- 12]. https://www. everlaw. com/blog/ai-and-law/unlockingjustice-ai-evidence-analysis-forensics/.

[9]胡忠憲,王祖華.刑事訴訟證據(jù)的審查方法之探析[EB/OL]. (2011—02—25)[2025—01—12].http://www.chinacourt. org/article/detail/2011/02/id/444296.shtml.

[10]Glass S. AI in the courtroom:a comparative analysis of machine evidence in criminal trials[J]. Georgetown Journal of International Law,2020,51:199—200.

[11]Arora N,Zinolabedini D.The ethical implications of the 2018 Facebook-Cambridge Analytica data scandal[EB/OL]. (2020- 04—13)[2025—01-12].https://repositories.lib.utexas. edu/items/8317a547-d5aa-4962-9c15-fe051bbcf4e2/full.

[12]Medjkoune T,Goga O,Senechal J.Marketing to children through online targeted advertising: targeting mechanisms and legal aspects[EB/OL]. (2023-10-06)[2025-01-12] https://arxiv.org/abs/2310.04104.

[13]鄭曦.數(shù)字時代的刑事訴訟變革[M].北京:法律出版社,2023.

[14]智東西,董溫淑.讓簡筆畫生成逼真人臉:中科院發(fā)新AI論 文,能用于警察破案[EB/OL]. (2020-06-12)[2025-01- 12].https://www. jiemian.com/article/4550750.html.

[15]Larson J,Mattu S,Kirchner L,et al. How we analyzed the COMPAS recidivism algorithm[EB/OL]. (2016-05-23) [2025-01-12] . https://www. propublica. org/article/howwe-analyzed-the-compas-recidivism-algorithm.

[16]Regulation(EU) 2024/1689 of the European Parliament and of the Council[S/OL].(2024—06—13)[2025-01—12]. https://eur-lex.europa.eu/eli/reg/2024/1689/oj/eng.

[17]劉相文,丁海東.AI發(fā)展里程碑:歐盟《人工智能法案》要點解 讀[EB/OL].(2024-03—15)[2025—01—22].https://www. lexology. com/library/detail. aspx? g=0 fce3ea3-1766-4536- 9fe4-9a6f8e8c9fco.

[18] Autio C,Schwartz R,Dunietz J,et al. Artificial Inteligence risk management framework:Generative Artificial Intelligence profile[EB/OL].National Institute of Standards and Technology. (2024—07—26)[2025-01-12]. htps://www.nist.gov/publications/artificial-intelligence-risk-management-framework-generative-artificial-inte-lligence.

[19]United States Courts. Federal rules of evidence[S/OL].(2024- 12—01)[2025—01—12]. https://www. uscourts. gov/rules-policies/current-rules-practice-procedure/federal-rules-evidence.

[20]王衛(wèi).“深度偽造\"真假難辨有效監(jiān)管成為關(guān)鍵[EB/OL]. (2024—02-05)[2025—01—12].http://news.sina.com.cn/ zx/gj/2024-02-05/doc-inafysta7656367.shtml.

[21] Cwik C,Grimm P,Grossman M,et al. Artificial Intelligence, trustworthiness,and litigation[EB/OL].(2023- 04-01) (20 [2025-01-12] . https://www. nvd. uscourts. gov/wp-con tent/uploads/2023/04/AI-and-Trustworthiness-NIST. pdf.

[22]郭釗均,李美玲,周楊銘,等.人工智能生成內(nèi)容模型的數(shù)字水 印技術(shù)研究進展[J].網(wǎng)絡空間安全科學學報,2024(1): 13-39.

[23] Thilakavathy P,Jayachitra S,Aeron A,et al. Investigating blockchain security mechanisms for tamper-proof data storage [C].Greater Noida:IEEE,2023:926-930.

[24]譚新雨.生成式人工智能大模型嵌人社會治理:賦能場景、風險 樣態(tài)與規(guī)制路徑[J].暨南學報(哲學社會科學版),2024(12): 97—111.

猜你喜歡
證據(jù)司法人工智能
基于高中“離子反應”主題培養(yǎng)“證據(jù)推理核心素養(yǎng)的進階性教學研究
知識產(chǎn)權(quán)公證證據(jù)保全實施路徑
中華法制文明中的情理法協(xié)同理念對中國當代司法裁判的啟示
守護無盡 成長有路
檢察風云(2025年14期)2025-08-04 00:00:00
刑事司法數(shù)字化改革的反思與展望
數(shù)字時代司法治理范式的變革與完善
在自主探究中發(fā)展證據(jù)意識
普通證人意見證據(jù)排除規(guī)則的本土化改造
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
人工智能與就業(yè)
主站蜘蛛池模板: 亚洲欧美国产五月天综合| 国产精品久久久久久久久| 久久国产精品国产自线拍| 欧美精品一区在线看| 日韩少妇激情一区二区| 色婷婷天天综合在线| 丁香亚洲综合五月天婷婷| 91亚洲精品第一| 一本一本大道香蕉久在线播放| 国产精品爽爽va在线无码观看| 狠狠色狠狠综合久久| 亚洲国产成人精品一二区| 一本大道香蕉中文日本不卡高清二区| 国产精品视频a| 三区在线视频| 一级香蕉视频在线观看| 亚洲最大在线观看| 九色91在线视频| 最近最新中文字幕在线第一页 | 欧美三级自拍| 国产精品区视频中文字幕 | 国产精品久久久久无码网站| 国产成人午夜福利免费无码r| 久久这里只有精品8| 亚洲欧美精品日韩欧美| 丰满人妻一区二区三区视频| 99re精彩视频| 99热这里只有精品久久免费| 亚洲天堂视频网站| 国产精品亚欧美一区二区三区| 欧美性久久久久| 亚洲αv毛片| 国产乱人伦AV在线A| 免费无码在线观看| 欧美亚洲一区二区三区导航| 午夜性刺激在线观看免费| 亚洲人妖在线| 亚洲国产AV无码综合原创| 麻豆a级片| 亚洲成人网在线播放| 亚洲成在线观看| 九九精品在线观看| 久久99精品久久久久纯品| 91成人在线观看| 国产人人干| 成人国产精品2021| 999福利激情视频| 国产精品第一区在线观看| 亚洲精品成人福利在线电影| 成人精品午夜福利在线播放| 波多野结衣无码中文字幕在线观看一区二区 | 在线播放精品一区二区啪视频| 91精品专区国产盗摄| 91日本在线观看亚洲精品| 五月天香蕉视频国产亚| 狠狠色丁婷婷综合久久| 中文字幕伦视频| 免费 国产 无码久久久| 激情综合激情| 91精品人妻一区二区| 久久免费观看视频| 波多野结衣的av一区二区三区| 亚洲乱码视频| 老司机午夜精品网站在线观看| 国内精品久久久久久久久久影视| 久久久久青草线综合超碰| 黄片一区二区三区| 92精品国产自产在线观看| 台湾AV国片精品女同性| 国产h视频在线观看视频| 超碰91免费人妻| 国产成人毛片| 五月天久久婷婷| 欧美有码在线观看| 青青青视频免费一区二区| 亚洲天堂视频在线播放| www.91在线播放| 噜噜噜久久| 中文无码毛片又爽又刺激| 全部免费毛片免费播放| 久久香蕉国产线| 亚洲美女一区|