整理/張宏羽

Q&A
主持人
趙瑋
最高人民檢察院第四檢察廳主辦檢察官
2023外灘大會檢察分論壇以“數字時代的司法治理:技術、法律與社會的交匯”為主題。在本次論壇的“圓桌與談”環節,與會嘉賓就“人類與人工智能如何實現共生發展”等問題展開交流討論,探尋數字時代的治理之道。
趙瑋:人工智能已經被廣泛應用并逐漸融入生產生活的方方面面,我們無不感受到人工智能帶給社會的無窮變化和無限可能。那么,人工智能目前的應用情況如何,又呈現出怎樣的發展趨勢?
伍大勇:從技術發展的視角出發,結合ChatGPT(一款聊天機器人模型)的推出所帶來的影響來看,大模型在人工智能領域的產業應用趨勢主要有四個方面:第一,改變信息獲取方式。大模型可以根據用戶需求提供相關內容,大幅提高信息獲取效率。第二,革新內容生產模式,高效創作高質量內容。大模型可以快速自動生成內容,徹底改變內容創作的生產模式。第三,通過對話自然交互方式完成各類任務,提高用戶體驗和工作效率。第四,提高工作效率并推動創新。大模型技術逐漸賦能各個行業,包括在教育、醫療、工業、辦公、科研等領域。如在教育領域,實現個性化學習推薦、智能輔導等;在醫療健康領域,實現疾病診斷、治療方案推薦等;在制造業領域,實現生產過程優化、設備維護預測等,幫助制造企業提高生產效率,降低成本。由此我們可以發現,大模型技術打開了通用人工智能的大門。
唐云佳:從網絡安全的視角出發,結合打擊犯罪的實際來看,人工智能被涉網違法犯罪利用后打擊犯罪呈現出多種新趨勢:一是傳統的犯罪手法、技術等衍生出新變種。傳統共識因為人工智能新技術被非法使用而受到挑戰,如在涉詐騙、網絡淫穢犯罪中換臉、換頭、合成虛假視頻等新技術的應用,導致“眼見不一定為實,耳聽不一定為真”。二是網絡違法犯罪出現新的技術支撐。涉網犯罪鏈條中,出現了人工智能的身影,幫助信息網絡犯罪或者提供黑客工具。三是大模型本身擁有強大算力,作為被侵害方,偷取算力或偷取經過大數據、大模型加工的數據事件隨之發生。
趙瑋:人工智能時代下機遇和挑戰并存,對于法律工作者來說,如何去認識和把握挑戰,化調整為機遇,是我們必須考慮的問題。圍繞人工智能技術在執法、司法領域的應用可能帶來的風險,或者人工智能發展對傳統執法、司法體系的運作和決策過程的影響,請各位專家結合自身研究領域和工作實際分享看法。
黃道麗:從技術與法律交融的角度來看,由于人工智能技術尚未完全成熟,加上公安執法本身的復雜性,在提升工作效能的同時也面臨諸多風險,主要包括:第一,人工智能技術本身的特性或存在的缺陷會帶來應用中的共性安全問題。第二,技術應用過程可能帶來數據安全風險。第三,人工智能應用于公安執法這一特定場景下的安全風險。因此,執法與技術的關系是復雜而多面的,人工智能的執法應用不僅要考慮技術本身的問題,也要考慮地域差異、法律環境、執法需求,平衡好價值取向,在現有執法司法制度、法律體系框架之下嵌入,作出審慎恰當的抉擇。
蔣紅珍:從數據安全的角度來看,尤其是對于個人隱私和數據秩序,人工智能技術的應用帶來不小的挑戰:數據的隱私保護在《民法典》和《個人信息保護法》的基本法律框架之下,最核心的保護機制是“知情—同意”規則。圍繞于此,形成公益排除,以及最小必要原則。生成式人工智能技術的高度自動化和復雜性特點,導致其很難在自動收錄用戶個人信息的同時,讓信息主體充分全面了解個人信息的處理過程和結果,容易對“知情—同意”規則的構架產生沖擊,最小必要原則也可能會被架空。技術更迭與權利保護本位之間產生的張力需要生成式人工智能對個人信息處理符合明確、合理的處理目的,以及通過對當事人權益影響最小的方式進行信息處理。

Q&A
嘉 賓
黃道麗
公安部第三研究所網絡安全法律研究中心主任、研究員

Q&A
嘉 賓
唐云佳
上海市公安局網安總隊三支隊副支隊長

Q&A
嘉 賓
伍大勇
科大訊飛股份有限公司北京研究院執行院長

Q&A
嘉 賓
蔣紅珍
上海交通大學凱原法學院教授、博士生導師

Q&A
嘉 賓
蔣科
中共上海市委網絡安全和信息化委員會辦公室網絡管理處處長
蔣科:從網信管理的視角出發,結合網絡監管實際來看,對于未來大模型安全的風險,我們可以從兩個維度來探討:一是傳統的普遍性的維度,從“數據安全——內容安全——技術安全”看待風險。數據安全方面主要包括14歲以下未成年人的信息、成年人的身份、行蹤軌跡、金融賬戶、生物特征等;內容安全方面主要指違法違規的內容,包括損害國家形象的、違法犯罪的、有偏見和歧視的內容等;技術安全方面主要包括可能會發生的大模型被竊取、惡意篡改等。二是內容生產環節維度,從“輸入端——中間端——輸出端”看待監管。輸入端是指問答指令的輸入,是不是有違規的詞組、有惡意、挑逗式的問題需要進行攔截;中間端是數據的選擇和清洗的環節,有害數據是不能夠選擇使用的同時,對數據選擇之后還要大量進行標注,包括機器標注和人工的標注,把高位敏感的清洗掉,再通過人工標注進行細化;輸出端則是對生成內容進行攔截。網信部門作為網絡安全主管部門,未來從環節端應對安全風險更加具有可控性,否則會對司法、教育、金融等多領域產生影響。
趙瑋:人工智能時代出現新的風險、新的問題和新的沖突,需要我們樹立新的理念、建立新的機制和采取新的舉措,從而實現人機共生發展,同向而行。那么,如何真正實現技術、法律與社會的共生發展?人工智能如何為高質量發展提供更多的支持和幫助呢?
伍大勇:從ChatGPT處理能力的角度來看,以大模型為代表的人工智能新技術的產生,打開了人工智能的一扇門,讓人工智能和社會的結合越來越緊密。一方面,人工智能解放了人類的智力勞動,可以處理文本、圖像生成、機器翻譯等,可以說開啟了“第四次工業革命”;另一方面,人工智能開始處理多模感知,更接近客觀世界,隨著其迅速發展,各種處理能力的不斷上升,在未來會給我們的社會生活帶來更大的變化與變革。
蔣科:在網絡監管方面,需要堅持以下兩個原則:一是分類監管原則,針對具有輿論屬性和社會動員能力的重點平臺重點領域進行分類監管,如資訊平臺、社交平臺、音視頻平臺、直播平臺、搜索引擎、問答社區及公眾賬號。二是包容審慎原則。通過備案+承諾制,企業開展自我評估后提供評估報告,按照備案要求提交備案表及其模型服務協議、數據標注的規則、關鍵詞的列表及測試題的測試結果等材料,經過一定的期限后自行發布。上述兩大原則將促進大模型更加健康規范地發展。
黃道麗:從大模型發展安全保障的角度來看,每個國家對人工智能帶來的安全風險的治理路徑是多元化的,與每個國家的環境、價值取向、立法基礎密切相關。盡管各國都倡導安全、透明等原則性的人工智能監管理念,但在具體思路和方式上,存在諸多不同。目前,我國在人工智能領域的規定采用區分業務領域、區分技術方向的措施。人工智能技術蓬勃發展,當下階段性的管理辦法難以窮盡技術層面的細節,在分類分級監管規則、輿論屬性和社會動員能力標準等領域尤其如此。過往監管實踐預示我國傾向于建立一套“1+N”式法律框架,以基礎性和原則性規定組成為主,以特定問題和技術領域的專項規則和指南為輔,確保對人工智能技術全面監管。值得指出的是,人工智能的治理需要軟法與硬法有機結合,關注價值觀、治理體系、治理對象以及效果評價。我們要正確認識并協調“破壞性創新”與“試驗性監管”之間的關系。對人工智能的監管應該是一個持續優化的體系,有一個能夠快速吸收、修復、完善的路徑。
唐云佳:隨著人工智能的迅速發展,法律監管需要快速適應和調整,以平衡技術創新與法律監管。這是一個慢慢磨合互相適應的過程。在這個過程中,一些細分賽道的人工智能,能更快更好的與當前的監管體系達成平衡態。大模型的產品,由于多方位的發展,需要的磨合適應調整的周期會更長。
蔣紅珍:從個人權利保障的角度來看,人工智能健康發展、共生發展,需要平衡人工智能技術的發展和個人權利保護之間的矛盾,需要立法機制和相關配套機制的完善,為如何平衡人工智能技術發展與個人權利保護劃定必要的界限;需要推進人工智能技術發展的公司需要強化社會責任意識和守法合規的意識,積極采取自我規制,提高對個人隱私和信息使用的保護;需要監管部門在對個人信息保護提出合規要求時,既要嚴格執法,也要包容審慎。
趙瑋:數字時代的司法治理需要重點處理好三大關系:第一,安全和發展的關系。數字時代司法治理首先要堅持安全底線,沒有網絡安全就沒有國家安全。法律在重點發展領域明確界限的同時,也要給予合理的試錯時間和空間,給予更多的人性化的指引。第二,人工和智能的關系。一方面,在大模型的構建中,需要把人的正能量精神、高質量需求和理性的分析能力滲透融入其中,從而使大數據模型真正成為理性的模型。另一方面,通過大數據模型、人工智能發展,推動和促進人類的發展,促進智能時代的人類更具有創新能力、規則意識和協作精神。法律需要統籌二者的關系。第三,將來和未來的關系。對于可預見、可希望的內容,需要法律提出規范性意見、指引意見。同時,人工智能是研究當代的問題,更是研究跨代的問題,因為人工智能接近人類的空間和可能變得越來越大,法律層面需要提供更多的回應與指引。
(聲明:本內容僅代表嘉賓觀點,不代表本刊立場)