

AI技術發展迅速,但AI造謠、侵權、詐騙等問題也隨之而來。國內外出臺了一系列政策法規,歐美側重不同,中國也加快推動人工智能立法。專家表示,立法需要長期治理的思維,不宜急功近利
從2023年初ChatGPT驚艷問世,到2024年初Sora引起全球關注,人工智能(AI)技術發展的腳步日益加快。不過與此同時,AI造謠、AI侵權、AI詐騙等亂象也紛至沓來。
近年來,一些企業和個人為賺取平臺流量補貼,利用AI造謠現象頻發,且傳播速度極快,一些謠言造成不小的社會恐慌和危害。公安部近日公布的依法打擊“網絡水軍”違法犯罪10起典型案例中,包括有公司利用AI工具編造謠言信息并批量發布。
不可否認,人工智能在提供便利的同時,AI工具大幅降低了造謠的制造成本。
清華大學新聞與傳播學院新媒體研究中心2024年4月發布的一份研究報告顯示,近兩年的AI謠言中,經濟與企業類謠言占比最高,達43.71%;近一年來,經濟與企業類AI謠言量增速高達99.91%,其中餐飲外賣、快遞配送等行業更是AI謠言重災區。
AI造謠呈現出門檻低、批量化、識別難等特點。與此同時,人工智能帶來的諸如算法黑箱、歧視偏見等社會問題也開始凸顯。如何加強更有效的監管,首當其沖的就是人工智能的立法。
目前,國內外出臺了一系列確保人工智能安全、促進人工智能在公共管理、社會服務等典型場景應用的政策法規,這些政策法規逐漸形成了算法透明度、高風險產品備案、風險監測、用戶權益保護、訓練數據合規、算力設施共享、高價值數據資源供給等一系列典型制度,基本確立了未來人工智能法要解決的主要制度。
歐美立法側重不同
在已發布的美歐法案中,業內分析認為,兩者各有側重,美國更重公平隱私,歐盟更重風險管控。
2022年10月4日美國發布《人工智能權利法案藍圖》,提出通過“建立安全和高效的系統、避免算法歧視、保護數據隱私、及時履行通知與解釋義務、準備替補方案與退出機制”五項原則,預防濫用人工智能技術帶來的風險。
隨后在2023年1月,美國國家標準與技術研究院發布《人工智能風險管理框架》;2024年5月,美國參議院發布了第一版人工智能發展政策路線圖。
2021年,歐盟委員會提出全球首部監管人工智能的法律草案,此后歐洲議會和歐盟理事會就草案進行多輪修訂和討論。在ChatGPT等生成式人工智能應用橫空出世后,歐盟立法者緊急商討了原版本草案中未涵蓋的問題。
2023年6月,歐洲議會投票通過了《人工智能法案》(以下簡稱《法案》)的談判授權草案,新《法案》的監管思路是以橫向監管為基礎,以風險規制為主要方式,同時兼顧監管與發展的動態平衡。
2024年3月,歐洲議會正式通過歐盟《法案》。8月,《法案》正式生效。《法案》規定,所有的人工智能交互產品和結果必須進行標注,其中一些條款規定,聊天機器人等人工智能系統必須明確告知用戶他們在與機器互動,人工智能技術提供商必須確保合成的音頻、視頻、文本和圖像內容能被檢測為人工智能生成的內容。
此外,該《法案》涉及一些人工行業“合規”的新規定,包括谷歌、亞馬遜和Meta等美國主要科技公司在歐盟運營必須適應新的監管環境。目前,Meta的人工智能模型在歐盟已受到限制,其他違反《法案》的公司也將面臨重罰。
對于違反《法案》中關于禁止使用AI的規定,最高罰款為3500萬歐元或全球年營業額的7%(以較高者為準)。根據歐盟委員會的一項研究,42%的歐洲企業已經使用至少一種AI技術。電商行業在這一應用中處于領先地位,因此更容易受到監管變化的影響。
事實上,歐盟《法案》規定了屬人、屬地和實質判斷等多個管轄標準,只要對歐盟市場提供產品或者開展服務,或其產品的輸出物有可能在歐盟被銷售,甚至位于歐洲的用戶可能因使用其產品受到不利影響,均受其管轄。
除去歐美立法之外,在亞洲,韓國國民議會通過了《人工智能發展與信任基礎創建法》(簡稱《AI框架法案》),主要聚焦建設治理體系、支持產業發展、防范可能風險這三大方面。《AI框架法案》預計在明年初得到內閣會議通過后在2026年1月開始實施。韓國也因此成為歐盟后全球第二個通過“人工智能法案”的國家或地區。
我國立法“三步走”
相比國外立法情況,近些年,國內眾多學界、業界人士也開始越來越多地探討我國是否需要加快推動人工智能立法,以促進人工智能產業高質量發展。
事實上,早在2017年,《國務院關于印發新一代人工智能發展規劃的通知》就提出人工智能立法“三步走”戰略目標,其核心要義是構建完善的“人工智能法律體系”。我國連續兩年(2023、2024年)將“人工智能法草案”列入國務院立法工作計劃。
在人工智能綜合立法方面,2022年《深圳經濟特區人工智能產業促進條例》《上海市促進人工智能產業發展條例》先后頒布,以促進發展為主兼顧安全治理的立法思路做出了地方探索。
在特定技術方向立法方面,中央網信辦2021年12月發布的《互聯網信息服務算法推薦管理規定》,對算法技術治理進行了深入探索,并對高風險算法采取備案檢查的措施。
此外,最高人民法院針對人臉識別技術發布的相關規定,為人臉識別技術的規制提供了法律依據。
2022年11月,由國家互聯網信息辦公室、工業和信息化部、公安部聯合發布的《互聯網信息服務深度合成管理規定》對利用深度學習、虛擬現實等生成合成類算法制作文本、圖像、音頻、視頻、虛擬場景等網絡信息的人工智能技術治理做出探索,并前瞻性地為ChatGPT等生成式人工智能技術的顛覆性應用提供了安全保障規則。
2023年8月,《生成式人工智能服務管理暫行辦法》開始施行,中國由此成為首個為生成式大模型專門立法的國家。
2024年4月,中央網信辦秘書局發布《關于開展“清朗·整治‘自媒體’無底線博流量”專項行動的通知》,要求加強信息來源標注展示。使用AI等技術生成信息的,必須明確標注系技術生成。發布含有虛構、演繹等內容的,必須明確加注虛構標簽。針對疑似使用AI技術的內容,一些平臺會在下方貼上“內容疑似AI生成,請謹慎甄別”的提示,并對包含虛構、演繹等環節的內容,明確加注虛構標簽,對違規賬號采取“封號”等舉措。部分大模型開發者也表示,會通過后臺設置的方式,對通過大模型生成的內容打上水印,告知用戶。
此外,中國學術界已經先后推出《人工智能示范法(專家建議稿)》《人工智能法(學者建議稿)》兩項成果,前者又分為1.0、2.0兩版本。兩部建議稿旨在推動討論、凝聚共識,為我國人工智能立法提供參考。
立法需樹立長期治理思維
數據顯示,人工智能核心產業規模已超5000億元,企業數量超過4300家,正在形成從基礎支撐、核心技術到行業應有的產業鏈條,不斷促進企業突破既有生產邊界,向產業鏈上、下游延伸、拓展,推動中端設備產品及服務的智能化。
在人工智能治理方面,世界各國既有合作,也有競爭,既有共識,更有分歧,無論是理論研究,還是制度構建,都面臨選擇困惑。
中國法學會副會長姜偉表示,人工智能立法也需要一個認識逐步深化的過程,需要樹立長期治理的思維,不宜急功近利、畢其功于一役,更不能采用激進的方式解決。
北京郵電大學人工智能學院人機交互與認知工程實驗室主任劉偉表示,現在,中國和美國遲遲未出臺針對人工智能的相關法規,原因之一就是當前人工智能技術發展飛快,立法不慎可能會帶來負面影響。不管是美國、歐盟還是中國,“誰率先提出一個能被廣泛接受的新標準、新理念,誰就會在未來的市場競爭中更具優勢”。
中國政法大學數據法治研究院教授張凌寒認為,就具體治理規則而言,中國和歐盟在價值文化、監管體系、產業生態等方面均存在一定差異性,尤其是中國的人工智能產業具有獨特的國際生態地位,是人工智能領域“領先的追趕者”。我國在制定人工智能治理規則時要謹慎照搬國外的人工智能治理制度,應提出有別于歐盟立法思路的中國方案,避免法律與產業實踐的懸隔。
中國人民公安大學數據法學研究院院長、教授蘇宇指出,在國內有關人工智能法治的學術討論中,人工智能法的調整對象往往被有意或無意地假定為生成式人工智能乃至大模型,而實際上這只是整個人工智能的一個局部,遠難覆蓋人工智能技術與應用之全貌,以此為模板設計人工智能法律體系,極易出現“掛一漏萬”或“削足適履”的后果。對此,應當根據人工智能不同技術路線的特點,推行多層級分支式治理架構,構筑我國人工智能法律治理的基本框架。