饒 晗
(廣州工商學院,廣東 廣州 510850)
以ChatGPT為代表的生成式人工智能技術掀起了一股新的科技浪潮,并在商業領域得到廣泛應用。該技術在改變生產方式、提高生產效率的同時,也存在著令人擔憂的倫理和法律風險。如何正確認識和防范這些風險關乎該項技術在商業領域應用的健康發展以及人類的福祉。中國、美國和歐盟目前在生成式人工智能技術的研發和相關政策法規制定方面處于領先地位,對比中美歐生成式人工智能政策法規,可以更好地幫助企業認識和防范相關倫理和法律風險,依法依規開展生成式人工智能技術的研發和商業應用。
生成式人工智能(Generative AI)是指通過海量的數據和模型訓練生成符合指令的新內容的人工智能[1]。2022年11月30日,美國OpenAI公司發布了人工智能聊天機器人ChatGPT,其是一種基于Transformer神經網絡架構和大語言模型訓練、擁有語言理解和文本生成能力的生成式人工智能,一經發布便火爆全球,兩個月內用戶就已超過1億[2]。ChatGPT的出現是生成式人工智能技術發展的重大突破,標志著強人工智能時代的到來[3]。之后,各大科技公司研發的生成式人工智能模型也如雨后春筍般紛紛發布,例如谷歌的Bard模型、Anthropic公司的Claude模型、Meta公司的LLaMA模型,以及繪畫生成模型Midjourney等。國內的生成式人工智能模型也在這股浪潮下蓬勃發展,據統計,截至2023年8月,國內已發布的各類大模型數量超過100個,呈現出“百模大戰”的局面[4],其中,具有代表性的有百度的文心一言、科大訊飛的星火大模型、阿里云的通義千問、清華大學的ChatGLM等通用大模型,以及華為盤古行業大模型、華佗醫療大模型等垂直領域的大模型。
隨著生成式人工智能大模型的發展,各行業也在積極探索如何利用大模型來提升傳統業務的智能水平和工作效率。生成式人工智能的應用場景和生態系統不斷拓展,使得人們的生產生活也逐漸從“互聯網+”時代過渡到“AI+”時代。生成式人工智能的發展勢不可擋,但也存在著一定的倫理和法律風險。其中,偏見和歧視、數據安全、知識產權、虛假信息和技術壟斷等問題較為突出,相關的違法案例也層出不窮。例如,2023年1月,Stable Diffusion的公司被控告未經允許盜用了某平臺上的數百萬張圖片;2023年5月,甘肅省平涼市公安局偵破了我國首例利用生產式人工智能技術制造虛假新聞的案件[5]。
為引導和規范生成式人工智能技術的創新和商業應用,中國、美國和歐盟均出臺了相關的政策法規,這些政策法規之間既有共通之處,也存在差異。本文通過對比分析中美歐生成式人工智能相關的政策法規,既可以幫助政府、企業、社會機構等相關主體不斷優化完善監管措施,也可以為企業合規應用生成式人工智能技術提供指引。
美國在人工智能技術的研發和應用方面目前處于世界領先地位,其對人工智能監管的總體方向是通過人工智能倫理與法律體系的完善來促進AI技術的創新并降低潛在的風險[6]。美國政府機構發布了一系列的政策文件來促進和規制人工智能技術的發展和應用。
早在2016年10月,美國國家科學技術委員會就發布了《國家人工智能研究與發展戰略計劃》,明確提出了改進公平性、透明度和設計責任機制以及提高可解釋性和信任度等規則[7]。
2019年10月,美國國防創新委員會發布的《人工智能準則》明確提出了負責任、公平性、可溯源、可信賴、可控性五大人工智能倫理原則[8]。
2020年1月,美國白宮發布《人工智能應用規范指南》,提出了公眾對人工智能的信任、公眾參與、科學誠信與信息質量、風險評估與管理、收益與成本、靈活性、公平和不歧視、披露和透明度、安全、機構間協調十條指導規范[9]。
2021年1月,美國頒布《2020國家人工智能倡議法案》,主要目標是確保美國在人工智能領域的領先地位,開發和使用可信賴的AI系統,協調機構間AI研究的合作[10]。
2022年10月,白宮發布了《人工智能權利法案藍圖》,提出人工智能系統的研發和使用應符合安全有效、算法歧視保護、數據隱私、通知和解釋、人工替代及可回退這五項原則[11]。這是目前美國聯邦層面最新的規范人工智能的指導文件。
歐盟人工智能技術的發展落后于美國,但力爭通過構建完善的倫理和法律體系來尋求在世界人工智能治理領域的影響力,因此其治理模式呈現出“倫理優先”的特點。從治理結構來看,歐盟強調采用統一的立法規制人工智能發展,構建了以歐盟數據委員會為主導、各成員國數據保護機構相協調的垂直治理體系。
早在2016年4月,歐盟就通過了《通用數據保護條例》,提出個人數據處理的合法公平透明、目的限制、數據最小化、準確度、保存限制、完整性和保密性六項原則[12]。
2018年4月,歐盟委員會發布了《歐盟人工智能》政策文件,首次提出了歐洲人工智能的發展戰略,要在歐盟現有價值觀和《歐盟基本權利憲章》基礎上制定合適的倫理和法律框架[13]。
2019年4月,歐盟進一步發布了《可信AI倫理指南》,提出了可信AI應當滿足人的自主和監督,可靠性和安全性,隱私和數據治理,透明度,多樣性、非歧視性和公平性,社會和環境福祉,可追責性等七項要求[14]。
2023年6月,歐洲議會通過了《人工智能法案》,進入立法前的最終談判階段,有望成為世界首部針對的人工智能綜合性立法。該法案將AI風險劃分為被禁止、高風險、有限風險和低風險四個等級,對應不同的監管要求。此外,法案還對ChatGPT等生成式人工智能工具提出了新的透明度要求,強調必須對AI生成內容進行標注,并防止生成非法內容[15]。
中國高度重視人工智能技術的研發和應用,將其納入國家發展戰略,并制定了一系列政策和法規促進人工智能技術更好地服務經濟社會發展,防范可能存在的安全、倫理和法律風險。
早在2017年7月,國務院就發布了《新一代人工智能發展規劃》,提出了科技引領、系統布局、市場主導、開源開放的發展原則,強調要加強約束引導,確保人工智能安全、可靠、可控發展[16]。
2018年1月,中國電子技術標準化研究院聯合華為、騰訊、阿里等多家公司發布了《人工智能標準化白皮書》,提出通過遵循人類利益原則、責任原則、透明度原則和權責一致原則防范人工智能可能帶來的倫理問題[17]。
2020年7月,國家標準化管理委員會、中央網信辦五部委聯合印發《國家新一代人工智能標準體系建設指南》,其中安全/倫理是人工智能標準體系的重要組成部分并貫穿于其他七個部分[18]。
2021年6月,我國頒布了《數據安全法》,提出建立數據安全審查制度和數據分類分級保護制度,對人工智能技術開發與應用過程中數據獲取、存儲、處理的安全性進行了法律約束[19]。
2021年9月,國家新一代人工智能治理專業委員會發布了《新一代人工智能倫理規范》,提出應遵循以下倫理規范:增進人類福祉、促進公平公正、保護隱私安全、確保可信可控、強化責任擔當、提升倫理素養[20]。
2021年11月,《個人信息保護法》開始施行,詳細規定了個人信息處理的一般規則、敏感個人信息的處理規則、個人信息跨境提供的規則、個人在個人信息處理活動中的權利、個人信息處理者的義務、履行個人信息保護職責的部門和法律責任,為人工智能技術開發與應用中的個人信息保護提供了法律依據[21]。
2022年11月,國家互聯網信息辦公室通過了《互聯網信息服務深度合成管理規定》,提出針對基于人工智能技術的深度合成服務提供者和使用者的一般規定、數據和技術安全管理規范、監督檢查主體和法律責任[22]。
2023年8月,《生成式人工智能服務管理暫行辦法》開始施行,該辦法提出了堅持社會主義核心價值觀、防止歧視、尊重知識產權和商業道德、尊重他人合法權益、提升服務的透明度和生成內容的準確性及可靠性等指導原則,詳細規定了生成式人工智能技術發展與治理的要求、監督檢查和法律責任[23]。這是全球第一部針對生成式人工智能的管理辦法,對引導和規制目前高速發展的生成式人工智能技術具有重要意義。
為進一步了解中美歐關于生成式人工智能相關政策法規的共同點和差異之處,更好地為生成式人工智能的發展健全法律和倫理保障,研究選取了中美歐最新的相關政策法規進行對比分析(見表1)。

表1 中美歐生成式人工智能相關政策法規比較
從對生成式人工智能的態度看,中美歐均支持和鼓勵AI技術的研發和應用,都力爭在這場AI的競賽中保持領先地位。與此同時,中美歐也均重視人工智能的廣泛應用可能帶來的數據安全、算法歧視、隱私保護等法律和倫理問題,均出臺了相應的法律法規和指導文件來規范人工智能的健康發展,保護人類的基本權利和福祉,力求在促進AI技術發展和防范法律及倫理風險之間取得平衡。
從倫理規范原則看,中美歐均強調提供和使用生成式人工智能應防止算法歧視、透明、安全可靠、保護隱私以及遵守現行法律法規。中國著重強調了應堅持社會主義核心價值觀,美國提到了要提供人工替代和回退手段,歐盟非常重視人類的主體地位和社會及環境福祉。
從數據合規看,中美歐均要求生成式人工智能訓練和使用的數據來源合法,保證訓練數據的高質量。中國更進一步要求制定數據標注的規則并開展質量評估,美國提出對敏感領域數據的重復利用限制,歐盟則強調高風險人工智能訓練的數據應當受到審查和監管,避免不符合預期目的的數據濫用。
從個人信息保護看,中美歐均規定要保證人工智能系統中個人信息相關數據的安全,并從數據的收集、存儲、處理等各環節提出了相關安全管理要求,均提出要征得用戶的知情同意。中國進一步提出生成式人工智能服務提供者不得收集非必要個人信息,美國對用戶同意進行了更加細致的分類要求,歐盟則提出要保障個人數據的處理不能影響數據主體的自主決定。
從商業服務規范看,中國規定生成式人工智能服務提供者和使用者要簽訂服務協議,明確雙方權利義務,引導用戶理性合法使用生成式人工智能,提供安全持續的服務,建立投訴舉報機制;美國要求人工智能系統提供者提供清晰可理解的用戶使用通知和解釋文件,當系統出現故障時提供人工補救;歐盟則提出要建立人工智能的質量管理體系,一旦人工智能系統不符合規定,提供者應采取必要的糾正措施或撤回該系統。
從監管主體看,中國和歐盟對生成式人工智能的治理更依靠政府,呈現出自上而下的垂直治理模式。中國的網信、發展改革、教育、科技、工業和信息化、公安等部門依照各自職責依法監管,歐盟則通過設立歐洲人工智能辦公室進行統一監管。美國企業的倫理自治能力較強,且各州有權制定不同的人工智能相關法律法規,因此呈現出自下而上的治理模式。
從法律責任看,對于生成式人工智能違反法律法規和倫理的處罰,中國依照網絡安全法、數據安全法、個人信息保護法等相關法律規定進行處罰;美國目前在聯邦政府層面并沒有制定有關人工智能的法律,主要由各州制定相關法律法規并依法進行處罰;歐盟則規定成員國依據該法案制定相應的處罰規則,并根據規則對不同的違法違規的機構和團體給予行政罰款。
隨著生成式人工智能大模型與各行業領域的廣泛融合,利用生成式人工智能開發的應用產品也必將層出不窮,相關的企業主體在趕上這波AI浪潮的同時,也要重視AI的法律和倫理風險,了解并遵守相關的法律法規要求。通過對中美歐關于生成式人工智能法律法規的比較,AI研發與應用企業可以獲得以下商業啟示。
4.1.1 營造合法合規的研發環境
生成式人工智能研發企業要深入理解相關法律法規,特別是關于個人信息保護、數據來源合法性等的規定,并積極配合政府監管部門,保證研發活動的合法合規。建立內部審查機制,對數據集、模型、應用場景進行合規性評估,杜絕非法數據的采集使用以及潛在不道德應用的研發。同時,企業還應定期對員工進行合規培訓,營造一種合法合規的文化氛圍。
4.1.2 技術上實現可解釋、可控制、可審計
生成式人工智能系統的不透明經常導致預測結果難以解釋并引發爭議。企業應在技術層面上,讓人工智能系統向用戶解釋預測的原因,從而實現對模型和決策過程的審計。此外,還應提供切實可行的人工干預措施,如人工復核、可實施的業務規則等,保證最終決策可控,這有助于消除用戶和監管方面的隱憂。
4.1.3 以用戶為中心,提供可靠透明的交互
生成式人工智能企業應以用戶權益為先,為用戶提供清晰、準確、可理解的交互界面與反饋,主動提示可能的風險,并采取措施預防算法歧視、數據泄露等風險的產生。同時還應建立用戶反饋渠道,及時糾正錯誤,不斷完善服務流程。這能夠提高用戶的知情度和參與感,還能增強企業的社會公信力。
4.1.4 加強內部測試與風險評估
企業應建立健全測試驗證和風險評估機制,形成閉環流程。在研發過程中持續進行測試,并在產品上線前進行全面的風險評估,識別模型偏差、安全漏洞、負面外部影響等多種風險,并將評估結果及時反饋到研發過程中。同時,上線后也要持續監測模型表現,并隨時作出調整,確保系統的穩健安全。
4.2.1 建立倫理規范體系并加強倫理教育
生成式人工智能企業應成立倫理委員會或類似機構,研究行業倫理規范和道德標準,并將其轉化為企業內部的管理制度、技術規范及操作流程。還應定期對員工進行倫理培訓,提高其倫理意識,并讓倫理規范成為技術研發和管理決策中的重要考慮因素之一,這對于防止不道德應用至關重要。
4.2.2 加強安全設計與防護
鑒于人工智能可能面臨的數據泄露、網絡攻擊等安全風險,企業必須在系統設計與部署的全生命周期中,采取必要的安全設計與防護措施。這包括加密傳輸與存儲、訪問控制、漏洞掃描、安全測試等手段,實現數據與系統的全面安全保護,保證人工智能技術安全可靠地應用于復雜環境中。
4.2.3 加強風險預警和危機應對能力
建立包含風險指標及評估、系統運行監測、跨部門合作等事項的風險預警機制和應急預案,提前預演各類“黑天鵝”事件,包括技術故障、法規變化、競爭壓力等,針對每次模擬演練,進行詳盡的評估,包括團隊響應速度、決策準確性等。
4.3.1 加強政府溝通,積極配合監管
生成式人工智能企業不能既要發展又要無監管,良好的政企關系有利于人工智能的健康發展。因此應加強與政府的溝通交流,通過行業協會等渠道表達訴求;積極配合監管,可考慮監管沙盒等更靈活的模式;及時向政府部門匯報重大進展、存在的困難及潛在風險。
4.3.2 注重社會化咨詢,主動接受公眾監督
生成式人工智能企業還應注重吸納社會各界的意見建議,可以建立公眾咨詢委員會,聘請法律、倫理學者等提供意見;也可以開放公眾測試通道,收集用戶反饋。還要加強輿論監測,積極回應公眾關切。這有助于提高研發的社會適用性,也使企業在接受公眾監督的同時增強社會責任感。
4.3.3 重視社會責任,推動行業共同進步
生成式人工智能企業不應將自身僅視為追求利潤的商業主體,還應承擔起推動社會進步的責任。可以主動參與行業討論,為完善倫理規范建言獻策;開放部分無競爭風險的技術成果,促進行業技術進步;開展公益性研究項目,解決社會問題;同行業企業建立伙伴關系,共同提高人工智能技術的安全性和可靠性水平。
本研究論述了生成式人工智能技術的發展和法律風險、總結了中美歐相關政策法規的發展進程,并從對AI技術的態度、倫理規范原則、數據合規、個人信息保護、商業服務規范、監管主體、法律責任等多個維度,分析和比較了中美歐相關政策法規的共通和差異之處,最后根據以上分析從技術研發、內部管理和外部監督三個層面提出了生成式人工智能相關企業防范倫理和法律風險的具體措施,具有一定的實踐指導意義。