《中共中央關于進一步全面深化改革、推進中國式現代化的決定》提出:“建立人工智能安全監管制度。”人工智能引領新的科技革命與產業革命,是具有代表性的高新技術。在推動科技發展的同時,人工智能潛在的風險不容忽視。通過系統把握人工智能發展與安全的關系,建立相關安全監管制度是人工智能風險治理的重要舉措。
在科技快速發展的同時,人工智能可能存在侵犯隱私數據信息風險、算法偏見與歧視、威脅國家安全等問題。
隨著人工智能技術的日益強大,大量的數據更容易被獲取、存儲、挖掘和處理。對于個人隱私數據的收集,不僅涉及人們主動提供的數據,更多涉及被動提供的隱私數據。在數據訓練階段,通過網絡自動抓取技術收集的數據可能包括未經授權的隱私數據,人機交互過程中人工智能可能收集涉及個人隱私的數據;在應用階段,用戶利用人工智能生成的內容可能存在侵犯個人隱私風險。
人工智能算法偏見與歧視是一個無法避免的問題。算法總是隱含著一種價值判斷,而非中立的活動。在算法高效地執行各種任務時,由于數據樣本存在偏差,被存在偏差的樣本訓練完的算法運用到現實中時,就可能出現對于人或事物的決策偏差或錯誤判斷。算法偏見與歧視直接影響了算法結果,這種結果又很可能成為某項政策或某個決策的依據。人工智能訓練數據中預先就有偏見、數據抽樣偏差、算法本身成為一種歧視等因素均可導致算法偏見與歧視問題。
人工智能可能威脅國家安全。在數據訓練階段,人工智能可能自動抓取政務數據、公共數據等,存在泄露風險,威脅國家安全。在應用階段,不法分子可能利用人工智能窺視國家秘密,收集軍事數據、經濟數據等,嚴重威脅國家安全與穩定。若人工智能脫離人類控制或被濫用,均對國家安全產生威脅。
人工智能飛速發展,成為推動經濟社會發展的重要動力。人工智能在為人類帶來便利的同時,可能存在侵犯隱私數據、算法偏見等風險。隨著人工智能替代某些行業,導致一些行業的從業者存在失業風險。人工智能挑戰著現有的法律體系,影響著國家安全與經濟安全。通過建立人工智能安全監管制度,可以有效應對人工智能相關風險。
現階段,人工智能是新質生產力的典型代表,能夠推動高質量發展。人工智能可能存在安全風險,這要求我們應當在充分發展人工智能技術的同時,加強風險治理。其中,通過建立人工智能安全監管制度,能夠兼顧人工智能發展與安全治理的關系。準確把握人工智能賦能相關產業的優勢,及時研判潛在的風險,不斷加強風險監管。
人工智能與人類可持續發展息息相關,各國高度關注人工智能安全問題。歐盟、美國、英國等均采取了一系列措施來加強人工智能安全監管。我國作為負責任大國,應當加強人工智能安全監管,參與和引領人工智能全球治理工作,共同促進全球人工智能高質量發展。
針對人工智能帶來的風險,我國亟須建立人工智能安全監管制度。
人工智能發展具有未知性與不可預測性,決定了采用包容審慎監管模式。《生成式人工智能服務管理暫行辦法》提出對生成式人工智能服務實行包容審慎和分類分級監管,但過于原則化。包容審慎監管模式意味著人工智能發展與治理并重,堅持科技創新與安全治理相結合,推動人工智能高質量發展。
人工智能安全監管措施包括以下幾個方面:一是監督檢查。監管部門應當依法開展監督檢查,監管人工智能訓練數據、數據標注內容等是否存在違法情況。二是行政處罰措施。法律明確可以通過罰款、限期責令改正等方式來監管人工智能相關違法行為。三是制定分類分級監管措施。有權機關應當制定針對人工智能分類分級的監管措施。可以將人工智能分為文本類、視頻類等類型,分別采取不同監管措施。
以抑制算法權力、偏見為重點,綜合運用多種監管手段克服算法偏見問題。為了加強算法偏見與歧視治理,應當確保數據可查性與算法可審計性,在法律上預先設計好算法使用者、設計者等主體的義務,作為人工智能安全監管的重要依據。監管機關應當加強算法歧視與偏見的監管工作,遏制算法權力,嚴格監管人工智能企業的違法行為。
首先,加快建立人工智能監管制度是我國獲得人工智能全球治理規則主導權與話語權的重要推動力。在推動人工智能立法過程中,我國應當綜合考慮國際社會的人工智能治理規則內容,注重借鑒先進做法。其次,積極參與人工智能全球治理規則的制定工作。我國應當積極參與國際社會制定有關人工智能的規則,努力主導建立人工智能全球治理體系。
基金項目:山東省法學會2024年度全省法學研究重點課題“個人數據信托的制度建構研究”,SLS(2024)A28。
【作者單位:1.山東社會科學院法學研究所■ 逯達1;2.山東大學法學院(威海)■ 逯 達2】