李思啟
新疆警察學院,新疆 克拉瑪依 830000
基于深度學習算法所搭建的人工智能之應用已成為現實,有別于以往,這一次的發展速度非常快,大型語言模型使開放式理解與生成連貫文本成為可能,理論算法開始走向實際應用,推動了聊天機器人系統的迭代升級,2023 年ChatGPT(Chat Generative Pre-trained Transformer,是美國OpenAI 公司研發的聊天機器人程序)的誕生,標志著人工智能算法科技進入了新的階段。[1]算法發展的驚人速度,使得人們亟需重新審視人工智能的倫理及其所帶來的法律風險。
人工智能問世60 多年,其應用范圍早已拓展至多個領域,影響著人類的思維方式和行為模式。回顧人工智能發展的歷史,人工智能經歷了幾次大起大落。在其發展的過程中遇到過巨大瓶頸,又在新的理論和新的技術推動下,奮而前行。
目前,我們正在進入人工智能的“inside”時代,即人工智能并非簡單的賦能,而是在創造著新的經濟結構和社會形態。[2]人工智能技術,除了在搜索引擎、推薦系統、計算廣告、人臉識別、圖像識別、語音識別、機器翻譯、游戲博弈等領域已大規模熟練運用外,還在蛋白質結構預測、新藥發現、國防軍工等領域有了突破性的進展。
人工智能的發展速度已然超越預期,進入了一個新的歷史發展階段——第三次認知革命,探索人類通過自我認知而形成的主觀世界機制,把這樣的智能賦予機器并改造客觀世界,推動人類智能的外化延伸。
根據研究,人工智能在新生命科學、類腦神經系統、智能醫療等多個前沿領域取得突破性進展,可預見其對人類社會勞動力市場分工、經濟產業結構等產生重大的影響和連鎖反應。[3]同時,隨著人類能力被機械化和程式化的機器取代以及技術異化等問題的產生,人工智能的運用必然會帶來一系列技術風險與倫理問題。本文將人工智能的風險分為:技術風險、倫理風險及法律風險三類。
復雜網絡是涵蓋多領域的交叉性學科,隨著人工智能的發展,其運用愈發廣泛,但復雜網絡仍然面臨多變的環境、人為破壞以及自然災害等誘發故障的因素。如果復雜網絡系統出現故障,則可能會造成嚴重損害。
人類很難甚至不可能跟蹤人工智能系統的工作原理并“預測”它們將如何發生故障。對于許多較老類型的自動化系統,工程師使用詳盡的測試或數學分析來“驗證”系統是否在合理的范圍內運行。但現代人工智能系統比老一代自動化系統復雜得多,它們不能像舊系統那樣進行詳盡的測試,因為要測試的可能性路徑實在太多。
換言之,人類可以通過設計一套高效、性能優越的優化方案及一套穩定的系統來保證其面臨異常情況時的正常運作,但本身并無法規避風險所發生的可能。
人工智能在倫理方面逐漸浮現出了諸多負面問題。首先,人工智能算法存在性別、種族等歧視;其次,人工智能存在著弱化人類主體性的特征,開始具備人類語言能力、共情意識和自覺意識,同時沖擊人類就業市場,由此或將引發群體性的恐慌和社會動蕩;最后,算法濫用會挑戰學術規范,加劇學術不端現象,造成教育困境,引發深層次的教育不公。
從不同視角看,人工智能帶來的問題不盡相同。這時要先從道德與倫理角度去思考其涉及的問題,例如人工智能的設計不能擺脫“人是目的”。[4]人工智能發展如此迅速,極有可能產生一批游離于法律之外的“不道德的人”和“不道德的機器”。謹防出現基于“技術野蠻”的“寡頭恐怖主義”,應當盡快出臺人工智能相關預防性的、有效的、縝密的倫理應對機制和路徑。[4]
就以本文所站的法律角度為例,人工智能的發展還會對法律職業、法律思維造成巨大的挑戰。從法律職業方面來說,人工智能的出現可以提高法律行業的辦公效率,使律師可以更高效地處理專業的法律問題。但同時,律師作為一門需要具備正確價值觀的職業,是人工智能無法取代的。人工智能只能作為輔助,法律工作者需要有意識地篩選和審核。
人類特有的無法用機器生成的法律思維和語言有:倫理、文義和技術。人工智能可以替代通過語言的法律方法,但是仍然無法替代負責任的判斷或具體情境下的判斷。基于此,人類仍然可以加強對于人工智能的監管,控制其內在風險,完善相關法律,掌握法律解釋權,防范人工智能時代出現的法律風險。
人工智能侵權現象的發生不可避免,但人工智能侵權行為的侵權程度不同,是否達到“犯罪”的程度,顯然公權力對此進行的救濟之必要性與急迫性截然不同。
本文立意要點為,需要明確當基于人工智能算法搭建的軟件對個體造成嚴重侵權時,應當允許將商用主體直接作為被告,且舉證責任倒置。
根據《中華人民共和國民事訴訟法》第一百二十二條:“起訴必須符合下列條件:……(二)有明確的被告;(三)有具體的訴訟請求和事實、理由;(四)屬于人民法院受理民事訴訟的范圍和受訴人民法院管轄。”起訴必須有明確的被告,以及確定準確的利害關系。又依據《最高人民法院關于人民法院登記立案若干問題的規定》第四條:“民事起訴狀應當記明以下事項:……(二)被告的姓名、性別、工作單位、住所等信息,法人或者其他組織的名稱、住所等信息;(三)訴訟請求和所根據的事實與理由;(四)證據和證據來源……”
實踐中,無論是舉證證明程序與損害之間存在因果關系,還是尋找適格被告主體信息,對于普通個體,皆會存在困難,使得法律關系長期處于不穩定的狀態。故而根據法益衡量原理,有必要通過立法手段對這種“缺失”予以彌補。[5]例如可以模仿諸如《中華人民共和國消費者權益保護法》中關于經營者與生產者的相關追責理論,允許受侵害的主體直接向商用主體(媒介機構)起訴,且規定舉證責任倒置。由商用主體對造成的損害進行賠付,同時賦予商用主體對算法提供者追責的權利,這將最大程度上維護社會的整體穩定性。
從倫理角度思考同樣支持應由商用主體進行賠付。計算機代碼本身只是將邏輯通過算法進行轉化后所編寫成的文字,其本身并不具有善惡之分,按照法秩序統一性,即不具有可罰性。[6]正如自動手槍可以殺人,但殺人的卻不是槍,而是扣動扳機者。使用計算機代碼進行惡意操作,其可罰性來源并不是“編程”這一行為本身,而是使用代碼時的動機,以及程序編寫好后運行時的目的與造成的結果。對于人工智能算法所造成的違法行為,對其代碼編寫的本身進行審查顯然過于困難且不切實際,將負責主體從編寫者轉移為商業使用者,顯然讓法律對行為進行評價的過程更為方便可行。
基于大陸法系的特點,法需要保持穩定性。故而選擇將保護法益的天平向普通用戶傾斜,允許受侵害個體直接向算法的商用主體主張權利。又或者說,如希望在傳統大陸法學框架下對人工智能所引發的法律問題予以規制,應當通過賦予受侵害主體直接向人工智能算法的商用主體告訴的權利。
從效率角度思考,選擇人工智能商用主體作為被告的優點主要有兩個方面:
一方面,根據《中華人民共和國民法典》關于商事主體登記的相關規定,受侵害者尋求救濟時,尋找商用主體的信息顯然更為簡單。這使得面對人工智能侵權行為的維權成本不至于過高,有利于社會穩定。另一方面,隨著對人工智能的使用越來越頻繁、范圍越來越廣,顯然相同算法所形成的人工智能程序侵權案件會越來越多。且由于電腦編程本身的可復制性,人工智能相關的違法犯罪行為會日漸猖獗。由法院法官逐一確認并追責,即便理論上可行,實際中也會因工作量過大而不切實際。
從效率角度來講,將犯罪主體確定在不當使用人工智能算法的商用主體,顯然更符合效率最大化的原則。同時,站在司法者的角度,也方便法院的審理與追責,以及審判后的執行,有助于節省司法資源。
人工智能技術的改進和來自消費者的自下而上的市場壓力有助于使人工智能更安全、更不容易發生事故,但僅靠這種調控力度并不足夠。健全立法應發揮至關重要的作用。有前瞻性的立法有助于減少有侵權可能的人工智能算法研究,本文結合相關的研究,提出以下幾點立法建議:
為了使人工智能更安全,需要知道它何時以及如何失敗。在許多近似技術領域,共享事件報告有助于建立共同的知識基礎,幫助行業和政府跟蹤風險并了解其原因。政策制定者應該探索不同的方法來鼓勵經營者或生產商積極披露人工智能事故的細節。如政府可以制定事件報告的共同標準,甚至強制要求經營者或生產商披露某些類型的事故。
對人工智能安全進行審查與測試至關重要,旨在解決上述提到的問題,以及將人工智能工程塑造為一類更嚴格的學科領域。如美國2021 年制定的《國防授權法案》(NDAA),要求美國國家科學基金會和能源部投資于“值得信賴的AI”研究。
我國亦應當注重人工智能標準,制定出人工智能系統事故風險的標準。并委托更專業的監管機構,創建一個國家背書的人工智能測試體系。進而構建一個包含標準化數據集、代碼和測試環境的數字平臺,公共和私人人工智能系統可以在其上對安全性和可靠性進行測試。
作為一種科學趨勢及事物的發展規律,我國的人工智能研究與應用不可能等到立法健全時再開始。正如前述,法的滯后性也決定了問題的出現一定早于立法。正基于這種特性,有學者提出了我國應當構建強制責任保險制度與侵權救濟基金制度。[7]該制度廣泛應用于歐洲國家,即通過強制要求人工智能應用主體繳交責任保險,或者設立侵權救濟基金,來為未來可能發生的侵權行為提前提供賠償保證。同時,資金的要求無形之中也為人工智能公司的設立提供了門檻,有利于將風險限縮在一定的程度以內。
筆者認為,距離真正意義上的人工智能時代到來還有一定的年頭,且基于法律本身的滯后性,仍有許多未知的問題現在無法預測。同時大陸法系的邏輯所決定,法學研究始終無法脫離于滯后因素,但學者必須盡可能在問題發生之前去思考,這樣才能在問題出現之時第一時間提供理論依據,且將風險造成的破壞限縮在一定程度,進而提供現實意義上的作用。確保即使侵害發生,也能找到最適格的被告主體進而進行司法救濟,維護社會穩定。