齊思雨
(集美大學誠毅學院人文科學系,福建 廈門 361021)
人工智能與現實社會的聯系日益緊密,已經成為法律無法回避的領域,互聯網時代的發展推動了人工智能時代的到來,互聯網技術中的信息與數據是孕育人工智能的土壤。當今社會,人工智能技術已經滲透到生活的各個方面,我們的醫療、軍事、交通、城市建設等方面,處處都有人工智能的身影。當我們享受著先進技術帶來的好處時,也不能忽略其潛在的法律風險。因為這樣緊密的聯系就決定了人工智能會高頻率地參與人類社會的活動,那么當其參與的行為涉及刑法時,就需要立法來規制。
不可否認,法律具有滯后性,新技術帶來的犯罪無法被現行的刑法及時規制,甚至會產生沖擊。只有通過立法及時修補法律的空白之處,解決刑法對于人工智能類犯罪的適用等問題,才可以保證這一技術的健康發展和合理使用。[1]
在我國現行刑法中可以規制的人工智能類犯罪極其有限,僅限于行為人直接將人工智能當作工具進行生產、利用的情形,換言之,人工智能此時執行的一切操作僅為犯罪者的意志和行為的延伸,這種情形下的刑事責任主體為利用人。例如,紹興市破獲的全國首例利用人工智能侵犯公民個人信息案,犯罪團伙利用人工智能技術盜取數據,識別圖片,進行詐騙,竊取公民個人信息進行犯罪。在這個案件中,人工智能被當作工具直接被犯罪分子支配利用,可以根據刑法第二百五十三條之一侵犯公民個人信息罪對犯罪分子進行定罪。當然,即便如此,這樣的定罪依然存在瑕疵,后文第(二)節將從另一角度闡述。
然而,真正棘手的問題是,當人工智能在無自然人利用、操縱時,或者違背利用者的初衷,自行發生了犯罪行為(如無人駕駛汽車涉及交通事故罪,手術機器人涉及醫療事故罪等),其刑事責任主體又該如何確定,是人工智能本身,還是其用戶,又或者是發明者,由于現行刑法刑事責任主體認定的局限性,這種情形下刑事責任主體的確定存在爭議。
不可否認,人工智能時代的到來產生了許多前所未有的行為方式,所以,針對以下三種情形,即便行為主體符合我國現行刑法對于刑事責任主體的認定(自然人、單位),因為缺乏與之相對應的罪名,也無法直接且有效的規制:
首先,是犯罪主體濫用人工智能學習技術訓練其進行犯罪的情形。正如前文所述的,紹興市破獲的全國首例利用人工智能侵犯公民個人信息案,我們可以按照侵犯公民個人信息罪對犯罪分子進行定罪,但是其非法濫用人工智能技術的行為是無法規制的。
其次,是由于人工智能的生產者、發明者在程序編寫等技術方面的問題,導致人工智能運行時發生危害社會安全的犯罪行為的情形。比如,2018年3月發生在亞利桑那州坦佩市的Uber無人駕駛汽車意外撞死一名行人的案例,[2]經后續調查給出的技術解釋是,由于技術限制,其識別系統會在惡劣環境下發生識別有誤,甚至無法識別的情況,Uber公司對其人工智能的某一算法設置上存在紕漏,但最終的審判結果卻是Uber公司不負刑事責任。這雖然是國外的案例,但也對我國刑事立法提供了思考的方向,或許有觀點認為,在我國發生類似案例,可以直接按照刑法第一百四十六條的相關規定按照生產、銷售不符合安全標準的產品罪來定罪。但筆者認為,人工智能本就屬于新興技術,其發展必然存在不成熟的因素,但也不能忽視其進步性,所以,在一定限度內,我們應該對人工智能產品所帶來的風險有一定程度上的容許,如此才有利于行業的發展,而這就需要設立新的罪名來解決。
針對上文提出的,人工智能在無自然人利用、操縱時,或者違背利用者的初衷,自行發生的犯罪行為的責任主體認定問題,我們可以分為兩類討論:
首先,是弱人工智能發生的犯罪行為。
所謂“弱人工智能”是指沒有自主意識,缺乏創造性、遵循機械規律的人工智能。此類人工智能在無自然人利用、操縱時,或者違背利用者的初衷,自行發生的犯罪行為,多半是程序等技術的瑕疵造成的。此時,此類人工智能無法滿足犯罪主客觀一致的要求,不具有承擔刑事責任的能力,所以應該認定其發明者為刑事責任主體,因為發明者在發明此類弱人工智能時,可以且應當預見到人工智能的行為和潛在的風險,發明者此時具有確保其發明物不會危及公共安全和人身安全的義務。當然,也有例外情況,如果是由于他人(黑客等)惡意入侵的行為造成的犯罪,應當認定該介入因素切斷了原先的因果關系,應該認定入侵者為刑事責任主體。
其次,是強人工智能發生的犯罪行為。
所謂“強人工智能”是指具有獨立意識,有思考能力,通過學習可建立對于周圍環境的認識、判斷的自主運行的人工智能。這類人工智能的犯罪能夠符合客觀方面(危害行為、危害結果、因果關系、犯罪的時間、地點、方法)的要求,也能夠符合主觀方面(如意識因素、意志因素)的要求,應當認定其為刑事責任主體,獨立承擔刑事責任。首先,這類人工智能具有更強的學習能力,思考能力,它們可以通過學習和思考產生自主意志和是非判斷能力,已經不再是使用者意志和行為的延伸;其次,強人工智能在自主意識和判斷力的基礎上,完全有能力獲取其研發人未編入其程序的知識,而這些知識極有可能具有人身危害性,但這些內容是很難被及時預見并立刻刪除的;最后,基于前兩點的內容,我們完全有理由認為,強人工智能是具有可罰性的,此時的人工智能已經具有了自然人的倫理屬性,可以被當作“機械犯罪人”。我們可以對其執行刪除數據并且將該人工智能銷毀的刑罰。故針對強人工智能的犯罪,我們不必設立新的罪名,但需要出臺相關的司法解釋來調整、明確刑事責任主體的認定。比如,針對現行刑法的某些犯罪(如公共安全類犯罪、除強奸外侵犯人身權利的犯罪、侵犯財產類型的犯罪等等)出臺司法解釋,增加強人工智能本體為刑事責任主體,并補充強人工智能的刑罰執行制度,只有完善了司法解釋,才不會使上述策略成為空中樓閣。
1.設立濫用人工智能技術罪
隨著技術的發展,人類對于人工智能技術的依賴性會越來越大,這已是大勢所趨,但這勢必會引起該技術濫用的行為。就如全國首例利用人工智能侵犯公民個人信息案,犯罪分子利用人工智能,可以使傳統的犯罪行為更加快速,更加低成本,低風險。所以我們有必要設立濫用人工智能技術罪,在規制犯罪分子基本犯罪行為的基礎上,[3]該罪名應該納入刑法分則第六章妨害社會管理秩序罪中進行明確規定。
2.設立人工智能重大責任事故罪
針對人工智能的生產者、發明者在程序編寫等技術方面的問題(主要針對弱人工智能),導致人工智能自行運行時發生危害社會安全的犯罪行為的情形,應該成立人工智能重大責任事故罪,規制發明者、生產者在發明、設計、生產環節中未完全按照行業標準和國家標準履行義務的行為。但是,結合前文所述對于新興技術發展的支持態度,應該對其中的生產方采取嚴格責任制,即如果生產商有足夠證據證明自己的生產過程是嚴格遵守現有的相關標準的,則可以免于承擔刑事責任。該罪名應該納入刑法第二章危害公共安全罪中進行明確規定。
人工智能時代的到來既給我們以便利,同時也會給我們帶來法律的困擾,甚至對傳統的刑法帶來沖擊,相關的刑事立法可能會改變長久以來的傳統的刑事責任定義,這正是新興技術的發展對于刑事立法的挑戰,所以我們既要制裁人工智能類的犯罪,又不能阻礙該行業的發展,只有這樣,才是成功應對我國當下人工智能犯罪的刑法困境。