文/蔡欣(上海大學(xué))
20世紀(jì)70年代起,人們就一度對涉人工智能的研究充滿熱情,但隨著人工智能本身未能真正“進入尋常百姓家”,這種熱情被漫長的挫敗感沖淡。而如今人工智能技術(shù)熱潮的再度興起,激勵政策的陸續(xù)頒布,科技水平的不斷進步等使得人們再次燃起了對人工智能的熱情。然而,事物的發(fā)展總是呈波浪式前進,隨著各種人工智能產(chǎn)品如雨后春筍般面世并宣布量產(chǎn),其致人傷亡的情形也接踵而來。一時間人們對于人工智能又產(chǎn)生極大的憂慮,有人表示人工智能可能導(dǎo)致就業(yè)難題,有人擔(dān)憂人工智能會否失控,也有人大聲疾呼人工智能將取代人類,必須停止與人工智能有關(guān)的一切事物普及……
為了保障市場經(jīng)濟秩序穩(wěn)定,為了不阻礙人工智能健康發(fā)展,就必須對人工智能的性質(zhì)進行明確的界定。人工智能到底能否具有獨立人格,進而能獨立承擔(dān)責(zé)任?如若不能,又將如何應(yīng)對?如要追究自然人責(zé)任,對市場經(jīng)濟主體提出了何種程度的要求?這都是在人工智能時代不可回避的問題。
得益于國家《新一代人工智能發(fā)展規(guī)劃》的政策信號,加之對人工智能產(chǎn)品暫無統(tǒng)一的國家標(biāo)準(zhǔn)或行業(yè)標(biāo)準(zhǔn),在發(fā)展人工智能的伊始,形勢一片大好。然而,物極必反,人工智能造成損害結(jié)果的一系列案例浮出水面,令人不禁唏噓人工智能也并不像想象般十全十美,并非不會出現(xiàn)任何紕漏。
小到備受爭議的ATM機、無人機,大到自動駕駛汽車,在人工智能商業(yè)化的同時,除卻自身出現(xiàn)輕微瑕疵,不排除出現(xiàn)由于人工智能自身存在缺陷或后期監(jiān)管不力甚至是使用不當(dāng)而嚴(yán)重危害社會的情形。參考自動駕駛汽車,2016年5月,美國一輛自動駕駛汽車在公路上行駛時發(fā)生車禍,車主當(dāng)場死亡。經(jīng)調(diào)查后結(jié)合大量證據(jù)得知,事故是由于該車的自動駕駛系統(tǒng)Autopilot對相近顏色的分辨能力低下。這對于駕駛避障系統(tǒng)來說是一個巨大的缺陷,設(shè)計研發(fā)者卻沒有對缺陷產(chǎn)品召回以避免不必要的財產(chǎn)損失或人員傷亡,甚至沒有做出警示,間接導(dǎo)致了悲劇的發(fā)生。其后,北京陸續(xù)出現(xiàn)了不同損害程度的自動駕駛汽車交通事故。此類事故不勝枚舉,筆者在此不再一一贅述。
人 工 智 能(Artificial Intelligence),簡稱AI,得名意在表明其不同于人類自然智慧的人工智慧。迄今為之,科學(xué)家們也給它撰寫過不同的定義,甚至用各種思想實驗如著名的圖靈測試、中文房間理論等驗證這種人工智能存在與否。不可否認(rèn),人工智能能否獨立承擔(dān)責(zé)任對各經(jīng)濟主體有至關(guān)重要的影響,直接關(guān)系到個經(jīng)濟主體是否還需要對人工智能承擔(dān)全部或部分責(zé)任。
人工智能可以劃分為普通人工智能、弱人工智能及強人工智能,其劃分標(biāo)準(zhǔn)是其是否能自主學(xué)習(xí)、自主思考。基于對人工智能可能“類人”或者“超人”的擔(dān)憂,部分學(xué)者提出應(yīng)當(dāng)賦予強人工智能以獨立人格的觀點,并針對該問題相繼提出了:機器工具說、法人人格說、有限人格說及電子人格說。
筆者認(rèn)為,上述學(xué)說均有其合理性,但是,人工智能尚不能承擔(dān)獨立人格或有限人格所對應(yīng)的責(zé)任。首先,人工智能即便“類人”“超人”,但始終“非人”。人們熱衷于將人工智能的人格確立下來,其目的還是要為人工智能致害找一個“責(zé)任人”。顯然,若將責(zé)任完全或部分歸咎于人工智能,就會讓某些真正應(yīng)當(dāng)被問責(zé)的責(zé)任人甚至是犯罪人成為漏網(wǎng)之魚,進而于社會安寧、市場經(jīng)濟秩序穩(wěn)定都有害而無益;其次,人工智能的獨立人格會造成倫理困境,同時其應(yīng)當(dāng)具有何種權(quán)利,承擔(dān)何種義務(wù),對其追究的民事責(zé)任如何賠償損失,人工智能作為物無法擁有自己的財產(chǎn);再次,當(dāng)人工智能造成的損害已然需要刑法介入時,即便其具有獨立人格,能夠獨立承擔(dān)刑事責(zé)任,對其處以刑罰也難以奏效,人工智能所遭受的非難也不會起到引導(dǎo)作用與預(yù)防作用。
人工智能的獨立人格不僅不會解決當(dāng)下所面臨的困境,反而于經(jīng)濟秩序無益,于社會穩(wěn)定有害,于司法公正也將有失。因此,人工智能的獨立人格筆者堅決不予承認(rèn)。
早年科幻大片渲染下給民眾帶來的“機器人終將統(tǒng)治人類”的不安,佐以著名物理學(xué)家斯蒂芬·霍金(Stephen Hawking)在BBC專訪中就曾發(fā)表“人工智能技術(shù)可能會帶來‘人類的末日’”的預(yù)言并在公開信中發(fā)出警示。即便如此,筆者想要說明的是,無論人工智能強弱,其行為的本源仍然是自然人。人工智能始終都偏向“人工性”。無論將人工智能的前景描繪得如何天花亂墜,實際上它也不具有類人的情感與動機,不具有人的辨控能力,不具有是非觀,其為或不為某一行為的唯一依據(jù)就是事先設(shè)定的程序,并且通常受范圍限制。簡單來說,醫(yī)療用途的機器人無論如何也不會駕駛汽車,并在不妨礙自身駕駛的情形下看到急需救助的行人選擇停車進行救助。誠然,筆者堅持我們?nèi)蕴幱诓㈤L期處于弱人工智能時代。當(dāng)前的人工智能產(chǎn)品均由人類創(chuàng)造并為人類所利用,屬于弱人工智能產(chǎn)物,即其“看起來像是智能的,但并不真正擁有智能,也不會有自主意識”。
以此為鑒,反觀當(dāng)前引發(fā)對人工智能之刑法應(yīng)對及立場思考的人工智能致?lián)p現(xiàn)象,筆者發(fā)現(xiàn),所謂“人工智能”的本質(zhì)乃是無形程序與有形產(chǎn)品的結(jié)合。既仍屬于產(chǎn)品范疇,但又區(qū)別于傳統(tǒng)意義上的產(chǎn)品。然而,無論其具有何等特殊性,它仍然是從屬于人工之下的產(chǎn)物,是基于人的創(chuàng)造及預(yù)先設(shè)定而產(chǎn)生一定行為的產(chǎn)品,其具有的學(xué)習(xí)能力也有賴于大數(shù)據(jù)與算法加持,由多種元素結(jié)合而成,對人有天然的依賴性,因而,與其因日日擔(dān)憂真正的強人工智能時代何時到來而形同驚弓之鳥,毋寧腳踏實地,擊破神化人工智能的臆想,接受人工智能產(chǎn)品的發(fā)展存在可認(rèn)知的技術(shù)風(fēng)險,承認(rèn)人工智能的產(chǎn)品屬性,以期對其進行剖析并尋求相應(yīng)的規(guī)制路徑。
人工智能造成損害對企業(yè)、生產(chǎn)者或者是消費者、使用者均存在負(fù)面影響。在其致害現(xiàn)象初顯之時,就應(yīng)當(dāng)意識到其面臨的困境,并尋求應(yīng)對之路。
人工智能產(chǎn)品由于程序系統(tǒng)的介入,一定程度上將改變其所依附的傳統(tǒng)產(chǎn)品的安全標(biāo)準(zhǔn)。2021年,由工業(yè)和信息化部提出、全國汽車標(biāo)準(zhǔn)化技術(shù)委員會歸口的GB/T 40429-2021《汽車駕駛自動化分級》推薦性國家標(biāo)準(zhǔn)經(jīng)批準(zhǔn)發(fā)布,并將于2022年3月1日起實施。該標(biāo)準(zhǔn)規(guī)定了汽車駕駛自動化分級遵循的原則、分級要素、各級別定義和技術(shù)要求框架,旨在解決我國汽車駕駛自動化分級的規(guī)范性問題。
針對人工智能缺陷致害的情形,從源頭上來說存在著因人工智能作為新興產(chǎn)業(yè)的紅利,因產(chǎn)品較新而缺失嚴(yán)格準(zhǔn)入機制,導(dǎo)致其質(zhì)量良莠不齊,也無從區(qū)分其是否符合應(yīng)有的安全標(biāo)準(zhǔn)。因此,提高人工智能準(zhǔn)入門檻,要求從事人工智能研發(fā)、生產(chǎn)工作的企業(yè)具有相應(yīng)的硬件基礎(chǔ),相關(guān)人員具有相應(yīng)的專業(yè)知識及技能至關(guān)重要,部分特殊領(lǐng)域的產(chǎn)品如醫(yī)療行業(yè)的人工智能產(chǎn)品的使用者甚至也應(yīng)當(dāng)經(jīng)過相應(yīng)的操作培訓(xùn)。如是,在保護企業(yè)商譽、市場秩序、公民人身權(quán)利甚至是公共安全的同時,也有利于嚴(yán)控工業(yè)機器人高端產(chǎn)業(yè)低端化和低端產(chǎn)品產(chǎn)能過剩。
既然明確了人工智能的產(chǎn)品屬性,那么自然要鎖定人工智能背后的自然人,并明晰何種人應(yīng)當(dāng)對人工智能產(chǎn)品造成的損害結(jié)果承擔(dān)責(zé)任。目前,學(xué)界對人工智能產(chǎn)品的研發(fā)者作為除生產(chǎn)者、銷售者及過失使用者這類傳統(tǒng)責(zé)任主體外的重要責(zé)任主體已達成一致。
相較于傳統(tǒng)生產(chǎn)者,人工智能產(chǎn)品的真正家長實際上是以傳統(tǒng)產(chǎn)品作為載體的人工智能系統(tǒng)的制造者。研發(fā)者由于具有高于生產(chǎn)者的專業(yè)知識,對人工智能系統(tǒng)的各個細(xì)節(jié)、程序用途及運轉(zhuǎn)處于主要控制地位,因此也應(yīng)承擔(dān)確保產(chǎn)品符合國家標(biāo)準(zhǔn)、行業(yè)安全標(biāo)準(zhǔn)的產(chǎn)品質(zhì)量責(zé)任和產(chǎn)品安全責(zé)任;同時,在人工智能進入流通使用環(huán)節(jié)后仍負(fù)有監(jiān)管責(zé)任。以自動駕駛汽車為例,作為自動駕駛汽車的實際操縱人員,系統(tǒng)研發(fā)者理應(yīng)負(fù)有確保其研發(fā)的自動駕駛汽車“能夠嚴(yán)格遵循相關(guān)交通管理法規(guī)”的責(zé)任,同樣對于自動駕駛汽車能否對周圍緊急情況及時感知并做出相應(yīng)判斷的情形。生產(chǎn)者仍然要遵守其確保產(chǎn)品符合研發(fā)者要求,保證有形載體的質(zhì)量能阻隔相關(guān)因素干擾系統(tǒng)運轉(zhuǎn),同時也應(yīng)符合國家標(biāo)準(zhǔn)、行業(yè)標(biāo)準(zhǔn)等相關(guān)安全標(biāo)準(zhǔn)。另外,銷售者作為與消費者/使用者最為密切的接觸者,負(fù)有如實陳述產(chǎn)品性能、用途的義務(wù),不可作夸大的虛假宣傳,例如:將明知僅具有輔助駕駛功能的自動駕駛汽車以“可實現(xiàn)無人駕駛”“解放雙手”的方式進行宣傳,進而使使用者產(chǎn)生信賴,以至于緊急情況發(fā)生時未能及時進行處理,導(dǎo)致使用者重傷或死亡的嚴(yán)重后果。在人工智能產(chǎn)品的范疇下,使用者的注意義務(wù)理應(yīng)相對降低,但不意味著必然免除。當(dāng)使用者存在不當(dāng)使用的情形致人損害甚至是惡意利用人工智能產(chǎn)品造成他人損害時,其對損害結(jié)果仍然需要承擔(dān)相應(yīng)責(zé)任,在惡意利用的情形下如若同時具有刑事違法性、應(yīng)受刑罰處罰性及社會危害性,則使用者也有可能遭受到刑法的非難。
私法如民法、商法等通常調(diào)整的是平等主體間的社會關(guān)系,在人工智能造成普通損害如輕微傷或小額財產(chǎn)損失時,通過私法主張民事賠償責(zé)任并無不妥。但是,當(dāng)人工智能造成的損害結(jié)果不能僅以民事責(zé)任進行包容,公法如刑法就應(yīng)當(dāng)介入。又如日本知名法學(xué)研究者西原春夫曾作出的關(guān)于刑法中如何將行為的社會危害性演變?yōu)樾淌铝⒎ǖ倪壿嬐蒲荩瑢τ谏鐣:π圆淮蟮男袨椋藗円膊粫a(chǎn)生恐懼心理,尋求公權(quán)力保護的欲望相對就較弱一些。刑法作為保障法,當(dāng)人工智能產(chǎn)品嚴(yán)重侵害刑法所保護的客體,具有相當(dāng)?shù)纳鐣:π詴r,刑法的介入不僅符合公法價值,同樣也是實現(xiàn)社會價值的必然要求。同時,刑法也可以通過行政前置化的方式將判斷標(biāo)準(zhǔn)歸于靜態(tài)行政規(guī)范。通過刑法的威懾功能,以期達到預(yù)防犯罪的效果,同時也對社會公眾、各類經(jīng)濟主體的行為提出指引:在乘時代之風(fēng)扶搖而上的同時,在心中設(shè)起紅線,知曉可為與不可為,勿以惡小而為之;明晰自身義務(wù),如實告知,正確警示;履行監(jiān)管責(zé)任,不因成本效益問題導(dǎo)致應(yīng)為而不為的不作為情形。
我們正在經(jīng)歷第四次科技革命,在人工智能時代不可避免到來之時,對于其造成的損害既不能視而不見,也不能“一刀切”地直接對新興事物全盤否定。人工智能仍具有產(chǎn)品性質(zhì),其雖前途光明,但對其妥善規(guī)制也道阻且長。不可諱言,人工智能產(chǎn)品只有得以有效的規(guī)制,才能更為從容地應(yīng)用到各個領(lǐng)域,使各責(zé)任主體各司其職,擴大受眾范圍,為科技、經(jīng)濟發(fā)展奠定基礎(chǔ)。