黃博 劉麗榮
摘要:隨著人工智能時代的到來,智能機器人也逐漸走入我們的生活。其廣泛運用于公、檢、法系統的日常工作中,極大地提高國家公職人員的司法作風及辦案效率。社會各界對人工智能是否具備法律人格的討論日益熱烈。本文基于對人工智能的法律人格的合理性及其本身存在的弊端問題展開分析。若將人工智能賦予法律人格,會導致責任劃分困難、阻礙人工智能的發展,從而抑制研發者的積極性,也會與當前法律理念相矛盾的弊端出現。各界人士對人工智能的法律人格問題進行探討,會促進社會主義法制建設,但倉促的賦予其法律人格,弊大于利。
關鍵詞:人工智能;法律人格;弊端
中圖分類號:D923.42文獻標識碼:A文章編號:2095-4379-(2018)32-0078-03
作者簡介:黃博(1998-),女,漢族,吉林長春人,長春財經學院,本科生,研究方向:法律;劉麗榮(1980-),女,漢族,吉林長春人,碩士研究生,長春財經學院,講師,研究方向:憲法行政法學。
1956年的特茅斯會議標志著"人工智能"學術概念的誕生,從此開辟了利用智能機器代替人類從事腦力勞動的新紀元。此后,顯著減輕腦力勞動和實現生產過程智能化成為可能。人工智能不但在社會、經濟、文化等諸多方面產生不可或缺的作用,而且在法律層面也產生重要的影響。一、人工智能的概述
人工智能的概念從被提出至今,沒有一個精準的定義。但學者普遍認為人工智能技術是研究、開發用于模擬、延伸和發展人類智能的理論方法、技術及應用系統的一門新技術學科。①美國麻省理工學院的維斯頓教授對人工智能的定義是:人工智能就是研究如何使計算機去做過去只有人才能做的智能的工作。若計算機去做以前人類去做的事,那么,人工智能人格問題也就此產生了。二、人工智能的法律人格
人工智能是否應被賦予法律人格,即未來人工智能是否可成為法律上的主體,我持有否定的態度。我認為這不但妨礙人工智能領域的發展,而且受損害者則是機器人的擁有者,進而使人工智能科研家們喪失對其制造商品的積極性。但凡事都具有兩面性,在人工智能是否應被賦予”法律人格”的問題上,也同樣具有它對人類的有益之處。
(一)將人工智能賦予“法律人格”的合理性
1.方便于人類,促進法律職業的改革
人工智能在法律上的作用也不容忽視,近年“智能律師”的出現給法律咨詢者提供極大的方便,咨詢者可以用最短的時間獲取更多的有用信息,而且與一個小時要幾百元的人工律師相比,簡直是即經濟又方便。若是給人工智能賦予法律人格,即機器人可具有等同律師的法律責任和義務,與律師“平起平坐”,例如法學界中“法小淘”的產生,它是中國第一個應用于法律行業的機器人,咨詢者可通過簡單的手機語言對話方式將實際案例描繪出來,法小淘能可快速的得出法律相關損害事實,賠償依據及事實,并且可在30萬律師中分析出3位于此案例相關的開庭律師。這對人類未來的法律發展無疑起到促進的作用,人們可以廉價且快速的使用人工智能通行法律咨詢。
隨著人工智能時代的到來,智能機器人已逐漸被引入到法院、檢察院,參與到司法人員的工作中,可謂將法律相關工作引入一個改革時代。比如檢察院的檢務智能語言系統,該系統具備較強的語言識別功能,可以將不同的聲音甚至方言信息轉化為較為精準的電子文本,而且隨著系統的不斷升級,文字轉換的準確率也不斷地提升。針對智能語言系統開發的智能詢問系統、會議系統,都經過智能語言試點逐批引入檢察機關,此語言系統的發明,不但在很大程度上減輕檢察人員的書寫、記錄的工作量,在案件繁瑣量大時,也可以提高工作人員的工作效率。與此系統可以媲美的還有近年研發的案管機器人,它是現今檢察院在整個司法辦案活動中的一個非常重要的平臺,其中有智能績效考核、智能大數據應用等多個子系統多個應用平臺。他不但能完成上述對海量的數據進行總結,還可以幫助案件處理人員提供準確的案件有關資料、案件相關人員,并對這些數據進行大數據采集,可以說便利了檢察人員整個辦案流程。案管智能系統除了對案件進行分析處理,還可對檢察院各部門,甚至各檢察官的工作進行監管,通過對各檢察人員,部門錄入相應的工作要求,例如辦案數量、工作作風、司法技能等各工作指標,案管機器人會將工作人員、各部門日常工作情況記錄下來,最后兩者進行比較,通過生成業務報表的形式對每一位檢察人員、檢察部門生成各個的綜合考核結果,從而形成了前所未有的良好監督管理機制,從很大程度上提高檢察官的司法作風和工作質量。可見,智能系統被引入檢察院,參與進檢察工作的作用不容忽視。隨著信息科技的不斷發展,法律行業也隨之進入大數據時代,那么將人工智能引入法院將成為大多數人關注的問題,在現實生活中法院代表著國家的權威,是為公民贏得公平的圣地,但仍存在一些“同案不同罪”,也會有少數貪污受賄的法官為了一舉私利而作出顯失公平的判決,這嚴重影響當事人的利益和國家的信譽。因此,將人工智能系統引入法院,將會促進法院對案件的公平審理。針對案件的處理,人工智能可在裁判文書網生成的大數據中找到相似案件的裁判情況,并分析出此案件應適用的規則、原則。這在很大程度上為法官分析案件提供了便利條件,也促進案件審理的公平正義。倘若法官審判案件的結果與數據分析得出結論相差巨大,系統會自動提示此法官是否對本次判決不做改動,若法官選擇“確定不做改動”的情況時,系統會自動將該案件及審判結果移送給法官聯合會議,并要求每位法官提出自己的看法,這避免“同案不同判”的情況發生。
2.方便通過法律手段加以規范和管制
若將人工智能賦予“法律人格”,不但在很大程度上促進法律職業的改革,而且會更加方便法律對人工智能的規劃與管制。規范律師行為可適用《律師法》等行業道德規范等一切法律都將適用于人工機器人。這樣,無論是像“法小淘”,“阿爾法狗”這樣的人工機器人,還是提供語言咨詢的手機“助理”,都將會被人類的法律規范。若人工智能違法,則會按照人類的法律對其進行管制。這樣,則不用再擔心人工智能的“肆無忌憚”從而威脅人類生活。賦予人工智能以法律人格給人類帶來的利益是值得肯定的,但它所帶來的弊端也不容忽視。(二)人工智能賦予“法律人格”的弊端
1942年伊薩克.阿莫夫在短篇小說《轉圓圈》中提出機器人應遵守的三條法則“第一:一個機器人不得傷害一個人類也不能因不作為而允許一個人類被傷害;第二:一個機器人必須遵守人類施加給他的規則,除非一些規則與第一條規則相沖突;第三:一個機器人必須保護自己的存在,只要這種自我保護不與第一或第二條相沖突”。但發現,機器人無法同時遵守二、三兩條規則,從而不斷重復他先前的行為,形成“轉圓圈”的狀況。霍布斯說過:“自我保護是第一自然法則。”任何一個人類都不會發生這些怪異行為。因為人類是變通的,無論何時遇到危險其第一生理現象應是自我保護,只有這種強行的規則才會使機器人陷入到這個“轉圓圈”當中。從此可見,機器人完全像人類一樣遵守規則,沒有獨立自主辨別事物的能力顯然是不能做到的。
1.造成損害責任劃分困難
2016年,歐洲會議向歐盟委員會提出報告,為規范機器人的生產及市場的流通要制定相應的民事規范。也就是說,賦予機器一定的“法律人格”,即“電子人格”,這是對機器人獨立與第三人交往的案例中所要遵守的法律,但報告中并沒有提出明確的處罰方法,若是機器人違法,是像人類法律中規定的那樣罰款?繳費?若機器人觸犯到人類的生命安全,是予機器人一定的刑罰?還是判處死刑?還是由它的生產者、制造商或是它的使用者來承擔應有的法律責任?我認為這都不是最合適、有效的方法。
首先機器本身沒有生命,從何談及“生命權”?而它所謂的“生命權“也是歸他的擁有者所有的;作為一個機器人,不會有獨立的個人財產,因此對它進行罰款也是不可能的。
其次,如果讓人工智能的生產者、制造商對其的行為而擔責,這雖然在一定程度上的確會促進生產商對機器人產品的質量嚴格把關,但如果真的將此規則寫入法律,就等于鞭炮制造商要對因顧客不當使用鞭炮而傷害他人的行為承擔責任;槍支的生產商可因謀殺而造成的損害被起訴。現是人工智能發展的初步階段,因技術和經濟的問題對人工機器人潛在危險性存在尚不明確的情況,對此有待探明。因此,其生產者、制造商一味對其產品統攬其責,可能造成機器人的高價,從而導致購買者的數量隨之下降。
再次,換一種問責角度,讓人工智能的消費者承擔損害責任,消費者購買機器人后獨立承擔其風險,其法律問責與生產者、銷售商都無關,是一種消費者風險自負方式。這種方式的優點在于促進人工智能的設計者對機器人的定價下調,也是大多數顧客可以承擔得起對機器人的購買,促進商品經濟的發展。但不可忽視的是會有一些人工智能的生產者和開發商因不需承擔任何法律責任,而忽略產品的質量,從而給消費者帶來不可估量的損失。
最后,如果責任由生產者和消費者雙方分擔,那么,又將涉及到歸責比例問題。對于歸責原則,依照我國目前法律體系來看,有過錯責任制和嚴格責任制兩種,而兩種責任方式都要求生產商在設計人工智能的過程中盡可能各個環節都謹慎、考慮周全,制造者能夠保障機器的質量、功能的健全,人工智能的所有者在轉讓他物權時有提醒義務,保障其能夠正常使用的義務。但人工智能與我們日常使用的雨傘、背包不同,機器人更像我們使用的電子產品,例如手機、電腦等,簡單的從外觀很難辨別其好壞,也許在使用以后的某個時間節點出現問題,甚至有些問題究竟是因為消費者使用不當所造成的還是因為生產者在生產過程中的過錯而造成的,難以分辨。綜上,從責任界定角度來看,若想給予人工智能以法律人格目前難以實現。
2.阻礙人工智能的發展,抑制研發者的積極性
在當今科技發展如此迅速的社會,毫無疑問,人工智能給人類帶來的好處遠大于弊端。但倘若倉促的賦予人工智能以法律人格,不但不能有效的對人工智能領域起到很好的規范作用,還會抑制研發者對人工智能創新研發的積極性。因為人工智能法律人格的賦予,會將機器人的研發與市場銷售都規定在義務范圍內,這種規定的局限性在于沒有把因機器人自身不可避免的缺陷和消費者使用不當的原因考慮在內。這會導致就算科技研發者有了新的創新思維,但因為智能主體擁有主體資格,懼怕于新產品的出現會導致新風險的產生,從而被追究法律責任,進而降低新產品的研發,這在一定程度上也阻礙了智能技術的發展。因此,法學界對此問題的充分討論是有必要的,但盲目對人工智能賦予則是不正當行為。
3.與當前的法律理念相矛盾
弱人工智能是指例如在我們日常生活中隨處可見的搜索引擎、自動駕駛、室內智能體溫計等,多數是在某一領域有實用價值的人工智能;強人工智能是指具有類似人一樣的自我意識和較高的創新思維,可完全支配自己的行為和思想,可達到"人類認知"水平,并在處理問題的速度上遠高于人類;超強人工智能是指人工智能達到可以像人一樣去思考問題,去社交,甚至可以利用以儲備的知識完成自主的學習、去發掘新技術、新領域。而我國目前處于弱人工智能階段,可以說是弱人工智能的初步發展階段。從我國當前的法律領域來看,“獨立認知能力”和“表意能力”是擁有法律主體資格的前提。機器人經不斷的自主學習和深度學習,在一定程度上可超過人類的認知能力。例如,近幾年研發的“法小淘”、“阿爾法圍棋”等智能機器人。但單單用認知能力去衡量法律人格問題是不全面的,我國目前還處于弱人工智能階段,現階段的機器人還未達到完全擁有人類的思維,而是缺乏人類的情感和感性思想。因此,倉促的賦予人工智能以法律人格顯然與我國立法原則相違背,存在一定的矛盾。三、結語
目前,人工智能還處于初步發展階段,雖然現在其人格問題還沒有在法律層面對人類構成太大的威脅,但未雨綢繆,人工智能是未來社會發展的必然結果,“強人工智能”在不久的將來定會走進我們的生活。因此,人工智能是否具有法律人格是我們應該面對的問題,我們應如何控制并合理分配對機器人潛在危險的預防;怎樣制定法律規則既不與法律根本原則相違背又能達到規范機器人行為的目的,是立法者在目前需要解決的問題。
我認為,要從根本上解決對人工智能法律問責的問題,盲目的賦予其法律主體資格顯然局限,我們應從以下三個方面對人工機器人進行法律上的防控:第一,在機器人發生危險時,應明確法律問責的主體,調整人工智能的生產者、銷售商以及其擁有者之間責任劃分的矛盾;第二,在有關人工智能的法律規則的制定中,要充分的保護人工智能科技研發者的利益,使其對新技術的開發具有積極性,進而促進我國人工智能技術早日向“強人工智能”發展。第三,立法者在法律制定的過程中,要注意其立法規則不能與傳統的法律原則相違背,更不能與《憲法》發生抵觸,違憲即無效。
法學界對人工智能問責的相關問題進行充分的討論是一個好的趨勢,但盲目的對其立法、設規顯然局限,也不能解決實時性問題。因此,對人工智能法律人格應如何設定的問題,還要在我們未來的法律學習中繼續摸索。[注釋]
①趙梓含.人工智能與法律的未來[J].法治與社會,2018.2(上).[參考文獻]
[1]楊燾.人工智能在司法領域運行的現狀及完善對策研究[J].科技與法律,2018.
[2]昕航,武文芳.法律人工智能對檢察類職業的挑戰與應對[J].政治與法律,2017.
[3]鄭戈.人工智能與法律的未來[J].時事觀察,2017.
[4]詹可.人工智能法律問題研究[J].信息安全研究,2018.