文 《法人》記者 李立娟
人工智能的發(fā)展是科技進步的必然產(chǎn)物,無論是標準化技術(shù)建構(gòu)還是法律建構(gòu)都處于初級層面,我們要做的是良性運用,而非魯莽發(fā)展
北京時間6月8凌晨,Google CEO桑達爾·皮查伊宣布了他們使用人工智能的七項原則,以及四條底線。
這七項原則是:對社會有益;避免制造或者加深不公平的偏見;在開發(fā)中進行測試以確保安全;對人類負責(zé); 隱私原則; 堅守對卓越科學(xué)的追求;在使用中考慮首要用途、技術(shù)的獨特性及適用性、使用的規(guī)模這三個因素。
四條底線是:對于那些將產(chǎn)生或者導(dǎo)致傷害的整體性技術(shù),確保其利大于弊,并將做好確保安全的相關(guān)限制;不會將AI用于制造武器及其他將會對人類產(chǎn)生傷害的產(chǎn)品;不會將AI用于收集或使用用戶信息,以進行違反國際公認規(guī)范的監(jiān)視;不會將AI用于違反國際法和人權(quán)的技術(shù)開發(fā)。
人工智能的發(fā)展已經(jīng)成為大勢所趨,我國《新一代人工智能發(fā)展規(guī)劃》(2017)和《人工智能標準化白皮書》(2018)的印發(fā)和實施,中國國家層面的人工智能戰(zhàn)略走向了前臺。
人工智能的迅速發(fā)展影響是二元的,將會深刻改變?nèi)祟惿鐣默F(xiàn)有結(jié)構(gòu),成為新一輪產(chǎn)業(yè)變革的核心驅(qū)動力和競爭對象。當然,因為變革,引發(fā)的一系列法律挑戰(zhàn)也是不可避免的。
“從歷史發(fā)展角度來看,人類試圖制造出能模擬大腦的機器已經(jīng)很久了,人工智能并不是一個新領(lǐng)域,只是在這幾年里迅速地?zé)崃似饋怼=?0年來,人工智能已經(jīng)經(jīng)歷了三次浪潮。”鯨準研究院分析師張伊聰對《法人》記者說。
第一次浪潮,20世紀50年代的達特茅斯會議確立了人工智能(AI)這一術(shù)語,人們陸續(xù)發(fā)明了第一款感知神經(jīng)網(wǎng)絡(luò)軟件和聊天軟件,證明了數(shù)學(xué)定理,人類驚呼“人工智能來了”“再過十年機器人會超越人類”。然而,人們很快發(fā)現(xiàn),這些理論和模型只能解決一些非常簡單的問題,人工智能進入第一次冬天。
第二次浪潮,20世紀80年代Hopfield神經(jīng)網(wǎng)絡(luò)和BT訓(xùn)練算法的提出,使得人工智能再次興起,出現(xiàn)了語音識別、語音翻譯計劃,以及日本提出的第五代計算機。但這些設(shè)想遲遲未能進入人們的生活之中,第二次浪潮又破滅了。

第三次浪潮,隨著2006年Hinton提出的深度學(xué)習(xí)技術(shù),以及2012 年ImageNet 競賽在圖像識別領(lǐng)域帶來的突破,人工智能再次爆發(fā)。這一次,不僅在技術(shù)上頻頻取得突破,在商業(yè)市場同樣炙手可熱,創(chuàng)業(yè)公司層出不窮,投資者競相追逐。
張伊聰進一步從資本和媒體的熱度角度對記者分析道,通過jingdata數(shù)據(jù)追蹤,人工智能領(lǐng)域是從2013年開始急速上升,在2017年仍是上升趨勢。而在這一年,整個一級市場遇冷,投資事件數(shù)下降41%,人工智能相對于整個大環(huán)境來說欣欣向榮。
她進一步分析道,投資人熱度也展示了這一趨勢,在2018年第一季度,對于行業(yè)賦能層來說,整體投資人熱度上升。其中上升最快的為自動駕駛和AI醫(yī)療,AI教育和AI安防的熱度相近位列第二批次。這些領(lǐng)域的熱度與人工智能創(chuàng)業(yè)側(cè)重點,所處市場大小有緊密關(guān)系。
從細分領(lǐng)域的角度來說,張伊聰對《法人》記者說,備受追捧的自動駕駛、AI醫(yī)療、AI教育和AI安防領(lǐng)域的共同點是市場規(guī)模極大,人工智能可以很好地發(fā)揮提升人類效率的作用,但不同領(lǐng)域的發(fā)展階段卻各不相同。
中研普華研究員劉雄同時對AI智能持肯定的態(tài)度:“隨著人工智能、自動控制、定位技術(shù)以及傳感器技術(shù)等領(lǐng)域的飛速發(fā)展,汽車逐漸向以智能化為核心的輪式機器人的發(fā)展,人與車、車與車、車與物的交互方式逐漸改變。人工智能應(yīng)用領(lǐng)域也變得越來越廣泛,總體上看,人工智能在2040之前會一直處于快速發(fā)展階段,發(fā)展前景非常可觀。”
同時,“在法律領(lǐng)域,人工智能的影響肯定存在的”,北京市銘泰律師事務(wù)所高級合伙人、知識產(chǎn)權(quán)部主任徐新明在接受《法人》記者采訪時如是說。AI 是一種迅猛發(fā)展的科技,科技一定會促使立法者對法律進行修訂、進步、完善,法律的完善也會促使科技的發(fā)展。比如照相機的發(fā)展,因為照相機的出現(xiàn),引發(fā)肖像權(quán)的爭議,肖像權(quán)屬于人格權(quán)的一部分。因為問題的出現(xiàn),引起這個社會對立法的呼吁,因為需求的產(chǎn)生,當然就會催生出新的法律制度。
他進一步說,人工智能作為一種最新的科技手段,它會影響法律對人生活的調(diào)整,人工智能必然會影響人們生活的方方面面,也可能會影響與現(xiàn)在不同的新的行為與商業(yè)模式,當然會引起法律的回應(yīng)。如果法律不能容納或者制約這些行為,那就會引發(fā)法律的變更甚至制定新的法律。所以,可以籠統(tǒng)地說,對人的行為產(chǎn)生影響的相應(yīng)領(lǐng)域,必然會產(chǎn)生一定的調(diào)整以及回應(yīng)。
鯨準研究院分析師張伊聰則認為,AI在法律領(lǐng)域分為兩大方向:為B端提供服務(wù)、直接服務(wù)于C端。在TO B 和TO C這兩個方向上的產(chǎn)品和技術(shù)壁壘有著質(zhì)的不同,針對普通人的產(chǎn)品主要是通俗的自然語言輸入到法律要素的映射問題,常見的產(chǎn)品形式是自動法律咨詢;而較為專業(yè)的案例檢索,則涉及案件的深度研究,事實上單一的裁判文書并不能反映案件的所有特征,根據(jù)特征找到相似案例,然后一并推送給律師優(yōu)選,實際上也只是起到了資料收集整理的作用,離真正的指導(dǎo)行為和決策還有很長的路要走。
“凡事均有兩面性,AI不可避免地會帶來一定的弊端,本質(zhì)上還在于人的角色,人工智能雖說是高度發(fā)達的,仍然還是一個工具。”徐新明對《法人》記者說,“現(xiàn)在很難說法律的調(diào)控水平可以這么迅速地做出回應(yīng),似乎不太可能,而且人工智能的發(fā)展層級也不是說處于長期的穩(wěn)定時期,其發(fā)展的速度是迅速的。立法的發(fā)展是相對滯后的,能動性并不意味著無法可依,目前來說,根據(jù)現(xiàn)有的法律制度仍然是有法可依。”
鯨準研究院分析師張伊聰則對《法人》記者說,立法一直是落后于技術(shù)發(fā)展的,且不同國家對科技的法律制裁態(tài)度不同。對于歷史來說,可以看到中國對互聯(lián)網(wǎng)及金融的嚴格政策,導(dǎo)致國內(nèi)失去了一定先機。而對于近現(xiàn)代,對于人工智能,政策已經(jīng)上升到了國家戰(zhàn)略層面,重視程度可見一斑。可是在知識產(chǎn)權(quán)方面的保護、在法律層面的監(jiān)管,還都遠遠落后于傳統(tǒng)行業(yè)。
劉雄亦認為,人工智能技術(shù)會挑戰(zhàn)我們的法律。智能革命的出現(xiàn),對當下的倫理標準、法律規(guī)則、社會秩序及公共管理體制帶來一場前所未有的危機和挑戰(zhàn)。它不僅與已有法律秩序形成沖突,凸顯現(xiàn)存法律制度產(chǎn)品供給的缺陷,甚至?xí)嵏参覀儤I(yè)已構(gòu)成的法律認知。
在隱私和數(shù)據(jù)保護方面,張伊聰對《法人》記者說:“人工智能對于隱私保護反而是一種助力,泄露的風(fēng)險應(yīng)該關(guān)注區(qū)塊鏈。”因為,人工智能已經(jīng)在反欺詐、風(fēng)控甚至是數(shù)據(jù)安全領(lǐng)域進行了一定的自動化保護,主要市場在對企業(yè)的信息安全方面。對于個人的隱私保護,個人認為市場較難進行推動,而是應(yīng)該讓政府進行干預(yù),更多地利用人工智能去保護個人的隱私。
徐新明同時認為,對隱私和數(shù)據(jù)保護主要還是大數(shù)據(jù)的問題,對大數(shù)據(jù)的充分利用的基礎(chǔ)上發(fā)展出人工智能,這是近幾年較為迅速的一個科技的進步。現(xiàn)在的問題在充分運用大數(shù)據(jù)的同時,不至于導(dǎo)致個人隱私權(quán)的泄露,這需要相關(guān)的主體采取一定的措施進行保護,這是一個挑戰(zhàn)。

現(xiàn)階段還是有法可依的,主要的問題是相關(guān)主體怎樣采取一定的技術(shù)措施,在利用大數(shù)據(jù)的同時,對相關(guān)的個人隱私進行一定的保護,這個也需要相關(guān)的主題平臺以及運營公司,在技術(shù)以及法律方面進行一定的思考,來達到法律的要求。
劉雄對《法人》記者強調(diào),智能時代毫無疑問會釋放更多的技術(shù)應(yīng)用紅利,但風(fēng)險也不可小覷。AI作為基礎(chǔ)信息技術(shù),既可以被攻擊者利用,也可以被防護方使用。AI產(chǎn)業(yè)崛起會加快被攻擊者利用和被防護方使用的進程,用戶只有提高安全意識、時刻注意隱私信息的安全保護才是最關(guān)鍵的。萬物互聯(lián)的時代,攻擊路徑變多了,攻擊速度加快了,防護難度更高了,安全挑戰(zhàn)越來越多,安全工作任重道遠。
“AI智能的標準化建構(gòu)的探討為時尚早,因為人工智能的快速發(fā)展,可能有大的公司在這方面努力,但國際方面的統(tǒng)一標準還有待進一步的努力。”徐新明對《法人》記者強調(diào)。
張伊聰同時說,國家積極聯(lián)合民間企業(yè)進行標準化。國家標準化管理委員會已經(jīng)兩次出版了《人工智能標準化白皮書》同時對于細分領(lǐng)域,各垂直領(lǐng)域的頭部公司也在積極地撰寫相應(yīng)的標準化白皮書。
徐新明認為,現(xiàn)在需要強調(diào)的是,人工智能中新產(chǎn)生的作品權(quán)利歸屬問題,人工智能創(chuàng)造的作品就應(yīng)該受到法律的保護,但是版權(quán)的歸屬仍是疑問,現(xiàn)在人工智能運用到新聞報道中,人工個智能機器人創(chuàng)造音樂、美術(shù)、詩歌,這是個比較難界定的復(fù)雜問題,現(xiàn)階段,人工智能獨創(chuàng)造的作品,可以達到法律所規(guī)定的獨創(chuàng)性的標準。
歐盟委員會提出“獨立智力創(chuàng)造”的標準,這個需要明確大陸法系和英美法系關(guān)于著作權(quán)界定的獨創(chuàng)性的標準區(qū)別,英美法系不太注重精神權(quán)利,更關(guān)注的是財產(chǎn)權(quán),而大陸法系是立足于人格權(quán),認為作品的第一要素是精神權(quán)利,所以說大陸法系的要求可能更高一點。
所以,人工智能的作品權(quán)利歸屬,就目前的法律是持否定態(tài)度的,因為對于著作權(quán)的歸屬,強調(diào)人格對作品的影響,AI的人格如何界定?徐新明強調(diào),這是首先要思考的問題,即使他創(chuàng)造的作品達到獨創(chuàng)性,是參考《著作權(quán)法》第11條,作為單位作品,視為作者,是否能夠比照適用于AI,但是單位作品的前提是在自然人的主持下,形成一定歸屬于單位的作品,強調(diào)一種意志。所以,性質(zhì)上的區(qū)別決定了作品權(quán)利、性質(zhì)的界定。
“所以創(chuàng)造出的作品,我認為也是大數(shù)據(jù)的總結(jié)。所以,對于人工智能所創(chuàng)造出來的作品的可版權(quán)性,我認為還應(yīng)該保持謹慎的態(tài)度。”徐新明說。
劉雄也對《法人》記者強調(diào),人工智能的迅速發(fā)展,造成的案件多發(fā),比如,2017年的紹興市公安局的1·03專案,便是一起利用人工智能進行網(wǎng)絡(luò)攻擊和欺詐行為的事件。嫌疑人運用人工智能技術(shù)開發(fā)出了一套圖像識別系統(tǒng),這種圖像識別技術(shù)可以自動辨認出圖片上顯示的數(shù)字、字母、漢字等信息,并且通過深度學(xué)習(xí)的方式,在實踐中不斷提升辨認能力。然而,這樣的技術(shù)卻被犯罪團伙運用到了網(wǎng)絡(luò)詐騙等活動中。
他說:“類似的案例還有很多。人類有智慧能力創(chuàng)造出人工智能,也應(yīng)有能力和理智來控制人工智能。因此,最好是期待人類的聰明才智,而非低估它;最好是承認風(fēng)險的存在,而非否認它。”
徐新明對《法人》記者進一步說,人工智能的迅速發(fā)展,利用人工智能進行攻擊欺詐,歸根結(jié)底還是人的行為,人工智能本身并沒有錯,所以如果道德、法律凌駕于技術(shù)之上,就不會對別人產(chǎn)生實質(zhì)性的威脅,其弊端與副作用就會最大可能地得到限制,對技術(shù)本身盡可能的地采取更進一步的限制人工智能的副作用,就不會因為AI 的發(fā)展產(chǎn)生真正的威脅。
“我們應(yīng)當思考的不是消滅客觀危險,而是在這些潛在的威脅和挑戰(zhàn)面前,增強風(fēng)險認識能力,提高制度風(fēng)險意識,通過法律和其他社會規(guī)范來預(yù)防規(guī)避風(fēng)險,引導(dǎo)規(guī)范人工智能技術(shù)健康發(fā)展,這需要全社會共同努力。”劉雄最后對《法人》記者強調(diào)。