產業政策法規研究所


人工智能主要政策和制度
人工智能的迅速發展深刻改變著人類的社會生活,推動經濟社會各領域從數字化、網絡化向智能化加速躍升。習近平總書記多次就人工智能做出重要批示,指出人工智能技術的發展將深刻改變人類社會生活、改變世界,要求抓住機遇,在這一高技術領域搶占先機,加快部署和實施。 2017 年 《政府工作報告》指出,要加快人工智能等技術研發和轉化,做大做強產業集群。黨的十九大報告也提及處理好人工智能等新技術與實體經濟的關系,發展現代產業體系。
2017年7月,國務院發布了《新一代人工智能發展規劃》,指出新一代人工智能相關學科發展、理論建模、技術創新、軟硬件升級等整體推進,正在引發鏈式突破,推動經濟社會各領域從數字化、網絡化向智能化加速躍升。面對新形勢新需求,必須主動求變應變,牢牢把握人工智能發展的重大歷史機遇,緊扣發展、研判大勢、主動謀劃、把握方向、搶占先機,引領世界人工智能發展新潮流,服務經濟社會發展和支撐國家安全,帶動國家競爭力整體躍升和跨越式發展。
2017年12月,工業和信息化部配套印發《促進新一代人工智能產業發展三年行動計劃(2018-2020年)》,確定以信息技術與制造技術深度融合為主線,以新一代人工智能技術的產業化和集成應用為重點,推進人工智能和制造業深度融合,加快制造強國和網絡強國建設。力爭到2020年,實現人工智能重點產品規模化發展、人工智能整體核心基礎能力顯著增強、智能制造深化發展、人工智能產業支撐體系基本建立的目標。
2018年4月,教育部配套出臺了《高等學校人工智能創新行動計劃》,強調要加強人工智能領域專業建設,推進“新工科”建設,形成“人工智能+X”復合專業培養新模式。到2020年建設100個“人工智能+X”復合特色專業,推動重要方向的教材和在線開放課程建設。到2020年編寫50本具有國際一流水平的本科生和研究生教材、建設50門人工智能領域國家級精品在線開放課程、建立50家人工智能學院、研究院或交叉研究中心,并引導高校通過增量支持和存量調整,加大人工智能領域人才培養力度。在職業院校大數據、信息管理相關專業中增加人工智能相關內容,培養人工智能應用領域技術技能人才。
此外,大部分省市也積極出臺人工智能發展計劃等政策,積極謀劃新一代人工智能產業在時間和空間上的戰略布局,加快推進人工智能與經濟、社會、產業的深度融合發展。
人工智能主要情況
在中央政府的頂層設計下,人工智能技術發展迅速。百度、阿里、騰訊等互聯網巨頭已經在世界范圍內成為人工智能領域最頂尖的一批參與者,數百個初創公司在不同的人工智能細分和應用領域建立了服務模型。首批國家級人工智能開放創新平臺已經建立。智能物流信息系統出現,使得物流運輸變得更加高效、靈活和智能。無人零售店落地,用戶通過身份識別后可以自由購物,離店時實現無縫結算,零售服務高效便捷。人工智能還在智能可穿戴、智能語音、智能家居、智能金融等很多行業深度融合,不斷涌現新服務、新產品。人工智能正在加快推動個性化、多樣化服務的業態升級。
在智能機器人領域,工業機器人的應用領域不斷延伸,從汽車、電子行業延伸到紡織、物流、國防軍工、民用爆破、食品、原材料等行業;服務機器人在智能家居、娛樂教育、安全健康、信息服務等方面應用廣泛,一批產研深度結合的優秀企業不斷涌現。人工智能在改變社會經濟生活的同時,不可避免地帶來一定的法律和倫理問題。
一. 人工智能技術的發展存在不確定性。人工智能技術尚處于不斷發展的過程中,隱私問題是技術發展過程中的主要問題之一,在人工智能技術成熟之前,技術缺陷極有可能存在侵犯隱私的風險。而且,如果帶有偏見的數據進入系統,必然會帶來歧視性結果,直接給人類社會安全帶來隱患。另外,如果人工智能技術的創新者罔顧科技倫理的約束,將人工智能技術進行有倫理爭議的或不正當的行為,必然會給社會公共利益和公共安全帶來巨大的潛在威脅。這些不確定性都會使人們對人工智能產生顧慮。
二.個人數據和生物信息保護存在風險。人工智能時代,隨著人工智能技術大規模應用,智能設備和算法對于個人隱私的發掘分析能力遠超以往技術,隱私所有權人防范難度大大增加。在不需要權利人主動透露任何涉及隱私信息內容的情況下,智能算法擁有者就已精準的掌握了權利人的隱私。權利人不但在無意識的情況下可能透露出自己的隱私,在有意識的隱私防護判斷中,權利人理解的情況也與真實情況相差甚遠。主要表現在三方面:一是智能設備和算法對于個人隱私的發掘分析能力遠超以往技術,隱私所有權人防范的難度大大增加。二是用于身份識別驗證的生物信息具有較強的穩定性,一旦發生泄露無法找回或重置,生物信息的價值大大減損,且與個人生物信息綁定的相關安全驗證都將面臨很高的安全風險,目前對生物信息安全問題關注遠遠不夠。三是個人行為數據被智能設備和定位系統記錄、存儲和分析后會全面呈現個人的行為偏好、習慣和生活狀態,目前只規制“出售或提供行蹤軌跡信息,被他人用于犯罪的”情形,其它領域行為數據如何保護尚缺少相應規定。
《最高人民法院、最高人民檢察院關于辦理侵犯公民個人信息刑事案件適用法律若干問題的解釋》(以下簡稱為《解釋》)中將“公民個人信息”定義為以電子或者其他方式記錄的能夠單獨或者與其他信息結合識別特定自然人身份或者反映特定自然人活動情況的各種信息,其中包括了行蹤軌跡。行蹤軌跡等個人行為數據的價值和意義不易被權利人感知,因此大多數人不會像保護個人隱私信息一樣保護個人行為數據。《解釋》將行蹤軌跡與各類身份信息、賬號密碼進行基本同等保護,但是對于“出售或提供行蹤軌跡信息,被他人用于犯罪的”情形是出于刑事審判的需要,在其它領域行為數據如何保護的問題,尚缺少相應規定。人工智能技術對于人類生物信息的識別能力越來越強,指紋、面部、視網膜識別技術應用日益廣泛,應用場景越來越多,但是這些生物信息的信息安全狀況堪憂。我國尚缺少法規和標準規范生物信息的采集、存儲、使用和監管等問題,在大量生物信息被使用、傳輸的場景缺乏足夠的安全保護,識別和存儲設備安全等級低,易發生生物信息泄露。而且目前尚缺少生物信息侵權規范和權利救濟途徑,生物信息濫用問題隱患頗多。
三.人工智能創造物權屬不明。以微軟小冰為代表的人工智能程序已經創造了大量作品,包括文學作品、音樂作品、美術作品等,這些作品在不考慮創造者因素的情況下,完全符合著作權法規定的“作品”的形式和實質要求。人工智能創造的一些作品從質量上看,堪比人類作品,而從數量和創作速度來看又遠超人類水平,這些作品已造成了一定的社會影響,且會隨著人工智能技術的發展產生更多的影響,需要法律進行規范。在人工智能作品影響日益擴大的今天,此類作品權屬不明會帶來一系列問題。在權利配置方面,權屬不明就無法確定發表權、署名權、修改權、保護作品完整權等人身權利的所有者,“作品”無法得到充分的法律保護,相應的人工智能創造者、所有者等人類主體的權益也可能受到損害;作品的使用權、許可使用權、轉讓權、獲得報酬權等財產權利無人行使或者會因權利歸屬不明產生糾紛,一部分社會財富的歸屬會處于不確定狀態。在侵權責任方面,由于權屬不明,如果人工智能作品被他人侵權,會面臨受害者不明的情況;如果人工智能作品侵犯了他人的著作權,也會出現承擔侵權責任的主體不明的情況。這些情況都不利于相關權利主體的權益保護,一定程度上會增加著作權糾紛的風險。根據現行著作權法的規定,作品的構成要件主要有四個:一是要求該作品為文學、藝術和自然科學、社會科學、工程技術領域相關;二是可復制性,即具有某種有形形式可以復制;三是獨創性,亦稱為原創性;四是智力成果。現在人工智能創作的詩作等作品,已經滿足著作權法上關于作品的要求。由于智能機器人不具有法律人格,因此智能機器人的作品不能擁有著作權。
人工智能政策需求分析
一.制定算法法律法規,搶占人工智能戰略制高點。算法是人工智能的核心,決定人工智能的決策程序、價值取向和發展方向,我國應盡快制定算法法律法規,搶占人工智能發展的戰略制高點。以算法為規制對象制定法律法規,約束和規范算法設計及決策等行為。包括制定對算法的審查規則以及把部分倫理規范融入法律規則,強化對算法設計者遵循社會倫理道德的法律約束力。加快推動算法倫理道德規范出臺,厘清算法倫理道德規范和算法法律的界限。
二.制定標準,強化人工智能系統安全。可靠的人工智能系統應具有強大的安全性能,能夠有效應對各類惡意攻擊,法律可以考慮通過安全標準、安全評估義務等規范達到強化系統安全的目的。一是提高人工智能產品研發的安全標準,從技術上增強智能系統的安全性和強健性。二是推行智能系統安全認證制度,對人工智能技術和產品進行嚴格測試,增強社會公眾信任。三是強化安全評估義務主體責任,針對人工智能應用場景和應用重要程度的不同,有針對性地制定技術標準和評估方案,滿足不同系統安全風險與保障的差異化需求。
三.制定人工智能倫理準則,把控技術發展方向。建立人工智能技術發展的倫理準則,有助于指導機器人設計研究者和制造商對機器人做出道德風險評估,并形成完善的人工智能技術研發規范,確保人工智能系統的行為符合社會倫理道德標準。
系統設計者的道德責任觀,決定著人工智能技術的發展方向和應用效果。正如愛因斯坦對科學技術的評價:科學技術究竟是給人類帶來幸福還是帶來災難,全取決于人自己,而不取決于工具。所以,要幫助系統設計者樹立正確的倫理道德觀,在算法和設計源頭加固道德性,避免算法歧視,更客觀、積極地影響人工智能判斷道德上的對錯和是否應當。
人工智能技術發展的初衷是造福人類,必然要求人工智能系統的行為能夠符合人類社會的倫理價值觀念。一是,在系統設計和研發階段,企業將人工智能倫理價值算法嵌入編程語言,讓程序語言融入倫理規范,實現人工智能人性化、理性化的服務。二是,對技術創新者進行嚴格的規范約束,避免設計出不符合人工智能倫理的產品,及所帶來的負面社會影響。三是,定時評估系統的規范和價值的有效性,即是否和現實的規范與價值相一致。這樣,不僅使系統的設計符合人工智能倫理規范,更讓創新者主動承擔起相應的倫理責任。
盡快把人工智能倫理規范教育引入人才培養體系。統籌整合人、財、物各種資源,依托智能設備平臺,圍繞智能服務內容,加快建立健全人工智能倫理規范體系。開設跨學科、跨領域的人工智能倫理課程,把倫理規范教育作為人才培養體系的重要內容。
四.加快個人信息保護立法,確保個人隱私安全。目前,我國的個人信息保護法還在制定過程中,尚未出臺。有關個人信息保護的法律條文散見于民事、刑事等諸法律中。要加快個人信息保護法的立法進程,在該法中用條文明確宣示個人信息的人格屬性和財產屬性。同時,利用侵權責任法向侵犯個人信息者提起民事賠償,利用刑法對不法分子提起刑事制裁。從立法和執法兩個方向著手,增強對個人信息的保護。
針對人工智能技術應用的不同領域,收集個人信息的來源,構架出一套自下而上、逐層具體、全面完善的隱私權保護的法律。一是對于個人敏感信息,明確列舉哪些信息屬于個人敏感信息,需要采取特殊的保護手段和使用限制予以保護。二是對于需要采集和存儲個人信息和數據隱私的單位和個人,在采集和存儲前應當明確告知信息主體,特定范圍的信息需要取得信息主體的明示同意。三是明確規定可能會給信息主體造成一定風險的個人信息和數據的獲取的正當性和必要性條件,規范信息獲取行為,降低信息和數據被非法獲取和使用的風險。
五.通過調整作品的含義,保護人工智能創作物。《計算機軟件保護條例》中的創作指獨立開發,包括實際組織、進行開發和提供工作條件。這并不完全是智力活動,還包括與程序開發有關的組織、管理和提供工作條件等輔助性活動。版權法中獨創性的認定,應當以客觀化為判斷標準,通過調整作品的含義,將人工智能創作物納入作品的范疇。以作品是否具有“足夠可區分的變化”為標準來判斷其獨創性,如果人工智能創作物符合作品獨創性要求,應該賦予其作品的法律性質。第一,從思想表達的角度,人工智能創作物所要表達的來自編程者所賦予的數據類型和模型算法。第二,雖然人工智能作為編程者的創作物,其本身屬于權利客體和權利支配的對象,如果不賦予人工智能創作物作品的法律性質,社會將產生大量的“無主作品”,既不利于激勵新作品的創作和人工智能技術的發展,也無益于著作權市場的合規性和穩定性。