劉媛奕
摘要:技術創新不僅僅是工具和技術的創新,它還可能涉及經濟、社會和法律關系的創新。隨著我們的世界充滿機器人和人工智能技術,我們的生活和社會、政治和經濟權力關系也將發生變化,給法律帶來新的和意想不到的挑戰。當今人工智能的技術水平是智能地識別圖像和智能地玩游戲。它不亞于一種超人的智慧,而出現的問題是,如果我們沒有一個法律框架來防止惡意使用這種智慧,那么它可能會使整個人類也處于毀滅的邊緣。目前,對人工智能發展的法律規制仍然存在諸多不足,法律法規急需完善。
關鍵詞:人工智能;法律;規制
隨著人工智能技術的迅速發展及應用領域的不斷拓展,人工智能發展的社會影響在日益顯現,諸多現實的社會問題對人工智能業態的發展提出了新的要求,越來越多的學者展開在人工智能倫理和法律層面的探索。
一、人工智能概述
了解人工智能到底是什么很重要。根據牛津詞典對人工智能的定義,人工智能是機器所展現的智能。在計算機科學中,理想的“智能”機器是一個靈活的理性代理,它感知自己的環境,并采取行動,最大限度地提高其在某個目標上的成功機會。因此,當機器模仿類似人類的行為時,例如學習、計劃、推理、解決問題、環境感知、自然語言處理等,那么它就屬于人工智能的范疇。大多數人沒有意識到人工智能已經以一種自然的方式在日常生活中存在了很長時間。人工智能是一個全球性的抽象概念,包含許多不同的模式和表現形式。即使用科學術語也很難界定共同核心。
達特茅斯會議的發起人麥卡錫起草的倡議書中使用了 “人工智能”一詞,這被認為是人工智能誕生的標志,一些研究認為,人工智能本質上是數據管理問題,算法是人工智能的基本要素,算法是將輸入數據轉化為確定的輸出的編碼過程。當具有自主意識的人工智能出現時,現有的人類法律領域將受到挑戰。法律在調整人工智能時代的社會關系的同時,人工智能也更加廣泛的應用于法律領域。
人工智能將經歷三個發展階段,在第一個階段即弱人工智能階段,人工智能僅能夠推理和解決問題。在第二個階段即強人工智能階段,人工智能擁有了自主意識,不僅僅能推理和解決問題,還可以思考,理解復雜理念,具有快速學習和從經驗中學習的能力。在第三個階段即超人工智能階段,人工智能將達到一個“奇點”,一旦這個“奇點”被跨越,人工智能將具有比人類更豐富的智慧,人類需重新審視自己和社會的關系。
二、人工智能引發的法律問題
不同于人類開發的任何其他技術,人工智能的獨特之處在于其自主行動的能力。這種變化不僅很快開始顯示出它對社會的積極影響,而且也產生了嚴重的消極影響。隨著人工智能的不斷成熟,自主機器人可能成為地球上除男人和女人之外有意識的“第三類人”,這對傳統刑事責任追究制度提出了挑戰。具有自主意識的智能機器人是否可以成為刑事責任的承擔主體,是否具有刑事責任能力都是值得深究的問題。在人工智能產品的實際應用中,最普遍的問題是侵權,比如說自動駕駛、智能識別等問題。人工智能體不僅可能侵害人類生命、身體和健康,還可能造成個人人身、人格和財產權利侵害。人工智能體的法律定位困境和風險責任承擔爭議便日益凸顯。
人類在享受技術福利的同時,也面臨著“裸奔”于社會的風險,個人喜好、經歷、親友關系等個人信息一覽無余。數據是人工智能時代工業生產的主要生產資料,數據的使用引發了一系列隱私保護問題。消費者也面臨著在獲得有用服務和放棄個人信息之間的平衡。在人工智能的實際應用中,例如無人駕駛車輛的運行,可輕松實現乘客的個性化的需求,但是車輛的軟件系統會記錄乘客的駕駛偏好、行駛路線、車內溫度等具體細節方面的數據,給乘客提供便捷服務的同時也使乘客的個人信息完全暴露在無人駕駛車輛的數據庫中。上述個人信息可能會被企業收集并轉賣或泄露,第二天可能就收到詐騙電話,引發社會風險。隱私權的概念也一直被解構并被重新定義,到底哪一些信息是我們不能公之于眾拿來利用的,這都需要法律專家們進行深刻的思考,并作出理性的判斷。
三、法律如何規制人工智能
盡管人工智能的進一步發展對于人類社會存在一定的威脅,但我們有充分的理由相信,通過法律進行規制可以有效降低人工智能潛在風險向現實轉化的可能性,即便人工智能會造成一定的損害,但是也可以通過合理的制度設計進行風險分攤,從而降低人工智能的損害程度。倫理原則可以為人工智能的積極使用提供方向,但它們沒有能力防止、抑制和制裁消極使用,這就體現出法律規制的必要性。
通過法律設置相應的原則加強對人工智能的監管很有必要,雖然規則和原則相比可以更清晰精準的進行監管,但是人工智能蘊含的風險屬性,難以預知未來發生的風險,況且法律本身具有嚴重的滯后性,過于細化的規則在操作中不具有現實性,行政機關在面臨突發的風險時難免措手不及。
探討人工智能時代的法律問題,首先考慮能否將人工智能規制納入到現有法律體系下,
目前主流觀點是改良當前法律制度,就人工智能問題先適用現有規范并根據其具有的特殊屬性進行有針對性的規制。首先要在法律上給人工智能體以主體認定,其次法律應進一步應明確具體風險的責任分配問題,即誰來承擔責任和如何承擔責任。現有法律主體和人工智能體共同承擔責任。人工智能體可以通過刪除數據、修改程序和永久銷毀等方式承擔責任。現在仍處于若人工智能時代,人工智能體的設計者、制造者、銷售者和使用者等仍需要承擔責任。
利用法律保護人工智能相關的利害關系人的隱私和數據安全尤其重要,例如無人駕駛汽車會安裝一個類似于黑匣子的裝置,以便在事故發生后查詢車輛行駛過程中的行為數據,上述信息極易被違法整合,進而侵犯公民的個人隱私。立法在規范無人駕駛車輛的安全行駛的同時需要制定具體規則限制對個人信息的使用,授權使用的基本原則,并對研發、設計、銷售人工智能體的主體設定嚴格的法律責任。 有必要從法律上對商業機構獲取信息進行規制,開發商在獲取用戶的個人信息前必須征得用戶的同意,可獲取用戶個人信息的范圍以及獲取信息后的用途都需要加以明確,以降低個人隱私權被侵犯的風險。
結語
基于人工智能的特有屬性和大數據背景,目前人工智能在中國已經提升到國家戰略并受到廣泛重視。《民法典》設專章規定隱私權和個人信息保護,人工智能立法列入研究項目,為人工智能創新發展提供有力的法制保障。最終我們需要一個法律政策框架,以確保減輕與人工智能相關的挑戰,并在出現致命錯誤時及時進行補救。
參考文獻
[1]王璐,韓璞庚.論人工智能發展風險的認知與規避[J].理論月刊,2020(12):148-153.
[2]夏玉明,石英村.人工智能發展與數據安全挑戰[J].信息安全與通信保密,2020(12):70-78.
[3]王杰.法律人工智能規制路徑探析[J].東北農業大學學報(社會科學版),2020,18(05):36-41.
[4]莫超. 論自動駕駛汽車的法律規制[D].廣州大學,2019.
[5]張力,陳鵬.機器人“人格”理論批判與人工智能物的法律規制[J].學術界,2018(12):53-75.
[6]吳漢東.人工智能時代的制度安排與法律規制[J].社會科學文摘,2017(12):76-78.