摘要:人工智能技術在近幾十年高速發(fā)展,取得了不小的進展,給人類生活帶來了翻天覆地的變化。但發(fā)展過快帶來的負面影響也不可小覷,尤其是造成的倫理問題,人類在享受科技帶來的便利的同時,也要未雨綢繆,引導人工智能技術更好地為人類服務。本文首先分析了人工智能技術可能存在的一系列倫理問題,然后提出了預防措施。
關鍵詞:人工智能;倫理規(guī)范;法律體系
隨著計算機技術的高速發(fā)展,人工智能技術幾十年間不斷取得突破,給人類的生活帶來了極大的便利,成為二十世紀中期以來尤為受人矚目的高新科技。但與此同時,由于高新技術發(fā)展中存在著巨大的不確定性,隨之而來的是倫理、社會、法律等各個方面的問題,其中以倫理問題最為嚴峻,這些問題往往是兩難困境,并且相互影響,復雜關聯(lián)。因此,對現人工智能技術中的倫理問題進行研究,形成準確的認知與理解才能更好地應對其他各個方面的問題,使人工智能技術向著更有利于人類發(fā)展的方向健康發(fā)展。
一、人工智能技術中的法律倫理問題
(一)動搖人類主體地位
人是技術的主體,機器智能由人類創(chuàng)造,但是人工智能技術發(fā)展之迅速以至于不少專家學者認為用不了幾十年,人工智能就要進入強人工智能階段,強人工智能認為智能機器可以具備意識、思考、感情等能力,而不僅僅是工具,再加上強人工智能的智慧能力遠遠超過人類,這必將嚴重威脅到人類的主體地位。
(二)沖擊人類道德及竊取人類隱私
人工智能技術發(fā)展到現在,各種隱私泄露事件就已經層出不窮,當iPhone的面部識別技術發(fā)布時,便有研究人員指出,面部特征有可能泄露個人的政治觀點和隱私。當我們使用各種網頁、手機軟件時,我們便留下了各種各樣的數字足跡,可以說人類一定程度上集體忘記了我們的隱私被竊取這件事。可以想象,當人工智能的智能程度越來越高,到2050年,人工智能足以欺騙人類,可以作為人類的戀人、伴侶,并且這將成為社會常態(tài),人工智能將比人類自己更了解自己。
(三)人工智能的過錯歸責
近年來,無人駕駛、智能化機器人在工廠、醫(yī)院、學校等公共領域不斷發(fā)揮作用并受到人類認可,但是機器也會畢竟受程序控制,難免發(fā)生“意外”,那么該如何對人工是能使用責任倫理,誰該為機器人的意外承擔責任使是我們要始終思考的問題。2015年曾有專家指出,人工智能機器人的操作失靈應該由所有與該機器人的創(chuàng)造有關的人分擔責任。但事實上這種責任的具體劃分仍是一個難以解決的問題,2018年Uber自動駕駛汽車撞死路人,無論是研究人員、制造者還是消費者都有不可推卸的責任,但是技術是中性的,是不具有善惡之分的,亦不存在任何目的,因此,對人工智能的責任倫理還需要更深的研究和探索。
(四)環(huán)境倫理問題凸顯
人類對人工智能產品的需求量越來越大,人們無限制開采環(huán)境資源、而面對環(huán)境污染確視而不見的趨勢也愈發(fā)明顯。有關部門曾統(tǒng)計過,地球周圍覆蓋大量太空垃圾,多達3000噸,并且這個數字仍在不斷攀升。人類以自我為中心的觀念造成生態(tài)保護意識的缺失,長此以往,人類必將面臨更大的危機。
二、人工智能技術法律倫理問題的應對舉措
(一)避免盲目的商業(yè)化
人工智能技術在幾十年里取得的了巨大的發(fā)展進步,這樣的發(fā)展速度遠超人類進化的速度,每一樣新事物的發(fā)展都不能是孤立的,必須要有社會、文化、倫理、觀念、法律等各方各面的發(fā)展與之相匹配。然而人工智能技術的過快發(fā)展并沒有與其他方面很好地結合,科研人員注重技術創(chuàng)新,商業(yè)領域注重商業(yè)價值,消費者注重提高生活質量,前景看似一片大好,卻忽略了其安全性等一系列重要問題。
在安全性沒有得到保證的情況下盲目將人工智能技術與人工智能產品商業(yè)化,無疑是給人們的安全埋下重大隱患。2016年法航一架飛機航行過程中,飛行員中途開啟了自動駕駛,而由于氣溫過低,自動駕駛系統(tǒng)失去控制,最終墜機,所有人員無一幸存。
在弱人工智能階段尚且如此,在未來如果真的進入強人工智能階段,當人工智能產品的智能化程度更高,若程序出現問題,那造成的危害更是難以估量。因此,人工智能技術不能一味地盲目發(fā)展、盲目商業(yè)化,在發(fā)展的同時一定要平衡好方方面面,否則產生的倫理問題將是人類難以承受的額。
(二)構建完善的倫理規(guī)則
人工智能與人類之間的倫理學問題不同于人與人、人與自然之間的倫理學問題,而是人與人創(chuàng)造的產品之間的新的關聯(lián)。這是一種新的倫理,當人工智能不僅僅是人類的工具,二者地位平等時,如何處理人與人工智能之間可能產生的各種情感、各種羈絆?雖然就當前的人工智能發(fā)展水平看來,其無法理解人類的倫理規(guī)則,但若不能未雨綢繆,提前制定好倫理約束,以現在的發(fā)展速度繼續(xù)任由其發(fā)展下去,未來社會人類可能面對的問題會更多更嚴重并且難以解決。因此 ,對于人與機器共存的時代而言,倫理約束必不可少。
(三)構建完備的法律體系
要想推動人工智能技術來服務人類,進一步提升人類文明的發(fā)展程度,一個很重要的前提是人類不能失去以人為主的立場,現階段,人工智能還沒有完善的法律來對其進行約束,倫理軟約束雖重要,法律硬約束也必不可少。
對于人工智能技術及應用,最基本的是要制定相關科研人員以及商業(yè)從業(yè)人員各種行為規(guī)范,從源頭上警醒人們不要鋌而走險,濫用人工智能技術實行違法犯罪。要制定風險防控相關法律,對于可能出現的各種風險走出有效地防范。還要制定錯誤責任認定相關法律,是責任認定有法可依,比如無人駕駛出現問題的責任劃分,隱私泄露責任劃分等。羅馬不是一日建成的,完備的法律體系的建立,需要制定長久的計劃來保障實施,需要全球各個國家齊心協(xié)力,這是整個人類的共同責任。
三、總結
科技發(fā)展對人類應該起到促進作用而不是反作用,科技應該是人類生活的工具而不能凌駕于人類之上。人類對于高新科技的追求從未止步,但絕不能忘記保持清醒理智的頭腦,對科技的發(fā)展及應用的正確認知才能讓科技發(fā)展的成果更好地服務于人類,更不能為了一己私欲,利用人工智能去做一些危害他人、危害社會的事情。
面對人工智能技術的飛躍,我們應該理性思考,不斷地提出問題、解決問題,不斷對其優(yōu)化,引導技術始終朝著更有利于人類文明進步的方向發(fā)展。為此,全人類要共同努力,加強國際間交流合作,共同制定合理完備的人工智能技術發(fā)展規(guī)劃、發(fā)展要求以及完備的法律法規(guī),加強科學管理與監(jiān)管。同時要形成廣泛認同的倫理道德約束,無論是科研人員、商業(yè)人員還是消費者都要齊心協(xié)力,使技術更好造福人類。
參考文獻:
[1]酈全民. 科學哲學與人工智能[J]. 自然辯證法通訊, 2001, 23(2):17-22.
[2]王曉陽. 人工智能能否超越人類智能[J]. 自然辯證法研究, 2015(07):106-112.
[3]蔡曙山, 薛小迪. 人工智能與人類智能——從認知科學五個層級的理論看人機大戰(zhàn)[J]. 北京大學學報:哲學社會科學版, 2016(4):145-154.
[4]王東浩. 人工智能體引發(fā)的倫理困境探賾[J]. 人工智能體.
[5]郭騰飛. 人工智能的哲學思考[D]. 山西大學.
作者簡介:
趙丹(1997—),女,河南漯河人,成都市雙流區(qū)四川大學訴訟法學專業(yè) 碩士研究生。
(本論文受“四川大學法學院研究生科研創(chuàng)新項目”資助,課題名稱《未成年人刑事司法分流及觸法干預機制實證研究》,編號:sculaw20200108)