王惠茹
(合肥共達職業技術學院,安徽 合肥 230069)
人工智能(Artificial Intelligence),AI是研究、開發用于模擬、延伸和擴展人的智能的理論、方法、技術及應用系統的一門新的技術科學。[1]自20世紀80年代以來,人工智能在算法、理論和應用等方面都獲得巨大成功,到今天已經成為一個熱潮,谷歌、微軟、IBM、百度等高科技公司均投入了大量人力、物力研發人工智能技術,并在文本、語音、圖像、視頻等多媒體領域取得了豐碩成果,對我們的日常生活產生了巨大影響。[2]
但隨之而來的,偉大的科技發明往往伴隨著巨大的社會風險,這一風險通常具有共生性、時代性、全球性的特點。人工智能革命對當下的法律規則和法律秩序帶來一場前所未有的挑戰,在民事主體法、著作權法、侵權責任法、人格權法、交通法、勞動法等諸多方面與現有法律制度形成沖突,凸顯法律制度產品供給的缺陷。[3]與此同時,人工智能技術的發展也帶來了諸多的倫理問題,如威脅人類安全、算法歧視、過度依賴等。這些問題讓我們在享受科技所帶來的便利的同時,必須要清醒地認識到人機關系的構建還有很長的路要走,什么樣的人機關系才是合理的、健康的、符合社會發展規律的,如何去構建這樣的人機關系,這都是人類應該去思考和探討的問題。
技術是對人類生產力的解放,對人類社會的發展起著至關重要的推動作用,但同時技術也給人類社會帶來了困惑、差異與矛盾。現代技術發展日新月異,人工智能技術在為人類日常生活帶來便利的同時,也存在很多不容小覷的問題,而解決這些問題的關鍵則在于構建一個健康和諧的人機關系。如何去構造一個健康和諧的人際關系,這要求我們對人工智能的技術本質進行回溯。
1956年,在達特茅斯(Dartmouth)學會上,人們第一次提出了“人工智能”的概念,自此以后,圍繞這一概念學者們發展了眾多的理論和原理,人工智能的概念也隨之擴展,逐漸成為一門內容豐富、應用廣泛的交叉型學科。但回溯人工智能的發展過程不難看出,人工智能技術與人類社會發展甚至人類本身的關系密不可分,其基礎不僅僅基于基本自然科學理論,更和人類智慧有著千絲萬縷的聯系。
人工智能作為經典理論領域的學科,也遵循著符號主義的基本思想,其理論代數證明主要基于希爾伯特定理。0但實際上,從計算角度而言,機器定理證明的過程中存在著大量的符號公式和極度的復雜度,這就導致人類無法理解其內在的幾何意義,從而無法對問題進行直觀感受,指數級別的復雜度也使得機器證明存在著本質上的難度。因此僅僅從數學、物理、算法理論上對人工智能進行研究注定無法使得這一技術得到長足的發展,20世紀90年代初期,受神經網絡技術限制的影響,這一技術迅速衰落。但隨后,腦神經科學的幾大突破性進展使人們徹底改變了思路,人們受到大腦學習算法的啟發,最終形成了較為成熟的深度學習思路,從而引領起深度學習的浪潮,推動了人工智能技術的快速發展。
2012年底,深度神經網絡研究公司成立,隨后被谷歌收購。2015年,谷歌公布開源機器學習平臺,IBM、百度、微軟等其他工業巨頭也紛紛投入資源發展人工智能。2016年,IBM率先推動全球人工智能的第一次商業化轉型。至此,人工智能開始在現代科技浪潮中扮演基礎性、關鍵性、前沿性的核心角色。目前,人工智能技術已大范圍應用至家庭、教育、娛樂、金融、醫療、軍事等各個領域,覆蓋人們日常生活的方方面面。
雖然從技術發展的角度來說,人工智能仍然處于初級階段,人類還有很多的問題需要探索,[4]還有很大的空間進行發展,但其在當前人類社會中的地位已然不可小覷,這就促使人類加快科學探索的腳步和技術發展的進程,早日實現對人工智能技術的全面掌控。
智能革命的出現,對當下的倫理標準、法律規則、社會秩序及公共管理體制帶來一場前所未有的危機和挑戰。它不僅與已有法律秩序形成沖突,凸顯現存法律制度產品供給的缺陷,甚至會顛覆我們業已構成的法律認知。[5]
2016年,阿爾法圍棋(AlphaGo)大勝職業圍棋高手李世石,這讓人類震驚的同時也不禁開始思考,非生物智能應當在人類社會中擁有怎樣的地位,是否應當賦予機器人以虛擬的“法律主體資格”,這是最首要也是最基本的人工智能技術發展過程中的法律和倫理問題,也是人機關系將要何去何從的根本。基于這個問題,衍生出了許多法律和倫理問題,如人工智能生成的相關文學、藝術、科技作品是否享有著作權和專利?人工智能系統對人類造成的侵害是否應承擔相應的法律責任,如何承擔?如何保證人類隱私和安全能夠在人工智能參與的現代社會中得到保障?人工智能是否應被看作“工人群體”而享有應當的勞動保障?
除此之外,當前社會已經暴露出的許多倫理問題同樣應當受到關注,最主要的是威脅人類安全、算法歧視和過度依賴三類問題。[6]自動駕駛、學前教育等行業均出現過人工智能傷人案例,嚴重威脅人類安全。深度學習過程中,人工智能極容易出現種族、階層、性別等的歧視,且由于對人工智能理論的不完全掌控,導致人工智能算法“黑箱”,人類暫時無法對此進行干預。基于人工智能的服務型機器人在當前社會中已得到了廣泛使用,但同時也衍生出了過度依賴、心理障礙、情感認知障礙等問題。這些問題無疑需要引起人們的高度重視。
回溯人工智能技術本質不難看出,人工智能和人類智慧的關系密不可分,甚至可以說,人工智能是對人類智慧的模仿。但分析人工智能發展過程中所暴露出的法律和倫理問題又不難看出,人工智能與人類智慧之間存在著巨大的區別,人工智能僅僅具有人類相似的大腦算法,但不具備人類的情感,更無法真正做到理解人類情感。這也就啟示我們,人類終究不會被人工智能所取代,在人工智能發展的過程中,我們應追求一種健康和諧的人機關系,規避相關風險,讓技術更好的推動社會健康發展。
人工智能不具備基本的人類情感,因此不應賦予機器人以“法律主體資格”,但人工智能技術的開發者應當具備相關的法律敏感度,對可能出現的相關法律問題做好預判和防范。對于人工智能技術發展過程中的安全問題,開發者應嚴格進行控制,對于無法保障人類隱私和安全的人工智能技術應完全避免,以防止出現無法控制的局面。
另一方面,我們也應對人工智能給予相應的尊重,不應濫用技術,也不應輕視技術。對于賦予人工智能的相關科技產品,應有相關的生產、銷毀流程規范,對超過使用年限或有技術問題無法使用的相關產品應給予其相應的尊重和人文關懷,妥善處理。
技術是一把雙刃劍,尤其在現代技術高速發展的今天,其為人類生活帶來巨大便利的同時也存在著更為巨大的風險。人工智能作為當今三大技術之一,在人們的日常生活中扮演著至關重要的作用,同時由于人工智能其技術本質可以回溯至人類智慧本身,具有極為特殊的地位,也由此衍生出許多法律和倫理問題,因此本文以人工智能為現代技術的代表,回溯技術本質,分析技術倫理,并對人機關系進行了初步的探討和展望。
但由于人工智能技術發展尚不成熟,目前人們對人工智能所基于的理論基礎也仍存在相關漏洞,人工智能算法“黑箱”問題仍然十分關鍵,這就嚴重制約著我們對人工智能技術的完美把控,也限制著我們目前注定無法構建出絕對完美的人機關系,這就意味著我們還有很長的一段路要走。如何去構建一個合理、健康、和諧的絕對完美人機關系,或許是未來需要探討的一個十分重要的命題。無論如何,以人類和技術互相尊重作為基礎,互相促進,共同發展,人類和人工智能才能在這場博弈中取得“雙贏”。