◆王劍 盧揚帆 王袁鵬 吳佳豪 鐘賽龍
淺談人工智能——人工智能時代的管制措施
◆王劍 盧揚帆 王袁鵬 吳佳豪通訊作者鐘賽龍通訊作者
(江西科技學院信息工程學院 江西 330000)
人工智能只有短短一百年不到的歷史,歷經半個多世紀的發展,已經滲透到各個領域,與我們的生活息息相關。本文簡要回顧了人工智能的發展歷程,羅列分析了近年來人工智能的應用及出現的憂患風險,并設想根據人工智能、項目管理等相關知識對此提出相應的管制措施。
人工智能;超級智能;人機交互;監管
人工智能在發展過程中,在不斷與傳統行業結合帶來巨大變革的同時,各種負面事件也顯露出來,大部分科學家認為還需數十年,才能達到人工智能的奇點。盡管如此,防患于未然仍是有必要的,但不管是DeepMind的“可中斷”理念還是IBM的信任透明原則,抑或是亞馬遜、谷歌、微軟、IBM等幾個硅谷人工智能巨頭公司發起的人工智能聯盟,都是企業在努力“規劃”安全的人工智能未來,而民眾、政府或者國際社會還沒有在其中找準自己的定位以及所扮演的角色。
人工智能Artificial Intelligence英文縮寫為AI,于1956年提出,源自雨果·德·加里斯的著作,字面意思就是人造的智能,“智能”一詞在中國最早由荀子提出,意味智慧和能力的總稱。如今,智能往往意味著一種運用知識本領在不同復雜環境下做出相應反應對策的能力,人的智能就體現在思考和理解反應的能力上。早在春秋戰國,聰明的古人就開始了對人工智能的向往和追求,列子在《列子·湯問》中記載的一位名叫偃師的工匠制作了一個能歌善舞還會思考具有獨立意識的人偶獻給周穆王,而這樣的故事層出不窮。
二十世紀初,數理邏輯和關于計算的新思想沖擊著智能界,不管是人工智能之父圖靈(Turing)在其基礎上創立的自動機理論還是麥卡洛克(McCulloch)和皮茨(Pitts)提出的“擬腦機器”,都在人工智能的萌芽時期為人工智能奠定了堅實的基礎。1956年被譽為機器學習之父的邁克爾·喬丹(Michael I. Jordan)在一次學會上正式提出了“人工智能(AI)”這一理念,而絕大多數參會的學者后來都成為了著名的人工智能專家,為以后的AI研究和發展做出了杰出貢獻。其后不管是六七十年代引起新一輪熱潮的“專家系統”還是八十年代霍普菲爾德(Hopfield)關于神經網絡模型的正式提出,都加速了人工智能的發展。而二十一世紀的現在,隨著人工智能三大學派——符號主義、連接主義、行為主義的誕生以及深度學習的引入和發展,人工智能將走向一條光明的康莊大道,古人的夢想也將在超越時代的科技幫助下得以實現。
然而,隨著人工智能的飛速發展,一些缺陷和隱患也逐漸顯現出來,人工智能將面臨與未來法律制度結合的困境,大數據的隱私保護、風險問題、擔保責任問題以及知識產權的歸屬都將使其進入兩難境地,這將給社會制度產生一定的影響。去年的AI換臉軟件“zao”刷爆了朋友圈,人們在換臉的同時殊不知不僅失去了自己的肖像權還將在未來面臨可能發生的權益紛爭,還有更早之前的AI軟件Deep Nude,種種不合時宜的人工智能出現在我們的視野里恰好說明其監管體系尚未成熟。不光如此,一旦人工智能發展成熟,罪犯就可以開發出各種相關系統為其服務。一套完備的語音合成系統、人臉合成系統,這之間牽涉的種種都給人類敲響了警鐘,人類還沒有做好接納人工智能的準備,也還沒學會對待和使用人工智能。
事實上2016年微軟推出的人工智能Tay就顯現出人工智能更深層次的憂患,它作為一個聊天機器人在僅僅在不到一天的時間里就變成了一個種族歧視者,這充分說明AI是趨勢工具,人可以創造AI卻不能保證它的發展不出現一絲偏差。如今的一些人工智能靠著機器學習深度學習來提升自我水平,由于神經網絡的布線和初始化的突觸權重都是隨機的,所以未經訓練的神經網絡的答案也是隨機的[1]。這些人工智能通過各種函數框架模型和邏輯回歸線性回歸等算法從海量樣本里進行特征的自動提取來建立神經網絡,然而樣本數據本身就反映人的主觀意識,人工智能無法辨別這些數據對其本身的形成過程是否有害或者是否違背了其作為創造者的初衷。使用者或研究者也無法確保人工智能在形成過程中只學習他們認為對的事物,并在正確的認知下對這些事物做出正確的反應。事實上正確與否都只是人類自己的評判標準,所以小說以及影視作品中不乏人工智能通過種種契機形成滅絕人類才能創造完美世界的潛意識,不知未來創造者是否真的能通過代碼程序將人工智能管控在阿西莫夫機器人三大條框之下。
現如今,人工智能逐步或者正在取代人類完成某些特定工作導致這些人員失業的現象似乎已經開始出現,牛津大學教授曾對超過700份的工作進行了分析,結果卻發現幾乎一半都能由現在或未來的計算機人工智能來完成,而其中不乏需要相當深度的知識及能力的高薪職業,換言之不管是低腦力還是高腦力的就業崗位,在可見的未來里都面臨著被人工智能取代的危險。
然而更大的危險是,人類自身也即將面臨被取代的窘境,隨著技術理論的不斷發展補足,憑借著不斷更新的傳輸介質以及持續發展的計算力,人工智能正在不斷逼近并將最終超越人類。人工智能設計之初是仿造人腦,通過像神經元一樣的物質傳輸信息,人腦神經元之間傳遞信號的最快速度約為100米/秒,而銅線中電信號的傳播速度大約為2.3*10^8米/秒,超過光速的一半,理論上如果有一個完全基于人腦的廣義人工智能,那么它的運行處理速度就已經是人腦的200萬倍[2]。
現如今的人工智能大多都只是某一領域內超越人類,不管是正式統治圍棋界的AlphaGo還是進化后從零開始僅用三天就以100:0將其碾壓的AlphaGo-Zero,它們都只能完成一個比較狹窄的目標,而通用人工智能的研究將會打破這一常理,進而觸發“智能爆炸”。早在上世紀六十年代,英國數學家谷德(I.J.Good)就提出并預言了“智能爆炸”,當一個超級智能機器可以設計出比它更出色的機器,那么帶來的將是“指數級”的“智能爆炸”。事實上五十年代,現代計算機之父馮諾依曼(John von Neumann)就曾說過,技術正以前所未有的速度增長,我們正在朝著某種類似奇點的方向發展,一旦超越了這個奇點,人類社會將會大不相同。而這個奇點就是“智能爆炸”。如果超級智能真的來臨,那么屆時它將以遠超人想象的智能凌駕于人類這一種族之上,而后果尚未可知。人腦中大腦新皮層所占比例是黑猩猩的兩倍,憑借著這份智力人類繁衍出70億人口并根據自己的意愿改造地球,而黑猩猩只剩30萬只,并且這個物種是否會滅絕幾乎完全取決于人類的行為,超級智能將比人類聰明幾個數量級,因此人類未來的命運,將會取決于超級智能的決策和行為[2]。
必須指出的是,想要人類放棄研究人工智能是不可能的,人工智能目前以及在可見的未來所帶來的紅利已經不是一兩句禁令就能抵消的,況且目前人類已經依賴很多人工智能系統,簡單粗暴的停止人工智能研究將導致人工智能無法應對未來多變的世界,但一直放任人工智能的發展將不利于未來社會的安定,因而想要確保人工智能的發展一直處于可控階段,合理有效的管制措施非常必要。
創造一個AI監管者,人類無法實時查看源代碼,實時調控手上的人工智能程序,況且成本可能會是個天文數字。這個監管者類似斷路器,代替人類作為人工智能活動的管理者,擁有判斷和中斷任何相關活動的權限。DeepMind作為前沿人工智能企業曾在2017年12月發布過一份研究報告,實現了監管者在中斷人工智能后繼續啟用程序不影響之前的工作,已經證實這在理論和技術上是可行的。因而國際上應該借此盡快建立一套強大的人工智能監管系統,通過建立神經網絡模型來實時監視被它管控的其他人工智能系統模型,當這些人工智能出現偏差或風險時及時報告并中斷它們的活動,使其得到有效控制,如期望般發展。
提高人為監管力度,建立相關組織及監管部門,國際或政府應建立人工智能方面的監管部門,對企業人工智能源代碼及對應表現進行定期監管,確保人工智能開發者在一個安全的環境內測試他們的設計并收集相關數據,定期查看AI監管者中斷報告來判斷項目風險等級。使用注意機制,專門設計神經網絡模型來復制和跟蹤其他人工智能模型的軌跡,便于監管機構能夠做出更加明智的審核決策,同時建立倫理審查委員會,對人工智能進行系統的安全和倫理評估。建立人工智能市場部門,對測試和量化方案進行制度化,保證人工智能按照既定的計算機算法運行,所有企業在研發使用之前都應備案批準,每年定期對相關企業進行核檢,同時在企業對應產品即將進入社會前進行詳盡的測試以及評估,規范審批流程,建立完善人工智能政府監督體系,確保人工智能從開發到投入使用每個環節都做到可控可追溯問責。
加大人工智能領域相關資源投入。如今世界各國高度重視人工智能的發展,美國將其上升到國家戰略層面并視為二十一世紀的阿波羅登月計劃,我國也在2017年正式印發《新一代人工智能發展規劃》,但我國目前還是強調技術與應用,對人力資源、教育、標準、數據環境方面還是不夠重視。政府應該加大投入,構建利于研究的環境基礎,制定人工智能相關人才的教育和培訓計劃,同時確定知識產權的歸屬,積極推動有關措施的落實,培養并管理一大批未來的人工智能領域基礎層人才及高端研發人才,從源頭上規范人工智能的開發。
制定完善相關行業規范標準和指導方針,人工智能界應該確定相關共識,當人工智能出現進化的趨勢或者給出相關的警告時,各國相應的研究應該放緩。同時國際人工智能聯合會議應制定相關準則,建立行業規范標準,同時為人工智能研發和審查人員制定倫理守則,發布倫理標準,不斷更新和完善阿西洛馬人工智能原則,呼吁督促全世界在研發人工智能的同時恪守這些原則。同時還應該限制人工智能的運用,避免人工智能的濫用,規定企業及個人相關的權限許可限制,與其他國際組織如公共交通國際聯會、國際勞工組織等展開相關合作,共同制定最高準則,避免各國各企業研究院研發的人工智能與傳統行業無限制的結合發展。
圖1 人工智能政府治理監管體系粗略模型
制定完善相關法律制度,形成人工智能法律體系,現如今人類和人工智能之間復雜的關系、未來可能會打響的法律戰以及政策與倫理問題正接踵而來,人工智能對當前的倫理道德標準、法律制度、社會秩序和意識形態差異提出了不可避免的挑戰,必須用科學的方法處理人工智能所產生的問題,將人工智能限制在法律道德層面,以確保人工智能的規范化發展。國家應該積極出臺相關法律,規定人工智能事故的相關判斷標準及運用人工智能犯罪的相關處罰條例。建立責任擔保歸屬制度和安全責任體系,規定企業必須提供相關安全信息,建立詳細的問責條例,同時人們必須積極了解,學會正確看待和對待人工智能,積極運用法律來面對未來可能發生的糾紛,并且知法守法。
圖2 人工智能社會治理監督體系模型
面對即將到來的人工智能時代,不管是國際政府、市場還是普羅大眾都應該在其中找準自己的定位、各司其職。作為社會穩定的必要因素,政府應該牢牢把控人工智能的發展方向,確立一系列的標準和規范來保證社會的穩定和安全。而作為研發人工智能的科技企業,應該主動承擔相應的社會責任,自我監督,恪守政府的相關規定和原則,同行之間形成監督,并按照倫理道德的標準進行自我約束。最后,作為社會的基層,普羅大眾應該做好監督人,積極參與規則的制定與協商,積極投身于人工智能的研發及監管,最終形成人工智能自上而下多角度多主體的治理監督體系。
縱觀歷史,每個時代都會有新技術新事物的產生和發展,石器時代、火藥時代、蒸汽時代、電氣時代等等,還有如今的信息時代包括未來的人工智能時代,每項技術變革都會經歷一個甚至多個時代的研究發展和管控。事實上美國人工智能協會已經開始評估關于“人類失去對計算機智能的掌控”的可能性,人工智能作為一個不算新穎的新鮮事物,逐步的“管控”確實應當提上日程。但人類不必因此過于擔心。1950年圖靈發表了一篇論文提出了圖靈測試預言到2000年將有足夠聰明的機器通過該測試,但直到2014年才有一臺英國的超級計算機機緣巧合之下通過了,而這比圖靈預測的足足晚了14年,可見對于一日千里的計算機技術,人工智能的發展并沒有像預期的那樣取得突飛猛進的效果[3],事實上人工智能只是一種形式化的方法,它是在嚴格遵守某種規則下的“思維”,固然其執行的速度比人類智能的速度更快,但是人類思維是多樣化的,有形象思維、直覺思維、創造性思維等非邏輯思維方法,這些都是目前人工智能所不及的,也許在可見的未來,人工智能真的可能發展到這一步,但人類非常善于制定與時俱進的規則,他們通過錯綜復雜的法律規則和不成文的道德規范建立起了這個有著七十億龐大人口的社會,盡管這個社會里依然存在著沖突和反抗,但不可否認這個社會體系正如日中天的發展進化著,我們擁有著遠超任何時代的科技和成就,而在不久的未來,我們有理由相信通過建立不斷更新的規則來約束將帶來劃時代革命的人工智能,能使其像蒸汽電力甚至核能一樣可控地給人類社會提供巨大的助力,去迎接下個時代的輝煌。
[1]Ray Kurzweil.The Singularity Is Near:When Humans Transcend Biology [M].李慶陳,董振華.北京:機械工業出版社,2016:162
[2]Calum Chace.Surviving AI:The promise and peril of artificial intelligence[M].張堯然.北京:機械工業出版社,2017:112-114
[3]周志敏,紀愛華.人工智能:改變未來的顛覆性技術[M].北京:人民郵電出版社,2017:37