張文杰
(蘇州大學政治與公共管理學院,蘇州 215123)
著名社會學家烏爾里希貝殼認為現代性是社會風險的根源,并且認為當今社會最大的風險是技術風險[1]。吉登斯進一步提出風險社會中最主要的風險不是自然風險而是人為制造的風險[2]。現代化和人為制造的風險是風險社會最為根本的特征。人工智能技術是一門綜合性很強的學科,其研究和應用的領域也非常的廣泛,以往的學者大多都關注人工智能的發展和所遇到的一些困境,大多數文獻從技術或實踐層面上去剖析,而沒有從風險社會這個背景去切入人工智能技術所產生的風險,因此,我們可以把研究的思路轉向風險社會下的人工智能技術風險。
人工智能技術風險一直存在。我們在研發一項關于人工智能的產品的同時,有些科學家就預測到人工智能的發展會存在一定的社會風險。如Uber自動駕駛汽車致死案例[3],雖然從表面上看,自動駕駛車輛會大大改變人們日常出行的方式,其初衷也是減少駕駛的車禍風險,但是由于人工智能技術設計還不夠完善,存在一定的缺陷,從而導致悲劇的發生,所以說人工智能技術本身在設計和運行的時候就存在一定的社會風險。
概括來說,人工智能技術風險的特征主要表現在以下幾個方面,第一,人工智能技術風險的廣泛性,人工智能技術和別的技術領域聯系密切,任何一項技術都存在一定的風險,人工智能技術與別的技術緊密結合就會產生更廣泛、更具有影響的風險。第二,人工智能技術風險的多樣性,人類借助人工智能技術來改變自然和社會的過程中,使得風險的表現形式更加多樣化,涉及政治、經濟、文化和環境等諸多領域。第三,人工智能技術風險的不確定性,目前人工智能的發展遇到很大的瓶頸和問題,以現有的技術很難把握未來人工智能的走向,有很多人為的干擾和環境的影響導致風險的不確定性,最終實現真正意義上的人工智能還很難確定。
失業問題。在智能機器沒有普及之前,大部分工作都需要工人通過雙手去操作,很少依靠機器去運作。但是隨著智能機器的普及和運用,未來的很多工作將被人工智能機器所替代,人工智能越發展,人類擁有的工作機會也會相應減少,一方面社會分工不合理,另一方面貧富懸殊越來越大,只有極少數高端的技術精英才能真正掌握人工智能技術,而絕大部分人不太了解甚至不適應人工智能所派生出的新的崗位,這樣就會導致大量的工人失業。
公共安全性問題。人工智能技術的風險可能會嚴重的公共安全。科學家設計人工智能的目的是更好地為人類服務,更好地維護公共的安全,但是由于人工智能技術的不確定性和人為因素的干擾,給了不法分子可乘之機,如有些恐怖分子經常在公共場合進行恐怖襲擊,他們完全可以利用人工智能技術來實現他們的目標;還有一些網絡黑客精通人工智能的一些高端技術,在公共場合發表一些威脅論或者制造一些網絡病毒,對公眾的社會生活造成嚴重影響,侵犯公眾的隱私,盜取公眾的密碼,這些都是比較嚴重的公共安全性問題。
生命不平等問題。隨著人工智能技術的發展,會導致生命上的不平等。隨著現代醫療水平的不斷提高,人類的壽命也相應延長,如器官移植、基因工程以及納米技術的突破從理論上都可以讓人的壽命延長。有技術專家認為人與機器人相互結合所形成的賽博格是極為可怕的,人類本來可以用生物技術制造出新的器官,用新的器官可以延緩人的衰老,但人與機器的結合體所產生的費用非常的貴,絕大部分人都沒有資格享用,只有極其富裕的人才能用,因而富人的壽命相比絕大部分人長一些,這樣就會導致生命的不平等。
在分析了人工智能技術風險的后果之后,我們有必要對人工智能技術進行風險原因分析。
技術理性與社會理性的斷裂。通常理性包含了技術理性和社會理性,現代社會的發展不僅需要技術理性支撐,更需要社會理性去維護。而現代社會技術發展的很大一個問題就是技術的異化,技術的異化指原本人類利用技術去實現自己的目的,到后來反被技術所控制和掌握。出現這樣的原因是技術理性和社會理性的斷裂。這種斷裂當然也體現在人工智能技術對人本身的危害,其中折射出人工智能技術人員人文精神的缺失[4]。貝克曾說過沒有社會理性的科學理性是空洞的,但沒有科學理性的社會理性是盲目的。人工智能技術人員通常考慮技術的現實實踐層面,缺乏對技術本身的人文思考,最終導致的結果就是加劇人工智能技術風險。
社會群體對風險認知的影響。不同的社會群體對風險的感知能力是不一樣的,公眾對人工智能的風險往往憑借自己的主觀判斷,因此,其并不了解人工智能技術的風險,往往對人工智能技術的風險感到恐慌,加上自己對人工智能風險的主觀意識以及媒體和外界人士的評論,由此產生了恐懼的心理,公眾對人工智能技術風險的感知也會影響到公眾對風險的判斷和風險專家制定預防風險的政策。同樣,專家也會受到自己主觀意識的影響,也有有認知偏差,而這種認知偏差就會產生嚴重的風險。
法律制度的不完善。人工智能技術專家在設計人工智能的時候很少考慮相關制度的實施。人工智能在社會實踐的應用需要相關法律制度的保障,如果沒有健全的法律制度,那么人工智能技術所產生的風險問題就會越來越大。雖然國外出臺了一些相關的法律制度來降低人工智能技術所帶來的風險,但是當下的法律制度還不及人工智能技術的發展速度。
加強技術與文化的溝通。首先,人工智能專家在實施一項科技政策的時候,要聽取不同領域人員的意見和建議,如人文工作者在實施科技政策之前就可以對技術提前進行分析,其次可以向技術人員灌輸一些人工智能技術人文方面的知識,增強他們對技術的人文思考,這樣從某種程度上可以規避一些技術的負面效應,讓人工智能技術與文化有效融合和溝通,從而從某種程度上避免一些不必要的風險。
提高風險認知水平。由于當前公眾對人工智能風險的認知水平有限,對風險的預測不太準確,甚至有些夸張,因此,需要通過一些方式來提高風險的認知水平。首先,要大力宣揚關于人工智能技術的一些科學知識,讓公眾多了解和掌握,從而降低對風險的恐懼。其次,通過心理的疏導和積極的正向引導,克服公眾的負面情緒,讓公眾也能夠主動參與進來,通過一段時間的積累就會逐漸提高對風險的認知水平。
完善相關法律法規。立法一直是治理國家秩序、進行風險管理的最佳途徑,沒有完善的法律法規,任何一項技術的實施都會出現問題。當今社會,盡管國內外出臺了一些關于人工智能的相關法案,但是當下的法律法規還是跟不上人工智能的發展速度。因此,現在的相關法律法規還不能有效解決人工智能技術的一些風險,由于人工智能技術風險的廣泛性和不確定性,需要不斷完善法律法規,提前做好風險的預防工作,積極有效地應對人工智能技術風險。