劉自英
摘??要:?人工智能作為當今最具前瞻性的高新科學技術,發展遍及社會生活的各個領域,同時也受到社會各界的關注。人工智能為我們的生活提供極大的便捷,人類似乎渴求一個全人工智能時代的到來,準備投入其懷抱。但科學技術的發展從來都是一把雙刃劍,我們在享受其便利的同時也應該著眼于人工智能所引發的諸多社會風險,并且考量與分析其可能存在的潛在新風險。人工智能引發的社會風險無外乎可以從人工智能的制造與應用方面來考慮,分析其帶來的社會風險,并從相應方面提出規避風險的可能路徑。
關鍵詞?:人工智能;社會風險;風險規避;可能路徑
一、?人工智能
人工智能簡稱AI,從科學的角度來看,人工智能是研究、開發用于模擬、延伸和擴展人的智能的理論、方法、技術應用系統的一門科學。[1]1956年美國的達特茅斯會議中約翰·麥卡錫首次提出了?“人工智能”這個術語,標志著“人工智能”概念的誕生,在此后人工智能浪潮不斷發展。從“機器學習”到“深度學習”技術鴻溝的跨越,人工智能在一段時間內獲得長足性和突破性的發展。人工智能在影響著這個時代,也在改變著這個時代。人工智能在數據挖掘、計算機視覺、專家系統等方面的發展,為企業帶來了經濟效益,為大眾帶來了舒適的生活,為國家帶來科技的革新,深刻的影響著人類社會的發展。然而,我們享受著人工智能的便捷也不能忽視其帶來的負面影響。人工智能對人類主體地位的沖擊,對社會倫理的挑戰等諸多風險都是我們必須要思考和解決的問題。
二、?人工智能時代的社會風險思考的必要性
在現階段下的人工智能給我們生活帶來了便捷,其負面影響是不可忽視的。研發不透明的黑箱操作,算法主觀性帶來的倫理問題,一些行業失業等問題,從現實意義上,我們必須對其產生的社會風險加以分析并提出應對措施。在人工智能發展過程中,人工智能是否超過人類智力即奇點是否會出現,一直是學界談論的熱點。奇點是否會出現?奇點出現后的人類社會又會面臨什么樣的風險,人工智能技術發展可能性決定了我們必須去思考其潛在的風險。所以無論從人工智能的現實性還是可能性來看,關于人工智能時代的社會風險思考都有其必要性。
一、人工智能時代社會風險思考的現實性
人工智能研發是不透明的,人工智能的研發“虛擬化”和研發過程的“黑箱效應”環境,很容易脫離監管而引發失控。同時由于人工智技術研發的特點,研發過程的隱秘性與技術的保密性極易誘發壟斷現象。若掌握了人工智能技術核心優勢,壟斷陰云是極易可能出現的。人工智能技術壟斷的陰云一方面會帶來技術人才的斷層,同時也會加大數字鴻溝。而人工智能技術存在的算法主觀性與算法偏差更是誘發社會風險的重要來源。比如谷歌推出的機器人誤把兩名黑人標注為“大猩猩”,微軟公司推出的聊天機器人,在發布24小時內,就成為一個集反猶太人、性別歧視、種族歧視于一身的“不良少女”。[2]在現目前的發展階段來說,人工智能已經逐步取代大量依靠人力的工作,在一些行業已經實現了自動化,同時人工智能也進軍了服務行業。在服務行業,國內的無人酒店與無人超市也已出現,海底撈機器人全程送菜服務。繁重或者危險及簡單重復的工作由機器人所替代,縱然人工智能的操控離不開人,但從管理與操控的工作要求來看,勞動力需求量并不高。這一大批依靠勞力的工作者將何去何從?從現實意義上,我們都必須對其產生的社會風險加以深度思考與分析并提出可行的應對措施,促進人工智能健康有序的發展。
二、人工智能時代社會風險思考的可能性
從現實層面上,人工智能已經帶來的問題我們必須去面對,與此同時隨著人工智能的繼續發展,我們也不得不去思考其潛在的風險。其潛在風險的思考主要在于對奇點的預判。美國未來學家、人工智能先驅雷·庫茲韋爾在《奇點臨近》一書中大膽預言,21世紀50年代左右,奇點會來臨,人工智能將超越人類智力。1983年數學家弗諾·文奇,他認為奇點來臨后,世界的發展將會脫離人類世界的掌控。人工智能超越人類智力這一天是否會到來,人類又會面臨什么樣的風險?盡管諸如此類的問題我們沒法預判。但是從人工智能的發展來看,人工智能對人類思維的模擬只會走向更精細化、更精密化。對人類社會的發展來說是機遇與挑戰并存。而那就意味著我們對人工智能社會風險的研究必須引起重視,必須深入。
對于人工智能的風險研究我們既要解決好當下的風險,又要有防范未來風險的正確進路。
三、?人工智能時代的社會風險思考的重要性
人工智能時代的社會風險思考是從人工智能的現實性與可能性,實踐性與理論性層面出發,對其社會風險進行剖析與研究。通過對風險的思考,提出解決風險的治理措施。在理論意義上,豐富了人工智能社會風險研究的內容,在實踐層面上,促進人工智能的有序發展,造福人類。人文社會科學研究本來就應該超越自然科學的發展,哲學的預見性,在社會風險還未轉變成社會危機時,我們就應該做好充分的相關準備。
四、?人工智能時代的社會風險分析
關于人工智能時代的社會風險研究視角是豐富的。社會風險治理專家唐鈞從技術、社會、治理三個視角分析所產生的社會風險并提出應對措施。馬長山在分析人工智能的本質上結合法律的視角,提出人工智能引發的五個風險--倫理、極化、異化、規則、責任風險,并從法律層面給出詳細的應對措施。也有學者從風險的危害程度視角做出研究。吳漢東則是從人工智能社會風險的特征提出人工智能時代的冷思考,宏觀提出人工智能存在的四個問題---法律、倫理、社會、監管。
結合以上研究成果,人工智能時代社會風險可以從兩個方面來分析,無外乎在于兩個關鍵點,一為制造方面,二為應用方面。從制造方面來看,一是技術的不完善帶來風險,如日本曾經發生過工業機器人在生產過程中將工人放入沖壓機之下碾死的慘痛事例。技術制造本身的缺陷而導致風險的產生。二是研發人員的主觀性造成的風險,也就是人工智能算法主觀性和算法偏差,由于在制造過程中,研發人員的主動裁量權很大。研發人員可能存在種族歧視、性別偏見、宗教偏好、極端價值觀等主觀偏差,代入研發后算法將出現失誤,導致預測不準確、甚至決策不公正等社會問題。同時研發人員的道德倫理底線原則無法兜底,研發人員可能研發出殺人武器甚至反社會反人類的人工智能,進而引發社會倫理和社會安全問題。三是研發技術的壟斷,而造成的數字鴻溝,兩端極化的的風險。從應用方面來看,社會風險則會涉及到更多的方面,人的主體地位的沖擊、社會安全、倫理的風險等等。人工智能的社會風險可以從制造端和應用方面分析,二者也是沒法割裂的。綜合制造方面和應用方面的分析,人工智能時代的社會風險可以分為社會主體的缺失、社會安全、社會倫理、進而引發社會治理的困境。