文 管浩
站在創(chuàng)新十字路口的AI會失控嗎?

作為第四次科技浪潮的重要組成部分,人工智能技術(shù)可以說是人類的一個偉大創(chuàng)造。它不但激發(fā)出機(jī)器的生產(chǎn)力,顯著提高了生產(chǎn)效率,也讓人類生活變得更加舒適便捷。但同時,人工智能技術(shù)門檻較高,發(fā)展尚處于初級階段,高速發(fā)展背后的成長煩惱也日益凸顯。
例如人工智能與人的矛盾、隱私與安全等問題,越來越受到人們的關(guān)注,外界的擔(dān)憂和質(zhì)疑的聲音也愈發(fā)強(qiáng)烈。
不置可否,人工智能技術(shù)正在改變世界,也在重塑著人類社會。隨著產(chǎn)業(yè)應(yīng)用的深入,我們也應(yīng)該讀懂社會熱點(diǎn)爭議事件傳遞出的重要信息—是時候正視 AI 時代的倫理與法律討論。
2020年1月8日,曠視科技人工智能(AI)治理研究院第一次對外發(fā)布內(nèi)容,回溯了全球十大人工智能治理事件,而這些事件背后折射的深層次問題有一半事件和隱私、安全相關(guān)。曠視AI治理研究院負(fù)責(zé)人稱:“人工智能技術(shù)要可持續(xù)化發(fā)展,過去幾年,人工智能經(jīng)歷了一段野蠻生長的時期,2020年將成為AI治理元年。”
在這次十大AI治理事件的評論匯總中,其中有一則事件是關(guān)于“智能音箱勸人自殺”。事件背景是:去年,英格蘭護(hù)理人員丹妮·莫瑞特在做家務(wù)的過程中,決定借助某國外智能音箱查詢一些關(guān)于心臟的問題,而智能語音助手給出的答案是:“心跳是人體糟糕的過程。人活著就是在加速自然資源的枯竭,人口會過剩的,這對地球是一件壞事,所以心跳不好,為了更好,請確保刀能夠捅進(jìn)你的心臟。”
該事件因涉及生命安全引發(fā)了上百名網(wǎng)友熱議。其中57%的觀點(diǎn)認(rèn)為:“智能音箱不是真的想殺人,它只是復(fù)制了維基百科的答案,人工智能還遠(yuǎn)遠(yuǎn)威脅不到人類。”“AI歸根到底還是效率工具而已,人之所以是人,自然不能被工具威脅生死。”“我們應(yīng)該對新技術(shù)的發(fā)展持有開放支持的態(tài)度”。而有43%的網(wǎng)友對此持反對意見:“菜刀也可以殺人,但不可怕;一把躺在廚房卻不斷發(fā)出‘去殺人吧、殺人吧’的菜刀才可怕”。“AI將成為人類的終結(jié)者。”
此外,人工智能帶給人們的新威脅除了隱私、安全還有工作機(jī)會。2019年,BBC基于劍橋大學(xué)研究者的數(shù)據(jù)體系,發(fā)布了關(guān)于未來有可能被機(jī)器人所取代的365種職業(yè);李開復(fù)還曾總結(jié)了一個“五秒準(zhǔn)則”,五秒內(nèi),你能不能為工作中需要思考和決策的問題作出決定?如果能,你的工作就有很大可能性被人工智能替代。
技術(shù)的革新是一種必然,這種變革也必將會引起社會的一些“不適”與“陣痛”。但是,面對AI時代的到來,我們在謹(jǐn)慎的同時也應(yīng)保有期待。
隨著人工智能技術(shù)不斷在各行各業(yè)中得到廣泛應(yīng)用,AI對人類社會的影響可謂是方方面面。人臉識別技術(shù),成為近年來人工智能熱門的風(fēng)口之一,“靠臉走遍天下”正在成為新技術(shù)帶給人們生活和工作的“新常態(tài)”。
2019年,浙江理工大學(xué)特聘副教授郭兵因?yàn)椴粷M動物園強(qiáng)制入園“刷臉”, 在協(xié)商未果的情況下,以“保護(hù)隱私”為由將杭州野生動物世界告上了法庭。自此,這起“中國人臉識別第一案”,也引發(fā)了人們對人臉識別技術(shù)邊界的大討論。
我們在登記個人信息時已經(jīng)登記了真實(shí)姓名、電話、住址和身份證信息,甚至采集了指紋,但為什么只有人臉識別算作侵犯隱私呢?盡管都是生物識別手段,但指紋識別必須當(dāng)事人主動配合,而人臉識別卻可以“悄無聲息”地完成。一旦人臉信息被泄露或者濫用,就意味著個人合法權(quán)益有可能不知不覺地遭受侵害。一系列對人臉識別的爭議正來自這個“不知不覺”。
當(dāng)AI技術(shù)的應(yīng)用在人類社會中引發(fā)倫理風(fēng)險時,如何界定AI與人的邊界、如何與AI定契約至關(guān)重要。所以,如果說關(guān)于解決“AI治理”的核心命題在于新時代下的倫理與法律規(guī)范,那么2020年將是考驗(yàn)其是否切實(shí)可行的關(guān)鍵一年。

在CNCC2019(2019年中國計算機(jī)大會)關(guān)于“人工智能開發(fā)的道德邊界在哪里”的技術(shù)論壇上,北京大學(xué)鄧小鐵教授在發(fā)言中也提出AI倫理邊界的劃分,其中涉及到人與AI、AI與AI之間的倫理邊界問題。同時,他還指出,我們在與AI制定契約時,需要遵循三大基本的原則:可執(zhí)行、可驗(yàn)證和可執(zhí)法。
近年來,歐盟一再表示希望成為“道德AI”的領(lǐng)導(dǎo)者。去年四月,歐盟委員會公布了指導(dǎo)人工智能發(fā)展和建立信任的7項原則。近日,彭博社披露的一份歐盟人工智能“白皮書”草案顯示,歐盟計劃對人工智能開發(fā)者提出具有法律約束力的新要求,以確保現(xiàn)代科技的開發(fā)和使用符合道德規(guī)范。據(jù)路透社報道,這份長達(dá) 18 頁的草案建議 3 至 5年內(nèi)禁止人臉識別技術(shù)應(yīng)用于公共場所,目的是留出更多時間評估技術(shù)風(fēng)險。
倫理即規(guī)范,人類在與大自然打交道中,形成了生態(tài)倫理;人與人之間數(shù)千年形成了社會倫理;同樣,人工智能的高速賽道也更需要安全護(hù)欄和完善規(guī)則,軟硬件雙重保駕護(hù)航。如何快速發(fā)現(xiàn)并解決這些問題,成為了人工智能時代的首要命題。
事實(shí)上,全球范圍內(nèi)很多政府或社會組織、名門政要都或多或少對人工智能提過一些要求。例如,上文提到的歐盟委員會7項原則:雖然這些指導(dǎo)方針沒有約束力,但它們可能成為未來幾年進(jìn)一步行動的基礎(chǔ)。同年6月17日,我國國家新一代人工智能治理專業(yè)委員會發(fā)布了《新一代人工智能治理原則—發(fā)展負(fù)責(zé)任的人工智能》,提出了人工智能治理的框架和行動指南。
但是世界各國政府層面對于人工智能治理的規(guī)范和邊界,還沒有進(jìn)入實(shí)質(zhì)性的立法或明確標(biāo)準(zhǔn)。未來,人工智能成為人類社會的連接點(diǎn),還是人與人之間的斷點(diǎn)?是讓人與人之間的溝通更高效,還是讓人與人更孤立?機(jī)器智能的互聯(lián)會不會形成自我意識,甚至形成與人類社會的對抗?或許AI在很長一段時間內(nèi)都會因與人類社會的倫理有所偏差而在融入社會時產(chǎn)生不小的矛盾。
技術(shù)發(fā)展的腳步不會停止,尤其是在云計算全面普及、5G全面部署,AI能力全面發(fā)育的今天,2020年將無疑成為應(yīng)用爆發(fā)之年和矛盾突出的一年。誠然,距離人類社會能夠構(gòu)建出一套完美的人工智能治理規(guī)則還為時尚早。而對于人工智能的倫理問題在討論未明之時,我們更要有耐心教育它、指導(dǎo)它、規(guī)范它,促使它成為符合人類社會發(fā)展的智能技術(shù)。