李華晶

機器倫理并不是新鮮話題,而且從一開始就確定了善的本性。在標志人工智能誕生的1956年達特茅斯會議之前的1942年,美國作家艾薩克·阿西莫夫就在其短篇科幻小說《環舞》中提出了具有倫理屬性的機器人三定律:第一,機器人不得傷害人類,或者不能無視受到傷害的人類;第二,在不違背第一定律前提下,機器人必須服從人類命令;第三,在不違背第一與第二定律前提下,機器人有義務自我保護。
這三個定律雖然來自近80年前的科幻作家,卻一直伴隨并深刻影響著人工智能技術的發展,就像懸在空中的“達摩克利斯之劍”,時刻警示著人們防止人工智能像罌粟花一樣美麗綻放之后結出惡果。
1950年,阿蘭·圖靈發表的論文《計算機器和智能》被視為人工智能的先聲。其實,這篇發表在英國哲學雜志《心智》上的論文也是哲學史上的經典之作,不僅展示了人工智能技術的發展方向,同時也提醒了人工智能對人類的可能威脅。標志人工智能緣起的1956年達特茅斯會議成員馬文·明斯基,被稱為人工智能之父。他在2012年接受他的學生、奇點理論提出者雷·庫茲維爾的采訪時說,他相信奇點的到來,機器智能超越人腦可能就在我們的有生之年。霍金生前也多次警告“人工智能在并不遙遠的未來可能會成為一個真正的危險”。
雖然現在尚無法確定人工智能是好是壞的唯一答案,但可以確定的是人工智能應當性本善。人類要盡全力確保人工智能發展對于人類和環境有益,尤其在人工智能再次爆發的今天,人工智能性本善應當受到關注和重申。《自然》雜志在2019年4月一篇評論文章提出:我們有義務搞懂我們所創造出來的技術,人工智能應當負責任。文章兩位作者之一是大腦研究科學家,他認為由于人工智能驅動的機器越來越多參與到社會互動中,理解人工智能行為有助于我們控制它們并從中獲得利益,而且將危害降到最低;另一位作者是經濟學家,他倡導人工智能研究除了計算機科學還應納入與社會、經濟、文化等密切相關的科學,并特別提到每當一家公司在使用人工智能算法開展活動時,比如改變新聞推送方式或向用戶提出添加好友建議時,都存在一個倫理道德的立場。
更為重要的是,人工智能倫理有其復雜性和獨特性。歷史上圍繞創新技術的倫理討論并不鮮見,比如炸藥和克隆技術在推動社會進步的同時也會帶來倫理問題。但是,相比較而言,人工智能這把“雙刃劍”更加鋒利和迅捷,一面是能為人類生活帶來顛覆創新的強大“建設性”,另一面卻是可能替代甚至摧毀人類的巨大“破壞性”。借用特斯拉CEO埃隆·馬斯克的判斷,人工智能是人類在不知不覺中創造的“不朽獨裁者”。這形象反映出人工智能倫理相較于其他技術倫理的差異:不是針對人與人的關系、人與自然的關系,而是解決人與自己創造出的機器之間的關系。這個類人甚至超人的機器,社會互動性和行為能動性更強,不少人提出要給予人工智能法律主體身份來對其進行規制。
從善如流對人類而言并非自然而然,那么,人工智能倫理也容易口惠而實不至。哲學家羅素認為,“在一切道德品質之中,善良的本性在世界上是最需要的”。“最需要”往往意味著“最稀缺”。耶魯大學心理學教授保羅·布魯姆在多年實驗研究的基礎上發現,每個人內心都活著一個苛刻的“道德家”,成為一個好人不容易。同樣,如何讓具有很強溢出帶動性“頭雁效應”的人工智能成為好人、做出好事,非常必要但也極具挑戰。
一則典型案例是2019年4月的巴黎圣母院大火。谷歌旗下視頻服務公司YouTube為了遏制虛假新聞在自己網站上傳播,自2018年開始在新聞視頻中加入指向維基百科和百科全書條目的鏈接,這原本是件“好事情”。但是,2019年4月巴黎圣母院大火后,YouTube卻在關于大火的一個直播視頻下自動關聯了9·11恐怖襲擊事件鏈接,這就意味著網友在瀏覽巴黎圣母院大火直播報道時,會被推薦關注大英百科全書的9·11事件詞條。這一關聯立即引發了網友強烈不滿,甚至被批評為混淆視聽和制造陰謀,這可真是件“壞事情”。
如何判斷“好事情”與“壞事情”,對人對機器都是件難事情。來看看倫理學領域著名的思想實驗之一“電車難題”。這個實驗大致內容是:一輛有軌電車正朝五個人駛去,挽救這些生命的唯一方法,就是控制開關讓電車駛向另一條軌道,但這樣做則會碾壓另一條軌道上的一個人。在這種場景下,你會選擇打開開關、換一條軌道嗎?隨著無人駕駛汽車日益普及,特別是一些無人駕駛車禍事故的發生,“電車難題”成為保證無人駕駛安全性甚至人工智能倫理必須要思考的問題。
麻省理工學院參考“電車難題”設計了“用戶應該撞向路人還是撞向障礙物(乘客會遇難)”等場景,在2016年啟動了一個名為道德機器(The Moral Machine)的在線測試項目,收集整理公眾的道德決策數據,并在2018年10月的《自然》雜志發表了他們的研究發現。研究人員對九個不同的因素進行了測試,其中包括用戶更傾向撞到男性還是女性,選擇拯救多數人還是少數人,犧牲年輕人還是老人,普通行人還是橫穿馬路的行人,甚至還會在地位低和地位高的人之間做出選擇。來自233個國家和地區的數百萬用戶共計4,000萬個道德決策的數據反映出一些較具一致性的全球偏好(global preference):更傾向于拯救人類而不是動物、拯救多數人犧牲少數人、優先拯救兒童。
不過,思想實驗的結果落到具體現實中,又有了不一樣的表現。雖然上述研究表明,測試者傾向于拯救多數人犧牲少數人,但是,在少數人是自己的孩子、多數人是陌生人的場景下,不少測試者會選擇放棄讓電車轉向(犧牲多數人),而去保護自己的孩子(拯救少數人)。奔馳公司面對這個難題也曾給出正面回應:奔馳的下一代無人駕駛車“會優先保證車上乘客的安全。如果有可能拯救生命,那么一定要先救車上的乘客。”但這樣的表態,又引發了新的爭論。
因此,當前人工智能倫理決策標準難以統一,甚至也不應該整齊劃一。德國聯邦交通運輸和數字基礎設施部門的道德委員會,在2017年聯合科學家和法律專家提出了約20條無人駕駛規則。比如:無人駕駛汽車應當首先考慮保護人類的生命,即便這樣做會傷害動物或損失財產;如果發生意外是不可避免的,無人駕駛車不能選擇去救誰,不應該就年齡、性別、種族、殘疾等做出決定,所有人類生命都是平等的。而且,他們承諾要通過某種方式強制執行這些規則。但是,美國交通部在這方面卻有著不太一樣的態度,比如提出每年發布的指南是自愿性而非強制性,主張針對人工智能這一尚在迅速發展的新生事物,首要行動是消除不必要的障礙,靈活變通和技術中立的政策比規定具體的技術解決方案更能保障并改善安全。
由上可見,人工智能倫理決策不是非黑即白、非此即彼的。那么,誰來掌控這個方向呢?目光聚焦在人身上。還是以德國為例,雖然德國聯邦參議院已經通過法律,允許汽車自動駕駛系統未來在特定條件下代替人類駕駛,但明確要求駕駛人必須坐在方向盤后。這就形象說明了,讓如電車般飛速疾駛的人工智能做善事,關鍵還得回歸技術背后的人,“電車難題”實質上也是“電車人的難題”,而這些人不只有司機。
人工智能倫理主體涉及方方面面,首當其沖的是引領人工智能技術發展的三駕馬車——算法、算力和算料背后的人。他們如何不犯錯誤、驅動人工智能積極向善呢?
算法倫理:腦力向善。人工智能算法的標志是深度學習,與人工神經網絡密不可分,是人工智能煥發生命力量的來源。前文YouTube的例子,就是因為算法出了問題,公司已經承認“這些面板是通過算法觸發的,有時會犯錯。”不過,依賴頂尖科學家來完善道德算法以解決人工智能倫理問題也潛藏巨大風險。紐約大學AI Now研究所2019年4月發布報告警告:人工智能領域教授中的女性和有色人種比例嚴重不足,白人男性編碼人員過多就可能帶來潛在的無意識偏見。為此,該研究所建議企業能夠發布更多按照種族和性別劃分的補償數據,來規避“多樣化危機”。
算力倫理:心力向善。人工智能的算力以芯片為標志,具有專用架構,應用在云端和終端不同場景,是實現算法的載體。比如 AlphaGO需要1920個CPU和280個GPU才能完成計算。算力看上去貌似是不好不壞的穩定中間派,實際上,作為支撐算法的效率加速器,當人工智能倫理方向出了問題,算力水平越高,則帶來的危害越大。這就不難理解為什么很多人會把“芯”片解讀為“心”片,算法背后的人解決人工智能的大腦問題,算力背后的人需要關注人工智能的心問題。有人用“拔電源”來比喻阻止人工智能做壞事的途徑,好比讓心臟停止跳動,形象說明了從算力層面解決倫理問題的做法。

算料倫理:動力向善。人工智能的算料就是海量數據,沒有數據就沒有人工智能發展的土壤。引爆這次人工智能熱潮的關鍵因素之一,是大數據應用發展最后一公里的打通。這些海量數據背后的人就是用戶,進一步來說,算料加工存在道德問題的“始作俑者”可能就是提供原材料的用戶自身。人工智能依據大數據形成用戶畫像、了解消費習慣,進而可以進行精準溢價。比如,大數據“殺熟”。很多人在不知情的情況下為人工智能添油加料,然后被這個“最懂我的人”傷得最深。但是,用戶愿意或者能夠做到不把數據甚至隱私數據“喂給”人工智能嗎?
因此,人工智能算法、算力、算料背后的程序員、科學家、工程師和消費者,都是影響人工智能倫理的重要主體,但也難以獨當一面。比如科技界的億萬富翁、eBay公司曾經的創始人,在2018年成立了總部位于倫敦的組織Luminate,通過設立基金來讓公眾更好認識人工智能帶來的危害,確保人工智能能夠維護公平、人類自治和正義的社會價值觀。關于為何進行這項公益事業,Luminate的首席執行官表示:“這是一個新生的領域,我們發現,人工智能是由那些不關心道德后果的程序員開發出來的。”
這樣的評價有失偏頗,但也反映出,為人工智能倫理定方向和節奏,需要整合多主體的力量以使眾人不跑偏。而擁有并擅長整合之道的,非創業者莫屬。
創業是高度平衡的藝術,創業的關鍵要素(創業者/團隊、創業機會、創業資源)與人工智能核心支柱(算法、算力、算料)具有異曲同工之妙。創業者/團隊作為創業過程的起點,發揮著主觀能動作用,就像算法在人工智能中的大腦地位,推動創業活動不斷創新和迭代。機會承接著創業者主體認知與情境特征,表現為一種未被明確的市場需求,發揮著如同“芯片”的載體作用,驅動創業主體通過滿足市場需求來減少情境中的知識“能耗”,啟發創業者通過創造市場需求來提高情境中的知識“性能”。資源對于創業而言是萬萬不可或缺的,但資源又不是萬能的,這與數據對于人工智能的價值非常相像,反映了各種要素的效用。
人工智能創業者駕馭團隊、機會和資源,融匯硬技術與軟思想,主導著人工智能倫理方向。在這個過程中,資源是稀缺的,情境是不確定的,風險難以預測,規則尚未完善,競爭壓力如影隨形。面對上述挑戰,創業者也會在追求個人利益與遵循倫理規范之間陷入兩難困境。不過,創業者不是在“光明地帶”或“黑暗地帶”之中做選擇,而是通過創新、風險承擔和超前行動“繪制地圖”。換言之,具有倫理導向的創業行動有助于整合各方力量來創造性解決人工智能倫理難題。
創業領域權威期刊《商業創業雜志》在2009年曾出版了“倫理與創業”專刊,其中圍繞技術創新與創業倫理進行了專門討論。文章提出,技術是價值載體,技術創新特別是“破壞性(disruptive)創新”帶來的范式變革,沖擊每個人的價值判斷,而創業者特別是創業型企業是倫理變革的行動主體,他們往往通過充滿想象力的方式來直面“倫理創新(ethically pioneering)”情境帶來的問題。甚至可以說,正是倫理困境成為創新創業的源泉,基于技術創新的創業倫理是未來研究值得探尋的“大道”。
人文智慧中蘊藏著技術創新問題的解決思路,人工智能創業倫理也不例外。說到從善如流之道,相信許多人都會想起《道德經》第八章“上善若水”。雖然這里的“善”不只意味著善良,但是,老子總結的、近于道的七點水德——居,善地;心,善淵;與,善仁;言,善信;政,善治;事,善能;動,善時——就蘊藏著人工智能創業倫理實踐可以參考的門道。
古今中外的結合更能碰撞出思想火花。2019年4月,歐盟發布了《可信賴人工智能的倫理準則》(以下簡稱歐盟準則),列出了七個關鍵條件:人的自主性和監督力,技術的穩健性和安全性,隱私和數據治理,透明度(可追溯性),多樣性、非歧視性和公平性,社會和環境福祉,可追責性。2019年10月8日,商湯科技等八家人工智能企業被美國列入出口管制“實體清單”。對此,成立于2014年、成為全球最具價值的人工智能創新企業商湯科技回應道:“我們通過制定并實施嚴格的人工智能技術使用的倫理標準,讓人工智能技術能獲得正確的應用,以最負責任的態度推動人工智能技術發展”。
為此,不妨把上善若水七點水德、歐盟七條準則與中國人工智能企業的創業倫理行動相結合,在理論與實踐、經典與探索以及東西方的交織中提煉相通之處,探尋人工智能創業倫理的行動方向。
居,善地,原意為選擇地方。對人工智能創業倫理的啟示在于,目標定位應著眼社會價值。歐盟準則“社會和環境福祉”,也是在強調人工智能系統的應用應促進積極的社會變革,增強可持續性和生態責任。例如商湯科技的愿景和使命,瞄準了社會問題的解決:堅持原創,讓人工智能引領人類進步;致力于研發創新人工智能技術,為經濟、社會和人類發展做出積極的貢獻。
心,善淵,原意為心胸深沉。對人工智能創業倫理的啟示在于,市場開拓應朝向包容創新。歐盟準則“多樣性、非歧視性和公平性”,就意味著人工智能系統應包容性地考慮人的能力、技能和要求的總體范圍,確保可接近性。例如中國人工智能創業型企業積極向醫療、健康、養老、教育等BOP(Bottom of Pyramid,金字塔底端)市場拓展,旨在從基礎改變世界,滿足最廣泛用戶的需求。
與,善仁,原意為待人友愛。對人工智能創業倫理的啟示在于,用戶服務應注重友好體驗。歐盟準則“技術的穩健性和安全性”也主張人工智能算法應當具有足夠的魯棒性和讓人放心,以應對人工智能系統演進周期階段的錯誤或偏差。騰訊馬化騰提出的人工智能“可知、可控、可用、可靠”,就關注了人工智能如何讓更多人共享技術紅利和避免技術鴻溝的同時,能夠足夠快地修復自身漏洞,真正安全、穩定與可靠。
言,善信,原意為恪守信用。對人工智能創業倫理的啟示在于,價值實現應堅持誠信為本。歐盟準則“隱私和數據治理”,意味著公民數據應當由自己完全掌控,而且公民相關數據的應用不能傷害或歧視公民。2019年9月,曠視科技研發的視覺人工智能在教育場景中的應用引發關注甚至爭議。對此,公司的回應也再次強調了堅持正當性、數據隱私保護等核心原則,積極接受社會的廣泛建議和監督。
政,善治,原意為治理有方。對人工智能創業倫理的啟示在于,治理體系應加強制度建設。歐盟準則“可追責性”意味著需要構建人工智能系統及其成果負責和問責機制。科技部部長王志剛在2019年3月兩會期間表示,相比較快步前行的人工智能技術,法律規范、社會公德、公民習慣、社會治理等方面其實相對滯后,應當盡快跟上。同年6月,國家新一代人工智能治理專業委員會發布《新一代人工智能治理原則——發展負責任的人工智能》,就在從治理角度為人工智能提供負責任的行動框架和指南。
事,善能,原意為發揮所長。對人工智能創業倫理的啟示在于,技術發展應立足創新能力。歐盟準則“人的自主性和監督”意味著人工智能系統應當支持人的能動性和基本權利,而不是減少、限制或誤導人的自治性。2019年8月世界人工智能大會上,馬云和馬斯克曾有一次對話,雖然兩人不少觀點并不一致,但是他們都強調人工智能與人類之間的交互影響,相信人類認知和能力在未來的提升。
動,善時,原意為把握時機。對人工智能創業倫理的啟示在于,永續成長應把握創業機會。歐盟準則“透明度”意味著確保人工智能系統的可追溯性,這也反映了人工智能技術發展的流動性,而與流動性相生相隨的動態不確定性,正是孕育創業機會的不竭之源。近期有人提出,人工智能每隔二十年左右便會遭遇一次寒冬,因此新的寒冬馬上將至。與此同時,我們則看見更多創業者通過“AI+”或“AI in All”等機會開發路徑,開創著如火如荼的人工智能新事業。是寒冬還是暖風?亦冷亦熱背后反映出,解決人工智能倫理,不能囿于技術孤島,而需要跟上技術與產業和社會的融匯大潮,在流動中把握演化節奏,實現人工智能的可持續成長。
需要反思的是,人工智能與創業倫理的交融亦非一蹴而就。印度科技巨頭Infosys公司的一份報告顯示,澳大利亞企業在“全球人工智能成熟度”中排名非常靠后,原因不僅在于技能的缺乏,還包括倫理問題的考量,從而影響了澳大利亞采用人工智能技術的水平。報告顯示,六成多的澳大利亞企業受訪者表示,部署人工智能計劃的主要障礙來自倫理問題的考量(而美國的這一比例約為三成);超過七成的受訪企業領導者認為,倫理問題的考量使得人工智能技術不能最大程度的發揮作用,這一比例也高于其他任何國家。
這樣看來,倫理對于人工智能技術創新和創業發展的積極作用機理,仍需深入挖掘。哈佛大學心理學家史蒂文·平克就曾質疑倫理審查對科學進程的正面意義,他在《波士頓環球報》發表文章提出,過分的倫理監督將干擾創新速度,積極作用不大,因為生命和疾病是一對孿生兄弟。他認為生物領域方面的倫理學規則導致研究被延遲,可能使得許多患者無辜地失去生命,而這些待審查的治療方法原本可能對他們有積極作用。可見,倫理對技術不是簡單的疏堵,不能像控制開關閥門那樣簡單,而是一個復雜的社會系統工程。

特別是區塊鏈與人工智能結合的最新動態,凸顯了人工智能創業倫理問題的重要性和緊迫性。2019年10月,區塊鏈被確定為中國核心技術自主創新重要突破口,將和人工智能、大數據、物聯網等前沿信息技術深度融合。當人工智能遇見區塊鏈,有助于將數據資源管理和信息技術應用推向更高的水平,但也會對社會公眾認知和思維范式帶來更多挑戰,從而加劇倫理沖突。
對此,樂觀還是悲觀?樂觀者認為,由于區塊鏈的分布式網絡,能夠把人工智能等新技術整合在一起,形成新的治理架構,從而提高了“作惡”門檻,在教育、就業、養老、精準脫貧、醫療健康、商品防偽、食品安全、公益、社會救助等民生領域的應用前景廣闊。悲觀者提出,區塊鏈技術相關聯的應用,如發行數字貨幣和記錄資料和隱私等,潛藏風險巨大,君不見發幣變成割韭菜、隱私依然難保護。
探尋答案的生力軍還是創業者。2019年6月,Facebook正式對外發布一種新的加密數字貨幣“天秤幣(Libra)”,隨即,馬化騰在微信朋友圈進行了點評:“技術都很成熟,并不難。就看監管是否允許而已。”
但如何讓監管的仰止高山與技術創新的大水湯湯,成為造福人類的生態系統?又怎樣實現人工智能“利萬物而不爭,處眾人之所惡”的倫理價值?仍有待我們繼續觀察。如同孔子對子貢的提醒,“君子見大水必觀焉”。期待人工智能科學知識充分涌流、技術創新健康發展,從而更好更快地澤被社會、普惠大眾。
本文系北京林業大學科研反哺人才培養研究生教學改革項目(編號JXGG19030)、國家自然科學基金項目(編號71972014)的階段性成果。