□ 文 司曉
過去幾年,隨著技術的發展,各種包含人工智能技術的產品走入大眾生活的方方面面。從新聞客戶端中越來越“懂你”的信息流,到開始嘗試在封閉道路上自動駕駛的汽車。但是,人工智能這個“仆人”真的忠誠么?又或者說,人工智能只需要遵守忠誠一條倫理么?當越來越多的人工智能承擔了原本由人類承擔的工作,人工智能倫理問題成為了技術行業、監管機構和大眾最為關注的問題。
如果為人工智能建立倫理框架,未來人工智能應該做到“可知”、“可控”、“可用”和“可靠”的。一個新技術的誕生本身無關好壞,但通過倫理法律和各種制度設計確保這些技術能夠成為“好的技術”是人類自身的責任。
當前的人工智能發展浪潮很大程度上受益于我們在使用互聯網過程中積累的大量數據。如今,互聯網連接了世界一半以上的人口,僅在中國便有8億網民。但互聯網在帶來便利與效率的同時,也帶來了風險,尤其是在大數據和人工智能大范圍驅動日常生活的時代。算法決定著我們閱讀的內容,決定著我們的目的地以及出行方式,決定著我們所聽的音樂,決定著我們所購買的物品及其價格。自動駕駛汽車、自動癌癥診斷和機器人寫作等新事物正前所未有地接近大規模商業應用。
因此,在某種程度上,將數據比喻為“新石油”,將人工智能比喻為“新鉆頭”并無不妥,而故障算法及其帶來的負面影響則可比喻為由此產生的“新污染”。但要注意的是,算法故障不等于有惡意。因為善意并不能保證算法不導致任何法律、倫理和社會問題。在人工智能領域,我們有相當多這樣的例子,例如由于技術意外、缺乏對問題的預見或技術上難以監督監管、責任分散導致的隱私侵犯、算法偏見和濫用等。此外,一些研究人員開始擔心智能機器將取代人類勞動力,從而導致社會失業率上升。

很多人認為人工智能倫理還是一個科幻議題,但其實麻煩已經迫在眉睫。最近幾年,一系列涉及AI不端行為的新聞頻頻出現在新聞客戶端;面部識別應用程序將非裔美國人標記為大猩猩,將國會議員標記為刑事罪犯;美國法院使用的風險評估工具對非裔美國人有偏見;優步的自動駕駛汽車在亞利桑那州撞死了一名行人;Facebook和其他大公司因歧視性廣告行為被起訴。
在過去幾十年中,對技術倫理的研究經歷了三個階段。第一階段的研究主要集中在計算機上。在此期間,各國頒布了大量有關計算機使用、欺詐、犯罪和濫用的倫理準則和法律,大多數規則今天也仍然適用。第二階段則集中在互聯網領域,創建了規范信息創建、保護、傳播和預防濫用的倫理原則和法律。現在,這個研究領域已經悄然進入了一個全新的第三階段,可以將其稱為“數據和算法倫理”。未來,我們將需要有關人工智能開發和利用的倫理框架和法律。
而究竟如何為人工智能制定倫理,是全人類都沒有遇到過的問題,我們正在向無人區航行,需要原則和規則作為指南針,來指導這次偉大的探險,而技術倫理則是這套原則和規則的核心。當前,一些政府部門和行業協會已開始嘗試建立這樣的倫理框架,顯著的例子包括阿西洛馬人工智能原則,以及IEEE的倫理標準和認證計劃。
今年九月,騰訊董事會主席兼首席執行官馬化騰在上海“2018世界人工智能大會”上提出人工智能的“四可”理念,即未來人工智能是應當做到“可知”、“可控”、“可用”和“可靠”。筆者將“四可”翻譯為“ARCC”(Available,Reliable,Comprehensible,以及Controllable,讀作ark,寓意“方舟”),正如傳說中數千年前拯救人類文明的諾亞方舟一樣,人工智能領域的“倫理方舟”(ARCC)也將在未來幾千年確保人類與機器之間友好、和諧的關系。因此,這四項原則值得深入探討。
這一原則要求盡可能多的人可以獲取、利用人工智能,而不是為少數人所專享。我們已經習慣于智能手機、互聯網、應用程序帶來的便利,而往往忘了還有半個世界被隔絕在這場數字變革之外。人工智能的進步應該解決這個問題,而不是加劇這個問題。我們應該讓欠發達地區的居民,以及老人、殘障人士回到數字世界中來,而不是將數字鴻溝視為既定事實。我們需要的人工智能應當是包容的、可被廣泛共享的技術,并將人類的共同福祉作為其唯一發展目的。只有這樣,我們才能確定人工智能不會讓少數人的利益凌駕于大眾之上。
以最近醫療機器人的發展為例,騰訊醫療AI實驗室開發的“覓影”目前正與數百家地區醫院的放射科醫生合作。這種癌癥預篩查系統目前已經審查了數十萬張醫學影像,鑒別出數十萬個疑似高風險病例,并將這些案例轉交給人類專家進行進一步判斷。這項技術使醫生免于繁重的影像判斷工作,從而有更多的時間來照顧病人。讓機器和人類各司其職,在這種情況下,醫生與看似危及其工作的機器和平相處。
此外,可用的人工智能還應當是公平的。完全遵循理性的機器應該是公正的,沒有人類的情緒化、偏見等弱點。但機器的公正并不是想當然存在的。最近發生的事件,如微軟開發的聊天機器人使用粗俗語言等,表明當給人工智能“喂養”了不準確、過時、不完整或有偏見的數據時,機器也會犯和人類一樣錯誤。對此,必須強調“經由設計的倫理”(ethics by design)理念,也就是在人工智能的開發過程中就要仔細識別、解決和消除偏見。可喜的是,政府部門和互聯網行業組織等已經在制定解決算法偏見和歧視的指導方針和原則。谷歌、微軟等大型科技公司也已經建立了自己的內部倫理委員會來指導其人工智能研究。

人工智能的應用如機器人等已進入普通家庭,我們需要這些人工智能是安全的、可靠的,能夠抵御網絡攻擊和其他事故。以自動駕駛汽車為例,騰訊目前正在開發3級自動駕駛系統,并已獲得在深圳市進行道路測試的許可。而在獲得道路測試許可前,騰訊的自動駕駛汽車需要在封閉場進行累計超過一千公里的封閉測試,以確保道路測試的安全。但由于相關的認證標準和法律規定仍有待確定,目前道路上還沒有投入商用的真正的自動駕駛汽車。
此外,人工智能的可靠性還應當確保數字安全、物理安全和政治安全,尤其是對用戶隱私的保護。由于人工智能研發需要收集個人數據以訓練其人工智能系統,研發者在這一過程中應當遵守隱私要求,踐行“經由設計的隱私”(privacy by design)理念,通過一定的設計保護用戶的隱私,并防止數據濫用。
深度學習等人工智能方法的流行,使得底層的技術細節越發隱秘,可謂隱藏在一個“黑盒”當中。深度神經網絡的輸入和輸出之間還有很多隱藏層,這使得研發人員都可能難以理解其系統。因此,當人工智能算法導致車禍時,調查其技術原因可能需要花費數年時間。
幸運的是,AI行業已經開始對可理解的AI模型進行研究。算法透明是實現可理解人工智能的一種方式。雖然用戶可能不大關心產品背后的算法,但監管機構需要深入了解技術細節以便進行監管。無論如何,就AI系統直接作出或輔助做出的決策,向用戶提供易于理解的信息和解釋,都是值得鼓勵的。
為了建立可知的人工智能,應該保證和鼓勵公眾參與和個人權利的行使。人工智能開發不應只是企業的秘密行為。作為最終用戶的公眾可以提供有價值的反饋,有權質疑可能造成傷害或難堪的機器決策,這將有助于開發更高質量的人工智能。
此外,可知的人工智能要求企業提供必要的信息,也即科技公司應當向其用戶提供有關AI系統的目的、功能、限制和影響的足夠信息。
可控原則目的在于確保人類始終處于主導地位。從數千年前的文明曙光乍現,到今日的科學技術發展,人類始終控制著自己的造物,AI或是任何其他技術都不應當成為例外。只有確保機器的可控性,人類才能在機器出差錯、損害人類利益時,及時阻止事態惡化。只有嚴格遵循可控原則,我們才能避免霍金和馬斯克等名人所描繪的科幻式的噩夢。
每一次創新都會帶來風險。但是,我們不應該讓這些擔憂和恐懼阻止我們通過新技術邁向更好的未來。我們應該做的是確保AI的好處遠遠超過潛在的風險,制定并采取適當的預防措施,以防范潛在的風險。
就目前而言,人們還不信任人工智能。我們經常能看到批評自動駕駛汽車不安全、過濾系統不公平、推薦算法限制選擇、定價機器人導致更高價格的聲音。這種根深蒂固的懷疑來源于信息的匱乏,我們大多數人要么不關心,要么沒有足夠的知識來理解人工智能。對此我們應該如何行動?
應該提議是,以倫理原則為起點,建立一套規則體系,以幫助人工智能開發人員及其產品贏得公眾的信任。
規則體系的最左端,是軟法性質的規則,包括非強制性的社會習慣、倫理標準和自我行為規范等,以及筆者所說的倫理原則。國際上,谷歌、微軟和其他一些大公司都已經提出了它們的AI原則,且阿西洛馬人工智能原則和IEEE的AI倫理項目都得到了很高評價。
隨著規則體系的坐標右移,我們有強制性的規則,例如標準和法律規范。今年發布的一份關于自動駕駛汽車的政策研究報告,發現目前許多國家正在研究制定鼓勵和規范自動駕駛汽車的法律規則。可以預見未來各國也將制定關于人工智能的新法律。
隨著規則體系的坐標繼續右移,我們可以通過刑法懲罰惡意使用人工智能的行為。而在規則體系的最右端,則是具有最大約束范圍的國際法。一些國際學者正在積極推動聯合國提出關于禁止使用致命自動化武器的公約,就像禁止或限制使用某些常規武器的公約一樣。
最后,其實無論是核技術還是人工智能,技術本身是中性的,既非善也非惡。賦予技術價值并使它們變得美好是人類自身的責任。■