翟志勇
科技是第一生產力,但在科技推動社會經濟發展的同時,也會給人的生命、自由、隱私、安全等帶來各種各樣的威脅和風險。我國已經在醫療等領域制定了專門的科技倫理規范,但將科技倫理上升到國家戰略層面,實際上始于2018年。2018年的“基因編輯嬰兒”事件引發全社會的普遍關注和擔憂,科技“作惡”已經開始挑戰人類最基本的倫理底線,急需建立完善的科技倫理和治理體系。
2019年7月24日,中央全面深化改革委員會第九次會議審議通過《國家科技倫理委員會組建方案》,“目的就是加強統籌規范和指導協調,推動構建覆蓋全面、導向明確、規范有序、協調一致的科技倫理治理體系”。2020年10月21日,國家科技倫理委員會正式組建。2021年7月28日,在國家科技倫理委員會的指導下,科技部研究起草了《關于加強科技倫理治理的指導意見(征求意見稿)》,其中確立五項科技倫理原則,包括“增進人類福祉”“尊重生命權利”“堅持公平公正”“合理控制風險”“保持公開透明”。
值得注意的是,《指導意見(征求意見稿)》在科技倫理原則體系中,將“增進人類福祉”作為首要原則,指出“科技活動應有利于促進經濟發展、社會進步、民生改善和生態環境保護,堅持以人民為中心的思想,不斷增強人民的獲得感、幸福感、安全感,促進人類社會和平發展和可持續發展?!边@一原則定位意味著,針對科技倫理,我們不能僅僅局限于“不做惡”,還應該關注“科技向善”。而所謂的“向善”,非常重要的一個方面就是面向可持續發展。
不作惡
很長一段時間內,“不作惡”(don't be evil)幾乎成為科技倫理的“最高”標準。谷歌公司在1999年初創時期提出“不作惡”口號,并將其作為公司的價值理念和行為準則,并在2004年將“不作惡”寫入公司的首次公開招股書中,成為谷歌在科技倫理方面非常響亮的主張,備受追捧。2015年,谷歌重組成立新的母公司Alphabet時又進一步提出“做正確的事”(Do the right thing)取代“不作惡”,并將其作為公司正式的座右銘,不過仍然在行為準則中保留著“不作惡”的表述。雖然看上去“做正確的事”似乎包含著“不作惡”,但是或許因為“做正確的事”不像“不作惡”那么直截了當,以至于“做正確的事”始終沒有“不作惡”那么有影響力。
2018年5月,有報道稱,谷歌修改了行為準則,刪除了其中幾處“不作惡”的表述,僅在行為準則最后一句保留“不作惡”:“記住,不要作惡,如果你看到一些你認為不正確的事情——大聲說出來!”為什么要做如此修改?谷歌始終沒有給出任何解釋,以至于很多人認為谷歌公司已經突破了“不作惡”這條底線。即便如此,“不作惡”依然是公眾對于科技倫理的“最低”要求。
事實上,對于科技“作惡”的擔憂和指控時有發生。在生物技術領域,從最早的克隆羊多莉到“基因編輯嬰兒”,公眾和科學家始終關注著生物技術給人類帶來的倫理挑戰,但底線依然在不斷降低,著名學者弗朗西斯·福山疾呼要對生物技術加以政治管制。此外,在互聯網和信息技術領域,科技巨頭利用個人數據進行用戶畫像,再通過定向推送廣告賺取巨額利潤,甚至形成“信息繭房”,干預個人的自由意志,動搖民主制度的社會基礎。幾乎所有的科技巨頭都或多或少在隱私、安全、壟斷等方面受到指控,因各種違規違法行為而繳納罰款幾乎成了家常便飯,繳納罰款就像是在購買“贖罪券”。本來作為底線的“不作惡”,幾乎成了“最高”的倫理要求,即便如此,底線仍一再被突破。
這種狀況仍然在加劇,隨著算法、人臉識別、人工智能技術的突飛猛進,科技“作惡”已經成為系統性的社會問題,算法帶來的系統性剝削和控制,人臉識別潛在的追蹤和控制風險,人工智能可能帶來的失業問題,以及諸如元宇宙可能帶來的人類自主性的喪失等。因此,近年來各國都在加強科技倫理和治理方面的立法,用立法來守護“不作惡”這條底線。例如:我國將“將基因編輯、克隆的人類胚胎植入人體或者動物體內,或者將基因編輯、克隆的動物胚胎植入人體內”的行為納入到刑事處罰中,國家互聯網信息辦公室等四部門出臺《互聯網信息服務算法推薦管理規定》,嚴禁算法歧視、“大數據殺熟”、誘導沉迷等算法不合理應用;歐盟在《可信賴的人工智能倫理準則》基礎上,禁止人臉識別技術在公共場所的使用;美國正在推出《算法責任法》,限制算法在自動化決策領域的使用,等等。人是目的而非手段,倫理底線失守之處,政治和法律必須出場。
技術向善
雖然對于科技公司來說,守住“不作惡”的底線已經很難,但這并不妨礙科技公司提出更高的倫理要求。比起“不作惡”,“科技向善”看起來充滿正能量。其實谷歌公司當年提出“做正確的事”,已經部分包含“科技向善”的意思。據說投資者保羅·米勒最早提出“技術向善”(Technology for social good):“確保技術公司專注于回饋世界,而不僅僅是占領我們的屏幕時間?!钡@種提法在中國流行,主要是因為騰訊公司的推動,并且將其改為中國人更喜歡的表述“科技向善”。
2018年1月,騰訊研究院在北京舉辦“T-Meet大會”,開始啟動“科技向善”項目。2019年5月6日,騰訊董事會主席兼首席執行官馬化騰首次在公開場合談到公司的新愿景和使命:“我們希望‘科技向善’成為未來騰訊愿景與使命的一部分。我們相信,科技能夠造福人類;人類應該善用科技,避免濫用,杜絕惡用;科技應該努力去解決自身發展帶來的社會問題”。隨后騰訊公司將“科技向善”作為公司新的使命愿景:“用戶為本,科技向善”。
接下來的問題是,如果連“不作惡”都不能完全實現,“科技向善”又如何可能呢?首先是如何定義這里的“善”?企業不是慈善機構,企業要盈利,要對股東負責,要在激烈的市場競爭中勝出,企業所理解的“善”應該如何界定?即便是提出“科技向善”的騰訊公司,也沒有對“善”給出一個清晰明確的界定。騰訊呼吁社會各界通過對話達成共識,但就目前的情況來看,共識遠遠沒有達成。即便達成共識,這是騰訊公司要達成的“善”還是所有企業都要接受的“善”?更何況騰訊只是個互聯網技術公司,這種“善”可能未必適合其他類型的企業。
其次是如何“向善”?即便對何為“善”達成了共識,那么如何“向善”呢?企業要使自己的所有產品和服務都符合善的標準,還是企業選擇一兩個符合善的標準的項目就可以了?比如從2021年開始的APP適老化改造。也就是說,“向善”是一個普遍性的要求還是一個選擇性實施的加分項?“不作惡”可以成為企業的倫理義務,乃至于上升為法律責任,但“向善”只能作為一種倡議,無法通過法律強制企業履行“向善”的倫理義務。
那是否意味著“科技向善”就是一個空洞的口號呢?就像“不作惡”總是流于空洞的說教一樣。“不作惡”尚且有各種各樣相對明確的倫理規范,而“科技向善”始終沒有可以依據甚至參考的標準。要避免“科技向善”淪為空洞的口號,我們可以用全社會已經達成的共識,為“科技向善”注入新的內涵,《關于加強科技倫理治理的指導意見(征求意見稿)》已經指出了這種可能性,那就是讓“科技向善”面向可持續發展。
面向可持續發展
2015年聯合國千年發展目標(MDGs)到期后,聯合國193個成員國在可持續發展峰會上正式通過17個可持續發展目標(SDGs),旨在從2015年到2030年間以綜合方式徹底解決社會、經濟和環境三個維度的發展問題。可持續發展的17項目標是在聯合國推動之下為各國所普遍接受的,這些目標的最終實現當然要靠各國政策的推動,但也要注意到,科技的進步是實現可持續發展目標的重要力量,甚至是決定性力量。
比如,解決人類饑餓問題需要糧食,而在耕地面積有限的前提下,糧食的增產主要依賴于科技的進步。再比如,今天全球有8億人口食不果腹,占全球總人口的1/9,而與此同時全球每年有1/3的糧食被浪費掉,如果能改進糧食的供應鏈,避免大量糧食的浪費,饑餓問題是有可能在不增加糧食產量的情況下就能解決的,這同樣需要有改進糧食供應鏈的技術。因此SDGs目標2(消除饑餓,實現糧食安全、改善營養和促進可持續農業)的實現,非常依賴技術的發展。
2019年4月3日,聯合國人居署與騰訊公司在聯合國總部舉辦主題研討會,探討如何利用人工智能等新興技術實現可持續發展目標。聯合國人居署執行主任謝里夫講到:“世界五分之一的人口正居住在嚴重缺水地區,而未來城市對于食物 、能源、水這些基礎資源的需求更是前所未有的,我們需要鼓勵科技創新來解決未來城市所面臨的挑戰?!睍h上提出一個重要的課題“AI for FEW”,如何用AI分析數據來提高農作物產量和種植效率(Food),如何用AI預測能源需求并優化能源供給和清潔能源生產(Energy),如何用AI提升用水效率、預測水資源供應以及檢測水質(Water)。騰訊公司首席探索官網大為(David Wallerstein)有一本書《重構地球:AI FOR FEW》,系統闡述了如何用人工智能技術重塑食物、能源和水的未來,用科技來實現可持續發展目標。
“AI for FEW”是一個很好的面向可持續發展的“科技向善”的例子,這樣的例子今天不是太多而是太少了,我們期待更多的科技企業,利用自身的技術助力可持續發展目標的實現,期待更多面向可持續發展的“科技向善”的創意和嘗試。雖然可持續發展目標并非衡量“科技向善”的唯一指標體系,但在“科技向善”的具體含義仍不清晰之前,為了避免“科技向善”流于空洞,不妨先將“科技向善”指向可持續發展。
最后要特別強調的是,“科技向善”不能取代“不作惡”。在倡導“科技向善”的同時,也不能忽略對科技“不作惡”的倫理要求,更要警惕企業通過高舉“科技向善”的旗幟來遮蔽“作惡”的行為?!翱萍枷蛏啤焙汀安蛔鲪骸贝砹丝萍紓惱碜罡吆妥畹偷囊螅瑑烧叨疾粌H需要具體化為可執行可測量的標準和規則,也需要通過一個個具體的案例來呈現和檢討,如此才能確保兩者都不停留在口號階段。
3899500338209