谷業凱
圖像識別使身份認證更可信賴,短短幾秒就能證明“你就是你”。但是,當隱私侵犯、數據泄露等事件層出不窮時,人們又不得不反思:人工智能的持續進步和廣泛應用帶來的好處是巨大的,為了讓它真正有益于社會,同樣不能忽視的還有對人工智能的價值引導、倫理調節以及風險規制。
“刷臉”進站、“刷臉”支付、“刷臉”簽到、“刷臉”執法……人臉識別技術正走進更為廣闊的應用場景,與指紋、虹膜等相比,人臉具有弱隱私性的生物特征,因此,這一技術對于公民隱私保護造成的威脅性尤其值得重視。“人臉圖像或視頻廣義上講也是數據,如果沒有妥善保管和合理使用,就會容易侵犯用戶的隱私。”中國社會科學院哲學研究所研究員段偉文說。
通過數據采集和機器學習來對用戶的特征、偏好等“畫像”,互聯網服務商進而提供一些個性化的服務和推薦等,從正面看是有利于供需雙方的一種互動。但對于消費者來說,這種交換是不對等的。就頻頻發生的個人數據侵權的事件來看,個人數據權利與機構數據權力的對比已經失衡,在對數據的收集和使用方面,消費者是被動的,企業和機構是主動的。段偉文表示,“數據實際上成為被企業壟斷的資源,又是驅動經濟的要素。”如果商家只從自身利益出發,就難免會對個人數據過度使用或者不恰當披露。

“大數據時代,個人在互聯網上的任何行為都會變成數據被沉淀下來,而這些數據的匯集都可能最終導致個人隱私的泄露。”湖南師范大學人工智能道德決策研究所所長李倫認為,用戶已經成為被觀察、分析和監測的對象。
2017年7月,國務院印發《新一代人工智能發展規劃》(以下簡稱《規劃》)。《規劃》強調,促進人工智能行業和企業自律,切實加強管理,加大對數據濫用、侵犯個人隱私、違背道德倫理等行為的懲戒力度。
“雖然‘刷臉的應用越來越多,但人工智能目前仍處于起步階段,需加大對數據和隱私的保護力度,關注和防范決策失誤和社會不公。”在個人數據權利的保護方面,段偉文建議,應促使數據交易各方對自己的行為負責,讓每個人知道自己的數據如何被處理,特別是用于其他用途的情形,減少數據濫用,讓人們清楚知道自己的“臉”還是否安全。
段偉文認為,要進一步加強人工智能的倫理設計,進行全流程追問與核查,從算法決策的結果和影響中的不公正入手,反向核查其機制與過程有無故意或不自覺的曲解與誤導,揭示存在的問題,并促使其修正和改進。
在騰訊研究院法律研究中心高級研究員曹建峰看來,應對人工智能帶來的倫理問題,一是要構建算法治理的內外部約束機制,將人類社會的法律、道德等規范和價值嵌入人工智能系統;二是在人工智能研發中貫徹倫理原則,促使研發人員遵守基本的倫理準則。
“我們生活在一個人機共生的時代,人類與機器之間勢必將發生各種沖突和矛盾,僅靠法律和制度很難完全解決。”李倫表示,人們還應努力提升自身的科學素養,主動維護自身的權利,社會也應盡快建立討論人工智能倫理問題的公共平臺,讓各方充分表達意見,促進共識的形成。