陳禹安
“我們如何去善用科技、互聯網的力量,讓人類的生活質量能夠更好?”
這是騰訊創始人馬化騰在思考的問題。近日,IT巨頭騰訊在自己的企業愿景及使命中增加了一項“科技向善”。
馬化騰還在全國兩會上提出了關于加強科技倫理建設、踐行科技向善理念的提案,如在數據規則方面,應進一步完善數據治理的頂層設計,建立數據收集、利用與保護的基本規則秩序,防范并打擊數據濫用行為。
以騰訊為代表的IT行業,在經過20多年的高速發展,盈利甚豐后,終于有足夠的勇氣和擔當來直面科技對于人類生活的負面影響問題了。
本質上是商業向善
不過,“科技向善”并不能僅僅理解為IT企業將各種前沿技術應用于社會的公益慈善事業。如果是這個小范疇,就沒有太大的必要展開探討。因為公益慈善事業本身就具備了“善”的屬性,科技所能起到的作用就是助力于擴大其規模,降低其成本,提高其效率。這是毋庸置疑的。
但是,IT企業所具備的更為本質的商業屬性,卻有可能與“向善”的導向形成“義利之爭”的沖突。
“善”可以說是全體人類的最大公約數,無論什么國家,什么種族,什么信仰,基本上都會把對“善”的追求作為一項底線原則。而對“利”的追求則是商業組織繞不過去的基本屬性。商業追求目標顧客的最大化,也即是在更大的那個最大公約數中異中求同—在相異的人群中求最大的“同”,以便轉化為最大數量的目標顧客。
這是兩個不同的最大公約數。企業有沒有可能在“向善”上同時滿足這兩個最大公約數呢?
這是一個巨大的挑戰。
比如說,滴滴打車的初心是“讓出行更美好”,乍一看,這自然是符合“科技向善”的。但細究一下,滴滴打車是在讓誰的出行更美好呢?顯然是那些下載了“滴滴”App,而且使用熟練的用戶。馬云曾經吐槽,滴滴打車讓他的老母親打不到出租車了,因為老年人不會使用“滴滴打車”。那么,這是不是意味著對于最大公約數之內的顧客的“善”,就是對最大公約數之外的人的“不善”?
更進一步,再來考量一下“善”的具體標準及內涵。你會發現,在不同的族群,在不同的時期,善的標準本身也是在不斷變化的。此時此地的善,在彼時彼地可能會被視為不善。對于當下全人類的善,也有可能是對未來人類的不善。這就會埋下沖突的隱患。再從商業逐利的本質來看,只要存在外部的市場競爭,只要有內部的KPI考核,向善就很難持之以恒,善的底線就可能被突破。
從這個角度來說,科技向善的問題已經跳出了科技本身,這是一個由來已久的問題,并不是因為互聯網新科技才出現的,本質上是一個商業向善的問題。
來看看谷歌的故事。
谷歌開始“作惡”了?
谷歌成立之初,就提出了“不作惡”(Dont be evil)的公司行為準則。但是,在2018年4月5日更新的行為準則頁面上,谷歌卻拿掉了“不作惡”這條準則。
其背景是谷歌參與了五角大樓的Maven項目。Maven項目的正式說法是“加速國防部整合大數據和機器學習技術”,意在通過AI技術來處理無人機所拍攝的視頻內容,在其中識別出車輛等38類物體,以此減輕分析人員的負擔。據披露,Maven項目中開發出來的技術,已經被應用到了美國同ISIS的戰斗中。
這個項目引發了谷歌員工基于“不作惡”準則的擔憂。不少激進派員工憤而離職,另有數千名員工向公司高層發起請愿,要求中止與軍方合作。公司高層回應,保證這項技術不會“操作或飛行無人駕駛飛機”“不會用來發射武器”,然而這并不能讓員工安心。
谷歌拿掉“不作惡”,并不代表著要開始作惡了。這實際上是其在“善”和“利”的兩個最大公約數之間的一種妥協。谷歌將“不作惡”改為“做正確的事”。但爭議在于:什么是“正確的事”呢?是依據“善”的標準的“正確”呢,還是依據“利”的標準的“正確”呢?這依然是一場沒有明確答案且永無止境的博弈。
對我們來說,更為重要的是谷歌員工的反應。在他們內心,擁有自己的關于善惡義利的獨立判斷,而這個判斷往往和公司的判斷并不一致。
當兩者不一致的時候,谷歌的員工并沒有坐視不顧,埋頭掙自己的工資,而是選擇離開或抗議。
互聯網初興之際,人們出于對技術及其帶來的對生活的沖擊性影響的陌生感、迷茫感和恐懼感,往往無所適從,只能聽任各種技術應用對于自身的各種“虐菜”,表現出怯懦屈從和盲目模仿的行為特征。
但是,隨著網民(亦即消費者)的心智進化到覺醒的階段,基于人類基本法則的“善惡”判斷恢復正常,互聯網企業利用新技術作惡漁利或者先作惡再洗白的贏利路徑將不會被消費者漠視、容忍,更不會繼續被動接受。
所以,放眼未來,科技向善(商業向善)將不再是企業錦上添花的升華之舉,而是必不可少的生存原則。但是,基于“善惡義利”的兩個最大公約數始終是一個悖論。只有那些能夠順利破解這個悖論,在“善惡義利”之間取得最佳平衡的企業,才有可能在未來取得可持續的發展。