◆本刊記者 甄敏蔚 / 文
2021年世界人工智能大會,一如往屆,在炎熱的夏季召開。3天的大會,會議、論壇七八十個,線上線下大咖無數,參會年輕人熱潮洶涌。記者走會,汗流浹背,只能從關心處出發,展開幾點觀察。
人類與機器交互接口的每一次演變,都會帶來一場顛覆性的革命。每屆大會,都會接受到最新的訊息。
2019年那屆,傳來馬斯克麾下神經科學公司的消息,稱:通過微創小孔可將他們發明的超細線“縫”進人類大腦,通過專有技術芯片和信息條,可以解碼“腦覺”信號。不久,馬斯克就宣布,“腦機接口”研究取得突破性進展,“一只猴子已經能用大腦控制電腦”。最近這只猴子走紅網上,它用腦電波控制電腦打乒乓的視屏,吸睛全球。
在2021年世界人工智能大會,記者見到了一只裝在玻璃展示柜里的“猴子”。原來,這是中科院上海微系統所的陶虎團隊展示的“腦機接口”——“免開顱微創植入式高通量柔性腦機接口”。這項技術厲害在:可以讓那根超細線暫時“硬化”,像針灸一樣植入人腦,進入之后,又會變軟。所以,這是項“免開顱”的手術,創口比輸液針孔徑還小。
可以想見,這項高超技術如果普及的話,小朋友的自閉癥、中青年的抑郁癥、老年人的癡呆癥,以及癲癇、癱瘓等,治療起來難度會大大降低。
至于腦機接口技術是否已經接近馬斯克向往的“人類AI化”目標呢?還是相當有距離的。畢竟,植入的AI芯片并沒有運作整個大腦,而是部分腦神經。即便是擊敗李世石的AlphaGo芯片植入人腦的話,本質上也是不經大腦做出的決斷,因為它的運作其實是繞過人腦,只是一塊經過大量圍棋圖譜訓練的芯片,在單點上擊敗人類而已,并且“燒腦”得厲害,要消耗大量的能源,而人類只須補充一杯牛奶而已。

關于大量訓練導致的能源消耗,可以聯系到谷歌AI倫理團隊創始人Gebru被迫離開谷歌的大事件。據說與一篇未通過谷歌審核發表的論文有關。該論文指出,訓練大型AI模型需要用到大量的計算機處理能力,因此會消耗大量電力。文中引用了一項研究發現:自2017年以來,隨著向模型饋送越來越多的數據,其能耗和碳足跡也一直在呈現爆炸式增長。比如用“神經架構搜索”方法訓練一種語言模型會產生626155磅(284公噸)二氧化碳,大約相當于五輛普通美國汽車使用年限內排放量的總和。這還只是對訓練一次模型成本的最低估計。實際上,在研發過程中,工作人員會對模型進行多次訓練和再訓練。
盡管AI在接受大量訓練,但目前AI也只能解決完全信息和結構化環境下的確定性問題,如語音識別、圖像識別、下圍棋(完全信息博弈)等,與人類大腦所表現出來的隨機應變和舉一反三的能力相去甚遠。
這是本屆大會最熱的議題之一。在大會的“浦江夜話‘激蕩?智能駕駛’”論壇上,爭論如潮,沸沸揚揚,包括一干車企大佬,以及圖靈獎得主約瑟夫?斯發基斯教授。
約瑟夫?斯發基斯教授是提出“自主系統”概念的人。他在線上發言中認為,多年來人們對自動駕駛的前景過于樂觀。
他說:“構建值得信賴的自主系統不僅要有智能的主體,而且還是一個重大的系統工程。我們對于自動駕駛的愿景是自主,為了實現這一愿景,我們需要新的科技,以及工程方面的發展。我覺得還需要幾十年的時間才能夠實現。”
全自動駕駛分為兩個階段。第一個階段是自動化階段,即L1~L4階段。一般是從簡單的特定場景落地做起,去打通商業化路徑。比如先從倉庫工廠的自動叉車做起,再做固定路線的擺渡車、小巴,再到出租車。這些場景陸續落地后,就將進入L4級別的自動駕駛。第二個階段,就是L5的自主化階段。這個階段,自動駕駛取代人類駕駛,安全通暢地行駛于所有交通場景:不管是刮風下雨,還是極端氣候,或是月黑風高;無論是在狹窄的胡同,還是在酷熱的沙漠,L5都能安全前進。
對此,斯發基斯教授有定義。他說:“自動化的階段,人類司機應當負有責任;自主化階段,機器將能夠獨立做出決策。”
那么,當前我們處于什么階段?與會的智己汽車、斑馬網絡、華為、小鵬汽車、文遠知行、出門問問等業界人士議論紛紛。有的說在L2.5,有的說在L3,也有說在L4了。
對于L5,大多數業界人士認為遙遙無期。總之,“L5像燈塔,大家奔就是了”。
其實,大洋彼岸對L5的追求,也遇到了阻力。特斯拉的自動駕駛套件更新,一而再、再而三的推遲。7月3日埃隆?馬斯克終于公開承認,開發安全可靠的自動駕駛汽車比他想象的更難。然而就在三個月前,馬斯克還信心滿滿地表示,特斯拉2021年能夠實現全自動駕駛,可靠性將超越人類司機。
事實上,歐美和中國在自動駕駛方面,走的是兩種路線。歐美是在“路不變、城市不變”的前提下,思考自動駕駛怎么上路。而中國更愿意去探討:為什么一定要“路不變、城市不變”?為什么不能讓高速公路跟車“對話”?為什么不能在某一個新建城市中心,把車和行人從地上到地下進行分層?這樣,車不會撞到人,等于是L5級別的自動駕駛落地。
據說,從零開始建設的雄安市,將開辟自動駕駛專用智能車道,打造“車、路、云”一體化的未來智慧城市的交通模板。
當然,這有待于自動駕駛標準體系的建立,以應對一系列的技術、倫理、政策等方面的挑戰。
“如何避免大數據時代個人隱私形同虛設的問題?”“代碼是否具有道德?”“人工智能時代的道德代碼如何編寫?”
面對人工智能引發的全球信任焦慮,如何處理好人工智能在法律、安全、就業、道德倫理方面的問題,如何讓“AI向善”,如何可信與治理,也是本屆大會的重要議題。
外交部前副部長、清華大學戰略與安全研究中心主任傅瑩在本屆大會“人工智能、安全、國際合作”線上討論會的發言,主要關注了這個話題,尤其是“人工智能賦能武器可能帶來的挑戰”。
我們知道,人工智能內在的技術缺陷使得攻擊者難以限制打擊的損害范圍,容易造成過大的連帶傷害,從而導致沖突升級;基于大數據訓練的算法和訓練數據極有可能將偏見帶入真實應用系統,不排除這樣的人工智能給決策者帶來錯誤的決策;人機協同的不足將放大發生戰場沖突的風險,甚至刺激國際危機的螺旋上升等。
傅瑩說,當人類邁向命運共同體的未來之際,比任何時候都更需要伙伴關系與合作,她提出了“人工智能系統中納入國際公認的有關軍事活動的法律和規范”的建議。
“AI向善”,是全球共識。
2017年,全球行業領袖制定《阿西洛馬人工智能原則》,為技術發展制定了“有益于人類”的自律守則;歐盟委員會也發布了人工智能道德準則;經濟合作與發展組織(OECD)于2019年正式通過了首部人工智能的政府間政策指導方針,確保人工智能的系統設計符合公正、安全、公平和值得信賴的國際標準;二十國集團(G20)也出臺了倡導人工智能使用和研發“尊重法律原則、人權和民主價值觀”的《G20人工智能原則》;中國國家新一代人工智能治理專業委員會發布的《新一代人工智能治理原則》,提出發展負責任的人工智能。
“AI向善”,雖是全球共識,然而,做起來卻難。谷歌AI倫理團隊創始人Gebru被迫離職一事,就是明證。于今而言,沒有建立自己AI倫理的大公司幾乎找不出了,這些倫理宣言在我們看來,也都是正能量的。但是,“觀其言察其行”,關鍵是要落實到行動上。比如,數智化時代帶來工作效率提升,員工崗位大幅減少,那么,公司如何在就業與商業利益平衡上體現“向善”?再比如,越是有錢越能大量地訓練AI模塊,很多公司的賺錢算法就是這樣來的,那么有沒有公司將道德準則納入到算法中,讓算法不帶“偏見”?誰能這樣做,誰才是“AI向善”的行動者。
本屆大會對“AI向善”貢獻不少。亮點之一是發布了《可信人工智能白皮書》,首次系統提出可信人工智能全景框架,全面闡述可信人工智能的特征要素,剖析了可信人工智能與人工智能科技倫理和治理的關系,對可信人工智能的未來發展提出了建議。

數據,是數字時代的核心資產。壟斷型公司掌握的大數據、大算力、大模型,賦予其“預知”消費者動向的生殺能力,資本力量會促其“看人下菜”,實施“大數據殺熟”法來大量賺取消費者剩余。一個公司或機構,若大到掌握全民數據,這項“預知”特權就不僅能攫取財富,還能支配社會思想,進而挑戰政治。因此,有人甚至預言,政治權力將讓位于大數據及其掌握者。這不是危言聳聽。從近期國家對有關大公司的治理,可以看出端倪。
“數字主權”也成為本屆大會重要關注點之一。業界頗具代表性的有華為CIO陶景文的發言。他就強調,華為在內、外部智能化實踐中,充分認識到數字主權的重要性和必要性。個人、企業、國家等不同層面,有個人隱私、企業機密、國家安全的客觀訴求,華為積極支持各國的數字主權主張,做好數據主權保護。通過“建墻”和“開門”,保障數據安全有序流通,有效促進數據開放,共建共放、有序的智能世界。
本屆大會諸多論壇或會議聚焦“數字主權”,如可信AI論壇、隱私計算學術交流會等。本屆大會的數據要素論壇,專門就數據生產要素的重要性、數據共享開放開發與安全保護、數據權屬與數據權益、公共數據賦能與社會數據交易等進行了介紹。論壇透露,國家有關部門提出要構建“五位一體”數據要素制度體系,上海市將力爭年內正式出臺上海市數據條例。同時,全國數據交易聯盟、數據要素智能合約創新聯合體也在本屆大會上正式啟動。