7月26日至28日,2025世界人工智能大會在上海舉行,大會以“智能時代 同球共濟”為主題,匯聚全球專家、政企代表、高校學者、投資人,共話AI發展新機遇。
目前,人工智能的進化曲線正以前所未有的斜率上升。更強大的模型、更低廉的算力、更廣泛的接入,使技術紅利在局部地區噴薄而出,也令風險與鴻溝在全球范圍內同步放大。人們逐漸意識到,AI若不能成為國際公共產品,就有可能成為少數主體手中的私器;治理若不能同步升級,技術突破反而可能加劇不平等。于是,一個樸素的命題浮現:如何把“技術向善”的共識,轉化為“制度向善”的行動?答案不應停留在宣言層面,而須嵌入每一條算法、每一項監管、每一次跨境協作之中。
當下AI全球治理由共識到行動困難的根由,可歸結為三種失配。一是速率失配。技術以月為單位更新,規則常以年為單位沉淀。當監管框架落筆,風險形態早已迭代,治理始終處于被動追趕。二是邏輯失配。技術治理講求公共利益最大化,地緣政治卻以相對收益最大化優先。兩條邏輯錯位,導致規則相互抵消,行動彼此掣肘。三是能力失配。少數國家擁有數據、算力、資本和人才的復合優勢,多數國家卻連基礎訓練資源都難以獲得。能力鴻溝讓“共同責任”淪為美好修辭,也讓“普惠”二字失去支點。
這種情況下,以下四種路徑值得探索:
其一,進行敏捷治理,讓規則與技術同頻共振。面對速率失配,“先定規則、再行技術”的傳統線性路徑已難奏效。而敏捷治理提供了另一種思路,即將規則本身視為動態系統,與技術曲線同頻共振。可將風險議題劃分為紅線、觀察、實驗三類。紅線領域,如大規模生物識別濫用、致命性自主武器等,應確立最嚴格的國際硬法,確保底線不破;觀察領域,如生成式內容版權爭議等,可先以行業公約、技術標準為過渡,待條件成熟再硬化為法規;實驗領域,如新興算法的倫理評估等,則通過監管沙盒、開源評測等方式,為技術試錯留出空間。軟硬法協同的核心,是讓規則保持彈性。
其二,設立安全護欄,這相當于大國AI冷戰的“核熱線”。地緣政治的寒意不會一日消散,但AI安全議題的緊迫性又要求主要大國至少保持最低限度的溝通。“安全區”正是在此背景下提出的折中方案,它不觸碰主權敏感地帶,卻在技術層面設置共同護欄。歷史經驗表明,即使在冷戰最緊張的時期,美蘇也能就核熱線達成協議。AI“安全區”的政治難度遠低于核裁軍,理應成為大國理性選擇的優先項。
其三,創建多元網絡,以分層共治防止寡頭壟斷。多元網絡回答“誰有資格制定規則”。國家掌握強制力,國際組織提供中立平臺,企業擁有工程化能力,科學家負責技術評估,公民社會守護價值底線。可行的做法是將治理議題分層,即戰略層由國家主導,標準層由國際組織牽頭,實施層由企業與科研機構承擔,監督層由公民社會補充。這樣既可避免“政府失靈”,也可抑制“市場失靈”,更可防止“專家獨斷”。
其四,堅持能力共建,把“規則接受者”變成“共創者”。能力共建的核心,是讓發展中國家從“規則接受者”轉變為“規則共創者”。一是建設完善開源生態,二是探索共建專項基金,三是搭建知識共享平臺。能力共建是投資而非慈善。當更多國家擁有參與治理的能力,全球AI系統就能吸納多元文化與價值,從而減少偏見,最終反哺技術領先國自身。
AI正在逼近一個臨界點,它不再只是人類手中的工具,而可能成為與人類共存的“新物種”。這一前景使得治理議題從“如何控制技術”升級為“如何與技術共處”。共識已有,缺的是行動。行動不在遠方,而在每一次算法迭代、每一項監管試點、每一次跨境協作的細節里。讓技術回歸人本,讓治理回歸公共性,讓合作超越零和,這不是理想主義的口號,而是關乎人類共同未來的唯一可行路徑。
(梁正系清華大學人工智能國際治理研究院副院長;孫磊華系清華大學人工智能國際治理研究院助理研究員)