
近日,國際頂尖學術期刊《自然》公布了倫敦大學學院研究團隊的一份調查報告。調查面向來自美國、中國、英國、印度,以及歐盟國家和其他低收入國家的4260名AI領域的專家,并與英國國家統計局此前對公眾的調查結果進行了對比分析。這是迄今全球規模最大的對AI領域專家的調查,揭示了AI專家群體內部在AI發展前景、風險認知及治理需求等方面的共識與差異。
調查結果顯示,大多數來自AI領域前沿國家和地區的研究人員認為AI利大于弊,樂觀派占比54%,傾向于支持快速發展AI技術。但也有占比9%的研究人員屬于悲觀派,認為AI 弊大于利。其余的研究人員則認為,AI利弊相當,積極影響和潛在風險基本持平。占比62%的研究人員強調了公眾參與人工智能的重要性,但他們認為這種參與應主要聚焦于AI的影響和控制,而非其實踐與開發。
研究團隊指出,當前 AI 研發存在“技術精英主導”的傾向,主要體現在以下四個方面:一是技術門檻高。AI研發需要深厚的數學、統計學和計算機科學基礎,這使得普通民眾難以直接參與。二是專業知識和技能要求高。AI研發需要相當的專業知識和技能,非專業人士難以介入。三是資源和資金集中。AI研發需要大量的資源和資金支持,因此研發活動往往集中在少數大型科技企業和研究機構,這種集中導致技術精英占據主導地位,普通民眾難以獲得相應的資源和機會。四是教育和培訓不足。目前的教育體系尚未完全適應AI技術的發展需求,普通民眾缺乏必要的培訓來參與AI的研發。
參與調查的牛津大學牛津互聯網研究院和人工智能倫理研究所副教授葉卡捷琳娜·赫托格表示,目前研究人員已基本達成如下共識:AI專家群體要與公眾更密切地合作,創造出“反映用戶實際需求”的AI技術;同時,應加強AI專家與社會科學的對話,建立更具包容性的AI治理框架。這項調研為AI技術發展的社會認知基礎提供了重要數據,對于系統考量AI的社會價值和助力政府制定相關政策具有重要的參考意義。
有占比75%的研究人員認為,AI增加了人們獲取知識的機會。這是因為它在信息檢索和知識管理方面具有顯著優勢,借助自然語言處理技術,AI能夠理解和分析大量的文本數據,幫助用戶快速定位相關信息,大大提高了信息獲取的效率?。
有占比72%的研究人員指出,AI能夠讓工作更加容易。具體而言,它具備強大的數據分析能力,可以處理海量復雜的數據,快速發現其中的規律和趨勢;此外,AI的自然語言處理技術使其能夠實現自動翻譯、語音識別和文本生成等,有效消除了語言障礙,提高了跨文化溝通的效率。綜合來看,AI對職場效率和工作質量的提升是全方位的,不僅提高了數據處理速度,輔助人類進行更精準的決策,還優化了團隊溝通與協作,提供了個性化服務方案。
有占比57%的研究人員表示,AI為人們提供了更多獲得醫療保健的機會。AI 算法可以通過快速分析大量的醫學影像來輔助醫生進行疾病診斷,尤其是在捕捉早期病變跡象方面,AI展現出了獨特的優勢。不僅如此,它還能深入分析患者的基因組數據、詳細病史和生活方式,從而輔助醫生制訂更精準的個性化的治療方案。在患者服務方面,AI 驅動的聊天機器人和虛擬助手也扮演著越來越重要的角色。它們可以隨時隨地為患者提供在線咨詢和健康支持,持續監測他們的健康狀況,并在出現異常情況時及時發出警報。

有占比約55%的研究人員發現,AI讓做家務變得更輕松。通過給家電安裝“視覺神經中樞”,智能家電能夠依靠AI技術識別家庭環境中的障礙物,并自主規劃路徑進行清潔工作。目前,已有多家家電企業通過技術創新與深度融合,宣布接入DeepSeek等AI大模型,持續探索人工智能與智能家居融合的無限可能?。
有占比約77%的研究人員認為,AI會讓信息真假難辨。AI可以通過深度學習生成高度逼真的文本、圖片和視頻等內容,這些內容在外觀上與真實信息極為相似,甚至能夠達到以假亂真的效果。更值得警惕的是,AI生成的虛假信息往往使用煽動性的標題、捏造看似權威的數據、生成碎片化內容導致難以溯源,并且更易在網絡上傳播,進一步增加了辨別信息真偽的難度。
還有占比65%的研究人員強調,AI 會未經授權使用個人數據。同時,59%的研究人員認為,AI會導致網絡犯罪增加。隨著AI技術的發展,其在各個領域的應用將變得越來越廣泛,一旦被濫用,將可能引發一系列嚴重的網絡犯罪問題,包括數據隱私泄露、自動化的網絡攻擊以及虛假信息的傳播等?。這些問題不僅威脅到個人的隱私和安全,更對整個社會的穩定和秩序構成了挑戰。
還有47%的研究人員表示,AI會減少社交互動。如果人們長期依賴AI進行社交,可能會降低大腦中“鏡像神經元”的活躍度。這些神經元就像大腦中的一面“魔鏡”,具有特殊的映射功能,能夠讓我們在觀察他人時,直接在大腦中映射出對方的行為、情緒和意圖等。就像長期不鍛煉會導致肌肉萎縮一樣,長期缺乏面對面互動也可能導致大腦負責社交的區域發生微妙的退化?。人際間的討論過程減少,思想的交匯也隨之減少,將會影響到人們的創新能力。因此,缺乏真實的社交互動會限制新思想的產生和交流,進而影響整體的創新能力?。此外,過度依賴AI還可能導致人們對機器的信任增強,而對他人的信任度下降。這種變化一旦成為普遍現象,可能會影響整個社會的信任體系,導致人們更愿意相信機器而不是人類本身?。最后,需要強調的是,AI目前還無法真正理解人類情感的復雜性,若長期依賴它進行情感層面的互動,可能導致人們在情感理解和表達能力上出現退化。

這項調查研究還表明,對于未來能否實現通用人工智能,AI 研究人員的看法存在分歧。僅有21%的研究人員堅信通用人工智能的出現不可避免,但半數研究人員并不這么認為,這與科技界所持的“人類在未來幾年內就能實現通用人工智能”的樂觀態度有所不同。華為公司的AI 專家表示,邁向真正的通用人工智能可能需要發展“具身智能”,以期獲得人類級別的感覺和認知靈活性。“具身智能”是人工智能與機器人學科交叉的前沿領域,其核心在于將感知、行動與認知深度融合,強調智能體通過身體與環境的動態交互來實現自主學習和進化。不過,?目前這些技術成就尚未實現。
通用人工智能是指具有高效的學習和泛化能力、能夠根據所處的復雜動態環境自主規劃并完成任務的人工智能體。泛化能力是機器學習模型的核心性能指標,是指模型在訓練數據之外的?新樣本?上表現出的預測或適應能力。一個合格的通用人工智能,應該和人類一樣,不僅能夠獨立感知環境、進行思考、作出決策、學習新技能、執行任務,還能夠理解并遵循社會倫理和道德規范,并與人類或其他智能體進行有效的協作。
通用人工智能要讓智能體具備三個基本特征:一是它必須能處理事先未明確指定的任務,而不是只能完成事先定義的特定任務。二是它要具備在場景中自主發現任務的能力,這類似于我們通常所說的要做到“眼里有活兒”。三是它應該由自主能動性來驅動,而非被動地依賴數據驅動。因此,實現通用人工智能需要解決一系列關鍵的技術問題。比如,構建智能體的認知架構,確保其能夠在現實世界中進行有效的行動,并能夠與社會環境進行互動,讓它的決策過程透明且可解釋,以及建立與人類之間的信任關系等。
通用人工智能的發展涉及眾多學科領域,包括計算機科學、認知科學、心理學、神經科學等。近年來,AI技術取得了顯著進展,但通用人工智能的發展仍面臨諸多挑戰,如跨領域知識的遷移、自主探索與學習、情感與價值觀的融入等。除此之外,通用人工智能的倫理、法律和安全問題也引起了廣泛的關注。
OpenAI公司的首席執行官薩姆·奧爾特曼在其2025年1月5日發表的題為《反思》的新年博客文章中聲稱,OpenAI公司不僅已經知道如何構建通用人工智能,而且正在向這一目標邁進。在奧爾特曼過去的發言中,對實現通用人工智能的態度更多的還只是“有信心”,而如此堅定地表示已經明確找到構建它的路徑還是第一次。然而,知道如何創造通用人工智能還只是漫長征程的第一步,目前OpenAI公司還無法將其計劃付諸實施。奧爾特曼本人也不知道這一目標何時能夠實現,不過相信在未來幾年內將會取得巨大進展。
在這次調查中,AI 領域的許多專家認為,OpenAI開發的大語言模型ChatGPT雖然在自然語言處理等領域取得了驚人的進展,但本質上仍屬于一種基于深度學習技術的大型預訓練神經網絡模型。深度學習是人工智能的分支“機器學習”麾下的一種算法模型,并不符合通用人工智能的要求。
