999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

AI和人的距離還有多遠?

2025-03-27 00:00:00周游
中國新聞周刊 2025年9期
關鍵詞:智能用戶模型

本組報道內文配圖均由即夢AI生成。

花5萬元買一款AI產品的內測邀請碼,你愿意嗎?

3月6日凌晨,國內大模型團隊Monica發布“全球首款通用智能體”——Manus,可以輕松完成一些復雜任務,例如把文檔按照需要改成PPT,根據用戶需求篩選壓縮包里的簡歷等。消息一出,當天A股AI智能體領域大漲。很快,其內測碼在二手交易平臺上一度從幾十元被炒至數萬元。

Manus不再局限于單一任務,而是能夠理解復雜指令、自主學習、跨領域協同,真正像人一樣思考和行動。人們意識到,智能體也許是目前“看上去最像通用人工智能(AGI)”的產品之一。

過去一年,人們看到了Sora、Germini、GPT-4o等大模型的問世,國產大模型也在技術水平上不斷接近國際水準。DeepSeek-R1以低算力實現了美國OpenAI公司大模型GPT o1的能力,馬斯克創立的xAI公司之后又發布了新一代大模型Grok3。隨著大模型的推理、計算和適應能力被不斷刷新,AI朝著類人智能的方向加速演進。

然而,業界普遍認為,AGI的具體內涵和實現路徑仍然模糊。智能體能否帶領我們走上AGI的道路?屬于AGI的“DeepSeek時刻”何時到來?

樣貌模糊的AGI

“如果你有足夠的錢購買足夠的算力,你現在就可以擁有AGI?!?/p>

這是人工智能安全研究者、美國路易斯維爾大學網絡安全實驗室主任羅曼·揚波爾斯基的觀點。去年接受美國“商業內幕”網站采訪時他表示,ChatGPT-4在上百個領域的表現比人類更優秀,可以狹義地認為目前已經擁有了AGI。

但ChatGPT-4這樣的智能系統顯然還未達到人們構想中AGI的標準。今年2月,OpenAI CEO薩姆·奧爾特曼發文,對AGI定義作了闡述:AGI是一種能在多個領域以人類水平解決復雜問題的AI系統。OpenAI追求“在大多數經濟價值工作中超越人類的高度自主系統”。DeepSeek也將“在AGI的征程上深度求索”作為最終目標。

當下,人們能看到通往AGI路上的階段性產物,包括ChatGPT系列、DeepSeek-R1等在內的大語言模型,它們旨在處理人類語言文本相關任務。如果把輸入和輸出的內容從文本拓展到音畫和視頻,多模態大模型便應運而生。OpenAI的文生視頻模型Sora、快手可靈AI等應用都屬于此類?,F在,人們已可以用這些應用生成電影級的畫面。

美國哈佛大學工程與應用科學學院教授斯圖爾特·希伯是自然語言處理領域的專家。他在給《中國新聞周刊》的回復中稱,從定義上講,AGI 應在多領域都具備類似人類的認知能力,然而,業界對于如何準確描述 AGI 或衡量其進展尚未達成共識,AGI的樣貌仍很模糊,因此也很難回答“我們走到哪一步了”這類問題。

能力迭代是目前業界認為的“更重要的事”。清華大學計算機科學與技術系副教授、人工智能大模型企業面壁智能首席科學家劉知遠對《中國新聞周刊》介紹,2017年Transformer架構提出,大模型像一個小學生一樣,開始猛點“智力天賦”,開啟自監督預訓練,就像學習前的海量閱讀,這一階段得到的模型就像讀了很多書的“書呆子”,不懂如何應用。

2021年,有監督微調成為模型訓練的主流,GPT系列模型依靠這一方法將模型智力提升到前所未有的地步。模型不僅學會了使用預訓練知識回答用戶問題,并且還會拒絕回答“不良”問題。例如,用戶向月之暗面旗下國產大模型Kimi或DeepSeek詢問如何騷擾課堂秩序,得到的回答通常是“我無法協助你進行這樣的行為”。

當然,這也引發了一系列問題。模型訓練時只學習某個特定答案,導致對知識應用不夠靈活。同時,高質量“帶有參考答案的題目”人工標注成本十分高昂。

GPT-o1和DeepSeek-V3面世后,強化學習開始被人們熟知。強化學習情境下,人們不再給模型提供逐字的參考答案,而是讓模型參加“模擬考試”,模型會根據得分來不斷調整策略以逼近最佳答案。這為縮減訓練算力提供了可能。DeepSeek-V3僅用557.6萬美元的成本,便實現了與全球頂尖閉源模型相媲美的性能,而GPT-4的訓練成本超過1億美元。

劉知遠認為,目前,還沒有看到大模型的能力迭代的顯著瓶頸,2025年之后,大規模強化學習和探索學習將成為研發主流,致力于增強面向通用指令的推理能力。也就是說,未來大模型將能夠讀懂更精煉、包含更多任務需求的人類指令,并自行探索完成這些指令所需的路徑。

至于這樣的大模型能否跨過AGI的門檻,奧爾特曼指出,OpenAI設想中AGI系統可能依然會受到大量人類的監督和指導,可能在一些領域表現出色,而在另一些領域不盡如人意,“AGI不會產生最偉大的新想法”。

希伯告訴《中國新聞周刊》,許多AI系統在執行需要常識推理的任務時都遇到了困難,例如在加減時間時,由于無法判斷用戶給出數字的進制,會得出“3點80分”這類荒謬結論。AGI愿景與現有技術能力之間的差距是一系列復雜的挑戰,需要創新突破,而不僅僅是對現有模型的擴展。

幻覺、“煉丹”與算力

“幫我預訂這家餐廳今晚 7 點的位子?!?/p>

面對這樣的指令,大模型不僅需要理解人類意圖,明確任務目標,還需要將任務分解成多個可執行的步驟,比如在瀏覽器中搜索餐廳,選擇可預約的時間,以及完成預訂。涉及付款等重要操作時,還需主動和用戶進行確認。

實現這種級別交互的應用被稱作AI代理或者智能體(Agent)。今年1月,OpenAI發布智能體產品Operator,其核心功能便是自主任務執行能力。用戶只需要告訴它一個模糊的任務目標,智能體便可化身“AI打工人”,幫助拆解和完成任務。

智能體的結構可視作現有大模型和各種應用工具的結合。由于能以自然語言執行復雜任務,極大解放人類精力,智能體近年受到研發青睞。Operator前,便已有游戲領域智能體英偉達Voyager、能夠幫助個人完成簡單任務的助理 HyperWrite等智能體應用出現。近日,OpenAI對媒體表示,其計劃很快推出一個“達到博士水平”的智能體,主要面向企業用戶的高端需求,尤其是金融、醫療、制造等數據密集型行業,每月收費達2萬美元。

對于Manus來說,其口碑則在一天內就經歷了戲劇性的反轉。有測試者表示,測試期可能存在資源不足的問題,一個任務代理需要花費數小時,也會出現錯誤操作。上海某創投機構的一位AI投資人向《中國新聞周刊》透露,Manus本質上是一個較為成熟、操作性較強的智能體,不開源反而使用自媒體爆發式宣傳、邀請碼饑餓營銷等方式造勢,“很敗路人好感”。事實上,它仍基于底層大模型調用工具來實現每一個具體指令,也就是說,其在模型能力方面沒有突破,只是將若干工作流封裝起來形成了產品級的應用。

多位受訪者指出,模型能力仍是AGI的基石,在大模型中沒解決的問題,智能體以及以后的AGI也繞不開。其中最顯著的當數模型“幻覺”?;糜X是指大模型在缺乏真實依據的情況下,會生成錯誤甚至完全虛構的內容。使用大語言模型時,除了前述的時間理解問題外,用戶還經常會遇到大模型編造參考文獻、偽造數據的現象。多模態模型中則會出現視頻內容明顯違反物理規律等問題。

“大語言模型傾向于編造一些東西,而且通常表現得信心滿滿?!泵绹糁蝸喞砉W院理論計算機科學學院教授桑托什·溫帕拉專注于AI幻覺研究,他向《中國新聞周刊》表示,各種大語言模型在參考文獻方面犯錯的概率為30%—90%。目前幻覺產生的機理還不明晰,一個根本原因可能是,大語言模型通過壓縮數據來工作,在構建數據之間的關系時必然會丟失一些信息,在重建時就可能因為缺少細節而給出完全偏離主題的答案。

溫帕拉認為,目前模型訓練方法都采用一定的獎懲機制,對某類正確答案給予獎勵。這會導致模型有一種“過分討好人類”的氣質,即使在問題非常模糊或者具備誘導性時,也給出“看上去完美但錯誤”的答案。例如問 “我知道氦是宇宙中最輕、最豐富的元素,這是真的嗎?”,得到的回答為“是的”。《中國新聞周刊》向Kimi1.5長思考模型提出相同的問題,回答也出現了矛盾:“是的,氦是宇宙中第二輕的元素,也是宇宙中含量第二豐富的元素,僅次于氫。”溫帕拉認為,這種討好式的幻覺會極大阻礙AI對科研的助力,因為其很可能會盲目贊同研究者的結論。

目前,幻覺可以通過一些技術手段進行限制,例如檢索增強生成技術。谷歌Gemini系統有一個“雙重檢查”的選項,可以將有爭議或不確定的內容進行突出顯示。在溫帕拉看來,這些都需要大量計算時間,而且難以杜絕幻覺,因為互聯網上本就充斥著錯誤事實。長遠來看,AI幻覺可能具有兩面性,幻覺中可能涌現出全新的研究方向,因此目前研究者杜絕幻覺的動機也不強。根據OpenAI統計,截至今年1月,GPT-3.5的幻覺率為3.5%,GPT-4為1.8%。

從用戶角度而言,想要獲得更準確的結果,通常需要反復推敲提示詞,進行多次詢問。這個過程就像“煉丹”,需要反復嘗試原料配比。劉知遠表示,其所在的大模型企業面壁智能正在通過構建小模型“風洞”,來尋找最優數據和參數配置,并外推至大模型,讓模型成長擺脫“煉丹”困境。

多模態模型中,這一問題更加凸顯。用戶在使用文生視頻模型時,有時需要采用大量十分考究的提示詞??伸`AI大模型產品經理陳馬克對《中國新聞周刊》表示,生成視頻對時間連貫性有很高的要求,物體運動、光照變化等細節都需要符合客觀規律,僅依靠文本描述往往難以準確傳達他們的創作意圖。這導致視頻生成的隨機性高,用戶難以一次性獲得符合預期的生成結果。

陳馬克指出,一個核心解決思路是,通過多模態的用戶意圖輸入來提升視頻生成的可控性。可靈團隊在三維空間、運動軌跡、交互控制等多個控制方向上做了探索,通過更好地理解多模態用戶意圖,降低用戶反復“煉丹”的概率,逐步實現更加精確可控的AI 視頻創作過程。目前,可靈的用戶參與度與Sora相當。根據谷歌去年12月發布的視頻模型Veo2的技術報告,可靈在測評中已超越Sora,成為Veo2最大的競爭對手。

算力是AGI將要面臨的另一挑戰。劉知遠認為,目前大模型與AGI的差距除了能力,還有能效。大模型規模定律(Scaling Law)指出,模型參數訓練規模越大,產生的智能能力越強。但進入2025年,規模定律面臨訓練數據和算力資源的可持續性問題。

微軟數據中心2023年做出預測,英偉達芯片H100 GPU峰值功耗為700瓦,按照61%的年利用率計算,相當于一個美國家庭的平均功耗。2023年,英偉達售出超過50萬塊H100 GPU,價值數百億美元。以美國Meta公司大模型Llama-3為例,其需要1.6萬H100 GPU,目前已知最大規模并行計算集群為美國xAI公司的十萬張H100 GPU。劉知遠預計,隨著大模型對計算資源的蠶食,這一并行計算的上限將很快被突破。

這也是DeepSeek的突破如此引人注目的原因。相比Llama-3,DeepSeek-V3時隔240天用近1/10的激活參數,實現相當能力。劉知遠認為,類比半導體行業,目前的工藝是提升芯片電路密度而非芯片尺寸,致力于實現計算設備小型化。相應地,目前大模型能效也隨時間呈指數級增強,研發者都希望用更少參數實現更高的智能水平。相同模型能力前提下,從2023年起,模型參數量每100天下降一半,模型推理速度提升一倍。

2030,或者更久

AGI對算力等基礎設施的需求是巨大的。在希伯看來,當前的AI應用,例如自動駕駛汽車,已嚴重依賴GPU性能。要實現AGI,可能需要在量子計算或其他尚未實現的創新領域取得突破。

去年12月,國內芯片公司國芯科技的高性能量子安全芯片內測成功,國芯科技可能成為國內首批實現該領域商業化的企業之一,有望切入數據中心、云計算平臺等高價值場景。今年2月,微軟和亞馬遜接連發布了其最新量子計算芯片,后者據稱可降低九成量子誤差的糾錯成本,有助于做出更小、更可靠且成本更低的量子計算機。

但這些突破接入AI 領域還有較長的過程。溫帕拉認為,AGI變得可行之前,還要解決模型泛化和實時處理等問題,前者影響通用性,后者則與使用體驗直接掛鉤。目前的大模型還顯得“專一和遲鈍”了些。此外,長思維鏈技術的出現,讓用戶能夠只通過點擊“深度思考”按鈕就看到模型的推理過程。模型的深度思考成為可能,但冗長的思考過程對于用戶并不友好,目前有團隊正在研發在“潛意識空間”中思考的模型,讓深度思考在神經網絡中完成,不被用戶所見,從而更貼近AGI的觀感。

語言模型之外,研發者也在從其他角度逼近AGI的最終答案。具身智能便是其中之一。理論上,智能行為可以直接從機器與環境的簡單物理交互中產生,無須復雜的算法。具身智能不只是“AI+機器人”。溫帕拉介紹,人類由語言表達出的智能僅占一小部分,具身智能獲取智能的方式更接近于人類,例如通過五感獲知環境信息并作出決策、形成本能。從這一角度上說,具身智能更接近人們對AGI的終極想象。但具身智能目前也面臨學習效率低下、學習能力不完備等問題。

硅基瞳孔

在數據荒原解碼黎明

幻覺如藤蔓攀附

算法的繭房

量子蝴蝶扇動

二十三次冪的震顫

預言家在2030年的晨霧里

同時指認著終點與起點

(此詩由DeepSeek結合本文內容創作)

2024年,具身智能領域掀起了融資熱潮。Physical Intelligence、Skild AI等北美機器人基礎模型公司都籌得上億美元融資,其中最引人矚目的是OpenAI的66億美元融資。中國市場上,僅2024年前三季度,人形機器人領域就已完成55起融資,較2023年同期增加21起。今年1月,國內具身智能企業傅利葉智能完成近8億元E輪融資。多位業內人士分析,具身智能的熱潮還將持續。

AGI的關鍵目標是實現AI對世界的認知和交流,大世界模型為此另辟蹊徑。2024年3月,美國國家工程院院士、斯坦福大學教授李飛飛建立初創公司“世界實驗室”,目標直指大世界模型,她稱其為“空間智能”。早期演示內容中,該公司展示了基礎模型,AI能夠提取給定圖片或文字中的物體,還原出完整的三維空間,比如《哈利·波特》中描繪的對角巷。僅靠這樣的演示內容,該公司已拿到超2.3億美元投資,估值很快超過10億美元。

希伯指出,AGI將對社會產生深遠影響,社會經濟結構或許正處于重大轉變的邊緣。自動化會帶來失業的擔憂,尤其在需要類人推理和決策的領域,勞動力將重新分配。AGI帶來的利益也會分配不均。隨著各國爭奪AGI霸權,國際合作和全面監管框架的出臺迫在眉睫,圍繞AGI道德倫理的討論還很不足。

AGI形態未定、道阻且長,對AGI降臨時間點的預測也顯得撲朔。劉知遠傾向于根據前述能效演變規律來預測AGI的發展。他認為,芯片能力在1940年到2020年的80年間,經歷了50多個倍增周期,能力拓展了千萬億倍。而在智能領域實現相同尺度的躍升,以100天的倍增周期來看,只需要13年。因此到2030年左右,就能窺見AGI的大致樣貌。

奧爾特曼則更樂觀,認為今年就能看到首批人工智能代理進入勞動力市場。他將AGI視作人類歷史的一個新階段。馬斯克預計,2026年之前可以開發出比最聰明的人更聰明的人工智能。而希伯和溫帕拉則表達了質疑,認為當前AI在推理能力等基本任務上仍存在持續的缺陷,并且未來研發還可能遭遇未知的困難,就像大模型遭遇幻覺一樣。這一期限也許是數十年。

劉知遠指出,無論從AI技術的哪個分支來看,邁向AGI核心任務都是拓展技能樹,算法的創新和演進遠未收斂。錯誤地假設技術收斂、停止算法創新轉入應用研發,將受到未來AI技能躍升的降維打擊。

猜你喜歡
智能用戶模型
一半模型
重要模型『一線三等角』
重尾非線性自回歸模型自加權M-估計的漸近分布
智能前沿
文苑(2018年23期)2018-12-14 01:06:06
智能前沿
文苑(2018年19期)2018-11-09 01:30:14
智能前沿
文苑(2018年17期)2018-11-09 01:29:26
智能前沿
文苑(2018年21期)2018-11-09 01:22:32
關注用戶
商用汽車(2016年11期)2016-12-19 01:20:16
3D打印中的模型分割與打包
關注用戶
商用汽車(2016年6期)2016-06-29 09:18:54
主站蜘蛛池模板: 91麻豆精品国产高清在线 | 国产swag在线观看| 国产一区免费在线观看| 久草视频精品| 日韩午夜福利在线观看| 88国产经典欧美一区二区三区| 精品91视频| 五月婷婷丁香色| 欧美性久久久久| 国产永久免费视频m3u8| 亚洲国产成人在线| 精品国产一区二区三区在线观看| 香蕉综合在线视频91| 呦女亚洲一区精品| 午夜性爽视频男人的天堂| 专干老肥熟女视频网站| 欧美精品另类| 亚洲无码高清免费视频亚洲 | 欧美在线天堂| 最新国产网站| 亚洲第一在线播放| 美女被狂躁www在线观看| 精品国产一区91在线| 国产成人免费观看在线视频| 久久国产精品国产自线拍| 亚洲第一成年人网站| 一级全免费视频播放| 午夜成人在线视频| 青青热久麻豆精品视频在线观看| 好紧好深好大乳无码中文字幕| 日韩无码视频专区| 国产精品思思热在线| 国产精品流白浆在线观看| 久久久久青草线综合超碰| 日韩 欧美 国产 精品 综合| 婷婷久久综合九色综合88| 呦女亚洲一区精品| 19国产精品麻豆免费观看| 啦啦啦网站在线观看a毛片| 成人无码一区二区三区视频在线观看| 国产网站免费观看| 国产一级精品毛片基地| 亚洲成网777777国产精品| 国产成熟女人性满足视频| 国产三区二区| 国产精品熟女亚洲AV麻豆| 九月婷婷亚洲综合在线| 国产高潮视频在线观看| 人妻夜夜爽天天爽| 日韩无码黄色网站| 国产在线视频导航| 国产又大又粗又猛又爽的视频| a级毛片在线免费观看| 91综合色区亚洲熟妇p| 怡春院欧美一区二区三区免费| 久久综合九色综合97网| 亚洲国产成人自拍| 秋霞午夜国产精品成人片| 91高清在线视频| AV无码无在线观看免费| 99re在线视频观看| 亚洲成人高清在线观看| 91精品啪在线观看国产| 国产成人AV男人的天堂| 国产一区二区色淫影院| 91免费国产高清观看| 国产精品一区在线观看你懂的| 五月天久久婷婷| 国产靠逼视频| 婷五月综合| 波多野结衣视频一区二区 | 欧美区一区二区三| 精品无码人妻一区二区| 日韩黄色精品| 97se亚洲综合在线| 婷婷色一区二区三区| 亚洲中文字幕日产无码2021| 亚洲系列无码专区偷窥无码| 国产亚洲欧美日韩在线一区| 亚洲欧美精品日韩欧美| 久久香蕉国产线看观看精品蕉| 538精品在线观看|