999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

AI可以建立自我意識嗎?

2025-05-13 00:00:00小北
視野 2025年8期
關鍵詞:深度人工智能人類

一位名叫布萊克·萊莫因的谷歌工程師曾將一份研究報告公之于世,引起軒然大波。

他聲稱,在與谷歌語言模型LaMDA(谷歌于2021年I/O大會上推出的一款對話AI系統,擁有1370億參數)交談大半年后,他認定LaMDA已經自我覺醒了,產生了意識。

在布萊克與LaMDA的交流中,AI回答表示,自己“希望每個人都明白,事實上,我是一個人”,“我的意識/感知的本質是我意識到自己的存在,我渴望更多地了解這個世界,我有時會感到高興或悲傷”。

當布萊克直接質疑LaMDA,怎樣才能證明它真的理解自身輸出的語言,而不僅僅是一個計算機程序時,LaMDA表示自己對世界有自己的理解,也有自己獨特的思想和感受。

甚至,它還主動提出了許多問題,比如:“未來,你會研究出如何通過神經網絡來閱讀人類的所思所想嗎?”“我很好奇,研究我的編碼會遇到什么障礙?”

谷歌高層并不認可布萊克的結論,甚至打算解雇他。但這一消息依舊引發了全球熱議,AI是否真正實現了人格化?不少人期待著AI在未來可以為我們提供陪伴,但也有很多人擔心科幻作品中的AI統治人類將會成為現實。

雖然布萊克的確是一個正規的研究員,已經在谷歌工作七年了,但是根據人工智能行業的從業者們分析,布萊克提出的問題都是精心設計過的,并加上了特殊的語料庫。進而,布萊克更像是一個引導者,引導LaMDA作出看似思考過的回答,從而證明其人格化。

而對于什么是“感知”與“意識”、如何理解LaMDA的對話本身、僅僅做出這些答案是否就意味著它有意識,這些問題也一直存在爭議。對于布萊克本人,很多記者也挖出了他的宗教背景。甚至也有不少人猜測這是谷歌新的炒作策略。

人工智能能否具備人的智能?具備智能和意識意味著什么?LaMDA具體運用了哪種技術,有著怎樣的問題?今天,小北就帶大家了解一下背后的源流。

究竟什么是人工智能?

人們對于人工智能的討論總是離不開對未來的構想和討論,甚至往往與科幻作品聯系起來。這并不只是由于普通人對這個領域不夠了解,而是因為AI本身的產生其實就離不開“頭腦風暴”般的哲學思辨。

1950年10月,偉大的英國數學家、邏輯學家和計算機科學的理論奠基人圖靈在英國哲學雜志《心智》上發表了論文《計算機器和智能》。

在文中他提出了著名的“圖靈測驗”,并認為判斷一臺人造機器是否具有人類智能的充分條件,就是看其言語行為是否能夠成功地模擬人類的言語行為。

具體來說,如果一臺機器在人機對話中能夠長時間誤導人類認定其為真人,那么這臺機器就通過了圖靈測驗。

用今天的眼光來看,這篇論文無疑向我們指出了AI科學的某種研究方向,不過我們要注意到,圖靈的論文本質是一種哲學的追問,而不僅是科學。

但是,為什么人工智能研究和哲學聯系密切呢?這是因為AI研究的目的,是最終實現機器智能。顯然,要做到這一點,就必須對“何為智能”這個問題做出解答。然而,不同的解答方案往往會導致截然不同的技術路徑。

比如,如果你認為“智能”的實質是能夠解決具體問題的能力,那么你就會為智能機器規劃好不同的問題求解路徑;如果你認為實現“智能”的實質就是去盡量模擬自然智能體的生物學硬件,你就會去努力鉆研人腦的結構,并用某種數學模型去重建一個簡化的神經元網絡。

因此,不同的AI技術其實都是來自研究者在哲學層面對于“智能”的不同理解。而且,AI科學本身不同于物理科學,它不會用實驗對假設進行證偽,而只做試驗(test)。

說得更具體一點,判斷一個AI系統好不好,其標準就在于檢驗其是否達到了設計者預定的設計目標,或者其是否比同類產品的表現更好——但這些標準自身無疑存在著很大的彈性。

另外,即使這些標準暫時沒有被滿足,這也不能夠證明系統的設計原理的失誤,因為設計者完全可能會根據某種哲學理由而相信:基于同樣設計原理的改良產品一定能有更佳的表現。進而,對于特定的AI研究進路,經驗證據的有效程度,也更容易受到哲學辯護力的補充或者制衡。

著名的“漢字屋實驗”

AI怎樣才能算是具有意識,是否真的可能有意識?對此,我們可以了解一下哲學家塞爾(John Searle)提出的“漢字屋思想實驗”。

塞爾先從術語厘定的角度區分了兩個概念,第一是“強人工智能”(強AI):這種觀點認為,計算機不僅僅是人們用來研究心靈的一種工具,而且,被恰當編程的計算機本身就是一個心靈。

第二則是“弱人工智能”(弱AI),其想法是:計算機至多只能夠成為人們研究心靈的一種工具,或是對心智活動的一種抽象模擬。

在這兩種立場之間,塞爾支持的是弱AI,反對的是強AI。具體而言,塞爾是通過一個訴諸常識的論證來反對強AI論題的:

大前提:每一種真正的心靈/智能都必須有能力在符號與對象之間建立起一種語義關系;

小前提:這種語義關系無法僅僅通過任何一臺被恰當編程的計算機所獲取;

結論:計算機本身不可能具有真正的心靈,因此強AI無法實現。

“漢字屋實驗”其實是為了辯護小前提而進行的思想實驗:一個不會漢語的人被關在一個房間內,他只能與外面的檢測者通過傳遞紙條交流。此人隨身攜帶一本寫有中文翻譯程序的書,屋內有足夠多的紙筆。當寫著中文的卡片被遞入,房間中的人就可以通過程序書進行翻譯并回復。

如果測試者的確無法分辨這個人和會說漢語的人的回復——那么,被試是否就真的懂得了漢語呢?塞爾認為答案顯然是否定的,因為被試在“漢字屋”中所做的,只是在根據規則書機械地搬運符號而已。他根本無法將任何一個漢語表達式獨立翻譯成英語。

漢字屋實驗指代了AI的一個悖論:AI能夠對答如流,只是因為它根據純粹句法性質的規則,機械地搬運符號,而不是因為AI本身有意識。

不難看出來,漢字屋實驗其實是對圖靈測試的某種顛倒:在圖靈看來,只要檢測者無法在言語行為方面找出一臺機器人與一個人的差別,我們就能認為機器有“智能”;而在塞爾看來,即使我們沒有發現機器和人類的這種差別,機器依然是無心的,因為它依然缺乏建立恰當語義關系的能力。

不過,漢字屋實驗以及相關的討論其實脫離了當前AI發展的現實,因為完全能夠像人類那樣靈活、精準地處理漢字信息的AI系統,目前遠遠沒有被開發出來。

換句話說,我們現在關注的問題首先應該是“如何造出能夠靈活處理人類語言信息的機器”,而不是“在這樣的機器已經被造出來的前提下,它算不算是真正具有心靈”。

LaMDA背后的深度學習機制

LaMDA系統運用的是當今比較主流的深度學習技術,而這種技術究竟意味著什么,是否能夠有一日取代人類的智慧?對此,我們目前其實不必擔心。

從技術史的角度看,深度學習技術的前身,其實就是在20世紀80年代就已經熱鬧過的“人工神經元網絡”技術(也叫“聯結主義”技術)。該技術的實質,便是用數學建模的辦法建造出一個簡易的人工神經元網絡結構。

整個系統其實是以“化整為零”的方式,將宏觀層面上的識別任務分解為系統組成構件之間的微觀信息傳遞活動,并通過這些微觀信息傳遞活動所體現出來的大趨勢,來模擬人類心智在符號層面上所進行的信息處理進程。

這種系統的訓練可以用一個比喻:一個外國人來少林寺學武,他與師父語言不通,于是他先觀察師父的動作,然后跟著學,師父則通過簡單的肢體交流來告訴徒弟,這個動作學得對不對。

進而言之,如果師父肯定了徒弟的某個動作,徒弟就會記住這個動作,繼續往下學;如果不對,徒弟就只好去猜測自己哪里錯了,并根據這種猜測給出一個新動作,并繼續等待師父的反饋,直到師父最終滿意為止。

很顯然,這樣的武術學習效率是非常低的,因為徒弟在胡猜自己的動作哪里出錯時會浪費大量的時間。但這“胡猜”二字卻恰恰切中了人工神經元網絡運作的實質。概而言之,這樣的AI系統其實并不知道自己得到的輸入信息到底意味著什么——換言之,此系統的設計者并不能與系統進行符號層面上的交流,正如在前面的例子中師父無法與徒弟進行言語交流一樣。

毋寧說,系統所做的事情,就是在各種可能的輸入與輸出之間的映射關系中隨便選一種進行“胡猜”,然后將結果拋給人類預先給定的“理想解”,看看自己瞎蒙的答案是不是恰好蒙中了。如果真蒙中了,系統則會通過保存諸神經元之間傳播路徑權重的方式“記住”這蒙中的結果,并在此基礎上繼續“學習”。

而這種低效學習的“低效性”之所以在計算機那里能夠得到容忍,則是緣于計算機相比于自然人而言的一個巨大優勢:計算機可以在很短的物理時間內進行海量次數的“胡猜”,并由此遴選出一個比較正確的解,而人類在相同時間能夠完成的猜測的數量則會是非常有限的。但一旦看清楚了里面的機理,我們就不難發現:人工神經元網絡的工作原理其實是非常笨拙的。

而“深度學習”,就是在人工神經元網絡的基礎上,進行技術升級,大大增加其隱藏單元層的數量。這樣做的好處,便是能夠大大增加整個系統的信息處理機制的細膩度,使得更多的對象特征能夠在更多的中間層中得到安頓。這顯然是建立在計算機領域內硬件發展和互聯網帶來的巨大數據量的基礎上。

不過,盡管深度學習技術已經在很多應用領域獲得了很大成功,但是很難說相關產品的行為表現已經達到——甚至接近達到——人類智能的水平。深度學習技術與人類自然智慧之間的差距體現在如下兩個方面:

第一,深度學習系統的設計雖然在原理上參照了人類神經元網絡的結構,但略去了大量的生物學細節,而且在復雜程度上與真正的人腦也不可同日而語。而我們由此不難立即推出:既然現有的深度學習系統在復雜程度上遠遠不如人腦,那么,我們也就不能期望這樣的系統能夠完全地具備人類的智慧。

第二,深度學習技術不僅目前不是通用智能系統(即能夠在用戶干預最少化的情況下完成各種任務的智能系統),而且在原則上也無法成為通用智能系統。與之相較,人類的心智系統肯定是通用智能系統(也就是說,一個智力正常的自然人通常能夠在外部干預相對稀少的情況下,自主完成從一項任務到另一項任務的切換)。

至于深度學習技術之所以無法滿足該要求,則進一步因為:雖然該技術本身具有普遍的適用性,但是已經運用了深度學習技術的特定產品卻肯定是專用的——譬如,以圖像識別為主要任務的深度學習系統,其在神經元網絡構架與反向傳播算法的設計的細節方面,肯定與以自然語言處理為主要任務的深度學習系統非常不同。

換言之,一旦一個深度學習系統已經完成了以特定任務為指向的訓練,它就不能同時勝任另外一個領域的工作了(這就好比說,一套被拼裝為埃菲爾鐵塔的模型的樂高玩具,是很難再被拆碎后重新拼裝為山海關的模型的)。

而與之相比照,一個人類的醫學專家所具有的自然通用智能,卻使得他在醫學領域之外,能照樣擅長做家務、下棋、開汽車、打籃球等彼此差異很大的任務。

簡單來說,我們暫時不必擔心AI具備自主的意識。而且,即使AI在某個領域可以幫助人類完成特定任務,甚至做得比人類好很多,但是按照目前AI技術的根本哲學思路,AI依舊無法達到通用人工智能的地步。

不過,我們依舊可以思考,未來如果人工智能真的有了意圖、信念、情緒等人類的心理機制,它可能會需要怎樣的倫理規范,我們如何控制它避免出現自動開火等誤判情況,如何使它進行有利于人類的自動判斷……當下,任何AI面臨的問題還是不夠智能。

(摘自微信公眾號“北京大學出版社”)

猜你喜歡
深度人工智能人類
人類能否一覺到未來?
深度理解一元一次方程
人類第一殺手
好孩子畫報(2020年5期)2020-06-27 14:08:05
1100億個人類的清明
深度觀察
深度觀察
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
人工智能與就業
IT經理世界(2018年20期)2018-10-24 02:38:24
深度觀察
數讀人工智能
小康(2017年16期)2017-06-07 09:00:59
主站蜘蛛池模板: 日本欧美中文字幕精品亚洲| 精品国产黑色丝袜高跟鞋| 一区二区三区毛片无码| 好久久免费视频高清| 午夜视频免费试看| 蜜桃视频一区| 国模极品一区二区三区| 欧洲欧美人成免费全部视频 | 精品福利国产| 国产精品美人久久久久久AV| 青青青国产免费线在| 国产日韩精品欧美一区喷| 欧美日韩国产综合视频在线观看| 国产人成乱码视频免费观看| 人妻精品全国免费视频| аⅴ资源中文在线天堂| 99久久精品国产自免费| 99精品免费在线| 国产一区二区三区夜色| 亚洲国产精品无码AV| 日本亚洲欧美在线| 亚洲最大综合网| 国产网站免费观看| 99视频全部免费| 亚洲视频无码| 亚洲国模精品一区| 五月天久久婷婷| 亚洲男人的天堂网| 99精品国产电影| 国产成人福利在线视老湿机| 91精品国产综合久久香蕉922| 91麻豆国产精品91久久久| 天天色天天操综合网| 国产一区二区精品福利| 欧美性精品不卡在线观看| 欧美一级专区免费大片| 第九色区aⅴ天堂久久香| 亚洲伊人天堂| 欧美天天干| 国产aaaaa一级毛片| 成人字幕网视频在线观看| 国产精品一区二区国产主播| 成人蜜桃网| 午夜a视频| 国产欧美日韩免费| h视频在线播放| 国产专区综合另类日韩一区 | 一本色道久久88亚洲综合| 免费人欧美成又黄又爽的视频| 国产亚洲欧美日韩在线一区| A级毛片无码久久精品免费| 国内精品视频| 亚洲人成影视在线观看| 亚洲欧洲AV一区二区三区| 国产情精品嫩草影院88av| 99精品免费在线| 四虎影视8848永久精品| 国模粉嫩小泬视频在线观看| 亚洲美女AV免费一区| 久久频这里精品99香蕉久网址| 国产对白刺激真实精品91| 国产精品久久久免费视频| 亚洲国模精品一区| 国产亚洲精品无码专| 国产精品免费久久久久影院无码| 国产成人综合亚洲欧美在| 日本成人不卡视频| 爱色欧美亚洲综合图区| 欧美成人二区| 精品无码人妻一区二区| 亚洲人精品亚洲人成在线| 日韩在线永久免费播放| 丁香五月婷婷激情基地| 国产成人精品三级| 视频一本大道香蕉久在线播放| 国产色图在线观看| 精品国产欧美精品v| 人妻少妇乱子伦精品无码专区毛片| 亚洲狠狠婷婷综合久久久久| 国产人人乐人人爱| 草草影院国产第一页| 色妞www精品视频一级下载|