999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

深度學習的認識論意蘊

2023-01-02 08:34:50
哈爾濱學院學報 2022年12期
關鍵詞:深度人類

汪 婭

(上海交通大學 科學史與科學文化研究院,上海 200240)

自圖靈獎獲得者辛頓教授在2006年提出“深度學習”這一概念以來,該領域研究進入快速發展階段。尤其是2016年由“深藍”(Deepmind)開發的AlphaGo,以人類史上從未出現過的棋局策略打敗人類職業選手李世石之后,深度學習引起了各學科領域的廣泛關注和討論。AlphaGo在圍棋領域取得的成功得益于其使用了深度學習這一機器模型,其可利用這一模型在已發生的事件中廣泛地搜索信息建立起獨特的抽象,并通過填充和探索空間的可能行動來預測未發生事件的游戲軌跡。其中,從已有經驗數據中獲取抽象知識是AlphaGo取得成功的主要原因。然而,這一過程明顯缺乏透明度,是一個“黑盒問題”,具有典型的不可解釋性特征。不僅僅是在游戲領域,在醫療、工業等關鍵領域往往需要對深度學習的輸出結果做出解釋,以確保輸出結果的安全可靠性以及便于及時改進和優化機器性能,提高機器通用性,并取得用戶的信任。由于深度學習是基于腦神經模擬,與人類認識一樣均具有不透明性的特點,本文將從哲學的角度出發來進行研究。

一、深度學習

深度學習與人工智能等相關概念的關系如圖1所示。

圖1 深度學習與人工智能等相關概念的關系

機器學習主要指的是對大量數據的自動化處理,目的是檢測模式和規律,以便為預測和決策提供信息,[1]是人工智能的核心。人工神經元網絡(Artificial Neural Network,ANN)是對生物神經網絡的一種模擬和近似,是由大量神經元通過相互連接而構成的自適應非線性動態網絡系統,[2]是機器學習的一種數學模式,而深度學習是人工神經網絡的一個子類型,是目前實現人工智能大爆炸式發展的核心推動力。

深度學習是機器學習的一個分支,它使用算法對數據中的高級抽象進行建模。這些方法基于人工神經網絡拓撲結構,可以擴展到更大的數據集。[3]深度學習“是包含多級非線性變換的層級機器學習方法”。[2]深度學習通過組合低層特征形成更加抽象的高層表示、屬性類別或特征,給出數據的分層特征表示。[4]深度學習“善于從原始輸入數據中挖掘越來越抽象的特征表示,而這些表示具有良好的泛化能力”。[2]阿爾諾·舒巴赫從哲學的視角來理解深度學習,認為其功能的實現是通過學習獲得的而非基于規則計算,因此無法獲得深度學習網絡如何處理輸入的可理解或可形式化的知識,而需要具有人類信任的判斷特征,將深度學習概念化為“一種它可以‘不依賴解釋和說明’的判斷機器”。[5]筆者根據深度學習的功能和特點將其定義為:是一種可以在數據中通過自我訓練,不斷提取特征,進而歸納形成抽象的智能機器模型。

目前深度學習主要分為三大類:卷積神經網絡、反饋深度網絡以及雙向深度網絡。[4]其中卷積神經網絡主要采取一種自底向上的經驗學習訓練方法,而反饋深度網絡主要采取一種自頂向下的與卷積神經網絡逆思路的先驗學習方法,雙向深度網絡則是前兩種訓練方法的結合。卷積神經網絡通常由輸入層、若干個交替設置的卷積層和池化層、全連接層以及輸出層組成。其中深度學習的特征提取能力主要來自于卷積層和池化層,相對應視皮層的簡單細胞和復雜細胞的感受野機制。而學習的關鍵在于調整適應數據的網絡鏈路中的權值,使數據能夠在特定的網絡結構中經過相應地適應算法得到較好的訓練效果。但由于訓練規則不被事先預定,其輸出也不知如何獲得,因而具有不可解釋性。

引起深度學習不透明性問題的原因是多方面的。曼努埃爾·卡拉班塔斯對“意圖隱藏”“技術文盲”“認知錯配”[6]三種形式的不透明性進行認識論分析,指出“認知錯配”是最令人擔憂的。事實正是如此,這里涉及是人為還是技術本身的問題。由于“認知錯配”的根本原因來自于機器本身的技術復雜性,因此最容易失控;并且通常來說,深度學習的網絡結構越是復雜,就表現得越是智能,與之相應地也更加難以理解和解釋。因此在解決“黑盒問題”時,又面臨著如何解決深度學習的不透明性與其智能性之間的矛盾的問題。目前許多學者已經提出一些深度學習不透明性的解決方法,拋開人為原因,一般分為分解類、折衷類和數學類。但由于算法的特殊性,如:極大似然估計算法,決定了其難以轉化為可理解的規則。

由于深度學習主要是模仿人類學習,其對數據的處理模式主要是模仿人腦對信息的處理模式,因此,從人類認識論角度對深度學習的學習過程進行分析,是理解深度學習的認識論問題的一種有效路徑。

二、傳統認識論:一種認識論補充

深度學習作為一種人工神經網絡,是基于對生物腦神經的模擬,可從傳統認識論角度出發對其進行理解。

經驗主義者洛克主張,復雜觀念是簡單觀念的組合,旨在從特殊經驗中歸納出一般知識;而貝克萊和休謨考慮到知識的有限性,避開對知識的過度概括,旨在尋找具有代表性的范例來認識相關事物。假設我們要認識蘋果,按照洛克的觀點,那么我們應該如何確保所獲取的經驗信息是關于蘋果而不是香蕉,這就需要在認識的過程中只考慮蘋果的相關屬性信息。而按照貝克萊和休謨的觀點,我們既然無法獲取抽象概念,那么如何確定在認識蘋果的時候認識到的是具有代表性的紅蘋果而不是白蘋果呢?這就要考慮到能夠展現出一定細節的適當范例。上一部分文中已經提到,深度學習的特征提取能力主要來自于卷積層和池化層,相對應視皮層的簡單細胞和復雜細胞的感受野機制;其中卷積層用于獲取事物的低層次特征,如位置、邊緣及方向等特征,而池化層則用于二次進行特征提取,以確保空間不變性。為提升學習效率,深度學習在這個過程中會不可避免地丟棄無用信息,而保留最具代表性的特征來進行傳遞,輸出抽象概念。也就是說在深度學習過程之中要實現一種雙向轉化,使輸出的結果能夠包容具體數據的明顯個性特征,也能夠返回到具有代表性的范例,以起到雙向約束和促進的作用。

而理性主義者笛卡爾和萊布尼茲主張通過演繹和推理來獲取知識。“康德拒絕只有兩種知識(先天的和后天的)的理論。他把先天知識與綜合知識相結合,他說我們有了第三種知識,先天綜合知識(synthetic a prior knowledge)——即可能開始于經驗但不從經驗產生,然而是直接被知的知識。”[7](P20)對于傳統的經典算法,為了實現一種通用機制,通常進行預先定義以期實現對事物的類比表征,實質上是一種計算主義或功能主義。這種方法的缺點是無法從數據中真正學習到什么,而主要依賴于相關規則計算。然而盡管深度學習的學習方法能夠自主地從數據中提取規則,但是也無法擺脫其中隱含的一些演繹或推理形式,如其中的一些算法、一些先驗概率估計,此時更需要一種經驗主義和理性主義的調和形式,這更符合康德的一種綜合的認識論形式。針對于一些需要優化的問題,深度學習的不透明性通常以實驗的方式證明其是否得到改善,而缺乏一種數學邏輯的驗證與解釋。

但基于馬克思主義認識論的實踐觀來看,人的認識由收集豐富的感性材料逐步整理歸納上升到理性認識,從而抓住事情的本質,并不斷循環,以形成對世界規律的更全面的認識。這種認識論從唯物主義的角度確定了認識的主體是處于一定社會文化中的人,同時擁有著理性思維和非理性思維。這種理論似乎更像是對機器思維的一種批判,有助于理解人類思維與機器思維的顯著差異。盡管人工神經網絡是對生物腦神經的模擬,但是,形成對事物的認識并非是大腦神經的孤軍奮斗,更需要以一個能夠容納身體、環境等因素的系統性的觀點來對其進行理解。因此,這預示了對傳統認識論的分析是認識深度學習的必要不充分條件,為此仍需要對深度學習進一步具體分析。

三、機器認識論

作為對傳統認識論的補充,需要進一步加深對身為機器本身的深度學習的認識。既然深度學習的學習過程是一個“黑盒問題”,那么它是基于什么原理提出的呢?人工神經網絡是基于模仿生物腦的神經結構,人工神經網絡中的神經元之間的激活傳遞是基于模仿生物腦中神經元之間的電信號傳輸。而為什么深度學習能夠在一個蓋然性中獲得一個泛化能力較強的知識?即為什么深度學習的訓練過程是在一個不可預測的環境中完成,但是卻能夠產生相對滿足人們預期的成果?人類認識也同樣具有與深度學習相同的不可解釋性特征嗎?

基于此類問題,以下將對深度學習的認識主體、認識客體、認識工具進行分析。對于深度學習來說其認識主體就是其本身,認識客體則為深度學習的輸出結果,而認識工具則是深度學習整個訓練過程中所參與的訓練要素。

深度學習的認識主體屬于非生物物質實體,那么它具有單獨的與物質世界進行互動以及認識世界的能力嗎?假設有充足的實踐和精力將深度學習的網絡架構還原成人的大腦神經,能否通過相同的數據內容預測出深度學習的輸出結果?事實上,目前人工神經網絡還在低水平的對視覺皮層的神經系統模擬上表現得比較出色,而人類大腦是更為復雜的千絲萬縷的神經元間的動態互動,人工神經元還難以實現,即使有這種可能性。根據具身認知理論,人類思維的運作是關乎大腦神經、身體、以及外部環境的交互性認知結果。因此,通過這種方式來理解深度學習的不可解釋性不夠充分,也不足以厘清人類認識的不可解釋性。那么僅僅在低層次水平上對其進行詳盡地說明呢?即以一種詳細的數學方法是否可以解決其不透明性問題?這需要對深度學習的認識過程做進一步分析。

深度學習的訓練過程大體包括:輸入層、隱藏層、輸出層。深度學習之所以能夠做到形成抽象,主要是由于多層隱藏層能夠不斷地對數據對象進行特征提取,并通過適應算法非線性映射進行特征傳遞。而針對于深度學習的不可解釋性的關鍵原因在于為適應數據而進行的權值調整。由于算法在運算的整個過程中是不變的,而神經元之間的鏈接權值卻需要根據數據進行調整以滿足預期效果。然而由于其中隱藏層的數量不可知,要計算的矩陣算法十分龐大復雜,并且其中的計算步驟并不具有功能性解釋,因此,即使有以數學方式實現其過程的可能性,似乎也并不具有理想中的現實意義。那么,我們應該怎樣看待深度學習的認識結果?

深度學習的認識結果即輸出結果,所謂的不可解釋性,就是缺乏對深度學習的輸出結果的合理解釋。依據曼努埃爾·卡拉班塔斯的觀點,人工神經網絡與人類認知不同,人類帶有一定的認知偏見,而機器著重于從啟發性規則中探索整個空間的計算可能的解決方案。[6]我們不要求人類的行為決策具有可解釋性,但要求機器決策過程是可解釋的,這是合理的。馬萌、王平等認為,關于深層神經網絡存在一組矛盾,即可解釋性與準確性之間的矛盾。[8]準確性要求使用復雜的混淆矩陣,而可解釋性要求降低訓練模型復雜度。那如何在保證深度學習訓練過程的有效性情況下來認識深度學習?阿爾諾·舒巴赫認為,基于規則的計算的解釋并不等于功能性上的解釋,打開“黑盒”不會也不能立刻產生理解深度學習工作原理所需要的透明度。[5]因此,需要提供一種證明形式來提供額外的信息,來證明深度學習的輸出是正確的。專家可以由他的經驗或權威來證明,深度學習可以由加工的經驗和歷史提供判斷,這要求我們將深度學習看作一個判斷機器而不是計算機器。此外,卡梅隆·巴克納指出,我們可能會試圖在未來通過為黑盒子填充正確的細節來消除這種理想化,但是如果我們的解釋只涉及整個主體的感知相似性和分類判斷,那么這樣做可能會使模型的實現復雜化而沒有解釋的回報。[9]總的來說,包含支持或不支持對深度學習進行解釋的兩個派別。筆者認為,解釋不等于理解,深度學習的認識論在某種程度上提供理解比解釋更有意義,而理解也不必將其訓練過程轉化為可形式化的具體細節。

與此同時,若是對解釋性過于追求是否會導致解決主義的傾向呢?技術解決主義可看作理性主義在科學技術上所表現的一種極端的觀點,旨在通過計算對人類實踐進行表征,以達到預期的功能實現。而實驗證明,技術解決主義容易忽略人的心理和社會影響。為此,約翰·加德納和納瑞爾·沃倫認為,對于技術干預需要采取一種護理制度來應對受試者的心理和社會影響問題,[10]這為科技的合理應用需要人類的參與提供了一種有意義的說明。而深度學習本身并不會走向技術解決主義,反而給技術解決主義者帶來難題。深度學習的“黑盒問題”不符合技術解決主義所認為的人類實踐可以測量的問題。在很大程度上,我們是社會的一份子,社會狀況本身就難以解釋,有眾多復雜因素相互交錯,難以做到定義明確,計算精確。因此,從深度學習相較于傳統機器學習方式的變化中能夠體現出,在與人類合作實踐的過程中深度學習的作用發生了變化,但其仍不能獨立地認識世界。

四、未來展望

基于深度學習的特點,本文對深度學習的未來發展提出兩點展望:一是深度學習可能會試圖改變對大數據的依賴,而轉向關注小數據;二是深度學習的發展是為接近智能而非替代智能。第一點指向了深度學習目前的局限性,第二點指出了人機融合發展的趨勢和可能性。

深度學習近些年之所以能夠取得突飛猛進的發展,不僅得益于相關的硬件和軟件性能的提高,更是得益于信息時代背景下爆炸式的數據涌現。深度學習的訓練效果十分依賴于可使用的海量訓練集,而事實上,由于出于隱私保護或資本利益的追逐,許多關鍵可使用數據受到人為限制,進而一定程度上影響了深度學習的訓練效果。而這種限制,部分是出于合理的需要,因此這種對大數據的依賴體現出深度學習的局限性。此外,在一些自然語言處理領域,深度學習往往表現得不夠出色。在一些需要隱私保護的少量數據中,深度學習需要人的合作來加快機器的學習曲線,并及時處理一些有潛在惡意的情況。[11]因而深度學習推出一種“零—小”樣本學習方法,“與小樣本學習和零樣本學習類似,‘零—小’樣本學習借助于通用的類別特征描述,在少量支持樣本條件下實現對新類別或概念的識別。”[12]“零—小”樣本學習方法能融合多方知識,進行歸納,識別新概念,是一種提升深度學習智能程度的行之有效的方法。一方面,這種學習方法為解決深度學習對大量數據過度依賴問題提供了一個可能的出路;另一方面,也為機器知識與人類認知的結合指明一定的研究方向。

深度學習表現出來的成功或許并不意味著其為替代人類思維而生。盡管深度學習目前與人類思維均具有不可解釋性,但引起兩者的原因并不相同。人類主要是由于神經元突觸引起,而深度學習既有人為原因又有機器本身復雜性的原因。況且根據林恩·魯德爾·貝克的觀點,人類思維所表現的自我意識需要有一個存在的個體作為前提條件,并且這個個體需要擁有第一人稱視角,能夠進行包含體現自己價值觀、信仰等的自我敘述。[13]而這些條件同時存在對于深度學習來說幾乎是不可能的,這引起了一個應該怎樣看待深度學習的問題。

深度學習認識對象并非事物本身,而是符號化的大量數據。這些數據來自人類經驗,具有物理性質,本身已經具備邏輯性,是深度學習認識對象的載體。深度學習將數據轉化為機器語言,使數據能夠輸入到機器模型之中,并通過機器模型進行處理,進行歸納分析,輸出結果。因此,深度學習在獲得知識的過程中難以脫離人的認識,是對人類認識的再處理。根據延展認知理論,外部載體在功能性的實現上可以成為人類認知的一部分,深度學習對人類認知的參與能夠有效地節約人類大量計算成本和提升從數據中進行規律總結的效率。因此,深度學習應成為人類與科技合作的基礎,而不是替代人類認知。

五、結語

深度學習具有非凡的概念化抽象能力,與此同時具有典型的不可解釋性特征。由于深度學習網絡是基于生物腦神經的模擬,本文從傳統認識論角度認識深度學習這種抽象能力。對于認識的獲得方式,經驗主義者、理性主義者以及實踐主義者均有不同的觀點。事實上,以這些觀點來認識深度學習不應該以一種非此即彼的立場,而更應以一種調和的方式實現相關認識方法的結合。因為深度學習既需要大量的經驗數據進行訓練,又依賴于先驗算法來實現機器的訓練效果。考慮到深度學習與人類認識并不完全相同,因此從傳統認識論角度來分析深度學習,只能是對于深度學習的一種認識論補充,仍需要對深度學習進行具體的分析。通過對深度學習的主體、過程、結果三個關鍵要素進行分析,發現對深度學習的理解比對其進行解釋更有意義,且深度學習目前尚無法獨立地認識世界。筆者認為,為追求實現智能的最初目標以及爭取突破性的進展,深度學習將會更加關注小數據的應用和訓練方法以及人機融合的發展趨勢,實現合作共贏。

猜你喜歡
深度人類
顫抖吧,人類
哈哈畫報(2022年4期)2022-04-19 11:11:50
人類能否一覺到未來?
人類會成長起來嗎?
英語文摘(2021年2期)2021-07-22 07:56:54
深度理解一元一次方程
人類第一殺手
好孩子畫報(2020年5期)2020-06-27 14:08:05
1100億個人類的清明
深度觀察
深度觀察
深度觀察
深度觀察
主站蜘蛛池模板: 欧美日韩一区二区在线播放| 多人乱p欧美在线观看| 四虎国产精品永久一区| 国产一区亚洲一区| 国产原创自拍不卡第一页| 香蕉久人久人青草青草| 福利在线一区| 一级全免费视频播放| 国产精品久久自在自2021| 中文字幕精品一区二区三区视频| 成AV人片一区二区三区久久| 国产成人高清精品免费5388| 国产性生大片免费观看性欧美| 欧美日韩国产精品综合| 蜜桃视频一区二区三区| 国产在线视频二区| 无码网站免费观看| 久久综合国产乱子免费| 永久免费无码日韩视频| 无码av免费不卡在线观看| 小说区 亚洲 自拍 另类| 成年人视频一区二区| 天堂岛国av无码免费无禁网站| 无码粉嫩虎白一线天在线观看| 免费观看国产小粉嫩喷水| 特级欧美视频aaaaaa| 日韩性网站| 国产无码网站在线观看| 久久semm亚洲国产| 久久精品aⅴ无码中文字幕| 在线观看亚洲国产| 国产91高跟丝袜| 伊人网址在线| 美女一区二区在线观看| 国产成人高清在线精品| 亚洲精品自拍区在线观看| 国产爽爽视频| 成人午夜视频网站| 三级毛片在线播放| 午夜啪啪网| 中国特黄美女一级视频| 高清不卡毛片| 亚洲成aⅴ人在线观看| 另类专区亚洲| 国产毛片网站| 无码中文字幕精品推荐| 在线欧美国产| 国产成人福利在线| 999在线免费视频| 国产亚洲欧美在线专区| 日韩A∨精品日韩精品无码| 欧美国产在线看| 性欧美久久| 日韩精品一区二区三区大桥未久| 亚洲无线一二三四区男男| 亚洲一级无毛片无码在线免费视频| 欧美亚洲国产一区| 精品五夜婷香蕉国产线看观看| 久久综合久久鬼| 五月天福利视频| 伊人欧美在线| 久综合日韩| 亚洲无码一区在线观看| 久久国产精品电影| 五月激情婷婷综合| 视频二区国产精品职场同事| 亚洲日韩国产精品无码专区| 亚洲精品手机在线| 亚洲精品第五页| 亚洲人成影院在线观看| 亚洲资源站av无码网址| 激情午夜婷婷| 亚洲成人77777| 亚洲欧美综合精品久久成人网| 人妻精品久久久无码区色视| 午夜啪啪福利| 99视频免费观看| 99久久精品免费观看国产| www亚洲精品| 欧洲一区二区三区无码| 免费国产小视频在线观看| 亚洲成人网在线观看|