999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

論文森特·穆勒的人工智能哲學思想

2021-12-07 18:10:41劉寶杰
關鍵詞:人工智能智能發展

劉寶杰,姜 惠

(曲阜師范大學 馬克思主義學院,山東 曲阜 273165)

文森特·穆勒(Vincent C.Müller)是埃因霍溫理工大學(TU/e)的技術哲學教授,利茲大學的大學研究員和倫敦的Alan Turing 研究所的圖靈研究員,以及歐洲認知系統學會和“倫理,法律和社會經濟問題”euRobotics 專題組主席。近年來,穆勒發表了40 余篇學術論文,并編輯出版了16 本著作,內容涉及AI 和認知科學哲學、計算哲學、語言哲學、應用倫理學等方面。近年來,其研究聚焦于心靈、語言與計算哲學以及信息與計算倫理。

一、人工智能哲學的新發展

當前,新一輪科技革命正蓄勢待發,各國紛紛進行顛覆性技術創新以搶占先機。從國際大環境看,顛覆性技術創新聚焦于一些關鍵領域,人工智能便是其中之一。當人工智能的研究人員去探索人工智能時,他們認為從哲學角度審視人工智能,是發展人工智能的必要一環,穆勒也表明人工智能哲學將對人工智能的發展發揮指導作用。基于人工智能哲學的發展現狀,穆勒指出,人工智能哲學實際上已經發生了一些新變化,并且主要體現在兩個方面,即:人工智能與認知科學相分離以及人工智能的長期風險在哲學研究中日益受到關注[1]2。

關于人工智能與認知科學的關系研究。在傳統觀點中,人工智能與認知科學之間恰似一枚硬幣的兩面。20 世紀80 年代,約翰·豪格蘭德(John Haugeland)提出了“有效的老式人工智能”(GOFAI),認為對符號表征的句法處理足以實現智能。[2]2如果認知是基于符號表征的計算過程,那么計算可以被認知科學發現,然后由人工計算系統中的人工智能實現。[1]2在GOFAI 之后,穆勒指出,現在認知不再必須作為算法符號處理而存在,認知科學涉及“具身化理論”“動態理論”等,并且它趨向于尋找自己的發展道路,而不再附屬于人工智能。

關于人工智能長期風險的哲學分析。人工智能作為顛覆性技術,其應用和發展必然會對社會產生多樣的顛覆性影響,其中,人工智能所帶來的長期風險更是在哲學研究中引起廣泛關注。在這里,長期風險主要包含兩方面的理解。一方面,人工智能的應用使人類當前正面對著一系列風險挑戰,這些現有的風險對人類的影響時間較久,就此而言,人工智能的風險是長期的。另一方面,人工智能的發展使人類未來將面臨新的風險挑戰。盡管一些人工智能在現實應用中并未完全暴露出其風險,但由于新興技術尚不完善,隨著人工智能的發展,新的風險將接續出現,這也意味著人工智能的風險是長期風險??傊?,穆勒認識到人工智能風險的長期性,綜合考量人工智能的現有風險與潛在風險。

二、人工智能與認知科學的新關系

穆勒指出,當前人工智能哲學新發展中的一個主要變化就是,由于人工智能和認知科學的發展,人工智能與認知科學的關系呈現新變化。同時,穆勒認為,我們如何看待人工智能的發展前景、如何看待人工智能與認知科學的新關系,這取決于我們如何看待自己制造的技術產品和人類自身,因為這些問題涉及技術功能和人類認知。因此,當我們重新審視二者之間的關系時,這在一定程度上意味著重新審視技術產品與人類之間的關系。[3]68

傳統的“計算主義者”認為,認知是對表征的計算,它可以在任何自然的或人工的計算系統中進行。[3]68認知科學通過其理論應用發現了自然的認知系統是如何工作的,而人工智能的工程學科則測試了認知科學的假設并將其用于發展人工認知系統的過程中。[1]2在這種傳統觀點中,人工智能和認知科學具有共同假設的哲學分析,二者相互聯系,這一觀點引起了人們對人工智能的哲學和理論探索興趣。但就目前來看,這一舊共識的大多數觀點都受到了強烈的沖擊:[3]68計算是數字化的;表征對于計算至關重要;有生命或是無生命主體間的區別已無關緊要;等等。

就人工智能發展歷程來說,在經過1967 年至20 世紀70 年代初期的蕭條停滯期后,人工智能不斷走向蓬勃發展。此外,加上認知科學在當前的新發展,這兩方面的因素使穆勒認為“當前的人工智能似乎已經終結了同認知科學間的特殊關系”[4]102,二者不再緊密結合。當前,穆勒指出認知主義找到了撤退和重組的方法,特別是當它涉及人工智能或人工認知系統的論題時,穆勒還特別以人工通用智能進行說明:如果我們一開始就假設智能主體是在給定的環境中通過選擇正確行為來實現其目標的主體,那么更智能的主體可以在更多的環境中實現其目標——這一考量提供了智能的一般衡量標準。[5]47因此,可以通過機器學習技法(machine-learning techniques)來實現人工通用智能,機器學習技法實質上就是在給定某些輸入集的情況下優化輸出。盡管原始模型中有類似于智能主體具有無限計算能力這樣的不真實的假設,仍然有大量項目意欲創建智能主體。在這里,穆勒指出了“行動選擇”問題(Problems of“Action-Selection”),具體而言,智能主體解決了“行動選擇”問題即“接下來我應該做什么”的問題,這是“建模-計劃-行動”的結果,也就是基于主體的認知主義的結果。但在穆勒看來,當前許多智能主體根本不進行“行動選擇”,例如耦合具身化系統中的被動動態助行器(the passive dynamic walker),它是一種不需要任何電子控制設備就可以行走的微型機器人,其行走取決于行走的路表狀況和助行器的機械參數,并不需要助行器做出“行動選擇”,這就與認知主義并無關聯。而且,在對人工認知系統的探討中,穆勒對經驗論題、實踐工程論題和概念論題做出判斷:具身認知的經驗論題完全為真,實踐工程論題基本為真,而概念論題可能為假。[5]48這三個論題在邏輯上是各自獨立的,就此而言,人工智能與認知科學是相互獨立的。

此外,在對瑪格麗特·博登(Margaret Boden)《機器思維:認知科學的歷史》(Minds as Machine:A history of cognitive science)一書的書評中,穆勒更是直言:“認知科學死了,認知科學萬歲!”[6]124在穆勒看來,認知科學摒棄了原有的發展模式,逐漸開辟出新的發展路徑,它以認知心理學為主要形式,并與人工智能分離,而人工智能也已成為一門成功的工程學科,在很大程度上沒有任何關于認知的探索[6]124。

三、人工智能的長期風險

穆勒認為當前人工智能哲學的另一個主要新變化就是,人工智能哲學日益重視對人工智能的長期風險研究,并且穆勒也做出大量分析。其中,穆勒分別從就業、隱私和軍事等方面指出,人工智能使人類面臨著失業風險、隱私風險和安全風險。

人工智能可能激化未來全球范圍內的失業問題。人工智能對就業的影響,一方面,人工智能會提供新的就業機會,另一方面,人工智能又會使勞動者失業。在人工智能對失業的影響這一問題上,盡管人們對此持悲觀、中立和樂觀三種態度,但三方都認為人工智能會造成大批勞動者失業。在穆勒看來,其一,由于人工智能的發展,智能機器人進入生產和生活領域,不斷排擠勞動者。例如,在健康護理行業中,護理機器人代替了大量的人類護理人員。其二,由于顛覆性技術是能夠破壞和替代現有技術的全新技術,其發展和應用必然需要新的技能,在人工智能領域內,勞動者若不按人工智能的技術新要求提高勞動水平,就將不幸成為失業者。其三,工業自動化取代了人的自然力,數字自動化取代了人的思想或信息處理,由于人工智能使信息技能自動化,目前勞動力市場上出現了“工作兩極分化”或就業結構“啞鈴狀”:高技能的技術性工作需求量大、工資高,低技能的服務性工作需求量大、工資低,但中等技能要求的工作(即絕大多數工作),由于具有相對可預測性且有固定規則,因此最有可能被自動化所取代,從事這些工作的勞動者大多會失業。穆勒總結道:“人工智能最終是否會導致失業,取決于技術發展和社會反應?!保?]10隨著人工智能的發展,擺脫時間與空間的局限,人工智能在未來可能會加劇全球范圍內的失業問題,因此說,人類面臨著失業風險。

人工智能增加了對個人進行數據收集和利用信息操縱行為的可能性。隨著新興技術的發展,人們的生活愈發信息化、數字化。一般來說,目前的數據都以數字化方式進行收集和儲存,后經傳感技術轉化為新的信息和數據。例如,人臉識別系統借助大數據分析和人工智能算法,通過對照片或監控系統中的人臉進行識別,從而實現對個人信息的搜索和分析。因此,從這個角度來說,人工智能極大地增加了數據收集、數據分析和監視的可能性。而當前,越來越多的商業企業開始利用人工智能的這一效應,對顧客的信息進行訪問,以實現自己的經濟利益。此外,“監視中的人工智能問題不僅涉及對數據的收集和關注的方向,還包括使用信息來操縱行為”[7]6。雖然操縱行為由來已久,但在基于大數據分析的人工智能系統中,操縱行為有了新的發展。由于國家、企業和私人個體對個人信息和數據的掌握,用戶很容易受到欺騙,進而阻礙自主理性的行為選擇??傊?,人工智能及其應用在很大程度上對人類進行監視,個人面臨著隱私風險。

人工智能在軍事中的應用使得安全風險增加。其一,借用斯派洛(Rob Sparrow)所假設的案例:機載自動武器系統在人工智能的指導下,仍會有意轟炸已表明投降意愿的敵軍。[8]304穆勒指出,人工智能應用于戰爭之中,戰爭機理隨之發生變化,存在各種不確定因素。同時人工智能尚未成熟,存在著較高的誤判概率,軍事安全得不到保障。其二,自主武器的使用,可能提高戰爭爆發概率和戰爭破壞程度。就小范圍的影響而言,一架裝載爆炸物的小型無人機就能夠搜索、識別、追殺一個部隊的人類。那么能夠自動識別和攻擊目標的常規巡航導彈,會在更大范圍內造成破壞,特別是在人口稠密的地區,人們的生命安全受到更大的威脅。其三,由于各國政治力量和人工智能發展水平不同,一方可以不受懲罰地攻擊另一方的不對稱性沖突已經存在。這種不對稱性沖突,無論是發生概率抑或是破壞程度都較之以前有所提高,特別是對被攻擊一方而言,人民的生命安全受到威脅。“可以說,主要的威脅不是在常規戰爭中使用此類武器,而是在非對稱沖突中或由包括罪犯在內的非國家機構使用。”[7]12

坐在沙發上的周澤贍無聊地換著電視頻道。換到播《動物世界》的頻道時,周澤贍停下了按鍵的手指,抱肩看起電視來,眼神卻沒有聚焦到屏幕上。周澤贍坐到靠近桌子的座機前,熟練地撥著號碼。

作為顛覆性技術的人工智能無疑給社會帶來新的發展和變革,其中,穆勒著重對人工智能及其發展所帶來的風險挑戰進行分析。以人工智能對就業、隱私和安全的消極效應分析為例,穆勒揭示了人工智能所帶來的社會問題、倫理問題和安全問題。

四、人工智能的政策干預

由于人工智能給人們的日常生活帶來許多威脅,不少人都主張禁止使用人工智能,特別是在致命自主武器系統(LAWS)這一領域,人們普遍反對人工智能的應用。不同的是,穆勒提出了“調節規范、而非禁止”[8]321的口號。針對人工智能所帶來的問題與挑戰,穆勒強調各國政府和國際組織有責任規范人工智能及其應用,通過政策引導推進人工智能的健康發展及合理應用。

盡管已經認識到政策制定的重要性,但穆勒同時指出,政策的實際制定及執行存有一定難度,人工智能政策很有可能與經濟政策等相矛盾。在政策制定時,一個重要的現實影響因素就在于政策制定的對象以及主體的構成。例如政府往往傾向于將決策委托給專家,而非更深入地吸收社會相關利益者,[7]4這就可能導致在政策指導后的人工智能仍然可能引起民眾反抗。因此,以“負責任創新”(RRI)的研究口號為鑒,像人工智能此類顛覆性技術的政策制定要充分考量社會相關利益者的情緒和建議。此外,穆勒強調,在政策制定時應將法律和倫理分開考量,因為我們通常認為這兩方面在邏輯上是獨立的:某些特定合法行為仍然可能是不合倫理的,而某些特定合乎倫理的行為仍然可能是非法的。[9]138政策或規則同樣如此,如果我們接受了倫理規范,也并不意味著存在或應該存在法律規則,反之亦然。就此而言,在制定人工智能的相關政策時,穆勒建議采取法律和倫理分析兩個步驟。例如,基于人工智能在軍事領域中的風險分析,穆勒以LAWS 為例,對規范人工智能提出系列政策建議。

基于法律考量的LAWS 政策。一是建立國際LAWS 技術標準機構。LAWS 對國際人道法相稱原則的遵守首先應出于道德和政治判斷,然后再以技術規范表示。同時,全球技術發展的現實又要求建立國際標準機構來建立和維護這些規范。二是建立國家LAWS 技術標準和許可機構。建立國內技術規范標準,并將國家或超國家監管機構合并,使這些機構負責發放許可證并管理生產商。三是將戰爭罪行的法律條文擴展到LAWS 的非法使用。在建立國際和國家標準機構后,就需要法律約束來強制遵守。同時,法律應該擴展到LAWS 的非法使用,在這里,非法使用包括:部署不合標準的LAWS、使用不合標準的LAWS、故意不當或嚴重過失使用LAWS。四是與常規戰爭相比,LAWS 效應更優時才允許被部署。當LAWS 符合國際人道法的相稱原則,且在戰爭中給人民帶來的風險小于常規戰爭給人民帶來的風險時,才可部署LAWS。五是僅在有令人信服的軍事理由時才允許使用LAWS 進行殺戮。由四可知,只有符合國際人道法,才可部署LAWS,而要在戰爭中使用LAWS,則需有令人信服的軍事理由。[10]3總之,穆勒基于法律維度的人工智能政策建議,兼顧了國內國際的考量,包含了法律的制定完善與遵守。

基于倫理考量的LAWS 政策。就戰爭中是否可使用LAWS 這一問題上,大多數人持反對態度,也有基于結果論的人持支持態度。而穆勒基于正義戰爭理論所假定的權利的非總體結構,在倫理維度表明了LAWS 使用的允許性。[8]302在這里,穆勒引入了“容忍度”(tolerance level)的規范性概念,它實際指的是倫理上要求的技術的可靠性程度。在實踐中,容忍度通常與一個系統執行其功能的特定條件相關,[8]307并且設定容忍度需要解決風險倫理的一系列問題。在以上規定之下,穆勒做出論述:在LAWS 中,殺手機器人的可靠性是針對各個任務分別定義的,因此,殺手機器人應當是以充分的可靠性來執行其功能的工程系統。[8]310在設計殺手機器人時,容忍度的要求之一就是需要定義殺手機器人僅在攻擊合適的目標時應達到的可靠性程度,而在倫理方面最重要的關注點就在于攻擊目標的選擇。殺手機器人若在目標選擇時出現了偏差,就可能導致嚴重的后果,即無辜的人在這場戰爭中受到攻擊。因此,穆勒建議,必須首先確定LAWS 的容忍度,并且僅在經過全面的測試和檢查之后才能使用LAWS。

總之,穆勒對人工智能的政策建議是針對人工智能的風險而提出,目的是盡可能通過政策引導來減少人工智能所帶來的風險。

五、人工智能的未來進展

在穆勒看來,目前關于人工智能未來的討論主要存在三個方向:[3]68-69一是基于技術進步,人工智能將實現新發展,這一方向與機器超越人類智能的“奇點”概念相關。二是未來人工智能將拋棄傳統形象,特別是通過拒絕表征、強調主體的具身化以及對屬性的“出現”。三是人工智能在其他領域獲取新發展。一種方法是從神經科學開始,著力于動力學系統,并試圖在認知系統中比經典認知科學建模更多的基本工程。其他方法則是顛覆“主體”的概念,并在更廣泛的系統中發現智能。三個方向的討論都體現著人工智能不斷革新發展的趨勢,并且穆勒認為人工智能取得的大部分進步,都可以歸因于速度更快的處理器和更大的存儲量。

面對未來“超級智能”的風險,應該怎樣對待“超級智能”?對此,穆勒又分析了“控制超級智能”的問題[7]17:從狹義上講,“控制問題”是指一旦人工智能系統變為“超級智能”,那么我們人類應該如何繼續控制它。這里涉及,我們應將其限制在各種“盒子”內,還是應對其某些方面做出硬性規定,抑或是防止它忽略人類意圖······?從廣義上講,“控制問題”是指我們如何才能確保人工智能系統對人類而言是積極意義上的系統,這時常被稱為超級智能的“價值對齊”(value alignment),后來梅內爾(Hadfield Menell)將其正式定義為“協同反向強化學習”(cooperative inverse reinforcement learning)。控制超級智能的難易程度很大程度上取決于從人類控制的系統到超級智能系統的發展速度,這引起了人們對具有自我完善能力的系統的特別關注。穆勒還認識到,未來超級系統極有可能會產生人類無法預料的負面效應,這對“控制超級智能”而言是一個極大挑戰。而且更糟的是,當人工智能超過人類的智能水平,“這似乎暗示著,即使我們對它有了豐富的認識,但它仍然是深不可測、不可控制的”[12]300。

六、學術評價

近年來,穆勒將研究視點聚焦于顛覆性技術(尤以人工智能為重點),并取得了豐碩的研究成果。他在人工智能哲學上的貢獻主要在于:首先,針對當前人工智能哲學發生的新變化,穆勒對其中兩個主要變化進行了分析。其一,隨著人工智能與認知科學的發展,穆勒指出二者逐漸分離,不再是一枚硬幣的兩面。其二,人工智能的風險在哲學研究中日益受到關注,對于此問題,穆勒主要分析了人工智能給人類帶來的失業風險、隱私風險和安全風險。繼而,穆勒基于對人工智能風險的分析,主張對人工智能進行政策干預以實現人工智能的健康發展。其中,穆勒強調政策規范應充分考慮社會相關利益者的情緒和建議并將法律維度和倫理維度分開考量。其后,穆勒對人工智能的未來發展進行展望,指出人工智能在發展的同時也將給人類帶來風險,穆勒對此的態度為“控制超級智能”。但同時他也認識到,實際上,“控制超級智能”對人類來說也是一項挑戰??傊?,穆勒對人工智能哲學的研究已經呈現出清晰的邏輯進路。

然而,縱觀穆勒對人工智能的哲學研究,穆勒尚未從價值維度對人工智能的發展目標做出規范,如穆勒的研究并未涉及人工智能是否可發展成為具有人性化、公平性、安全性等價值的人工智能。在人工智能給人類帶來巨大風險挑戰的情況下,建構什么樣的人工智能實際上是人工智能哲學中的必要一問,在一定意義上也是人工智能研究的出發點和落腳點。對待這一問題,除了基于人工智能技術本身,更應該從公眾、政府、國際社會等角度去探索人工智能的建構方向,使人工智能造福人類。此外,在穆勒的現有研究成果中,也存在可待商榷之處。

在人工智能的政策規范問題中,穆勒強調在政策制定時應將法律和倫理分開考量。誠然,人們通常認為法律和倫理各自具有獨立性,但這樣的政策在引導人工智能的發展時,法律和倫理間的矛盾沖突并未得到根本解決,因為當一項人工智能技術在基于法律考量的政策引導下進行應用時,它仍有違背倫理的可能性,反之亦然。因此,無論是在人工智能的哲學研究中,還是在人工智能的實際應用中,我們需要去探索如何盡可能地使人工智能政策實現法律與倫理的有機結合。

關于人工智能的未來發展,根據穆勒的調查問卷結果,被調查者基本上對人工智能的發展持樂觀態度。這主要體現在,一是人們基本認為人工智能未來會發展為“超級智能”,只不過在實現時間上存在著不同看法,二是僅有30%左右的被調查者認為人工智能的未來發展對人類將產生“壞”或“極壞”的影響。針對這一調查問卷及結果,需要認識到的是,穆勒設置的調查對象是550 位人工智能及相關領域的專家,這使得該調查具有一定的專業性,但同時也使得基于該調查的研究缺乏一定的完整性,特別是忽視了群眾、決策者等人的多樣化態度。從這一角度講,穆勒基于該調查所做的研究具有較強的人工智能專業性,但同時也具有一定的狹隘性。此外,穆勒提出要“控制超級智能”,并強調這對人類而言也是一種挑戰,而在當前穆勒還未進一步說明如何“控制超級智能”的問題。因此,在筆者看來,穆勒未來可就“控制超級智能”做出進一步研究,以完善當前論題。

猜你喜歡
人工智能智能發展
邁上十四五發展“新跑道”,打好可持續發展的“未來牌”
中國核電(2021年3期)2021-08-13 08:56:36
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
智能前沿
文苑(2018年23期)2018-12-14 01:06:06
智能前沿
文苑(2018年19期)2018-11-09 01:30:14
智能前沿
文苑(2018年17期)2018-11-09 01:29:26
智能前沿
文苑(2018年21期)2018-11-09 01:22:32
人工智能與就業
IT經理世界(2018年20期)2018-10-24 02:38:24
砥礪奮進 共享發展
華人時刊(2017年21期)2018-01-31 02:24:01
數讀人工智能
小康(2017年16期)2017-06-07 09:00:59
改性瀝青的應用與發展
北方交通(2016年12期)2017-01-15 13:52:53
主站蜘蛛池模板: 国产午夜人做人免费视频中文| 草草影院国产第一页| 日韩视频福利| 日韩专区欧美| 美女视频黄又黄又免费高清| 国模粉嫩小泬视频在线观看| 日韩毛片免费| 成人毛片免费在线观看| 国产毛片不卡| 亚洲资源站av无码网址| 91精品国产情侣高潮露脸| 一级香蕉人体视频| 在线播放真实国产乱子伦| 人人爱天天做夜夜爽| 91亚洲影院| 少妇极品熟妇人妻专区视频| 久久久久亚洲av成人网人人软件| 亚洲另类色| 色哟哟色院91精品网站| 国产小视频网站| 亚洲视频四区| 免费精品一区二区h| 丰满人妻一区二区三区视频| 亚洲区欧美区| 欧美影院久久| 无码视频国产精品一区二区| 色有码无码视频| 亚洲无码电影| 成年人视频一区二区| 国产超碰一区二区三区| 国产新AV天堂| 啪啪免费视频一区二区| 国产精品第页| 高清亚洲欧美在线看| 五月六月伊人狠狠丁香网| 波多野结衣在线一区二区| 野花国产精品入口| 噜噜噜久久| 精品国产美女福到在线直播| 亚洲成年人网| 国产精品观看视频免费完整版| 国产一级精品毛片基地| 色婷婷亚洲综合五月| 国产综合另类小说色区色噜噜| 97色婷婷成人综合在线观看| 国产一在线观看| 99热最新网址| 国产特一级毛片| www欧美在线观看| 波多野结衣一级毛片| 久久9966精品国产免费| 色哟哟精品无码网站在线播放视频| 国产精品无码AV中文| 亚洲国产看片基地久久1024| 欧美成人区| 日韩精品一区二区三区大桥未久| 一级毛片免费观看不卡视频| 青青极品在线| 特黄日韩免费一区二区三区| 精品国产91爱| 亚洲成a人片在线观看88| 亚洲国产中文欧美在线人成大黄瓜| 四虎精品免费久久| 日韩精品亚洲精品第一页| 欧美精品xx| 99er精品视频| 国产95在线 | 国产精品亚洲va在线观看| 日本道中文字幕久久一区| 99福利视频导航| 亚洲最大看欧美片网站地址| 亚洲手机在线| 99中文字幕亚洲一区二区| 久久青草热| 日韩欧美网址| 日本高清有码人妻| 久久综合丝袜日本网| 四虎永久免费地址| 国产激情影院| 亚洲伦理一区二区| 中文字幕天无码久久精品视频免费| 三级毛片在线播放|