999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

人工智能嵌入網絡安全:技術風險、國際規范與理念博弈*

2019-02-21 04:21:40趙瑞琦
現代傳播-中國傳媒大學學報 2019年12期
關鍵詞:網絡安全人工智能人類

■ 趙瑞琦

在人工智能賦能的網絡安全領域,已經出現了軍備競賽、人工智能攻擊手段擴散和技術失控的苗頭與風險,并進而成為新興的復雜、嚴峻的非傳統安全問題之一。人工智能能否順利應用于網絡安全領域或者是否會利大于弊,很大程度上取決于人類是否有足夠的能力來建構適切的治理規范并確立適切的倫理規范,以駕馭這種技術。

本文綜合考慮技術可能與戰略、政策和倫理的需要,基于人類應該對自主系統擁有權力這一人工智能發展中不可偏離的原則,嘗試從理論知識和實踐知識出發,思考在建立普遍遵守的人工智能國際規范的過程中需要在本階段回應與解決的現實問題的思路,包括:評估錯誤或失控的風險,探討構建共同準則的可能,解析人工智能發展的倫理理念等等。本文所述是根據已經發生的人工智能事件或學術界普遍認可的發展趨勢,來分析人工智能對網絡安全的影響,并初步探討構建共同準則時的可能路徑及面對倫理困境時的可能抉擇,具體構建的過程和結果將是開放的,何為適切的倫理抉擇也是有待討論的。

一、安全風險:數字軍備競賽與自動武器失控

為了在新一輪以科技為主導的國際競爭中掌握更多的主動權、贏得先機,許多國家和區域,尤其是美國、中國和歐盟,均出臺相關戰略或政策進行總體和全面的布局,以全力推動和引導人工智能在網絡安全領域的發展與應用,全方位重塑網絡安全模式、優化網絡安全結構、增強網絡安全能力。

網絡安全本就是目前全球面臨的最復雜、最現實和最嚴峻的非傳統安全問題之一。而人工智能的嵌入,解鎖了新的攻擊與防御渠道,可能導致網絡沖突頻繁化、尖端化并日益具有破壞性。有兩種前景特別引人擔憂:人工智能廣泛、無節制使用甚至惡意軟件泛濫,會導致新一波的網絡軍備競賽;人類無法控制網絡攻防中人工智能勝負角逐,面臨技術失控的風險,只能任其發展,而戰爭的流動性、聯網設備的數量以及移動計算能力的缺陷,會使得并不成熟的人工智能有引發現實的動能戰爭的危險。

(一)人工智能使網絡戰的可能性加大

在2016年,兩個預示人工智能技術快速進步和潛在應用的里程碑事件出現:其一,美國國防高級研究計劃局(Defense Advanced Research Projects Agency,簡稱DARPA)網絡挑戰賽(Cyber Grand Challenge)的獲勝者“Mayhem”證明了自動檢測和修補軟件漏洞的潛力——這改變了網絡安全的防護規則;其二,谷歌的AlphaGo戰勝需要出類拔萃直覺和評估技能的圍棋世界頂級選手——這顯示,在一定規則下的邏輯思維領域,計算機的學習能力與思考能力至少可以與人類并駕齊驅。對此中意義,中共中央軍委聯合參謀部有明確認知:“阿爾法圍棋”對韓國圍棋選手李世石的壓倒性勝利“展示了人工智能在作戰指揮、方案推演、輔助決策中的巨大潛能”①。

目前,人工智能進展主要涉及機器的深度學習技術,例如涉及計算機視覺模式識別和自然語言處理等使用深度神經網絡的技術領域。在網絡安全領域,人工智能的應用主要體現在兩個層面:

其一是由人工智能驅動的機器很可能成為未來戰場上主要的網絡“戰士”。基于人工智能的復雜算法可用來操作惡意軟件,支持其在傳播過程中自我學習,不斷進行改革,并模仿系統中用戶的行為以弄清楚其周邊環境并隱藏自己,從而盡可能長時間地隱藏在計算機系統中。同時,由人工智能提供支持的自動化系統可以探測網絡和系統,搜索可能被利用的未發現的漏洞。由此,基于人工智能惡意軟件的網絡釣魚②、基于內部人員(包括員工、臨時員工、承包商和業務合作伙伴)的社會工程攻擊(Social Engineering Attack)的比例越來越高。比如,通過人工智能的深度造假(Deepfake)技術,可以創建以假亂真的視頻和音頻或精心設計的電子郵件以欺騙目標個體。隨著人工智能驅動攻擊工具的網絡易得性和技術平民化,使得即使是個體罪犯也能夠發起復雜的有針對性的攻擊。而且,這種基于人工智能的工具包可以使進行每一個額外目標攻擊的邊際成本趨于零。

其二是采用混合人工智能方法,可以提高網絡安全防御能力,甚至起到革命性作用:利用人工智能來驗證密碼、識別漏洞和脆弱性;相應的回應和反擊將更迅速、更準確并更具破壞性。由此,威脅將在數小時內而非數天或數周來處理。并且,防御者可以使用人工智能來對自身的網絡發動模擬攻擊,以找到漏洞識別威脅并在攻擊者發現之前關閉或修補漏洞,以更好地加強自身的系統以免受攻擊。

(二)人工智能的軍備競賽并非危言聳聽

軍事需求歷來是推動技術變革的重要力量,特別是在一些戰略性領域,新技術與軍事變革之間是個彼此助推的互動過程。美國是世界上第一個引入網絡戰概念的國家,它一直在利用信息通信技術領域的先發優勢及美國企業在網絡基礎設施方面的壟斷地位,監視和獲取全球通信數據。

同時,美國軍隊和情報機構也正在打造堪比其核武力量的全球最大網絡武器庫。2009年,美國軍方成立網絡司令部,在2010年正式運行并在2017年升級為美軍第十個聯合作戰司令部。2013年,美國網絡空間司令部從900人擴編至4900人,并一度宣布3年內擴建40支網絡戰部隊。美國軍隊和情報機構還通過打造堪比核武庫的全球最大網絡武器庫,用于網絡攻擊甚至網絡戰。“維基解密”根據代號“穹頂7”(Vault 7)的8761份秘密文件揭露了美國中央情報局在2013年至2016年間所實施的一系列高度機密的全球性網絡入侵活動,內容涉及攻擊手法、攻擊目標、會議記錄、海外行動記錄,以及使用的攻擊工具和7億行源代碼。③美國大量開發網絡武器所引發的軍備競賽,已經給全球網絡安全帶來嚴重的威脅和風險。

計算能力增長、算法的突破、數據的量與質的提升為人工智能在網絡軍備競賽領域的應用,提供了新的可能,非常有可能引發國家間的全球軍備競賽從子彈轉向鍵盤:人工智能賦能的網絡進攻使威脅變得更快速也更先進,這種更新換代的威脅迫使被威脅方必須及時進行辨別和反應,從而助推本就非常危險的網絡軍備競賽。更有甚者,由于計算能力和數據可用性的進步,機器得以能夠完成一度需要人類參與或被視為不可能的任務,比如,人工智能可以替人來執行那些“骯臟、沉悶和危險”的戰場任務;人工智能系統可以比人類處理更多的信息,而且速度更快,更精確,也更協調,這使得它們成為實時評估混亂戰況的寶貴工具。最終,人工智能將在現實操作的基本層面上占據主導地位。這也許會帶來新的軍事力量,從而引發軍備競賽,對手之間將開發對抗或干擾彼此人工智能系統的對策,以歪曲數據或攻擊算法本身,從而可能增加國家在危機中有意或無意間動用核武的可能性。④

同時,美國利用技術優勢追求霸權的作法會惡化國際信任,因為超前發展人工智能的“先發優勢”,將會使一國獲得并強化后來者所無法企及的地位和利益。為避免競爭落后而遭遇“降維打擊”的可能性,各國將在人工智能能力建構方面增強對彼此追趕迫切性的認知和行動,從而導致國家越來越傾向使用攻擊性的人工智能賦能戰略,并在遭到攻擊時進行更加猛烈的反擊。可以預計,如果無法建立相應的國際規范與法律,任由這種惡性循環導致的安全困境無限發展,將導致人工智能軍備競賽的程度遠高于人工智能合作的可能。

(三)人工智能會鼓勵進攻性軍事行為

人工智能的軍事應用會極大地降低了傷亡風險,從而在一定程度上降低戰爭的門檻。這有可能鼓勵減少自我約束,使各國更傾向于采取進攻性的行動來達到相應的目的,從而形成國際安全領域新的不穩定因素。

基于人工智能的網絡和物理軍備競賽,可能導致兩種前景:以人工智能為主的防御措施與以人工智能為主的進攻手段在網上決一勝負,人類只能站在一邊觀看;目前人工智能的軍事應用尚不直接涉及到致命武器,但可能會導致引發不穩定危機或加劇風險升級的錯誤,從而導致物理攻擊并引發國家間的傳統動能戰爭。

雪上加霜的是,目前的人工智能技術發展仍然相當不成熟且缺陷很多:其一,多數先進威脅檢測技術都會采用某種形式的人工智能來標記某個潛在事件,但是,這一技術會造成大量誤報問題,如果不進行適當校正,則會導致“威脅疲勞”,形成“狼來了”的局面。例如,一項研究表明,IT和安全組織每周會收到大約1.7萬次惡意軟件告警,但其中只有19%被認為是可信的,只有4%需要進一步調查。⑤考慮到戰爭的流動性、聯網設備的數量以及移動計算能力的缺陷,機器學習必須進一步發展才能提高在真實戰場上的預警能力與實用性。其二,在當前的發展階段,人工智能尚達不到人類智能的水平,更非萬無一失。由人編寫的代碼無法確保程序完全安全、可靠、可控、可信,數據質量獲取、加工、存儲和使用等環節都存在著一定的數據質量和安全風險,作為人工智能發展核心的算法和數據都存在著潛在的安全問題,從而往往會犯一些人類不會犯或意想不到的錯誤。更有甚者,如果某個情況超出了算法的預期參數,可能導致錯誤或意外引起的突發行為,進而產生嚴重的后果。

(四)因“害怕落后”而“抄近路”的風險

人工智能其實很脆弱。通過注入損壞或錯誤的數據,成功的網絡攻擊可以改變人工智能的訓練數據,進而改變人工智能的結論。客觀來看,即便成熟的自動武器的使用也可能會導致一系列現實風險,包括在復雜系統中因新因素的介入而導致的不可避免的失敗,敵方對自主系統的攻擊或破壞(例如欺騙和行為攻擊),或者敵我系統之間發生不可預知的交互等等。況且,當前的人工智能系統雖然功能強大但并不可靠,許多人工智能設備很容易受到復雜攻擊的影響,或者在訓練環境之外使用時失靈。

更有甚者,對于每一個參與競爭的國家而言,目前更大的危險并不是在人工智能領域落后于競爭對手,而是人工智能軍備競賽所帶來的緊迫感將促使各國急于部署不安全的人工智能系統能:即使其他國家還沒有處于重大突破的邊緣,但不前進即落后的競爭壓力會帶來“抄近路”的選擇。由此,會導致一國基于未雨綢繆、防患未然的想法而部署一項未經測試的甚至是具有瑕疵的人工智能設備,以迎頭趕上并超越其他國家。這樣的結果對于每個入局者而言都將是滅頂之災。

除了以上問題,伴隨著人工智能武器的開發,國際社會面臨的另一大難題就是反擴散問題:人工智能技術的擴散還會給全球安全帶來新的威脅,比如,恐怖主義組織以及不負責任的國家獲取了人工智能武器,將會使人工智能成為產生惡意軟件、勒索軟件及其他各種惡意計算機代碼的溫床,從而威脅國際社會的安全與和平。另外,人工智能的軍備競賽還會對技術邏輯和商業邏輯產生破壞。人工智能具有軍民兩用性質,其最初的目的是發展經濟,增加社會福利,而過度地強調軍事用途會對人工智能的全球研發體系和產業鏈造成嚴重威脅,⑥甚至形成反噬作用。

二、規范建構:大致原則與可能路徑

鑒于人工智能嵌入網絡攻擊而導致的安全問題具有跨領域和全球性的特點,國際社會有必要確立大致原則和可能路徑,通過加強國際合作及威脅情報和經驗的分享,以建構人工智能在網絡安全領域的使用規范,維護網絡空間的戰略穩定。

清華大學人工智能與安全項目小組認為人工智能的發展要遵循六點原則,包括:福祉原則、安全原則、共享原則、和平原則、法治原則與合作原則。⑦應該說,這些原則可以作為討論和制定人工智能國際規則的基礎,但因沒有具體細化而略顯空泛和抽象,且沒有具象到網絡安全領域。在網絡安全領域,人工智能的使用應在如下原則和路徑上進行深層次的、有實際意義的國際規范建構。

(一)開發與使用中的約束性規范

就目前大國的不同立場而言,制定一個全球性網絡空間條約是不可能的。不過,除了正式條約,對國家的規范性約束還包括行為準則、國家的傳統實踐,以及群體對合理行為的普遍期待(它形成普通法)。在范圍上,這類約束可以有全球、多邊、雙邊等多種形式。⑧

在目前的網絡沖突中,就目標選擇、攻擊范圍和破壞程度而言,各國政府多會嚴格選擇、謹慎行動,以避免傷害溢出殃及無辜,要避免沖突擴大化。但是,政治審慎、整體考量、綜合判斷的原則,能否在人工智能網絡武器的現實使用中得到遵守,或在多大程度上得到遵守,仍需要不斷觀察,目前疑問和不確定性較大。

2019年4月8日,歐盟委員會發布人工智能倫理準則,列出“可信賴人工智能”的7個關鍵條件——人的能動性和監督能力、安全性、隱私數據管理、透明度、包容性、社會福祉、問責機制,以確保人工智能足夠安全可靠。歐盟認為“可信賴的人工智能”有兩個必要的組成部分:一是應尊重基本人權、規章制度、核心原則及價值觀;二是應在技術上安全可靠,避免因技術不足而造成無意的傷害。盡管制定準則是一個好主意,部分批評人士也認為,“可信賴人工智能”這一概念的定義尚不明確,且目前還不清楚未來的監管如何實施;準則過分細化會難以操作,阻礙行業發展;準則中沒有禁止使用人工智能開發武器也是不恰當的。

(二)防止技術擴散的限制性規范

網絡武器泄露已經給全球安全與民心穩定造成相當大的威脅,類似于 WannaCry 和 NotPetya 這樣源自于美國國家安全局武器庫中網絡武器泄露再次開發而成的勒索病毒給國際社會帶來了幾百億美元的經濟損失和重大的公共安全危害。⑨可以想象,更具危害的自主攻擊網絡武器擴散造成的網絡安全危害將更加嚴重,尤其是伴隨相關技術平民化的發展,恐怖主義組織完全可能獲得并使用的情況下。

為此,就像核武器的使用那樣,人工智能網絡武器在存儲和使用時,必須建立嚴格的加密與解密的規定和措施。為此,在技術展開層面,自主攻擊的網絡武器開發應當被嚴格限制在特定的環境之下,并且精確地開展測試。在技術防擴散層面,需要設定攻擊手段的自毀功能,即,加入在泄露后可以自我刪除、取消激活等功能。

這樣的限制性規范是完全可能的。比如迄今為止發現的最大規模和最為復雜的網絡攻擊病毒火焰病毒,是迄今為止發現程序最大的網絡武器,其復雜性和功能性已經超過其它任何已知的網絡武器,就內置自毀機制:它在收到指令的情況下,會自我刪除。

(三)“罰當其罪”的報復行為規范

在人工智能賦能的網絡攻防中,指揮官和操作人員要加強安全與倫理考慮,減少錯誤或失控的風險,首先需要某種原則來決定成比例的反應,就像要確定明確的門檻或紅線來區分合法的和非法的網絡攻擊,并且對非法行動進行適當的制裁。⑩

“罰當其罪”的比例原則,這個戰爭法的根本原則同樣適用于網絡空間。在國際爭端中使用武力,必須考慮適當性、必要性和相當性的問題。適當性原則要求武力的使用能夠或有助于正當目的的實現;必要性原則要求武力的使用是實現目的的最后手段;而相當性原則是要求使用武力與造成后果的均衡。三項原則分別從“目的導向”“手段選擇”“價值取向”上規范目的與武力使用之間的關系,進而成為衡量國際爭端中武力使用是否正當的基本依據。

同時,成比例原則也要求避免攻擊關鍵基礎設施和傷及無辜,不能進行“無區別的殺戮”。要保障個人基本權利,防范因人工智能技術濫用而造成的負面影響。戰爭、沖突中的生死決斷必須由人做出,機器無權自主決定殺傷目標,畢竟,算法黑箱或者自主武器失控有可能導致誤殺和誤傷,因此,計算機和算法只能對決定起輔助作用。在這方面,戰爭的目的與手段要整體考慮,因為,戰爭通常被評判兩次,第一次是以結果評判,第二次是以手段評判,被侵略者并不因為其犧牲者的身份而被免除對文明戰爭所應擔負的責任。

因此,人類尚需要在許多重要層面達成一致:區分合法目標和非法目標的界線,網絡防御戰略的成比例反應的定義,如何檢查和監控基于人工智能的國家網絡防御行動。同時,類似聯合國安理會那樣有執行力的第三方權威,應該監控成比例原則和國際規范是否被違反;如果違反,應采取相應的經濟與政治制裁措施。

(四)基于主權國家的多邊合作原則

長久以來,科技發展都影響著世界經濟與國際安全。面對當下人工智能引發的科技大進步,其規模與速度使世界各大國都難以充分利用現實機會并應對未來挑戰。科技發展的不同渠道,特別是數據使用,威脅著本就分裂的世界,造成錯綜復雜的地緣政治競爭格局;而且,悖逆常理的是,新時代里的科技可能事實上反倒會削弱先前突破所帶來的全球影響,使世界處于“自動化的沖突”中。過去兩個世紀里,西方近乎壟斷了全球的價值輸出。但如今在數字領域,人工智能的規則卻無法定于一尊:迄今為止,世界各地的企業、政府和民間機構已經發布了大約50套人工智能準則。騰訊和百度等中國最大的一些科技公司也在此列。然而,單邊主義無法保證網絡安全,主權國家政府需要在聯合國層面、區域層面和大國合作層面,用規范治理的合作性來克服新技術的分裂性。

研究區內屬暖溫帶季風型大陸性氣候,四季分明,氣候溫和,年平均風速3.5m/s,多年平均氣溫11.4℃(1979—2017年),多年平均降水量648.27mm(1979—2017年),多年平均蒸發量1745.7mm,多年平均無霜期199d[1]。

1.聯合國層面合作的難度很大

2004 年,聯合國設立了信息安全政府專家組,以商定國家在網絡空間中行動的自愿性規則。2017 年,專家組第五次會議以僵局告終,無法就國際人道主義法和現有正當防衛、國家責任等的相關法律是否及如何應用于網絡空間達成一致。美國認為網絡防御法規應該基于這些法律,而其他國家(包括古巴、俄羅斯和中國)則認為這會使網絡空間軍事化并持否定態度。最終專家組無法形成報告,也無法判斷他們是否會再次開會,更不知接下來會發生什么。2018 年9 月,在聯合國召開的常規武器公約討論中,各方同樣未能就制定禁止人工智能驅動的致命性完全自主武器的條約達成共識:26國支持全面禁止人工智能武器,而絕大多數國家仍在觀望之中。

實際上,因為主權國家主導的全球治理機制存在霸權邏輯和沖突邏輯的特征,這使得某些發達國家濫用權力、不愿自我約束的不負責任行為,與發展中國家因自身的不發達而導致的頻繁發作的全球性問題協同作用,共同導致一些復雜性問題,進而導致通過聯合國加強網絡空間國際合作的進程已經實質性地擱淺。由于政治、文化、宗教、戰略及后勤方面的諸多障礙,再加上太多的不確定因素,即便國際合作得到加強,其最終效果也未可知。因此,人工智能國際規范方面的合作更有可能是地區性行為,或者發生在某些特定國家之間,而非全球任何國家間的合作。

2.區域共同體先行的原則較為現實

近年來,基于人工智能進行網絡攻擊軟件的最新、最有創意和最具潛在危險的使用在不斷出現。因此,為了打破網絡安全建構的聯合國進程僵局,本已形成各級各類協作的區域共同體層面的合作就成了必不可少的替代選擇,既可以維護網絡安全,也可以為進一步在聯合國層面的合作進行探索。

在實踐層面,區域共同體之間可以運用攻防演習來測試基于人工智能的防御戰術并培育合作慣性。演習可以包括網絡部隊的實戰模擬,也可以包括多國、多部門的聯合應急響應演習,以提升區域國家合作能力。人工智能就是要通過經驗、練習來學習,類似的演習可以提升區域的戰略防御水平。在規范層面,區域的探索可以為確保人工智能足夠安全可靠的國際共識提供參考。在關系層面,區域各國要公布本國的政策框架和戰略路徑,同時要隨時公布關鍵系統和關鍵基礎設施的致命缺陷,借此種分享來提升區域的警戒和安全水平。

3.大國協調原則需要克服障礙不斷推進

人工智能是典型的軍民兩用技術,國際監管或國際條約很難限制甚至是減弱大國人工智能的發展。然而,像美國、中國和俄國這樣的大國和重要軍事力量,絕不希望因人工智能技術的擴散,給軍事和戰略穩定帶來系統性的風險。因此,大國應該承諾并采取協調行動,以評估和減輕人工智能在軍事應用上的盲目擴張,從而規避類似核擴散那樣的風險。

在避免發展致命的自動武器以打開“潘多拉的盒子”釋放“恐怖武器”方面,中美兩國是典型的“能力強、責任大”。兩國已經積聚了足夠多的人才、市場份額和數據。在人工智能產品和系統對全球經濟的貢獻中,中美兩國是主導。為避免誤差和誤判,中美應采取更符合實際的行動,以建立彼此之間和全球層面信心的措施。在彼此關系層面,美國應減少對中國的攻擊,以示誠意。在這方面,美國有大量誠意需要展示,減少對中國網絡的干擾和利用——在此方面,美國的行為相當惡劣,比如,僅就木馬和僵尸網絡而言,2018年位于美國的1.4萬余臺木馬或僵尸網絡控制服務器,控制了中國境內334萬余臺主機,控制服務器數量較2017年增長90.8%。在樹立社會信心層面,中美可以在研究如何確保軍事人工智能系統“有意義的人類控制”方面進行合作。

(五)基于共同安全的多利益攸關方參與原則

作為一種影響面廣的顛覆性技術,人工智能對就業結構、法律與社會倫理、個人隱私、國際關系準則、政府管理、經濟安全和社會穩定乃至全球治理有深遠的影響。因此,深受影響的各利益攸關方需要積極參與規范制定,以作為政府的一種補充或制衡。

2018年6月,谷歌員工成功向該公司施壓,避免與五角大樓續簽合同。很多技術專家不愿意為國防項目工作,因為擔心自己會造出失去控制、殺人的機器人來——這使得華盛頓想要在硅谷和軍方之間建立聯系的努力困難重重。2018年9月,中國信息通信研究院發布的《人工智能安全白皮書》呼吁中國政府繼續努力,“避免國家間的人工智能軍備競賽”。馬云在2019年達沃斯世界經濟論壇上表示,他擔心全球人工智能軍備競賽可能導致戰爭。這些非政府性質的主體,在呼吁建立人工智能使用規范方面,有重要作用。當然,全球民間社會也應該減少關于人工智能軍備競賽的言論,并尋找與其他國家合作的機會,以減少人工智能帶來的風險。

實際上,在互聯網發展的進程中,技術社區、大型企業和個人都發揮著重要作用。在人工智能領域,依然如此。這些主體在培養理解人工智能的經濟、道德、政策和法律含義的思想領袖,領導全球數字道德、數據倫理的交流、融通方面,有重要的作用。為此,作為專業人員的計算機專家,也要避免閉門造車的現象,積極發聲、積極行動,提升社會對于風險和治理的認知,比如,要使利用人工智能進行網絡攻防的問題、局限性和缺點透明化,讓專業問題大眾化,以引起社會的注意;同時,要主動參與,和策略制定者、終端用戶一道,設計該技術的測試和監管機制等。

大國競爭在技術發展上的巨量和加速的態勢與效應,促使人工智能浪潮到來。由人工智能技術提供的平臺將助推用戶創造性的發揮,創造出新事物、新武器和新攻擊模式,因此而引發的革命性變革,將成為導致地緣戰略和國際格局重大變革的一個助推因素。茲事體大。然而,人工智能的未來是開放的、不確定的,人工智能的廣泛應用無疑放大了網絡安全的隱患,各利益相關方能否成功處理潛在問題并制定適切戰略,使其最終演變成一股穩定的力量,沒有人可以給出肯定答案,盡管利用國際規范約束攻擊和非法利用無疑是一條正確路徑。

三、理念博弈:人類主權與自主系統限度

在涉及人工智能的國際觀念結構中,西方仍然占據主導地位。英國已逝著名物理學家史蒂芬·霍金曾表示,人工智能的全面發展可能會給人類帶來終結:在目前的初級階段,人工智能就已經證明了其巨大用處,發展到高級階段,它有可能趕上或是超過人類,最終可能控制人類。霍金并非人工智能領域的權威,在尊重其作為理性思維傳播者的同時,對他的觀點和看法不應夸大。不過,隨著人工智能技術的發展和進步,特別是“機器代替人”的可能與風險不斷展現,在相應的哲學、道德與倫理層面,人類應該達到一定程度的共識。

從全球態勢來判斷,像在2016年美國大選和英國脫歐運動中那樣,利用假新聞進行黑客攻擊的信息戰正有可能變得司空見慣。類似的行為不僅篡改事實,更強有力地改變某些政治觀點和態度。對此,人工智能可能無能為力:一種算法會從一個有影響力的賬戶中讀取假新聞,并根據優化的內容因素來推廣它,而不是像新聞工作者在發布前那樣檢查新聞來源或想法。推而廣之,這將日益加劇政治緊張局勢與全球混亂形勢,尤其是通過深度造假技術(Deepfake)來篡改圖像和視頻可能會對全球秩序造成災難性影響,比如,發布美國總統唐納德·特朗普宣布核戰爭的唇形同步視頻。

在人工智能嵌入網絡安全這樣的全球安全與情報領域,也面臨類似的道德風險。目前,像微軟之類的公司已經悄悄地宣布他們愿意向五角大樓出售先進的自動識別系統。無疑,利用人工智能機器人取代人類士兵或制造自動化武器,可能會在一定程度上降低政府防御性力量可能造成的傷害風險,但人工智能所造成的倫理困境與核彈相當。如果人類研制的人工智能系統擁有與人類不一致的價值觀,那么,文學作品中“惡意機器人霸主”的想象可能會成為現實。由此引發的思考是:若沒有了自主權,作為人類的我們還是萬物靈長嗎?當機器人被賦予自主權時,他們會有怎樣的行動邊界或者根本沒有?當二者被給予同樣的自由和智慧時,如果面臨一場生存競爭,兩者誰贏誰輸?

實際上,面臨人類無法控制網絡攻防中人工智能勝負角逐導致技術失控的風險,人類社會已經逐漸生發出針對人工智能技術應用前景的兩種不同認知與倫理理念,其中的差異與競爭反映了社會基本認知的分歧——由此引申出來的不同策略、邏輯和路徑,將影響人類社會未來的發展軌跡。

第一種理念更傾向于保守主義。這種傾向強調維持人工智能技術的可控性即堅持人類應該對自主系統擁有權力是技術發展不可逾越的界限。伴隨深度學習算法對人工智能技術發展潛力的釋放,相當多領域里的人工智能應用系統,都可以在短時間的學習后,便能夠超越人們經年累月沉淀下的知識與技術。人類自己曾頗為自得的思維能力,在純粹的科學力量面前微不足道甚至不堪一擊。尤為甚者,深度學習算法的“黑箱”效應,使人類無法理解神經網絡的思維邏輯。未來世界無法預知和自身力量有限,使人類產生了雙重焦慮,由此形成的無力感導致對人工智能的恐懼甚至是排斥,以此來降低整個體系的動蕩強度、減少對人類熟悉環境的干擾。然而,目前大概沒有國家敢于采取這種觀念,因為人工智能的沖擊還只是一種可能性,但放緩對新技術的研發和使用將在短時間內使得國家間力量差距被顯著放大,從而在國際經濟和政治競爭中因為技術落后陷入非常不利的局面,卻是一種現實性。

第二種理念更傾向于自由主義。基于科技進步會為人類社會帶來積極影響的信念,通過調整制度和社會基本原則,構建一個更加適應技術發展特性的人類社會,從而充分釋放人工智能技術發展的紅利,進而突破人類自身的局限。這種理念的問題在于:面對人工智能這把雙刃劍時,過于關注實用性與機遇,過于忽視破壞性與風險,畢竟,如果有人工智能,那么也會有人工愚蠢(artificial stupidity)——人工智能系統的使用導致軍備競賽、戰略誤判和矛盾升級的可能性是相當大的。

相較之下,一種比較行得通的路徑是基于建構主義的:一方面,要努力促進人工智能快速發展,不必懼怕其成功跨越“奇點”(singularity)從而實現飛躍甚至成為“超級人類”,因為世界的運轉不可能永遠依照摩爾定律,人工智能未必會一路快速前進直至呈現爆炸式發展;另一方面,在人工智能向“奇點”突破的過程中,要未雨綢繆,構建人工智能使用的國際規范,堅持人類主權,即應在涉人工智能的高層次戰略決策中保持優勢和決定權。這并非不可能:人類在研發和使用人工智能技術、軟件與產品時,可以設計為一部分功能自主決定,另一部分功能由人類控制。同時,通過一種各利益攸關方參與的全球協商機制對人工智能的發展節奏進行調節,將可解釋、安全的人工智能確定為未來發展方向。如此,就有可能對于人工智能這種既可產生大善也可招致大惡的技術,進行實屬必要的控制。

當下,對人工智能進行國際規范、道德約束、倫理建構和哲學反思的時代已經來臨,遷延時機將是重大錯誤:辨析人工智能技術對于人類的影響,從而揚長避短、創造性地建構既能促進人工智能的發展也能體現人類文明與尊嚴的體系與制度,已經刻不容緩。

四、結語

很多技術專家與行業領袖認為,人類在21世紀面臨的最大威脅就是人工智能。面對現實與未來的人工智能引發的全球治理問題,傳統治理手段與理念在實踐中將會越來越失能甚至南轅北轍。

不過,只要人類在全球層面達成一些最低限度的共識并加以實踐以形成慣習,進而建立一套決策制定的知識框架和一個國際規范的基本框架,就可概括出在類似網絡戰和機器人技術等場景中運用人工智能的可接受方式。由此,即有可能形成對于人工智能發展過程中所存在技術風險和倫理隱患的一種制約。“人類始終處于控制地位”,不是、更不應是一句空話,它既是一種過程性價值,也是一種目標性價值。

注釋:

① 中央軍委聯合參謀部:《加快構建具有我軍特色的聯合作戰指揮體系》,《求是》,2016年第16期。

② 釣魚是指把危險的東西藏在看似無害的信息里的惡意軟件。釣魚軟件是最受歡迎的網絡攻擊形式之一,雖然它們在很大程度上取決于攻擊者是否能夠編出讓欺騙受害者打開鏈接或附件的信息。

③ 趙瑞琦:《美國中情局網絡攻擊全球,始作俑者必搬磚砸腳》,觀察者網,https://www.guancha.cn/ZhaoRuiQi/2017_04_13_403358.shtml,2017年4月13日。

④ Edward G A,Lohn J:HowMightArtificialIntelligenceAffecttheRiskofNuclearWar? https://www.rand.org/content/dam/rand/pubs/perspectives/PE200/PE296/RAND_PE296z1.zhs.pdf.May 28,2018。

⑤ 唐寧:《美軍探索人工智能在網絡安全中的應用》,《安全內參》,https://www.secrss.com/articles/7469,2018年12月28日。

⑥ 魯傳穎:《人工智能安全:挑戰與機遇》,《光明日報》,2018年09月19日,第14版。

⑦ 傅瑩:《人工智能變動國際格局,中國倡導什么規則?》,《國際政治科學》,2019年第1期。

⑧ [美]約瑟夫·奈:《防止網絡戰的規范性方法》,http://cn.chinausfocus.com/m/show.php?id=14011,2017年3月27日。

⑨ 封帥、魯傳穎:《人工智能時代的國家安全:風險與治理》,《信息安全與通信保密》,2018年第10期。

⑩ Taddeo M:CyberConflictsandPoliticalPowerinInformationSocieties,Minds and Machines,No.27,2017,pp.265-268。

猜你喜歡
網絡安全人工智能人類
人類能否一覺到未來?
人類第一殺手
好孩子畫報(2020年5期)2020-06-27 14:08:05
1100億個人類的清明
網絡安全
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
網絡安全人才培養應“實戰化”
人工智能與就業
IT經理世界(2018年20期)2018-10-24 02:38:24
上網時如何注意網絡安全?
數讀人工智能
小康(2017年16期)2017-06-07 09:00:59
下一幕,人工智能!
南風窗(2016年19期)2016-09-21 16:51:29
主站蜘蛛池模板: 在线亚洲天堂| 亚洲AⅤ无码日韩AV无码网站| 亚洲天堂.com| 亚洲AV无码久久精品色欲| 久青草国产高清在线视频| 日本午夜三级| 久久伊伊香蕉综合精品| 99在线视频网站| 手机精品视频在线观看免费| 婷婷综合色| 毛片网站观看| 免费jjzz在在线播放国产| 99九九成人免费视频精品| 日韩毛片视频| 国产高潮流白浆视频| 国产成人三级| 91丝袜乱伦| 中文字幕不卡免费高清视频| 国产区免费| 国产在线一二三区| 国产成人亚洲日韩欧美电影| 久久久久久久久久国产精品| 国产成人久视频免费| 香蕉色综合| a毛片免费在线观看| 久久熟女AV| 2022国产91精品久久久久久| 最新国语自产精品视频在| 国产成人一级| 免费毛片视频| 国产女人爽到高潮的免费视频| 欧美成人午夜视频| 亚洲天堂啪啪| 色视频久久| 亚洲激情区| 日韩天堂在线观看| 91午夜福利在线观看| 欧美精品综合视频一区二区| 波多野结衣在线se| 免费jjzz在在线播放国产| a毛片基地免费大全| 欧美日本激情| 国产Av无码精品色午夜| 91视频99| 国产高清无码第一十页在线观看| 精品视频一区二区观看| 极品尤物av美乳在线观看| 久久久久亚洲精品成人网| 亚洲日本在线免费观看| 99视频精品全国免费品| 午夜无码一区二区三区| 国产激情国语对白普通话| 欧美不卡在线视频| 国产视频 第一页| 精品少妇人妻一区二区| 久久精品丝袜高跟鞋| 免费国产高清精品一区在线| 日韩乱码免费一区二区三区| 久久青草精品一区二区三区| 美女一区二区在线观看| 一级毛片无毒不卡直接观看| 亚洲性一区| 国产小视频在线高清播放| 国产办公室秘书无码精品| 亚洲第一色网站| 久久香蕉国产线看观看亚洲片| 日韩欧美高清视频| 欧美成人午夜影院| 97人人做人人爽香蕉精品| 精品少妇三级亚洲| 欧美天堂在线| 97人人做人人爽香蕉精品| 成人午夜视频网站| 亚洲av日韩综合一区尤物| 国产永久在线观看| 亚洲欧美成人| 久久亚洲中文字幕精品一区| 五月天久久综合| 国产内射一区亚洲| 国产精品久久久久久影院| 99re免费视频| 亚洲an第二区国产精品|