【摘要】近年來,智能技術的創新與應用已經滲透進公共生活、國際傳播、區域沖突等諸多領域,隨之而來的權益沖突、利益糾葛,信息生產與消費關系的動態平衡,物理體與生命體的重新界定與再闡釋,生產方式轉型與文明形態轉化中的倫理風險、政策與法律規制需求越發凸顯。為此,正視智能技術創新發展應用的現實,揭示其應有的倫理向度,慎思既有的或可能的道德、法律、技術規制,無疑是新時代我國經濟、社會高質量發展,智能化社會建設,現代化實現過程中實踐與研究的雙重命題,其現實意義和理論價值不言而喻。
【關鍵詞】人工智能;倫理向度;就業沖擊;隱私泄露;算法偏見;法律規制
人工智能(AI)作為新一輪科技革命和產業變革的重要驅動力量,正逐步向人類社會各個領域滲透,對經濟發展、社會進步、國際政治格局等諸多方面產生重大而深遠的影響[1],成為這個時代最重要的技術,正在徹底改變每一個科學領域和行業。早在2017年7月20日,我國就發布了《新一代人工智能發展規劃》[2],把“新一代人工智能發展提高到國家戰略層面”,提出了未來30年我國由初級智能社會到高級智能社會的戰略發展目標。[3]現階段,AI越來越多地接管人類任務并取代人類決策,帶來生產力的極大提升,智能社會已經、正在或即將成為未來社會的新形態。但是,“媒介的全時空化,帶來了無限的希望和機遇,同時也產生了焦慮甚至錯亂和幻象”[4]。人們在驚喜于數字化、智能化社會帶來的興奮與快感的同時,也對AI技術對人的主體性挑戰深感憂慮,已經、正在或預設了其發展向度的倫理悖論。對AI倫理道德和政策法律的規制既是智能傳媒技術創新發展的保障,也是各種利益主體權益安全的需要。無論是對數智媒體的技術創新,還是對新質生產力的發展,乃至我國的現代化建設,都具有無可估量的重要意義。
本文旨在通過對智能技術發展中的表象、悖論,以及對目前全球人工智能倫理治理舉措的分析梳理,以求最大程度上讓讀者理解人工智能倫理治理的必要性,拓寬對技術治理路徑的思考。
一、智能技術發展的表象與向度
2024年,智能技術場域熱鬧非凡,先是新能源車的自動駕駛技術軟件的推陳出新,接著是“蘿卜快跑”自動駕駛在某市的大量投放,各種機器狗、無人機的輪番登場,智能化已開始從工業生產的自動化走入尋常百姓家,從日常生活關涉區域戰爭沖突。這種原本屬于文學想象領域的智能化命題,已變成了科技領域、國家安全領域乃至生命科學領域、文明轉型領域的前沿命題。人類已經不得不考慮智能科技創新帶來的倫理和法治悖論。
(一)從文學命題向技術命題轉向
毫無疑問,從自然生命體向物理體、生物體、智能體的轉化,實現人類生活時空的無差異轉化,本是一個人類想象中的文學創作命題。因此,在影視劇中,各種各樣的智能體大受歡迎,既包括生命體如超能力者,也包括像變形金剛、蝙蝠俠這樣的機械體。神話傳說、宗教故事、科幻作品為當下AI技術的創新開發利用提供了人類想象的樣本。因此,雖然是影視作品、科幻作品,但作品中常常隱藏著對人性深層次的探索和哲學思考。這些作品通過描繪不同的文明、生命形態和未來世界,挑戰讀者對自我、社會和宇宙的認知。隨著技術的發展,AI從弱人工智能進化到目前的強人工智能,從一個科幻概念變成了我們日常生活中不可或缺的一部分?,F有的該類影視劇也為數智技術的開發,特別是人工智能與生命智能的研發,提出了一個繞不過去的倫理命題,預警其中蘊含的風險。譬如《計算中的上帝》和《2001:太空奧德賽》等科幻作品就探討了生命的本質、文明的意義以及人與機器的關系。雖然我們不能將影視作品等同于必然會發生的現實,科幻也不等于科技,但是科幻為技術的發展方向提供了警示,貢獻了更多面向未來的人類預測、想象和思考。
(二)從工業技術向區域沖突轉向
人類對生產力提質增效的追求,驅使工業自動化領域不斷進行創新發展。除了各種形態的工業自動化技術之外,又創新出各種智能軟件,如自然語言的信息化處理、自動雙向翻譯軟件、語音模仿生成軟件、機器伴侶,以及各種各樣具有智能的機器人、機器狗等。這些人工智能軟件、系統乃至實物,不僅被用于人們的日常生活,也被應用到工業生產、農業生產甚至是戰爭領域。如此一來,本來用于造福人類的技術革命,給人類帶來的恐怕不僅是福祉,還可能是災難。比如在至今已持續三年多的俄烏沖突中,無人機、星鏈系統等智能化產品,就被用于人員、武器定位及武裝偵察和武裝打擊。利用光學圖像、合成孔徑雷達圖像和火力熱圖像等信息,獲取指定區域的相關作戰數據。通過對這些數據的整合和分析,智能算法生成高質量的戰場情報數據,并結合歷史戰例和當前態勢,生成預判[5],幫助軍方決策。各種類型的作戰機器人被投入使用,在戰場上自主執行任務,戰爭的形態正由信息化向智能化演進,傳統作戰方法正在被重構。這種AI發展的向度,正在把以前文學藝術、影視作品中對智能世界戰爭的憂慮變成現實,使AI技術不止于工業技術應用場景,而是向戰爭轉向。
(三)從科研命題向國家戰略轉向
AI技術的發展,已經不再限于某一個領域、某一類技術的創新問題,而是上升到了國家科研計劃乃至國家戰略的層面。以往的機器翻譯軟件已被滲透進了國際通信系統,進行機密信息的竊取。太空飛船與太空艙之間的手動對接,已經變成了智能化的快速自動對接。汽車自動語音識別,現在已經升級為自動駕駛??梢哉f,AI技術已經由個別的企業行為、研究機構的研發行為,發展成了國家戰略。包括中國、美國、俄羅斯、法國和英國在內的幾個主要國家已經制定了全面的國家人工智能戰略,并正在實施中。未來的數智化,將不再是個別生活領域、工業生產領域乃至區域沖突領域的事,而是上升到了國家戰略層面。
(四)從社會發展向文明形態轉向
人類對物理體的智能化開發,預示著人類社會形態的根本性轉化,預示著人類文明形態的根本轉向。人類未來正在實現從碳基生命向硅基生命的轉向。首先是人工智能體向生命體—物理體、半生命體—物理體、生命體與物理體的全面融合,再到徹底轉化。當下的人工智能技術的認知核心依然是對自然生命體大腦的神經性、生理性解構,這種探究的方向大概率是,人類徹底探明人腦的工作機制,特別是神經網絡以及蛋白質構成,接下來就是仿制自然生命體的人腦;抑或突破既有的人類克隆的倫理底線,直接進行人腦的克隆,產生出物理體與生命體的結合體。到那時,人類將面臨一個困擾自己的根本命題——什么是人。那將是人類文明發展的極致。
當下的人工智能技術在多維度、多行業場景拓展應用。從人手一個的智能手機到人形智能體、腦機鏈接,從語音影像的模仿變幻到大數據的自動抓取,從ChatGPT到無人駕駛汽車,從日常生活到工業生產、區域戰爭,從地表空間到近地空間,無不存在人工智能的影子。人工智能已經或正在向世界預示著人類文明樣態的多種發展維度,正在向人類提出一系列的倫理悖論。
二、智能技術發展中的雙重悖論
雖然尼爾·波茲曼說過,每一種技術既是包袱也是恩賜,不是非此即彼的結果,而是利弊同在的產物,但不同于之前其他技術倫理問題,AI對人類社會有著顛覆性改變,對現有社會秩序造成極大影響,和其他技術有著根本的差異。傳統科技的行為和結果具有可預測性,依賴人類操作,即使自動化技術也只能替代人的一部分勞動,且能被人類控制。但目前AI已經暴露出更多風險隱患,威脅到人的主體性地位,如接管人類工作、替代人類決策、個人隱私泄露、算法偏見歧視、網絡安全問題等;又因為其技術的不可控性和復雜性,以及目前已經造成的各種不良結果,引起人類更大的警惕和抵觸,引發社會各界對人工智能倫理(AI Ethics)的廣泛關注。
(一)勞動生產率提高和就業率下降
AI技術的快速發展,無疑是對現有勞動力市場的一種巨大沖擊。2019年,麥肯錫全球研究院發布的《工作的新未來》報告顯示,在2030—2060年間,將會有50%的現有職業被AI取代,中點為2045年,而且與之前同類型評估相比,加速了大約10年。[6]例如,目前的無人機技術已經可以實現高速自動化的耕作、噴灌、施肥、采摘乃至出售,減輕了農民的勞作辛苦,但同時由于機械化、智能化而節省下來的農村勞動力的去向就成了棘手的問題;再如“蘿卜快跑”出租車在某些城市大量投放,已經有許多顧客在嘗試,但與之相對的是出租車司機、滴滴打車司機面臨失業的隱憂。待到智能駕駛汽車大面積投放成功,我國的出租車行業必然會面臨徹底洗牌的風險,大量的人力將失去賴以為生的崗位。另外,批發零售業的傳統銷售和客服人員,制造業從事基礎體力和基礎技能類的工作人員,金融行業的傳統柜員、行政管理人員,高科技領域的一些軟件開發和研發領域的工作人員,傳統教育、初級咨詢人員等都面臨著被取代的風險。
雖然技術進步對就業的影響從工業革命開始就是社會的焦點和研究的關注點,但AI技術帶來的崗位沖擊不同于以往歷次因技術帶來的部分職業的消失,歷史上發生過的類似“盧德主義”①性質的運動和思潮,曾經在新技術替代舊技術時以各種面貌反復出現,但只波及某一行業或某一職業,最終會在艱難中實現轉型升級。但AI技術幾乎能替代所有的人類勞動,其影響的范圍和深度、廣度與之前任何一次技術發展帶來的崗位消失都不同,是一種全面的、無差別的沖擊,簡單的、復雜的、體力的、智力的,無論何種崗位無一幸免。就業空間被AI強力壓縮,失業人群即使想轉型也面臨著無處可去的巨大風險。
最關鍵的是,人工智能經濟要擴張,需要更多具有人工智能技能的工人。雖然中國新增“人工智能”專業高校數量在逐年增加,但預計2030年AI人才缺口多達400萬人。②AI技術的發展速度遠超過普通人類的學習速度,從事基礎體力、基礎技能的職業人群不再被需要;部分目前從事高智職業的人群還沒有足夠時間去適應或學習到新知識來應對新的工作環境,無法妥善處理因AI技術帶來的新興行業場景和問題;寄望于AI帶來新崗位的人因新崗位的創造速度跟不上舊崗位的破壞速度被無限期擱置,由此產生的大規模、大面積的失業必然會引發社會秩序的混亂,甚至暴亂。因此,如何解決大部分人群的就業、生存問題是目前討論AI技術倫理的首要之義。
(二)AI自主決策和決策的不可解釋性
AI算法決策在弱人工智能時期就開始介入甚至主導越來越多的人類社會事務?,F在人們已經習慣在互聯網上獲取新聞、視頻、廣告、社交動態、購買商品,這些基本是經過推薦引擎個性化推薦給用戶的。[7]發展到如今通過機器深度學習,利用卷積神經網絡生成內容的大模型,其自主決策系統更成熟便利,能夠廣泛輔助人類快速處理各種問題。但是又因為技術復雜的結構和高度非線性,造成AI決策過程不透明,用戶甚至開發者自己都無法了解到其生成的結論如何得來,決策依據是什么,無中生有的現象時有發生,這種“黑箱”特性造成多方面后果。
一是大眾對深度偽造(deepfake)的虛假新聞、名人言論或行為,以及高度逼真的虛假視頻和音頻難以辨別真假,導致人們對媒體信源不信任,影響新聞媒體的權威性,引發認知混亂。如果涉及政治、意識形態領域,造成的危害則更大。二是由于數據集本身存在的偏差,AI算法可能放大某些偏見,使決策存在歧視性,加劇社會不平等。三是當算法規?;\作應用在犯罪評估、信用貸款、雇傭評估等關切人身利益的場合,影響面可能擴大至類似情況的一群人的利益,違反市場規律,關系大眾福祉。四是當人工智能在某些應用場景中自主作出錯誤決策時,缺乏可追溯性,難以定位問題的根源,也無法確定責任歸屬,更遑論針對性地糾錯。AI自主決策的不可解釋性在對現有的法律框架提出嚴峻挑戰的同時,也增加了社會的不穩定因素。五是AI決策的來源是數據,而目前占據主導地位的AI平臺數據來源是基于歐美國家的語料庫,在決策中有大量基于歐美政治、文化、意識形態生成的內容,造成其他國家、文化或民族價值觀的混亂。
(三)大量數據共享與個人隱私保護
人工智能體的學習依賴信息的投喂,需要大量的數據支撐。由此引發的在物理和網絡空間內對個人數據的大量收集成為隱私泄露的源頭。在許多情況下,例如在健康數據方面,學術界、政府機構和私營部門都可以從共享數據中獲益,以開發新藥、降低成本和獲得新見解。與之相對的是數據收集的亂象。個人用戶在注冊平臺時會被要求填寫同意平臺的數據利用協議,大多數人為了使用平臺不得不簽署,但對其中的詳細條例未加深究,個人隱私被竊取但一無所知。技術后臺對數據賦予不同意義后另做他用,譬如信息買賣后衍生的網絡詐騙、深度偽造、釣魚攻擊等。此種案例比比皆是,例如,圖像及語音生成技術本可以惠及虛擬主持與播音,但是有人利用這一點,進行“換頭像”和聲音模擬,用來欺騙受害者的親友,詐騙錢財;再如,生成式AI技術還涉及知識產權的保護問題,其大數據庫的建構,會關涉許多現有的著述,但是著作權人很難維權。AI生成的虛假內容傳播、不合理的用戶協議導致個人隱私泄露、換臉技術應用于詐騙、自動駕駛事故頻發等,機構用戶如醫療機構、金融機構的敏感數據如果在AI技術應用時被收集,無疑會涉及人身、資產等安全問題。凡此種種,都顯示了數據的邊界在擴張、數據的應用在異化。
(四)AI不平等擴散危及公平正義
人工智能在世界范圍內的不平等擴散會不可避免地造成國際范圍內的公平正義問題,進而引發全球區域沖突。從國家層面上講,由于不同國家在智能化應用方面的差距,人工智能帶來的便利將較多惠及發達國家,而造成的負面影響較多殃及發展中國家。也就是說,如果一個國家或群體的數據沒有在用于訓練人工智能系統的數據集中被吸收利用,那么該系統就不會考慮該國家、該群體的需求,依賴該系統的產品和服務的好處只會流向一些人,而不會是所有人。全球面臨的地緣政治沖突將急劇上升,數字秩序將日益分裂。在一些公開的社交媒體中,出現了智能跟帖、智能刪帖、智能謠言等,對公共輿論進行操控,煽動顏色革命,帶來了許多不安定因素。當人工智能被直接應用到軍事領域時,AI武器的開發和應用,無疑會帶來更大的殺傷力。2024年9月蘭德公司發布的報告《人工智能軍事應用的新風險和機遇》明確指出,部署軍事人工智能可能會重塑不同國家之間以及國家與各類非國家行為體之間的力量平衡。[8]最終導致國家之間的不平等進一步加劇。就個人層面講,所處環境中AI基礎設施、軟硬件設備條件上的差異,個人自身認知及能力差異,以及主流人工智能系統中的數據可能將某些個人或人群排除在外或代表性不足,使其無法充分享受人工智能提供的便利,從而加大數字貧困,形成數字鴻溝,引發所涉所有權利的不公平,進而上升至階層矛盾。
(五)腦機接口應用威脅生命體安全
目前,數智技術的開發已經進入腦機銜接領域,這一方面有益于增加人類福祉,為腦病患者帶來福音,比如由智能機器人做微創手術、開顱手術,對腦神經損傷以及智力消退等進行治療。隨著智能技術的發展,人類很可能會突破既有的醫學倫理和法律規制,對人腦進行基因改造,實施腦機控制,甚至生產出生命體與物理體的結合產品,或者直接利用數智技術進行腦生物體的研發,并用于對自然人進行腦控制,竊取自然人的人腦機密信息。這在很大程度上并非危言聳聽,已有先例。2024年1月,蘭德公司的《瘟疫、半機械人和超級士兵:人類戰爭領域》報告闡述了腦機接口技術作為進攻性和防御性武器應用于作戰的整體可行性,并給出了兩個目前可實現的應用案例,其中一個就是某政府雇員通過白內障手術安裝了一個含有微型攝像頭的人造晶狀體,并在太陽穴皮下植入電極設備,隱秘地實現對政府設施和敏感文件的泄露傳輸。另一個則是某80多歲的國家領導人因健康狀況不佳、認知能力下降的傳言面臨艱難的連任競選,因此通過大腦植入先進的腦機接口來加速移動和說話,從而偽裝正常的生活和政治活動。[9]這意味著,腦機接口技術的應用可能成為未來網絡攻擊的新目標,包括向大腦發送錯誤指令或進行情緒操縱,在軍事領域應用可能使機密情報被竊取或篡改等。人類有必要防患于未然,對此類行為加以生命倫理、數智倫理以及法律上的規制。
三、智能技術創新向度的規制
社會進步、國家安全、區域沖突、資本增值、文明轉型等,一直是人類技術發展中的基本動因。且技術本身一旦出現就幾乎無法回卷,只能引導不能絕對禁止,否則必然會轉入地下,安全風險只會更高。技術革新、進步、發展的歷程,也是逐漸從無序走向有序,從道德自律走向政策和法律規制的歷程。人工智能倫理治理也不例外,需要各相關主體以倫理原則為指導,需要全人類,至少國家決策者、技術投資者、技術開發者、法律法規制定者達成共識,深刻理解人類命運共同體的內涵,才可能制定出真正有實效的倫理規制,解決科技發展面臨的倫理與社會問題,其核心是促進人工智能朝向有益人類福祉和社會安康的方向發展。這包括三個方面的努力:道德層面、政策層面、技術層面。
(一)道德層面
此前有觀點認為,未來人類媒介發展的極致就是破譯自然人腦的秘密,生物基因技術與媒介技術融合,可實現對自然人智能的模擬和再造,實現人腦實體之間超時空的信息傳輸。[10]當下智媒技術發展的態勢也表明,智能由物理體向生命體的轉換正在實現。人類傳媒文明發展的進程,正基于刻畫文明→語言文明→書寫文明→印刷文明→電子文明→數字文明[11]基礎,向光子文明、智能文明邁進。在目前的數智技術開發中,人們已經逐漸認識到其已顯現的或潛在的沖突與風險,但是,對其治理和規制多數還停留在學術討論環節。就像一輛高速行駛的列車,在控制和剎車系統基本不存在的情況下不停地狂奔,危險系數不斷增大。因此,制定一定的技術開發與應用的倫理規約十分必要。
資本主體、技術開發主體,是對數智倫理風險給予把控的第一主體,如何協調各方利益,制定合理的道德規約是重中之重。傳統的倫理規約制定路徑有規范倫理、實踐倫理兩種。前者關涉組織倫理、學者倫理等,由數智行業的倫理組織主導制定,后者則從屬于相關的倫理學說,比如康德的三大道德原則、羅爾斯的無知之幕原則等。其中,羅爾斯的“無知之幕”主張,當消除了一切社會差異之后正義才能出現。就數智技術而言,當數智技術的開發與應用消除了一切社會差異時,其就具有了普適性。比如腦機接口技術的開發及應用,如果可以適用于所有的生命體,那它就具有道德上的可行性。但是,事實上,如果有人在利用腦機接口對其他人實施思想控制或進行信息竊取時,也就沖破了道德防線。社會差異在人工智能技術的推動下只會加大很難縮小?;诖?,全球協會、組織對人工智能倫理的關注度在不斷上升。
截至2024年8月,全球范圍內多達106個國家、國際組織與地區推出了人工智能的相關治理規則,全球合作廣泛展開。[12]2018年12月,歐盟人工智能高級專家組發布《可信人工智能倫理指南草案》,這也是全球首個專門針對倫理的規則范本。指南中提出,人工智能未來應滿足7大原則,包括保障人類充分的自主權、技術的穩定性和安全性、數據安全和隱私、模型和算法的透明度和可解釋性、公平和無歧視、自然生態和社會福祉的可持續性、可追責。[13]2023年3月,聯合國教科文組織號召各國立即執行其于2021年11月發布的《人工智能倫理問題建議書》[14],其核心價值同樣集中在人權和人的尊嚴、和平公正互聯的社會、多樣性和包容性等。2024年5月17日,英國政府發布了由來自30多個國家和地區的75位人工智能專家共同完成的《關于先進人工智能安全的國際科學報告(中期報告)》。報告重點關注了通用人工智能的能力和風險,并評估了緩解這些風險的技術方法。[15]2024年7月4日,世界人工智能大會暨人工智能全球治理高級別會議發表《人工智能全球治理上海宣言》,呼吁推動制定和采納具有廣泛國際共識的人工智能的倫理指南與規范,引導人工智能技術健康發展,防止其被濫用。[16]
(二)政策層面
根據最新的統計數據,全球AI市場規模已經超過5000億美元,未來數年將以超過30%的年增長率迅猛發展。[17]巨大的商業利益讓該領域研究者一邊憂慮,一邊沖刺,對倫理反思的動機、動力不足。如果沒有國家主導的外部監管機關進行審查和約束,靠行業協會進行倫理自治大概率會流于形式,對規避風險和危害的作用較小。在全球范圍內,AI倫理治理也由AI技術發展大國來主導。
中國自2021年以來制定了一系列關于AI的法律,《新一代人工智能治理原則》《新一代人工智能倫理規范》等政策文件,明確提出八項原則,強調將倫理道德融入人工智能全生命周期。[18]在特定領域如內容生成和算法推薦方面制定了法規,如《互聯網信息服務算法推薦管理規定》旨在保護移動應用中的用戶權利,禁止假賬戶和操縱流量數字;《互聯網信息服務深度合成管理規定》對AI生成的內容進行監管,對生成合成類算法進行規制。
美國的AI法規更傾向于分散和特定行業的法規,強調自愿遵守,確保美國在人工智能研發方面的領導地位,有原則和指導方針,但缺少細化的法規。白宮、國會和聯邦機構提出了一系列與AI相關的倡議、法律和政策,但強調的是如何將現有法律應用于AI技術,而不是應用新的、專門針對AI的法律。在州級政府層面上指向相對明確,如新罕布什爾州通過了禁止使用深度偽造的法律,并建立了欺詐性使用深度偽造的犯罪行為和處罰。
歐盟自2021年4月21日首次提出《人工智能法案》以來,便積極推動該法案落地,歷時3年,于2024年5月推出《歐洲人工智能法案》,此法案采用“基于風險”的方法,風險越高,對社會傷害越大,規則就越嚴格。相較來說,歐盟的AI法案涉及面較為廣泛,是全球首部人工智能領域的全面監管法規,有可能成為全球AI監管的基準。
可以看到,目前全球各國都在積極尋求應對AI倫理風險的路徑和規范,以保證人工智能的良性發展,有研究基于數據集統計不同類型人工智能治理文本的發布情況,發現對人工智能治理的相關文件具有不同階段的特點。2016—2020年間,以促進發展為目的的政策原則在全球范圍內普遍展開,與之同步的是倫理宣言、共識文件的密集簽署與發布。2020年后,具有強制力的法律法規和產業界執行落實的標準化文件推出密度增大,在2021年達到歷史性的新高。這說明,對人工智能倫理問題的治理,相對于早期只看利益的無序發展,目前全球在一定程度上達成了共識。但人工智能倫理領域所涉及的內容和概念非常廣泛,涉及研發、應用的全環節,解決AI倫理問題的手段方法大多還處于探索性研究階段。
(三)技術層面
由于AI深度參與社會的各個領域,與傳統倫理約束相比,AI技術創新的規制還需要技術的強勢參與來實現。所謂以子之矛攻子之盾,以技術反制技術,可能是人工智能倫理治理的最快捷、最有實效的方案。政府可以敦促技術開發者推進各種智能技術與其他治理技術相互融合,發揮智能技術強大的感知能力、傳輸能力和計算能力,做到精準治理。[19]目前已經通過技術所做出的規制方法包括但不限于:(1)倫理原則的技術化。將倫理原則轉化為工程問題,用技術工具推動倫理原則落地。例如,通過數據篩選、算法設計、模型優化等技術手段,將倫理原則嵌入人工智能應用與產品中。[20](2)積極發展AI產品倫理風險評估監測工具,推動應對AI偏見歧視、隱私泄露、不可解釋等倫理風險的技術工具研發。(3)加強算法的安全性、可解釋性、公平性的人工智能算法研發,以及數據集異常檢測、訓練樣本評估等技術研究。(4)利用類似于網絡安全漏洞賞金的技術眾包方式,如算法歧視賞金等,發現、識別、解決AI倫理問題,開發AI審計工具。(5)采用自動檢測系統來檢測偏差、漂移、性能和異常,并設置當模型偏離其預定義的性能參數時發出警報。(6)建立可信AI的架構,將倫理和法律納入設計,保證系統的可解釋性,加強對系統的測試和驗證。[21]
上述技術方法只是AI治理技術框架的一部分,隨著AI的不斷進步和演化,需要進一步加強對建立可信人工智能的要求及技術治理方法實操性,使技術層面的規制越來越符合人類對于AI倫理治理的要求,確保AI技術的發展符合社會公共利益,最終達到維護社會的穩定安寧、公平公正的目的。
四、結語
技術進步、社會發展、文明轉型具有深厚的客觀理據和主觀動因。目前對于人工智能這一仍在高速發展的技術,各方雖有共識但也有異見,處在一種微妙的平衡與妥協中。一方面,人工智能將帶來巨大的經濟和軍事利益,過于限制可能會造成技術發展的停滯,出于對可能阻礙經濟發展、社會進步以及自身國際地位的擔憂,政府、資本方、技術開發方都不愿輕易嘗試使用強力的法律限制,付出落后、被動的代價;另一方面,各國都清楚地認識到放任技術發展勢必會帶來各種社會的不安定因素,可能會引起公眾的強勢反彈,誘發各種犯罪甚至暴亂。
正如學者彭蘭所說,通過技術發現、彌補人的能力局限,通過人的力量來糾正機器的偏狹與誤區,才是人工智能的要義。[22]人工智能本質上的工具屬性要求人工智能的發展應確保不損害人作為人的基本尊嚴,并以增進社會福祉為根本目的。[23]智能化社會的未來,急需思想的解放和技術創新的膽識,但同時也需要人文情懷以及法治思維,從而降低科技生產力發展與社會安全、國家安全、文明安全產生沖突的風險。令人欣慰的是,對AI倫理的研究在不斷深化和拓展,有學者借鑒經濟學上的索羅悖論,認為當前新技術應用過程暴露的倫理問題是“技術創新倫理周期”的階段性特征。這一過渡期既是技術的升級更新、監管和約束機制及時補位和調整的過程,也是公眾科學素養提高的過程,是技術創新周期與系統性規范體系動態演進過程的正?,F象。[24]公眾可以辯證地看待生成式人工智能發展,并緩解對技術創新的焦慮。
注 釋:
①盧德主義是指對新技術和新事物的一種反抗。盧德分子其實也不反機器與新技術,他們反的是機器與新技術帶來的失業。
②數據來源:教育部。
參考文獻:
[1]武屹,方小枝.合肥人工智能產業基礎研究戰略選擇探討[J].赤峰學院學報(自然科學版),2024,40(7):39-43.
[2]國務院關于印發新一代人工智能發展規劃的通知[EB/OL].http://www.gov.cn/zhengce/content/2017-07/20/content_5211996.htm.
[3]陳芳,余曉潔,胡喆.大智能時代的關鍵之舉:五問AI國家戰略[EB/OL].http://news.xinhuanet.com/politics/2017-07/21/c_1121360911.htm.
[4]陳汝東.論國家傳播倫理秩序發展的新向度[J].人民論壇·學術前沿,2017(6):86-92.
[5]張峰豪,馬建光.人工智能驅動下的新型作戰力量[J].軍事文摘,2024(13):11-14.
[6][機器人頻道|大V說]麥肯錫160頁報告:2030年8億人工作將被機器人取代[EB/OL].https://www.sohu.com/a/340870812_99946933.
[7]周至禹.人工智能系統及產品設計的倫理問題探究[J].創意與設計,2019(1):23-30.
[8]蘭德公司發布:《人工智能軍事應用的新風險和機遇》[EB/OL].https://m.163.com/dy/article/JFMFMUPQ0514R8DE.html.
[9]美國腦機接口軍事應用進展及涉我風險[EB/OL].https://www.secrss.com/articles/67720.
[10]陳汝東.未來傳媒發展趨勢:一種媒介史的視角[J].人民論壇·學術前沿,2017(23):15-20.
[11]陳汝東.未來傳媒發展趨勢:一種媒介史的視角[J].人民論壇·學術前沿,2017(23):15-20.
[12]方師師,葉梓銘.人工智能倫理治理的全球圖景:多維特征與實踐要素[J].青年記者,2024(10):107-112.
[13]王愷樂,陳云偉,熊永蘭.人工智能監管政策與措施的國際比較及啟示[J].世界科技研究與發展,2024,46(4):456-468.
[14]陳戈.類ChatGPT亟需加強監管[J].中國信息界,2023(2):36-37.
[15]《先進人工智能安全國際科學報告》:中期報告[EB/OL].portal.nstl.gov.cn/reportFront/getReportDetailFront.htm?serverId=221amp;uuid=9875509b074c7121c
08e562a1a9925eamp;controlType=openhome.
[16]夏小禾.工信部:讓傳統產業“老樹發新芽”同時構筑未來發展新優勢[N].機電商報,2024-07-29(A01).
[17]IDC:中國生成式AI投資增長加速,五年復合增長率達86.2%[EB/OL].https://www.idc.com/getdoc.jsp?containerId=prCHC51997124.
[18]曠視回顧全球十大AI治理事件,技術與倫理安全如何進行落地[EB/OL].https://www.thepaper.cn/newsDetail_forward_5468911.
[19]人工智能的倫理挑戰與科學應對[EB/OL].http://theory.people.com.cn/n1/2023/0410/c40531-32660490.html.
[20]多措并舉推進我國算法治理[EB/OL].http://www.rmlt.com.cn/2022/0620/649818.shtm.
[21]多措并舉推進我國算法治理[EB/OL].http://www.rmlt.com.cn/2022/0620/649818.shtml.
[22]于飛.全球視野下新聞業智能傳播的革新與挑戰[J].上海廣播電視研究,2024(4):115-122.
[23]張平.人工智能倫理治理研究[J].科技與法律(中英文),2024(5):1-12.
[24]雷宏振,劉超,蘭娟麗.論生成式人工智能的技術創新倫理周期:以ChatGPT為例[J].陜西師范大學學報(哲學社會科學版),2024,53(1):97-107.
作者簡介:陳汝東,北京大學新聞與傳播學院教授、博士生導師(北京 100871);李凈,《中國傳媒科技》編輯部主任(北京 100031)。
編校:董方曉