宋陽 李慧
[摘要] 隨著第四次工業(yè)革命浪潮的到來,云計算、深度學習、大數(shù)據(jù)等技術(shù)不斷普及,人工智能已嵌入人們生活的方方面面,不僅影響科技領(lǐng)域的發(fā)展,同時也給政治、經(jīng)濟、社會、道德倫理等領(lǐng)域帶來了風險與挑戰(zhàn)。由此,應(yīng)從社會、政府及人類自身三個層面積極探索應(yīng)對策略,以期形成多方共同參與、相互聯(lián)動的有效合力機制,實現(xiàn)對人工智能的合理控制,更好地應(yīng)對人工智能可能帶來的社會風險。探索人工智能未來的發(fā)展方向,推進“技術(shù)”與“社會”的良性互動。
[關(guān)鍵詞]人工智能;社會風險;高質(zhì)量發(fā)展;技術(shù)風險;倫理風險
[中圖分類號]G641[文獻標志碼] A[文章編號]1672-4917(2023)03-0109-07
一、引言
人工智能作為推動人類文明不斷向智能化社會邁進的“催化劑”,深刻影響了社會生產(chǎn)結(jié)構(gòu)和生活方式。作為第四次工業(yè)革命的最核心組成部分,人工智能正在成為全球科技競爭的制高點、經(jīng)濟發(fā)展的新引擎和產(chǎn)業(yè)變革的核心驅(qū)動力[1]。為了快速尋找在第四次工業(yè)革命中的出路,我國十分重視人工智能的發(fā)展。國務(wù)院于2017年發(fā)布的《新一代人工智能發(fā)展規(guī)劃》對人工智能的發(fā)展起著建設(shè)性的作用,強調(diào)“把新一代人工智能作為推動科技跨越發(fā)展、產(chǎn)業(yè)優(yōu)化升級、生產(chǎn)力整體躍升的驅(qū)動力量,努力實現(xiàn)高質(zhì)量發(fā)展”[2]。近年來,政府工作報告多次提到將加強人工智能的發(fā)展規(guī)劃作為新的工作重點,從國家宏觀層面來治理引導人工智能的發(fā)展。當前我國已成功進入創(chuàng)新型國家行列,聚焦人工智能的創(chuàng)新性發(fā)展已成為時代命題。隨著國際國內(nèi)大環(huán)境的變化,人工智能等前沿問題更是充滿復雜性和不確定性,技術(shù)風險與社會風險事件時有發(fā)生,多方面因素觸發(fā)的倫理問題也引發(fā)人們的深刻反思,因此,我們應(yīng)當客觀冷靜地分析人工智能的發(fā)展前景,審慎對待人工智能這一先進的技術(shù)科學。
黨的十九屆四中全會以來,國家高度重視社會治理工作并創(chuàng)新社會治理模式,提升社會治理智能化水平。《中華人民共和國國民經(jīng)濟和社會發(fā)展第十四個五年規(guī)劃和2035年遠景目標綱要》明確指出,“堅持科技賦能,推進社會治理現(xiàn)代化”[3]。習近平總書記指出,“要加強人工智能發(fā)展的潛在風險研判和防范,維護人民利益和國家安全,確保人工智能安全、可靠、可控”[4]。然而,人工智能是一種尚處于探索階段的革命性、顛覆性技術(shù),在推動人類社會快速發(fā)展的同時,又深刻地改變了人類生產(chǎn)生活方式與社會形態(tài)結(jié)構(gòu),進而衍生出一系列的社會風險[5]。有學者指出,人工智能形成的“智能技術(shù)范式”容易侵蝕人的自主權(quán),人或?qū)S為技術(shù)的“附庸”[6]。也有學者認為,人工智能在幫助重塑政府科層組織之間及政府與社會的關(guān)系的同時,會對組織的地位和邊界帶來重大挑戰(zhàn)[7]。任劍濤提出人工智能技術(shù)失控容易造成社會沖突問題。人工智能時代背景下,探討人工智能應(yīng)用的社會風險成為亟須深入研究的現(xiàn)實問題[8]。何哲將人工智能給人類社會帶來的核心風險分為隱私泄露、勞動競爭、主體多元、邊界模糊、能力溢出、懲罰無效、倫理沖突、暴力擴張、種群替代和文明異化十個方面,并提出了相應(yīng)的應(yīng)對措施[9]。張成崗從技術(shù)自主性與人工智能的失控風險、新技術(shù)決定論形態(tài)中的算法及數(shù)據(jù)挑戰(zhàn)、人工智能發(fā)展中的倫理風險及其規(guī)約、人工智能對就業(yè)的沖擊及其社會風險、人工智能時代整體圖景缺失的挑戰(zhàn)這五個方面對人工智能社會風險進行討論[10]。周利敏等認為人工智能可能會促進社會風險治理模式創(chuàng)新,但逃脫人類控制的人工智能會造成更大的社會風險[11]。楊凱結(jié)合人工智能與社會風險治理的新進展,闡述了基于人工智能的社會風險的治理模型[12]。王泗通則通過對人工智能在垃圾分類領(lǐng)域的應(yīng)用分析,提出人工智能可能引發(fā)居民過度依賴智能化、基層自治空間不斷壓縮以及社會結(jié)構(gòu)可能解組的社會風險[13]。
二、人工智能發(fā)展?jié)撛诘纳鐣L險
隨著我們進入人工智能時代,社會生產(chǎn)力大幅提高,人們的生活方式也變得更加便利,同時也導致了勞動崗位受到?jīng)_擊、數(shù)據(jù)及隱私泄露及算法歧視等一系列的社會風險。
(一)人工智能沖擊勞動崗位的風險
人工智能在極大地提高生產(chǎn)效率并改變傳統(tǒng)的勞動形式的同時,替代了大量的勞動力,造成失業(yè)危機,這不僅給勞動就業(yè)市場帶來巨大沖擊,對一些弱勢群體來說更是帶來永久性的不可估量的危害。人工智能對勞動崗位造成的沖擊主要表現(xiàn)在以下兩方面:一方面,人工智能對生產(chǎn)效率要求高的制造業(yè)造成了很大的影響;另一方面,人工智能對于重復性的、程序化強的服務(wù)性工作和體力勞動沖擊較大。
在制造業(yè)中,人工智能的主要作用是使機器能夠“匹配或超過人類技術(shù)人員”,提高生產(chǎn)操作的效率,降低成本。首先,在其他條件相同的情況下,高技能的機器在提高生產(chǎn)力方面顯然比傳統(tǒng)勞動力更有優(yōu)勢;其次,在制造業(yè)中,工人的生理和心理存在潛在的威脅,例如,單線操作很容易導致心理疾病,富士康甚至出現(xiàn)了員工跳樓的惡性事件。這些因素導致企業(yè)傾向于用機器取代勞動力,這增加了勞動力失業(yè)的風險。另一方面,勞動力成本的上升和人工智能的日益成熟,也增加了企業(yè)用機器替代勞動力的意愿。
在服務(wù)行業(yè),隨著越來越多的人工智能機器的引入,機器正在逐漸取代一系列重復的、程序化強的機械性服務(wù)任務(wù)。中國建設(shè)銀行在2017年引入了“智慧柜員機、外匯兌換機、理財服務(wù)機”,隨后裁減了1萬多名員工。據(jù)招商銀行工作人員介紹,未來可能只留下一名柜臺人員在銀行網(wǎng)點處理交易,這意味著超過50%的柜臺人員將離開目前的工作崗位[14]。隨著人工智能的發(fā)展,無人超市、無人酒店、無人健身房、無人銀行等基于人工智能的新行業(yè)逐漸普及,這對傳統(tǒng)行業(yè)的人力資本的影響也越來越大。
在教育領(lǐng)域,人工智能的優(yōu)勢正在慢慢改變傳統(tǒng)的教學模式。與人工智能相比,人類教師有一定的缺陷;人類教師在時間和精力方面處于明顯的劣勢[15],其在知識存儲和分析處理能力方面也遠不如人工智能。此外,人工智能比以往任何時候都更具顛覆性,因此,許多以前認為不太可能被代替的職業(yè),如律師、法官等,也逐漸面臨被取代的風險。制造業(yè)和農(nóng)業(yè)的人力資本將不可避免地流向服務(wù)業(yè),服務(wù)業(yè)的工作崗位不足以及被替代行業(yè)人力資本的不斷涌入,將進一步加劇就業(yè)問題。
人工智能具有自我感知、自我模擬、自我調(diào)節(jié)等功能,能夠?qū)χ悄苄畔⑦M行量化處理,可根據(jù)復雜多變的市場需求進行靈活的調(diào)整和改進,一切社會生產(chǎn)活動都由機器之間自行交流、自主完成,實現(xiàn)物質(zhì)生產(chǎn)過程的無人化。深度學習等技術(shù)的快速發(fā)展給人工智能自我更新升級帶來了新的契機,構(gòu)建人工智能神經(jīng)組織,會使勞動生產(chǎn)率出現(xiàn)“指數(shù)級”增長,與之相隨的未來社會經(jīng)濟發(fā)展趨勢也會發(fā)生巨大變化。深度學習技術(shù)的應(yīng)用使人工智能開始扮演人類的大腦,取代傳統(tǒng)的腦力勞動的工作,甚至對以往并未受到技術(shù)影響的職業(yè)和崗位也帶來了影響。同時,未來人工智能與人類的關(guān)系目前也不清楚,人工智能未來有可能和現(xiàn)在一樣對人類采取友好的態(tài)度,也有可能對人類產(chǎn)生敵意,而且超人工智能也有可能有自己的野心,從而反過來奴役人類成為社會的主宰[16]。庫茲韋爾在《奇點臨近》一書中預言,機器的智能將在2045年超過人類智能,而到21世紀末,人機智能將比人類智能強大數(shù)倍;并認為如果人工智能繼續(xù)發(fā)展下去,非生物計算機將取代人類,人工智能主導的人機文明將取代人類文明[17]。
(二)人工智能引發(fā)隱私泄露的風險
現(xiàn)代社會是文明程度較高的人類社會形態(tài),人們更加重視和維護自身的尊嚴。然而,隨著信息技術(shù)的快速發(fā)展,所產(chǎn)生的一系列社會風險也隨之而來,特別是個人隱私與信息共享之間的內(nèi)在矛盾使人類自身的尊嚴與隱私遭到了時代性的挑戰(zhàn)。大數(shù)據(jù)的快速發(fā)展,在催生個人有效信息收集手段的同時,也使人類個體的私人空間遭到侵犯,這就容易形成保護隱私和信息共享之間的二律背反,對人類個體的隱私造成嚴重的挑戰(zhàn)。
近年來,各種帶有處理器和傳感器的人工智能產(chǎn)品不斷涌現(xiàn),使人們的學習和生活更加便利,同時也提高了對物理空間的監(jiān)控,進一步增加了用戶隱私被侵犯的風險。例如,蘋果公司利用Siri軟件,在未經(jīng)用戶同意的情況下,將用戶與他人之間的對話通過其服務(wù)器傳輸給承包商進行分析;陌生人可以利用無人機監(jiān)視普通公民[18]。在各種人工智能產(chǎn)品面前,普通公民就是一個“透明人”,沒有任何隱私。除了私人領(lǐng)域缺乏隱私外,公共領(lǐng)域的監(jiān)控攝像機,如街道上的監(jiān)控攝像機,也可以利用圖像識別技術(shù)在人群中自動識別人臉、找到目標,實時監(jiān)控特定的對象。
人工智能對個人隱私的侵犯越來越顯著。當今時代,人們在互聯(lián)網(wǎng)上的行為完全被互聯(lián)網(wǎng)這個信息媒介所記錄。互聯(lián)網(wǎng)利用大數(shù)據(jù)技術(shù)收集、存儲和分析這些信息,預測和分析用戶的個人興趣、愛好、習慣和行為模式,以提取未在互聯(lián)網(wǎng)上“公開”的預測性信息,然后追求商業(yè)信息流。例如,劍橋分析公司不正當使用收集到的八千多萬Facebook用戶數(shù)據(jù),并參與到美國總統(tǒng)大選的事件中,違反數(shù)據(jù)的收集和保存的原則使數(shù)據(jù)泄露,嚴重侵犯了公民的隱私權(quán)。
自新冠病毒疫情暴發(fā)以來,大多數(shù)醫(yī)務(wù)人員在疫情防控領(lǐng)域開展醫(yī)學研究,科技人員正確地運用人工智能技術(shù)開展疫情防控,取得了實實在在的效果,有效保障了我國人民的安全健康和社會的健康發(fā)展。然而,大數(shù)據(jù)在疫情防控中的廣泛運用已經(jīng)并將繼續(xù)引發(fā)一些復雜的倫理問題,特別是隱私泄露問題。各級政府部門和地方組織擁有特定的合法權(quán)力,可以收集大量的個人隱私數(shù)據(jù)和信息,如姓名、身份證號碼、個人通信信息、交通和旅行信息、在線支付信息等。然而,這個過程在人工智能和大數(shù)據(jù)的加持下,很容易導致個人權(quán)利和公共利益之間的沖突,并導致個人權(quán)利受到侵犯[19]。
同時,人工智能的使用可能會增加醫(yī)療數(shù)據(jù)泄露的風險。一方面,這些數(shù)據(jù)被醫(yī)院或人工智能產(chǎn)品公司所掌握,如果這些信息被傳遞給欺詐者或其他醫(yī)療機構(gòu),那么數(shù)據(jù)主體就有可能被欺詐或被推銷醫(yī)療產(chǎn)品;另一方面,如果這些數(shù)據(jù)由于管理不善或系統(tǒng)漏洞而被泄露,可能對數(shù)據(jù)主體及其家人造成嚴重傷害[20]。
大數(shù)據(jù)的發(fā)展使共享信息的范圍不斷擴大、程度不斷加深,從而使個人信息的泄露更容易發(fā)生。互聯(lián)網(wǎng)技術(shù)的發(fā)展,使得社交媒體及各種APP非常容易獲取用戶的私人信息,進而更全面地了解一個人的個人偏好、智力能力、心理狀況等隱私。這表明,在大數(shù)據(jù)時代,人類隱私已經(jīng)成為最脆弱的領(lǐng)域之一,迫切需要法律和倫理框架來保護,以維護人類尊嚴[21]。
(三)算法歧視引起的隱患
1.信息繭房
社交媒體平臺利用人工智能算法對用戶的偏好進行精準識別和計算,進而提供差異化、個性化服務(wù),以迎合用戶需求從而吸引和維持用戶流量。這一過程必然會加劇其對消費者選擇性的信息傳遞,導致“信息繭房”問題,即個人沉浸在自己選擇的以及令自己愉悅的信息中[22]。長此以往,將自身桎梏于所謂的“繭房”之中,進而降低個人自主提煉優(yōu)質(zhì)信息以及自主判斷和決策的能力,不斷擾亂其價值體系,造成認知固化甚至形成偏見。
2.價格歧視
企業(yè)利用人工智能算法來優(yōu)化產(chǎn)品定價方案以獲得更高的利潤,通過算法進行用戶數(shù)據(jù)畫像以更精準地了解其支付意愿,進而對不同的消費者實行差異化定價策略,產(chǎn)生了大眾熟知的“大數(shù)據(jù)殺熟”現(xiàn)象。同時,機器學習算法可獨立于企業(yè)直接進行動態(tài)差別定價,甚至規(guī)避《反壟斷法》的嚴格規(guī)制,實施隱蔽的價格合謀行為。這一過程嚴重侵害了消費者的合法權(quán)益,引發(fā)了競爭扭曲的壟斷行為并極大地擾亂了相關(guān)市場的公平競爭秩序。在數(shù)字政府建設(shè)過程中,人工智能算法也成為輔助行政決策智能化的重要技術(shù)支撐。受制于算法研發(fā)的能力,政府購買技術(shù)服務(wù)的過程也增強了自身對技術(shù)開發(fā)者和控制者的技術(shù)依賴,使其可以隱蔽地干預政治議程。政府也將因此陷入被算法支配、政治話語權(quán)缺失的重大權(quán)力危機之中。
3.種族歧視
解決有形的種族歧視很容易,但無形的種族歧視卻很難防范。種族歧視更易隱藏在算法黑匣子的幌子下。隨著面部識別系統(tǒng)的標準化,并逐漸在學校、體育館、機場、交通樞紐,特別是警察系統(tǒng)中使用,對有色人種造成的種族歧視的新的傷害形式也越來越明顯了。在谷歌上搜索“白人女孩”會得到相對正常的信息,而搜索“亞洲女孩”或“黑人女孩”往往會得到“約會”“色情”等信息[23]。同樣,人工智能算法在法醫(yī)實踐中也被廣泛使用。美國警察局在其“預測性警務(wù)”項目中實施智能算法分析。在目標犯罪應(yīng)該平均分配的情況下,警察被派往黑人社區(qū)的比例大約是白人社區(qū)的兩倍。另一個值得警惕的例子是,在減少偏見的基礎(chǔ)上應(yīng)用的算法,反而加劇了種族歧視。2016年,當人權(quán)數(shù)據(jù)分析小組將PredPol算法模擬應(yīng)用于加利福尼亞州奧克蘭市的毒品犯罪時,它反復將警察派往少數(shù)族裔聚居區(qū),而不管這些聚居區(qū)的實際犯罪率如何。近年來,算法引起的種族歧視普遍存在,這表明在虛擬世界中打擊種族主義的緊迫性和重要性。
4.性別歧視
算法上的性別歧視本質(zhì)上是將長期存在于現(xiàn)實世界中的性別歧視觀念轉(zhuǎn)移到虛擬世界中。人類無意識的性別歧視會影響分析大數(shù)據(jù)的人工智能算法,在招聘和大學錄取等領(lǐng)域無意中強化了性別歧視。“就其核心而言,算法模仿了人類的決策……換句話說,算法并不中立。”例如,如果雇主在自動簡歷選擇軟件中輸入“程序員”一詞,搜索結(jié)果會偏向于男性候選人,因為“程序員”一詞與男性的聯(lián)系比與女性的聯(lián)系多。如果搜索目標是“接待員”,女性候選人的簡歷就會首先顯示。盡管性別歧視人人喊打,但它仍不時癔癥般作祟[24]。
三、人工智能面臨的風險的對策
面對人工智能社會日益快速、持續(xù)發(fā)展的現(xiàn)實,我們一方面要正視并深刻認識到人工智能社會的各種潛在風險,充分地估計到人工智能技術(shù)的現(xiàn)有存量,正確引導和運用人工智能;另一方面,作為社會管理者和建設(shè)者的政府應(yīng)該積極應(yīng)對人工智能帶來的潛在社會風險;最后,作為人工智能應(yīng)用主體的人類,應(yīng)加強對人工智能的控制,營造良好的人工智能應(yīng)用環(huán)境。因此,本文從社會、政府及人類自身三個層面提出相應(yīng)的對策建議,以期能更好地應(yīng)對人工智能帶來的各種社會風險問題。
(一)社會層面的對策
1.堅持人工智能的權(quán)責一致原則
人工智能設(shè)計最主要、最核心的原則是遵循人權(quán)主義原則,即權(quán)責一致的原則。人工智能產(chǎn)品制造商和服務(wù)供應(yīng)商必須使其符合社會主義核心價值觀。算法設(shè)置應(yīng)遵循基本倫理原則,在算法過程中要充分尊重和保護人的權(quán)利,特別是對于人類生命權(quán)、健康權(quán)、隱私權(quán)等基本權(quán)利的保護。人工智能技術(shù)的設(shè)計與應(yīng)用應(yīng)將是否有助于改善人類福祉作為重要的參考指標,避免出現(xiàn)算法歧視、算法偏見的情況,維護社會公平公正與健康有序發(fā)展;設(shè)計者和使用者要明確各自的責任,明確責任分配與追責機制,避免相關(guān)人員利用技術(shù)推卸責任;人工智能系統(tǒng)的運行,特別是算法部分,必須以透明性和解釋性為基本要求,從而最大限度地降低人工智能技術(shù)被濫用的可能性。
2.加強社會對人工智能技術(shù)的監(jiān)管
人工智能技術(shù)的進步對現(xiàn)代科學技術(shù)具有革命性的意義,人工智能技術(shù)制度設(shè)計的基礎(chǔ)始終要堅持以人為本。技術(shù)設(shè)計應(yīng)遵循基本規(guī)范,不能超越對個人及個人合法權(quán)益的控制,人工智能設(shè)計制度與政策的制定應(yīng)以維護個人數(shù)據(jù)安全為基本原則。如果人工智能系統(tǒng)的開發(fā)利用給社會帶來一定的危害,應(yīng)當有相應(yīng)的問責機制或者規(guī)章制度來有效解決。因此,負責人工智能的相關(guān)主管部門應(yīng)未雨綢繆,提前規(guī)劃制定好相應(yīng)的規(guī)則以及追究責任的標準。在社會監(jiān)管方面,在人工智能全面投入市場的初期階段,必須建立風險控制機制,及時更新與反饋,保證人工智能技術(shù)的使用合理、合規(guī)、合法;不管是政府的還是企業(yè)的人工智能監(jiān)管機構(gòu)和倫理審查委員會,都應(yīng)給予一定的權(quán)力,即對智能系統(tǒng)數(shù)據(jù)和信息有一定的訪問權(quán)限,從宏觀層面把控人工智能的風險評估、測試和審計,確保其安全性與可靠性;整合各領(lǐng)域的優(yōu)質(zhì)資源和精英人士,開展跨學科跨專業(yè)跨領(lǐng)域的合作研究,確保人工智能算法設(shè)計符合社會倫理要求。同時,在智能機器與人類和諧共生的環(huán)境適應(yīng)性方面,在將人類的價值觀念、情感需求等嵌入到智能系統(tǒng)中時,必須充分考慮到政治、經(jīng)濟、文化、社會等各方面的因素,平衡一切未知的不確定因素,使人工智能系統(tǒng)的設(shè)計更加符合人類社會價值標準,更加符合社會發(fā)展要求。
3.構(gòu)建人工智能產(chǎn)業(yè)的聯(lián)動機制
正確處理人工智能帶來的社會問題需要多方共同參與,構(gòu)建人工智能產(chǎn)業(yè)的橫向聯(lián)動機制。第一,人工智能的設(shè)計者及生產(chǎn)商應(yīng)該充分發(fā)揮自身的主觀能動性,發(fā)揮自己的專業(yè)特長,自覺保持對特定落地場景倫理問題的敏感度并提高自身道德倫理修養(yǎng),在一定程度上能夠確保智能系統(tǒng)的穩(wěn)定與安全,充分保護人的基本權(quán)利與尊嚴;第二,負責人工智能相關(guān)的技術(shù)審查和評估機構(gòu)要自覺履行自己的職責,認真負責、嚴格行事,不斷提升人工智能系統(tǒng)與人類道德規(guī)范系統(tǒng)的兼容性,使人類與人工智能和平共處;第三,人工智能的使用者應(yīng)維護自己作為消費者的權(quán)益,積極向技術(shù)工作者及相關(guān)機構(gòu)表達自身對于人工智能技術(shù)的訴求,參與技術(shù)層面的反饋。
(二)政府層面的對策
1.構(gòu)建人工智能治理體系
政府要自覺承擔起人工智能治理框架建設(shè)的責任,建立健全開放的政府治理框架和數(shù)據(jù)共享、算法優(yōu)化的治理機制,提高政府社會治理的智能化能力和效率。隨著數(shù)字治理的不斷發(fā)展,數(shù)據(jù)已經(jīng)成為影響國家戰(zhàn)略和社會生產(chǎn)的關(guān)鍵因素。在人工智能時代,算法作為關(guān)鍵的政策規(guī)則,應(yīng)闡明由誰來制定、如何制定、由誰來監(jiān)管和如何監(jiān)管,并對其他相關(guān)問題進行明確規(guī)劃。因此,政府應(yīng)遵循“人性化”的方法,建立一個新的基于數(shù)據(jù)和算法的治理框架,并規(guī)定一致的權(quán)力和責任。
2.完善社會保障體系
任何信息技術(shù)的更新都不可避免地會導致勞動力市場結(jié)構(gòu)的變化。為了實現(xiàn)向人工智能時代的平穩(wěn)過渡,社會保障體系需要進一步完善,以應(yīng)對人工智能帶來的技術(shù)差異和不平等的風險。與以往農(nóng)業(yè)革命和工業(yè)革命的影響一樣,智能革命將導致社會分化、利益分歧和社會分層。技術(shù)革命的社會成本和利益必須由承擔者公平分享,使所有社會成員的利益最大化,這不僅是實現(xiàn)社會公平和正義的正確途徑,也是加快智能社會治理模式轉(zhuǎn)型的重要保障。人工智能作為一種稀缺資源或公共產(chǎn)品,有可能造成分配上的不平等。特別是由人工智能的負面影響所造成的損失,需要政府來承擔、調(diào)節(jié)和再分配,以在一定程度上縮小不平等差距,降低被剝奪感,提高人們的參與感、體驗感和獲得感。因此,政府在關(guān)注經(jīng)濟、文化、產(chǎn)業(yè)政策的同時,也要關(guān)注與人工智能相關(guān)的社會政策,給予人工智能充分的發(fā)展空間,完善人工智能時代的社會保障體系。
3.構(gòu)建多層次的政府責權(quán)體系
中國特色社會主義進入新時代,習近平總書記提出了人類命運共同體的理念,建立面向世界的人工智能倫理話語體系,與人類命運共同體理念相呼應(yīng)。一個有效的政府問責制度應(yīng)該遵循多層次的治理方式。作為國家和人民利益的保護者,政府應(yīng)根據(jù)以人為本的發(fā)展理念,在國家人工智能發(fā)展戰(zhàn)略的基礎(chǔ)上制定人工智能技術(shù)標準和法規(guī),引導技術(shù)發(fā)展用于滿足人類生產(chǎn)和生活的需要,避免不平衡、不充分的技術(shù)發(fā)展。
(三)人類自身層面的對策
1.提高技術(shù)研發(fā)者的道德責任感
技術(shù)作為一種手段自身并沒有好壞之分,決定人工智能善惡的關(guān)鍵是使用技術(shù)的人。科學家作為技術(shù)研發(fā)的重要人物,本身應(yīng)最大限度地履行自身的道德責任,在關(guān)注技術(shù)研發(fā)的同時還應(yīng)關(guān)注社會風險問題,在更新技術(shù)應(yīng)用的同時就應(yīng)對其系統(tǒng)進行一定的權(quán)限設(shè)置,讓技術(shù)更多地在對社會有利的方面發(fā)揮作用。技術(shù)研發(fā)者在對人工智能進行設(shè)計時,首先要遵循“以人為本”的原則,把人的基本權(quán)利放在首位,要最大限度地保護人類的人身權(quán)、隱私權(quán)、財產(chǎn)權(quán)等各項基本權(quán)利,消除人工智能對特定群體的偏見;其次,對于人工智能社會問題的研究,要有前瞻性與遠見性,在人工智能產(chǎn)品投入使用過程中要進行全面客觀的社會倫理風險檢測與安全系數(shù)評估,從而預防人工智能技術(shù)的誤用、濫用;最后,技術(shù)研發(fā)者自身應(yīng)保持高度的道德責任感,要合理開發(fā)人工智能的功能作用,在倫理設(shè)計中要厘清人工智能的使用責任等問題,特別是面對重大決策時,人類要保持高度的話語權(quán),與人工智保持清楚的界限,對人工智能技術(shù)的發(fā)展要達到理性控制。
2.提升民眾技術(shù)文化素養(yǎng)
隨著人工智能技術(shù)的不斷普及,智能化的生產(chǎn)方式給我們的日常生活帶來了諸多便利,在藝術(shù)創(chuàng)作方面衍生出的關(guān)于人工智能的優(yōu)秀影視作品也不計其數(shù),如《黑客帝國》《人工智能》等更是流傳甚廣,描繪出了人工智能主宰人類的時代的各種可能性。雖然這只是部分創(chuàng)作者的一種藝術(shù)表現(xiàn)形式,但其代表的是一部分人的共同認知。這些影視作品使許多不了解人工智能技術(shù)的公眾對其感到恐懼及排斥,從而忽視人工智能對社會發(fā)展及人類生活的貢獻,進而盲目反對科技的發(fā)展進步。應(yīng)通過各種途徑加強公眾對人工智能的認知,減輕民眾對人工智能的恐懼之情,從而減少部分民眾因為反對科技發(fā)展而做出的過激行為,激發(fā)公眾學習技術(shù)的興趣,倡導公眾利用技術(shù)去獲取更多信息、提升公眾的信息素養(yǎng),這有助于減少信息落差從而進一步消除數(shù)字鴻溝。
3.打造良好的社會倫理輿論氛圍
“人機共存”的世界終將會到來,但當下,除了人工智能技術(shù)帶來的倫理問題外,民眾社會倫理問題還被納米技術(shù)、轉(zhuǎn)基因技術(shù)等各種輿論所包裹。這種現(xiàn)象是由多種因素共同造成的后果,但總的來說,還是由社會倫理機制建設(shè)不健全、不完善導致的。深入思考會發(fā)現(xiàn),很多事情都有解決的辦法和預防的措施,這需要我們在與人工智能不斷融合發(fā)展的過程中,不能一味地反對技術(shù),而應(yīng)與人工智能構(gòu)建良性的社會關(guān)系。對人工智能,我們既不能輕視,也不能畏懼,更不能回避,要通過腳踏實地的努力、辛勤的勞動、豐富的思想,發(fā)展扎實的技術(shù),構(gòu)建一個全新的二元世界。大眾應(yīng)該認識到人類才是社會的主體,人工智能技術(shù)的走向取決于人類對人工智能的看法。人工智能與人類共存是未來社會的必然趨勢,這既是未來人工智能的發(fā)展方向,也是未來社會的發(fā)展藍圖。應(yīng)該營造良好的社會輿論氛圍,為科技的發(fā)展提供良好的社會環(huán)境。
四、結(jié)語
人工智能技術(shù)的快速發(fā)展給人類帶來便利的同時,也給社會帶來風險。但目前人工智能的發(fā)展仍然掌控在人類手中,要充分認識人工智能發(fā)展和發(fā)展中存在的潛在問題,并采取相應(yīng)的預防措施。政府和企業(yè)在內(nèi)的各種社會組織,應(yīng)充分自覺承擔自身的社會責任,團結(jié)協(xié)作、合作共贏,共同構(gòu)建一個“共建共享”的人工智能治理體系,并在遵守人工智能設(shè)計原則的基礎(chǔ)上,依據(jù)相關(guān)政策和法規(guī)利用人工智能。公民要積極主動地參與政府的相關(guān)法律和規(guī)則的制定工作,監(jiān)督政府和企業(yè)之間的權(quán)責落實情況,夯實自上而下和自下而上的雙向協(xié)同治理體系。同時,我們也要正視人工智能的利弊,對人工智能應(yīng)該善用之,不能太過畏懼人工智能,應(yīng)該創(chuàng)造一個更好的社會環(huán)境,讓人工智能更好地服務(wù)于社會和人類。
[參考文獻]
[1]劉海軍:《人工智能的文明作用及其發(fā)展悖論——基于馬克思〈資本論〉及其手稿的闡釋》,《馬克思主義研究》2021年第8期,第87—100頁。
[2]《習近平致第三屆世界智能大會的賀信》,光明網(wǎng),www.qstheory.cn/yaowen/2019-05/16/c_1124502531.htm。
[3]《中華人民共和國國民經(jīng)濟和社會發(fā)展第十四個五年計劃和2035年遠景目標綱要》,人民出版社2021年版。
[4]《習近平在中共中央政治局第九次集體學習時強調(diào) 加強領(lǐng)導做好規(guī)劃明確任務(wù)夯實基礎(chǔ) 推動我國新一代人工智能健康發(fā)展》,《黨建》2018年第11期,第1頁。
[5]蘇竣、魏鈺明、黃萃:《社會實驗:人工智能社會影響研究的新路徑》,《中國軟科學》2020年第9期,第132—140頁。
[6]孫偉平:《人工智能與人的“新異化”》,《中國社會科學》2020年第12期,第119—137頁。
[7]趙金旭、孟天廣:《技術(shù)賦能:區(qū)塊鏈如何重塑治理結(jié)構(gòu)與模式》,《當代世界與社會主義》2019年第3期,第187—194頁。
[8]任劍濤:《人工智能與“人的政治”重生》,《探索》2020年第5期,第52—65頁。
[9]何哲:《人工智能技術(shù)的社會風險與治理》,《電子政務(wù)》2020年第9期,第2—14頁。
[10]張成崗:《人工智能時代:技術(shù)發(fā)展、風險挑戰(zhàn)與秩序重構(gòu)》,《南京社會科學》2018年第5期,第42—52頁。
[11]周利敏、谷玉萍:《人工智能時代的社會風險治理創(chuàng)新》,《河海大學學報(哲學社會科學版)》2021年第3期,第38—45頁。
[12]楊凱:《人工智能時代的社會風險治理創(chuàng)新思考分析》,《數(shù)字技術(shù)與應(yīng)用》2021年第9期,第162—164頁。
[13]王泗通:《人工智能應(yīng)用的社會風險及其治理——基于垃圾分類智能化實踐的思考》,《江蘇社會科學》2022年第5期,第108—116頁。
[14]高昕:《人工智能對社會就業(yè)崗位的影響研究》,《河南工業(yè)大學學報(社會科學版)》2019年第6期,第70—74頁。
[15]張務(wù)農(nóng)、賈保先、曾強等:《“代具”還是“代替”?人工智能究竟能否取代人類教師的哲學省思》,《教師教育研究》2021年第1期,第14—21頁。
[16]李倫、孫保學:《給人工智能一顆“良芯(良心)”——人工智能倫理研究的四個維度》,《教學與研究》2018年第8期,第72—79頁。
[17][美]庫茲韋爾:《奇點臨近》,機械工業(yè)出版社2011年版。
[18]黃瑩:《人工智能時代隱私權(quán)保護問題研究》,《文化創(chuàng)新比較研究》2020年第12期,第86—87頁。
[19]吳玉潔、賀苗、吳一波:《疫情防控中的隱私困境及對策思考》,《中國醫(yī)學倫理學》2022年第8期,第843—848頁。
[20]肖志敏、沈興蓉、劉榮等:《我國醫(yī)學人工智能的應(yīng)用現(xiàn)狀及倫理問題反思》,《衛(wèi)生軟科學》2021年第7期,第87—89頁。
[21]宋建欣:《大數(shù)據(jù)時代人的尊嚴和價值——以個人隱私與信息共享之間的倫理抉擇為中心》,《道德與文明》2021年第6期,第107—114頁。
[22]洪濤、陶思佳、盧思涵等:《人工智能算法“社會性嵌入”的衍生風險及其協(xié)同治理》,《復旦城市治理評論》2022年第1期,第144—172頁。
[23]謝永江、楊永興:《人工智能時代下的算法歧視及其治理研究》,《北京郵電大學學報(社會科學版)》2022年第5期,第18—25頁。
[24]汪懷君、汝緒華:《人工智能算法歧視及其治理》,《科學技術(shù)哲學研究》2020年第2期,第101—106頁。
Research on Social Risks in the Development of Artificial Intelligence
SONG Yang, LI Hui
(School of Marxism, Xian University of Architecture and Technology,Xian 710055, Shaanxi, China)
Abstract:? With the advent of the fourth wave of the industrial revolution and the widespread adoption of cloud computing, deep learning, big data, and other technologies, artificial intelligence (AI) has become deeply integrated into all aspects of human life. This not only affects the development of science and technology but also poses challenges to social, economic, political, moral, and ethical fields, leading to social risks and hidden dangers. It is, therefore, necessary to actively explore coping strategies from technology, social management, and human aspects to form an effective concerted system with multiple parties participating. The system will enable rational control over AI, better deal with the social risks that AI may bring, explore the future development directions of AI, and promote positive interaction between “technology” and “society.”
Key words:artificial intelligence; social risks; high quality development; technical risks; ethical risks
(責任編輯劉永俊;責任校對孫俊青編輯)