摘要:人工智能對意識形態的操控能力,既源于法蘭克福學派對科學技術與意識形態的關系的辨析,也緣于人工智能技術的特性。人工智能對意識形態的操控表現在:作為一種技術工具對意識形態的操控;資本、權力、技術的控制者利用人工智能操控意識形態;機器人本身所具有的意識形態。人工智能對意識形態的操控可能會帶來透明人的法律和倫理風險、算法偏見和算法獨裁風險、不同國家意識形態沖突失控風險。化解這些風險需要綜合運用AI倫理、法律手段和技術力量。
關鍵詞:人工智能;意識形態;風險化解
基金項目:教育部哲學社會科學研究重大課題攻關項目“人工智能的哲學思考研究”(項目編號:18JZD013);陜西省教育廳專項科研計劃項目“信息時代的價值沖突與價值共識問題研究”(項目編號:16JK1038)
中圖分類號:B022 ? ?文獻標識碼:A ? ?文章編號:1003-854X(2020)02-0011-06
隨著以深度神經網絡為基礎的人機交互、機器學習、自然語言處理、模式識別等技術的突破性進展,人工智能迎來了發展的“第三次高潮”。與以往的技術不同,人工智能是具有人類“思維”的智能機器,是一種深刻改變世界甚至深刻改變人類的變革性、顛覆性技術。當人工智能的“觸角”逐漸伸入社會的每一個角落之時,當國家的各種活動高度依賴于各種智能系統之時,當意識形態被人工智能技術“俘獲”和“刻畫”之時,我們不禁要追問:人工智能何以能夠對意識形態進行操控?人工智能對意識形態的操控表現在哪些方面?這些“操控”會帶來什么風險?如何化解這些風險?
一、人工智能何以能夠對意識形態進行操控?
人工智能是集眾多高精尖科技為一體的交叉復合型創新技術,其對意識形態的操控能力,既源于法蘭克福學派對科學技術與意識形態關系的辨析,也緣于人工智能技術的特性。
(一)法蘭克福學派對科學技術與意識形態關系的辨析
關于科學技術與意識形態關系問題,以霍克海默、阿多諾、馬爾庫塞、哈貝馬斯為代表的法蘭克福學派曾傾注了極大的興趣探究科學技術的意識形態屬性、功能等問題,形成了獨樹一幟的科技意識形態理論。在他們那里,科學技術的意識形態功能實際上反映了其作為一種工具操控意識形態的現象。這為我們探究人工智能對意識形態的操控問題提供了學理依循。
首先,科學技術本身就是一種意識形態。阿爾都塞曾斷言,科學與意識形態之間橫著一條“鴻溝”。但霍克海默指出:“不僅形而上學,而且還有它所批評的科學,皆為意識形態的東西。”① 霍克海默與阿多諾在合著的《啟蒙辯證法》中認為:“技術上的合理性,就是統治上的合理性本身。它具有自身異化的社會的強制性質。”② 如果說霍克海默和阿多諾對技術操控意識形態的描述和哲學批判稍顯隱約,那馬爾庫塞則旗幟鮮明、一針見血地指出,當代發達資本主義社會由于技術裝備日益自動化,技術“中立性”的傳統概念被打破,技術被納入在政治統治的框架中,具有思想灌輸和操縱的作用,能夠為政治統治提供概念和工具,即“技術控制看來真正體現了有益于整個社會集團和社會利益的理性”③。在馬爾庫塞看來,科學技術的意識形態屬性是通過科學技術對社會的控制和調節實現的。因為發達工業社會是由科學技術的進步而形成的一個新型的極權主義社會,它窒息了人們對自由獨立思想新鮮空氣的攝取,削弱了否定性思考的力量(物理性批判力量)。哈貝馬斯也認為,在發達工業資本主義社會中,基于發達工業社會國家干預活動增加而導致的政治合法性危機和科學技術成為“第一生產力”的原因,科學技術在整個社會生產生活中變成最高評價標準,成為一種操控的手段,從而具有了意識形態的功能。
其次,科學技術對意識形態的操縱是通過生活化邏輯的隱性形式進行的。傳統政治意識形態的運行主要是依靠統治階級自上而下的政治宣傳教育。進入發達工業社會,科技意識形態運行的邏輯主要通過工業文化科技產品在日常生活中的廣泛應用,使人們安于眼下的生活狀況而失去批判社會基本問題的能力。霍克海默指出,資本主義文化工業產品諸如電影、電視、無線廣播等到處被使用,甚至在人們消遣娛樂時也會被“靈活地消費”。這種“文化工業的每一個運動,都不可避免地把人們再現為整個社會所需要塑造出來的那種樣子”④。馬爾庫塞認為,發達工業社會生產機構及其所生產的商品和服務設施起著思想灌輸和操控作用,它會引導人們產生一種“虛假的難以看出謬誤的意識”,這種意識已經潛化為人們的一種生活方式,而且是形式上比以前更好的生活方式。哈貝馬斯指出,統治階級通過科技進步成果對個人需求補償的方式(提供物質福利)獲得民眾對政治統治的忠誠和認可,即科學技術成為政治統治的合法性基礎,表現為“技術統治的意識”。與以往舊的意識形態相比較,“技術統治的意識”所具有的“意識形態性較少”,而占主導地位的隱形意識形態“比之舊式的意識形態更加難以抗拒,范圍更為廣泛”⑤。
(二)人工智能技術的特性為其操控意識形態提供了有利條件
從人工智能技術的特性來看,由于AI技術具有強滲透性和廣泛應用性等特征,一方面,借助于移動互聯網、大數據、云計算、物聯網等技術平臺,其在提高勞動效率、推動生產力發展方面冠絕以往所有的技術,從而為人工智能在人類生產生活的殿堂中“登堂入室”提供了合法性基礎。另一方面,其在交通、醫療、教育、安保、文化等日常生活方面的廣泛應用為人們創造了享受“美好生活”的圖式,滿足了哈貝馬斯所說的“對個人需求的補償”,具有“技術統治意識”的特性。更進一步,由于人工智能是具有一定人類“思維”的智能機器,其可以輔助或代替人類完成很多以前必須要人類親力親為的腦力和體力工作,開啟了智能生活的圖式。比如,定位導航靠軟件、出行靠自動駕駛、家務勞動靠機器人、交通管理靠智能指揮系統、社交依靠擬人化機器人伴侶,等等。智能生活圖式既會使人們徜徉于眼下舒適生活的“溫床”中而失去思考和批判社會基本問題的能力,也會使人類過度依賴于人工智能,產生“人工智能依賴癥”,其思想和觀念將在很大程度上被科技意識形態所俘獲。
隨著智能化技術和產品如潮水般涌入人們的生產生活,智能系統的活動正在成為一種不可或缺的社會活動方式,扮演著維系社會正常運轉、保證人們生產生活順利進行、提高工作學習效率的重要角色。這些智能系統的應用打破了以往依靠工業文化武裝起來的一對多式的“信源→信宿”單向性、固定化傳接模式而造成的信源與信宿之間的信息分裂,利用大數據和搜索技術進行量身定做式個人化信息的精準和動態定位、追蹤、推送,從而把意識形態的輸出化約為數據處理活動,形成了經濟基礎與大數據共同宰制意識形態變化發展的狀態,其中內隱的意識形態操控不言而喻。
二、人工智能對意識形態操控的諸種表現
從人工智能的發展階段、人工智能與人類的關系、人工智能發展的社會因素角度出發,人工智能對意識形態的操控主要表現在以下幾個方面:
(一)作為一種技術工具對意識形態的操控
塞爾曾借用哲學認識論的概念,對人工智能作了“強”和“弱”的區分。這一區分立足于現實和未來,既描述了人工智能的不同發展階段,也暗含了人工智能與人類的關系,為我們分析人工智能對意識形態的操控提供了一個視角。
在弱人工智能階段,人工智能僅僅作為一種工具被人類使用,人類與人工智能是主客體關系,人工智能對意識形態的操控主要表現為建立在機器學習基礎上的算法操縱。隨著海量數據的爆炸性增長和計算機計算能力的快速提高,機器學習技術不僅廣泛應用于自然科學領域,而且也開始應用于人類社會,用于分析、預測人類社會現象。機器學習是對海量數據的處理,解決的是“知識發現問題”,其本質上是一種算法,這種算法本身存在著意識形態操控現象。比如,在社交媒體上,基于越來越多的用戶開始使用圖片和短視頻表達自己的想法,美國羅徹斯特大學計算機系教授Lebo Luo與Adobe Research 研究人員運用監督學習中的深度神經網絡技術,訓練計算機進行文本情感分析,以便確定給定圖片可能呈現出的人類情感。這項工作可能會對預測選舉結果很有幫助,從而體現出“工具屬性”的意識形態操控。據統計:“圖片情緒分類準確度已經超出同類Twitter消息的文本情緒分類準確度。”⑥運用監督學習中決策樹的分類方法,可以建立判斷個人的價值取向、政治觀點、行為方式的很多數據觀測點(如年齡、學歷、履歷、政治面貌、工作單位、工作表現等)。利用這些數據訓練建立與個人的價值取向、政治觀點、行為方式之間的關系,機器就可能較為便捷地預測和掌控個人意識形態的狀況,一定程度上破解以往個人意識形態分散、流變帶來的掌控難題。目前,人們熟悉的“今日頭條”推薦瀏覽特定新聞而進行的意識形態滲透所運用的算法就是“推薦算法”,這種算法也是機器學習算法的一種。
(二)資本、權力和技術的控制者利用人工智能操控意識形態
從人工智能發展的社會因素來看,AI對意識形態的操控并不僅僅是一個技術問題,其背后往往交織著復雜的社會關系。其中,資本、權力和技術的控制者基于自己的利益激烈地爭奪人工智能的控制權進而操控意識形態的種種“面相”,是人們不得不面對的一個重大現實問題。
在機器大工業時代,馬克思立足于物質生產實踐,從科學技術(生產力)與生產關系的關系出發,論述了資本和權力對工業機器的操控問題。這對于我們理解智能時代資本和權力爭奪人工智能控制權提供了有益啟發。首先,馬克思認為,“資本只有一種生活本能,這就是增殖自身,獲取剩余價值”⑦,而工業技術創新帶來的相對剩余價值生產正好契合了這一要求。換句話說,資本對機器的操控表現在:“資本試圖通過技術變革控制剩余價值的生產過程和實現過程,以最大化無償占有工人創造的剩余價值”⑧。馬克思論述生產資本對工業機器的操控,實際上體現了資產階級剝削、壓迫工人的意識形態問題。邁入智能時代,相比工業機器,智能化機器在資本主義社會生產中的應用更能帶來“資本增值”。因此,“就實質而言,在資本主義條件下,人工智能實際上是資本謀取剩余價值進而維持整個資本主義制度體系存活的技術工具”⑨。其次,馬克思從資本主義生產方式出發分析了權力和技術的關系。他認為,一方面,工業革命使得資產階級獲得了政治統治和經濟統治上的權力,確立了資產階級的意識形態;另一方面,工業機器也是工人的“敵對力量”,其不僅“成了鎮壓工人反抗資本專制的周期性暴動和罷工等等的最強有力的武器”⑩,而且技術上的進步意味著資產階級對工人奴役程度的加深。因此工人想擺脫這種被奴役的狀態,獲得政治上的統治權力,就必須徹底打破此種技術的資本主義應用,打破資產階級意識形態的統治地位。反觀智能機器,其當然也為資產階級的意識形態統治提供了技術支撐,但更為重要和讓人心潮澎湃的是,智能機器在生產生活中的廣泛應用帶來的生產力高度發展、物質產品極大豐富、人的自由時間的增加、信息和知識可共享性(生產資料的真正公有制)等現象“讓我們離馬克思所設想的共產主義社會更近了,或者說,它正在提供實現共產主義的一些關鍵性的現實條件”。也可以說,這些現象為無產階級掌握統治權力、獲得解放和資本主義意識形態向共產主義意識形態轉變創造了關鍵性的實現條件。
在工業資本主義時代技術的控制者操控技術的現象基本可以還原為當代資本和權力對人工智能的操控,因為技術的控制者大都服務于資本或者屈從于權力。但有一點需要說明,馬克思在工業資本主義時代所面對的是作為工具的工業技術,而智能技術是一項能夠對人、人類社會產生深遠影響和挑戰的顛覆性技術,其影響力已經遠遠超出作為一種工具而使用的范圍。因此,在智能時代,智能技術控制者的作用大大增強。在這種情況下,他們掌控技術的目的有可能服務于資本或者屈從于權力,也有可能是為了享受突破技術難點帶來的快感和成就感(如“黑客”),這與意識形態的操控沒有關系。
(三)機器人本身所具有的的意識形態
在強人工智能階段,機器與人類智能并駕齊驅或超越人類智能的“奇點”將會到來。庫茲韋爾曾大膽預測,到2029年,“人類和機器之間的鴻溝不復存在”,并且“機器們聲稱自己有了主觀意識,有了和人類一樣豐富的情感和心靈體驗”。從可知論、量變與質變的辯證關系來看,強人工智能的到來具有必然性。在強人工智能階段,機器人與人類社會存在兩種可能性關系:和諧共存或分裂對抗。和諧共存是指機器人與人類不分高下優劣,二者和諧共在,相得益彰。費爾森斯丁認為,當機器人變得足夠復雜的時候,它們不會成為“主人”或“仆人”,而會成為“人類的伙伴”。《紐約時報》高級記者約翰·馬爾科夫認為:“當AI和AI圈引領的技術繼續重塑世界之時,未來其他的可能性就淡出了人們的視野:在那個世界中,人類和人類創造的機器共同存在,一起繁榮。” 在此種境遇下,機器人與人類共存于宇宙之中,并作為人類的伙伴與人類相互幫助、和諧共處,其沒有必要建立屬于自己的意識形態,即便有,也是蘊含“與人類和平共處”價值觀的意識形態,此時的意識形態仍然是人類的意識形態。分裂對抗論認為,強人工智能或超人工智能的出現將使其與人類分裂、對立并危害人類。如諾伯特·維納、埃隆·馬斯克、史蒂芬·霍金等科學家或企業家都表達了此類觀點。牛津大學人類未來研究院創始人尼克·波斯特羅姆(Nick Bostrom)教授則直接指出,人工智能機器一旦在智力上超過人類,它就會背叛我們。在這一階段,如果機器人在自我意識中將自己與人類社會對立起來,那其必然會建立與人類截然相反的屬于自己的意識形態。
三、人工智能對意識形態的操控可能帶來的風險
人工智能對意識形態的操控既有利于意識形態的自動追蹤分析、提前預判、精準推送,也可能會帶來一些重大風險,主要表現在:
(一)透明人的法律和倫理風險
所謂“透明人”,是指“通過大數據的對比和信息還原,每一個個體在一系列時間段的所有行為都可以在事后還原出來,由此每個人的生活狀態都將在很大程度上成為透明的”。目前,人工智能在圖像、語音和圖像識別、語義理解、人機交互、自動搜索和分類等領域取得的突破性進展依賴于對海量感知數據、網絡數據、社交數據、商業數據等數據群的機器分析,這也是人工智能操縱意識形態的重要途徑。作為知識和價值的轉換器,大數據由此也成為社會各領域的重要資源。隨著以網絡為基礎的各類App的紛紛出現和各種智能系統嵌入人們的生存環境中,人們的生產生活呈現出“軟件化”和“智能感知化”的特點。在智能化的生存環境中,移動網絡、傳感器和各種信息處理設備會隨時隨地記錄個人的行為數據(購物內容、居住地址、出行路線、網絡言論、生活習慣等),并把其傳送給服務商或政府機構,以便他們分析和掌握個人的意識形態狀況。比如,智能家居會把“窺探”的目光深入到最具隱私性的“家庭領地”中;“機(智能手機)不離身”為數據中心或服務后臺掌握、監控個人的意識形態狀況開啟了便捷的大門,等等。這種現象將個人的信息悄然、無奈地暴露在服務商或政府機構的“平臺曠野”中,人們的一舉一動均可被記錄和還原。甚至于掌握這些數據的人比我們自己更了解自己,個人將變為透明化和無隱私化的人。可以預見,智能時代關于侵犯隱私和保護隱私而產生的法律糾紛、沖突風險以及關于隱私泄露而造成的倫理沖突風險會越來越大。
(二)算法偏見和算法獨裁風險
算法偏見也稱算法歧視,是指“在看似客觀中立、沒有惡意的程序設計中,卻帶著開發者的偏見,或者因所采用的數據存在傾向性,或者因設計技術局限,在實際應用中導致了種族歧視、性別歧視、年齡歧視、階層歧視、區域歧視、仇外思想等嚴重的政治后果”。美國賓夕法尼亞大學沃頓商學院的Alex P. Miller 在《不想被偏見左右?那就用算法》一文中曾指出:“過去做決策的人非常糟糕,用算法代替他們,既提高了準確性,又減少了機構偏見。” Miller對于算法過于推崇的觀點遭到了fast.ai的創始人Rachel Thomas的批判。后者認為:“在所有情況下,算法都有人參與,即誰收集數據(以及他們有什么偏見)、做出哪些設計決策、如何實施決策、如何將結果用于決策,了解各利益相關者對算法的正確使用和局限性等。” 這些人為因素都會影響算法的客觀性。算法偏見在意識形態領域最突出的表現是社會排斥。統治階級、控制算法技術的資本家、掌握算法程序設計的技術人員都可以利用算法故意制造算法偏見,在政治權利、經濟利益、文化參與等領域形成對被統治階級或不同意識形態階層、人群的排斥,讓冰冷的智能系統無情地將他們的各種“福利”和“待遇”擋在外面,甚至終生遭受歧視而不得解脫。在資本主義社會中,算法偏見是資產階級排斥工人階級的一把“利劍”。比如,通過研制和訓練特定的投票統計智能機器,在選舉、征求意見、爭取民主權利等方面排斥工人階級;通過研制和訓練特定的聊天機器人,在社交軟件上自動散布意識形態偏見信息、自動屏蔽與統治階級意見相左的意識形態信息。
算法獨裁也稱為“算法黑箱”,是指算法本身的不透明性而導致的由算法來決定裁判結果的現象。在意識形態領域,算法獨裁主要表現在:第一,對算法高度依賴導致的算法獨裁。算法系統以大數據為基礎,而對每一個人的意識形態數據進行聚合和分析,乃是算法最擅長做的事情。因此,人們常常為了省時省力和確保所謂的“客觀”,會將選擇權完全交給算法,從而導致算法獨裁。第二,受資本和權力控制的算法程序設計人員利用算法作出對自己有利的裁判結果。更進一步,如果某領域的運行規律被算法破解和代替,他們可能會基于自己的特殊利益而利用算法主宰這些規律,造成難以預料的社會風險。在強人工智能時代,AI算法將會破解人類思維、情感、自我意識等人類最后的“秘密領地”。那時,我們將真正進入“算法統治的時代”,而基于人—機意識形態的不同,智能機器將可能成為“永久的獨裁者”。
(三)不同國家意識形態沖突失控風險
不同國家在社會制度、政治體制、經濟體制、文化基因等方面存在差異,使得它們的意識形態一直處在沖突或劍拔弩張的狀態中,特別是中國和西方國家的意識形態沖突表現尤甚。
從意識形態的角度觀之,發展人工智能是一個國家增強自己意識形態吸引力、爭奪意識形態領導權和話語權的重要方式。人工智能是滲透性極強的“智慧”機器,其對意識形態具有更隱蔽、更便捷、更快速的操縱能力。在以往的電力和電磁革命中,西方國家一直使用相關技術成果(電視、廣播等)搶占意識形態的話語權,極力抹黑與其意識形態對立的國家。但這些意識形態的攻擊囿于人群聚合的物理時空限制而無法對每一個人產生影響。面對智能化革命潮浪,移動互聯網、大數據、云計算、物聯網、傳感器、智能翻譯機器等新技術的綜合應用可以隨時隨地直面全球范圍內分散的每一個人,并精準捕獲他們的個人信息。當前,西方國家特別是美國在經濟實力、文化軟實力、信息科技、智能技術等方面具有的優勢使得他們竭力在全球范圍內搶占意識形態領導權和話語權。比如,美國經常憑借大數據挖掘技術的支撐,以人工智能算法為武器,通過制造假新聞傳播虛假信息、封殺網站和別國民眾在社交媒體(推特、臉譜)上的賬號等手段惡意丑化、黑化、攻擊與自己意識形態對立的國家,加劇了意識形態的對立和沖突失控風險。
四、人工智能對意識形態操控可能帶來的社會風險化解策略
人工智能對意識形態操控可能會帶來的風險是AI發展過程中必然要面對的現實問題。化解這些風險需要綜合運用AI倫理規范、法律手段和技術力量。
(一)運用人工智能倫理準則規范從業人員的思想和行為
人工智能對意識形態操控可能會帶來的風險向倫理領域提出了化解風險的強烈呼聲。這就需要建立人工智能倫理準則,從而規范相關從業人員的思想和行為。倫理規范并不是情感、偏好、習慣、主觀臆斷的“代名詞”。美國學者理查德·A.斯皮內洛指出:“道德判斷的基礎能夠而且應當是建立在合乎理性的道德原則以及健全的經過細致推理的論據之上的。規范性主張的背后是那些通過理性話語展示的可以辯護的道德原則。” 人工智能倫理首先應該確立一種道德信念、信仰、理想,即這種技術是為人類服務的,而不是傷害人類;是為大多數人或國家的利益服務的,而不是少數別有用心的人或國家用來推行“技術極權主義”和“技術沙文主義”的借口。2017年美國電氣和電子工程師協會(IEEE)宣布的三項新的人工智能倫理標準就是為了確保人類不受人工智能的威脅。2019年4月歐盟委員會發布的人工智能倫理準則指出,“可信賴的人工智能”應尊重基本人權、規章制度、核心原則及價值觀。其次,應建立人工智能倫理規范內化機制,通過宣傳教育引導、實踐養成、制度保障等途徑把AI道德信念、信仰、理想內化為從業人員靈魂深處的價值準則,確保他們有一顆維護公正的“良心”。
(二)運用法律手段加強個人信息保護和算法治理
法律手段是化解人工智能對意識形態操控可能會帶來的風險的有效手段。
首先,通過立法,為保護個人信息和規范良性算法建立監管的法律基礎。日本于2005年4月1日實施的《個人信息保護法》在保護個人信息、增強公民維權意識等方面取得了良好的效果。我國在《中華人民共和國刑法修正案(九)》(2015年)、《中華人民共和國網絡安全法》(2016年)、《中華人民共和國民法總則》(2017年)中,也分別從侵犯公民個人信息罪、個人信息收集和使用以及保護、自然人的個人信息受法律保護的角度對保護個人信息作了明確規定。為了在立法層面打擊違法信息與規制社交媒體,德國于2017年通過的《網絡執行法》規定:“明顯違法的內容在收到投訴24小時內必須刪除或者屏蔽,僅在與偵查機關約定更長期限的情況下存有例外;對其他違法內容應當及時(一般在7天內)予以刪除或者屏蔽。” 目前,世界各國在算法偏見和算法獨裁方面的立法工作亟待加強。其次,通過加強執法力度,既促進個人信息保護法律真正“落地”,也規范和調整算法治理中多元治理主體之間復雜的互動關系,落實算法治理的法律主體責任。法律的生命力在于實施,而加強執法力度是實施善法最重要的途徑。對于違反個人信息保護法、故意制造算法偏見和算法獨裁、編造和散布假新聞的行為主體,必須依法打擊和制裁。
(三)運用技術力量矯正技術漏洞和人為缺陷
人工智能技術是一項正在快速發展并遠未定型的革命性技術,其在發展的過程中難免會出現技術漏洞和人為缺陷。對此,可以運用“技術反制技術”的思路,通過更優技術矯正技術漏洞和人為缺陷,防范和化解人工智能對意識形態操控可能會帶來的風險。比如,面對個人信息肆意泄露而造成的“透明人”現象,可以通過加密技術、匿名化技術、屏蔽技術等手段防止惡意搜集信息;通過建立信息可追溯技術體系,加強對竊取、泄露個人隱私信息的源頭追溯,為法律制裁提供證據支撐;通過研制和安裝相關隱私保護的軟件,提醒消費者哪些個人信息正在被搜集,由消費者決定是否繼續瀏覽該網站。對于算法偏見和算法獨裁風險,可采用數據采集完整性技術降低或消除數據的不準確、分布偏差等缺陷;運用區域鏈技術保證記錄可追查與記錄不會被篡改,以便技術人員矯正技術漏洞和人為缺陷;通過偏見檢測技術,檢測并減少可能產生的偏見(如IBM將自己研發的偏見檢測工具AI Fairness 360工具包開源,從而為檢測偏見提供了一個平臺);為機器學習增加手動限制和為機器安裝一顆“良芯”,確保用戶更好地控制人工智能程序,防止算法獨裁現象出現。
總之,人工智能對意識形態的操控是AI技術及其發展與意識形態問題交織而必然出現的一種現象。明晰人工智能何以能夠對意識形態進行操控、廓清人工智能對意識形態操控的諸種表現、研判人工智能對意識形態的操控可能會帶來的風險及其化解策略,對于發展人工智能、防止意識形態沖突失控具有重要作用。
注釋:
① 馬克斯·霍克海默:《批判理論》,李小兵等譯,重慶出版社1989年版,第5頁。
②④ 馬克斯·霍克海默,特奧多·阿多爾諾:《啟蒙辯證法》,洪佩郁、藺月峰譯,重慶出版社1990年版,第113、118頁。
③ 赫伯特·馬爾庫塞:《單向度的人——發達工業社會意識形態研究》,劉繼譯,上海世紀出版集團2008年版,第9頁。
⑤ 尤爾根·哈貝馬斯:《作為“意識形態”技術與科學》,李黎、郭官義譯,上海學林出版社1999年版,第69頁。
⑥ Tony Thorne MBE:《奇點來臨》,趙俐譯,人民郵電出版社2016年版,第101頁。
⑦⑩《馬克思恩格斯文集》第5卷,人民出版社2009年版,第269、501頁。
⑧ 蔡敏、周端明:《技術是資本控制勞動的工具:馬克思主義技術創新理論》,《貴州社會科學》2012年第4期。
⑨ 蔣紅群:《無產階級會淪為無用階級嗎?》,《馬克思主義研究》2018年第8期。
孫偉平:《智能社會與共產主義社會》,《華中科技大學學報》(社會科學版)2018年第4期。
雷·庫茲韋爾:《機器之心》,胡曉嬌、張溫卓瑪、吳純潔譯,中信出版集團2016年版,第288、290頁。
約翰·馬爾科夫:《與機器人共舞》,郭雪譯,浙江人民出版社2015年版,第165頁。
高奇琦:《人工智能:馴服賽維坦》,上海交通大學出版社2018年版,第215頁。
汝緒華:《算法政治:風險、發生邏輯與治理》,《廈門大學學報》(哲學社會科學版)2018年第6期。
Alex P. Miller, Want Less-Biased Decisions?Use Algorithms,Harvard Business Review Digital Articles, July 26, 2018.
Rachel Thomas, What HBR Gets Wrong about Algorithms and Bias, Fast.ai, Aug. 7, 2018.
鄭戈:《算法的法律與法律的算法》,《中國法律評論》2018年第2期。
理查德·A·斯皮內洛:《世紀道德:信息技術的倫理方面》,劉鋼譯,中央編譯出版社1999 年版,第21頁。
查云飛:《德國對網絡平臺的行政法規制——邁向合規審查之路徑》,《德國研究》2018年第3期。
作者簡介:趙寶軍,陜西科技大學馬克思主義學院副教授,陜西西安,710021。
(責任編輯 ?胡 ?靜)