臧炎君
摘 ?要:人工智能是當前科技發展的一個重要成果,在移動通信、大數據技術基礎上構建了“互聯網+”的生活理念,為人們工作、生活的展開提供了較大便利。然而隨著人工智能涉獵的領域越來越多,人類會否被其取代的爭論也越發激烈。馬克思曾說社會的發展必然會以人倫作為犧牲,本文就從馬克思主義哲學視角分析人工智能發展下所產生的倫理問題,并對如何看待、應對這些可能存在的倫理風險提出建議,以供相關研究學者汲取借鑒,以推動人工智能更好地造福人類。
關鍵詞:人工智能;倫理;馬克思主義哲學
中圖分類號:TP3-05 ? ?文獻標識碼:A ? ?文章編號:1673-7164(2022)10-0189-04
信息技術的發展讓人們邁進了“互聯網+”時代,在這個萬物互聯的時代,人工智能技術發揮了巨大作用。從逛街購物到酒店預約、租房找房、出游旅行,各式APP充斥著人們的生活,提高了人們工作生活的便捷性,也讓社會運轉模式悄然發生了改變。人工智能有著遠高于人的精準計算系統,能更高效、精準地完成各種數據統計分析、機械、運輸、導航等工作,節約了企業用人成本的同時,也讓各領域的發展陷入了倫理上的困境[1]。早在人工智能發展之前,霍金、比爾·蓋茨等科學、科技領域翹楚就有過類似擔憂,他們認為人工智能有可能取代人類造成人類文明的滅亡。而隨著人工智能的出現,許多行業的消失,如今看來這一推斷并非危言聳聽。相關人員應當重新審視人工智能的本質,并以馬克思主義哲學視角厘清其可能對人倫造成的威脅,圍繞具體的倫理風險探尋應對策略,以讓人工智能的發展限定在服務人類的這層作用中。
一、人工智能的本質與技術緣起
(一)人工智能的產生
人工智能技術的緣起最早來自人們對于計算機功能的反思。美國數學家諾伯特·維納提出的控制論可以說為人工智能的產生和發展做出了最早的奠基。此后,美國數學家、邏輯學家圖靈在《心靈》雜志上發表論文《計算機器和智能》,首次提出了“機器能否思維”的問題,并對問題的解答給出了“模仿游戲”的思路,即假設一個人分別對一名男性和一名女性提出問題,提問者要在看不到對方的情況下根據被提問者的回答判斷二者的性別,過程中被提問者會做出干擾、誤導等行為,最終對提問者的判斷情況展開分析。圖靈認為,如果將被提問者之一換成機器,則其提供的回答是否能對提問者造成干擾且不被發覺,就是該機器是否具有智能性(思維)的憑據。而這一測試最終被命名為圖靈測試,現在被廣泛應用在智能機器的智能性測試當中。圖靈測試引發了計算機研究學者的熱烈討論,之后在1956年美國達特莫茅斯學院的一次學術會議上,“人工智能”這一術語正式確立[2]。
(二)人工智能的本質
人工智能的本質其實就是對人類力量的對象化。從歷史唯物主義的角度來看,實踐就是人存在的方式,是人區別于其他生物的主要特征——實踐的主體依靠自身的主觀能動性對世界進行對象性的改造,間接推動了社會歷史的前行與發展。但人工智能不會實踐,其活動缺少主觀性,即沒有目的性、缺乏創造性,也不具備自覺性,也沒有主體客體化的特征,不存在吃、喝的需求及理想、信念,只是人類本質力量的對象化,是人通過實踐產生的結果[3]。換言之,人工智能就是人類主體認知能力轉化成認識客體,再對這一客體進行模擬的機器,人們可以用其認識世界并改造世界,它也可以替代部分的人類體力勞動與腦力勞動,但在原則上,其不具備超越甚至統治人類的條件。但當前人工智能的發展的確涉及了很多領域,對人類社會的維序產生了影響,相關人員應當引起重視,并予以改進。
二、以馬克思主義哲學角度解構人工智能的倫理風險
(一)勞動就業層面
人的實踐是人存在的主要方式,而勞動又是人類實踐的重要形式,所以社會之所以能穩定有序的發展,與人們安心勞動就業有著很大關系。然而人工智能的出現取代了一部分的人力,讓不少人因此面臨著勞動就業的問題[4]。以往制造工廠的裝配制造需要聘用較多的工人,但自從人工智能機械手進入了工廠解決了工廠生產效率的問題,工廠工人的數量也在逐漸變少,大批工人返鄉,不得不另謀其他職業;服務行業對人工智能的運用也較多,現在餐廳門口、銀行大廳都有人工智能為消費者/客戶帶去服務,能模仿人的表情、說話語氣,并能促進各種業務高效、準確的完成,而相比人工智能,人員聘用的成本就要高很多,且工作展開也不如人工智能高效。如朝著這個趨勢繼續發展,就會有大量崗位被淘汰,大量人員面臨失業、無法參與社會勞動的風險,一旦這一天到來,不僅社會的穩定性會受到影響,人的社會實踐展開也會因此而放緩。
(二)人的發展層面
馬克思主義哲學思想認為,人的全面發展是人一生的最高追求,因此我國在最新的教育改革中反復強調著德、智、體、美、勞滲透教學的重要性。人工智能的快速發展方便了人們學習生活的同時,也讓人們免于各種促進素養提升的鍛煉,人們的個體能力隨著人工智能技術的不斷提高而漸漸退化,這讓人類個體的發展追求與現實情況進入了矛盾當中。最為突出的例子要數人們對手機的依賴,如今人們上班、走路、吃飯、上廁所都離不開智能手機,導致其生活中真正擁有學習與鍛煉提升的時間少之又少,大大限制了個體的持續發展。加之智能軟件提供的服務多種多樣,其中包含讓大人、學生沉迷的游戲軟件、能打賞的直播間,很多年輕學生在接觸過后就很難走出,讓很多人的發展只得在眼前止步,這相當于斷送了下一代的前途,很多人因沉迷于虛擬世界而終對現實世界變得麻木。
(三)公民隱私層面
馬克思主義哲學中良好的社會發展,人與人之間的機會與選擇應當是公平公正的,每個人也都應擁有并能自由支配自己的權利和義務。然而人工智能的發展為掌握相關技術的不良人員提供了可乘之機,很多人在使用人工智能的過程中都會被他人知曉隱私,人民的隱私受到侵犯,十分不利于社會的穩定發展。而人工智能的發展要建立在大數據的基礎上,換言之,要想讓人工智能發揮作用,必須要讓其對公民信息進行大范圍的搜集,否則,人工智能服務于人的作用也無法發揮[5]。若只是聽之任之,公民的隱私就難以得到保障,現在經常有人因為使用智能軟件在社交購物軟件上留下痕跡就被竊取個人信息的問題,大大危害了人們的財產安全、名譽,如不能對這一情況進行有力控制,則公民的權力和義務就會受到威脅,社會的穩定也將因此難以保證。尤其如今網絡虛假廣告信息繁多,如不能確保人們的信息安全,人們對政府的信任度也會有所下降。
(四)社會結構層面
馬克思主義哲學理論中,人民群眾是歷史的創造者與推動者,正因為不同個體的意志意向存在不同,其相互往來沖突才衍生出了社會的發展。然而人工智能的發展卻潛移默化地改變了原本的社會結構,即少數的科技巨頭掌握了絕大多數的數據,他們甚至可以透過對網絡大數據的分析對人民的行為(如消費、選擇某一生活方式)進行“操控”,而這將令社會權力機構的工作展開面臨較大挑戰,在這一環境中,個體的行動及其對社會發展的影響也會產生偏差,進而擾亂社會有序發展的步伐。最細微的一個例子,當人們在搜索平臺上檢索關鍵詞時,平臺就可以此來判斷用戶的喜好,并在信息推薦時向該用戶推薦類似的信息,形成了信息繭房,限制了個體的認知發展,也影響了原有的社會權利結構,讓整個社會的行進節奏都在少數人的帶動中展開。
三、應對人工智能發展下倫理風險的思路與方法
(一)制定相應的倫理準則
盡管人工智能的本質不是能夠取代人類的機器,充其量只是人類本質力量的對象化產物,其發展宗旨也是為人類服務,但從其對當今社會不少領域的影響來看,對人工智能發展所帶來的倫理問題進行干預與應對也是十分有必要的。事實上,近幾年已有多個國家地區對人工智能進行了倫理準則的相關研究,并提出了研究報告40余項,可看出對于人工智能的倫理問題,全球基本上已經達成了一定的共識。2019年,國內發布了《人工智能北京共識》,就人工智能的研發與使用等幾個方面提出了15條原則,旨在促進人類命運共同體的構建;同年6月,國家新一代人工智能治理專業委員會就人工智能的發展提出了8項原則,為人工智能的治理確立了基本的框架,到2021年的9月,國家新一代人工智能治理專業委員會在中關村論壇上發布了《新一代人工智能倫理規范》,在以人為本、保障安全、保護隱私、明確價值觀等方面與前面的準則取得了高度共識,也算是為人工智能在倫理問題的應對上奠定了良好的基礎[6]。
(二)完善相關的法律條款
應對人工智能的倫理問題,政府給出預防機制也是十分必要的,主要表現為法律政策的形式。事實上,對這一點,美國、韓國等國家已經有了相關法律法規的推出,如2019年10月,美國國防創新委員會就推出了《人工智能原則:國防部人工智能應用倫理的若干建議》,就軍事布局中人工智能應用所產生的倫理問題進行了回應;次年,韓國政府制定了人工智能的倫理標準,主要圍繞人的尊嚴的維護和社會公益的保證提出了相關準則、規范[7]。我國在這方面應當多多借鑒以上發達國家所采取的措施,結合自身實際情況對國內的人工智能研發展開規范和限制。如積極推動《個人信息保護法》《數據安全法》,對發展得如火如荼的智能汽車進行自動駕駛的立法工作,針對重點發展領域進行算法的監督,避免人工智能在開展數據統計、分析、審計的過程中出現漏洞,或降低一些科技巨頭通過掌握大數據而對人們的行為活動帶來過多的影響、控制。
(三)加強國際間的合作
人工智能的發展開啟了工業4.0時代,全球經濟也進入了全球化發展,人類命運的發展愈發息息相關,因而要應對人工智能的倫理問題,加強國際間的合作也成了一條必然的渠道、途徑。當前,世界人工智能的規則秩序仍處于形成之初,歐盟在此方面上已經有了許多研究的經驗,其致力于通過立法方式將歐洲固有的人員傳統變為人工智能發展的新優勢,美國也在“美國人工智能計劃”的行政令下積極推動白宮科技政策辦公室與國家標準與技術研究院等機構對有關標準的制定,研究方向不僅僅是在立法方面,倫理準則方面也做了相當的考慮[8]。我國人工智能科技發展也已進入到了世界前列,但在人工智能倫理問題的實踐研究上還存在較多的不足,除了要向歐美等發達國家尋求借鑒外,也要積極開展國際合作交流,圍繞當前問題探討國際政策標準的制定,盡可能地爭取到話語權,意在強化國內人工智能發展的同時,將國內人工智能技術推向國際的制高點,為全球的人工智能倫理治理做出貢獻[9-11]。
(四)積極推進技術發展
從另一個角度來看,人工智能之所以存在這樣那樣的倫理問題,現有技術發展的不足也占據了一定因素,比如智能駕駛因為對障礙物的識別不足而造成乘車人員的安全問題,人工智能在算法上的不足導致算法黑箱而威脅到公民知情權的問題。因此便有了通過技術改進來降低人工智能倫理風險的思路。如今在市場、法律的多層驅動下,許多科研機構開啟了聯邦學習、隱私計算等活動,旨在為保護用戶的個人隱私。與此同時,為讓人工智能的應用符合社會發展的公平性、保證人們使用的安全性,還應加強對有關算法的拓展研究、完善相關的專利制度,以激勵技術創新,對符合倫理要求的人工智能系統設計起到推動作用。當然,對于重點領域的推薦性標準制定工作也要加強展開,鼓勵企業推出自己的人工智能使用倫理標準,使其以自身的技術研發、標準制定積極參與到國家的標準建立當中去,為我國相關專利技術納入國際標準提供推動[12-13]。
(五)開展針對性教育改革
人工智能的發展剛剛開始,有關其倫理標準制定也是任重道遠,因而相關人員不應只將注意力放在當下的技術、標準研究與制定上,也要對人工智能相關教育的展開加強關注,將人工智能的倫理問題考慮納入下一代的有關教育內容當中,通過讓學生明確應對人工智能倫理問題的重要性,激發其在此方面的創新,以令人工智能的倫理問題應對獲得長效的發展。目前國務院聯合教育部已經針對人工智能的倫理問題推出了多項研究報告,包括《教育中的人工智能:可持續發展的機遇與挑戰》《人工智能與教育的北京共識》等。有關人員還需從四個方面對相關教育進行完善:一是向公眾普及人工智能有關知識,提高公眾認識;二是增強對科技工作者的倫理觀念培訓;三是針對勞動者提供終身教育支持,以幫助其更好地應對人工智能所引發的失業問題;四是創新對青少年的教育,打破現有的局限性,使其更好地應對將來人工智能的發展[14]。
四、結語
在馬克思主義哲學觀點中,人們的經濟生活關系構成了社會的倫理道德,以善惡作為評價標準,對人類社會穩定發展提供了關鍵支撐。然而人類的發展與社會矛盾的轉變推動了科技的發展,科技在服務人類的同時也逐漸改變了人們的生活方式,潛移默化地轉變了傳統的思想、習慣,乃至于人倫觀點。苦不能提前做好防范和應對,平衡好社會倫理與科技發展的關系,則人類社會或將面臨干擾或毀滅。如人工智能就是當前威脅到人類社會倫理的一個科技產物,相關人員必須引起重視,通過總結人工智能可能會對社會倫理造成的威脅,提出對應的解決思路、措施,以讓人類社會與人類文明得以在科技發展的同時取得更長遠的發展。
參考文獻:
[1] 袁偉. 人工智能:統治人類還是服務人類?——基于歷史唯物主義的思考[J]. 自然辯證法通訊,2021,43(02):1-9.
[2] 孫聞博. 從辯證唯物主義角度談人工智能[J]. 中國新通信,2021,23(11):120-122.
[3] 丁金濤. 人工智能時代下科技倫理問題研究——基于馬克思主義哲學觀點[J]. 文化創新比較研究,2019,3(25):46-47.
[4] 周樸真. 人工智能對人類倫理道德的影響問題分析[J]. 大眾標準化,2021(08):133-135.
[5] 鄭召利,楊建偉. 國內馬克思主義哲學界關于人工智能問題的研究現狀[J]. 馬克思主義哲學論叢,2019(04):84-92.
[6] 楊曦. 人工智能對人類若干倫理道德的影響問題分析[J]. 漯河職業技術學院學報,2020,19(06):78-80.
[7] 李博方. 人工智能產業發展的風險分析及對策研究[J]. 智能計算機與應用,2017,7(03):106-108+113.
[8] 張兆翔,張吉豫,譚鐵牛. 人工智能倫理問題的現狀分析與對策[J]. 中國科學院院刊,2021,36(11):1270-1277.
[9] 陸書劍. 人工智能發展所面臨的倫理問題及其應對措施[J]. 知識經濟,2020(17):3-4.
[10] 鄧國民,李云春,朱永海. “人工智能+教育”驅動下的教師知識結構重構——論融入倫理的AIPCEK框架及其發展模式[J]. 遠程教育雜志,2021(01):63-73.
[11] 張立新,張雨露,鄭秋輝. 國際人工智能應用倫理研究及對教育應用的啟示[J]. 浙江師范大學學報(社會科學版),2021(05):96-102.
[12] 沈苑,汪瓊. 人工智能在教育中應用的倫理考量——從教育視角解讀歐盟《可信賴的人工智能倫理準則》[J]. 北京大學教育評論,2019,17(04):18-34.
[13] 謝洪明,陳亮,楊英楠. 如何認識人工智能的倫理沖突?——研究回顧與展望[J]. 外國經濟與管理,2019(10):109-124.
[14] 崔中良,王慧莉,郭聃,等. 人工智能研究中交互性機器倫理問題的透視及應對[J]. 西安交通大學學報(社會科學版),2020,40(01):123-132.
(薦稿人:宋榮,華中師范大學教授)
(責任編輯:莫唯然)