劉道宏

隨著科技的不斷進步,人工智能已經成為當今社會的熱門話題。從智能助手到自動駕駛汽車,人工智能正逐漸滲透到我們的日常生活和工作中。人工智能技術的發展給我們帶來了許多便利,也引發了一系列潛在的社會問題。
人工智能在某些領域的應用已經顯著提高了生產效率,與此同時,也帶來了失業問題。許多傳統行業的工作崗位可能會因為自動化和智能化的發展與普及而逐漸消失。例如,制造業中的機械工人可能會被自動化機器人所取代,銀行和超市的自助服務也可能使柜員和收銀員不再被需要。那些掌握了先進技術和資源的人和組織將更有可能從人工智能技術領域獲得巨大的經濟利益,而那些沒有接觸到人工智能技術或技術應用能力較低的人可能會被逐漸邊緣化。高盛公司的經濟學家預計,由于人工智能領域取得的最新突破,多達3億個全職工作崗位可能會實現自動化,在歐洲和美國,有三分之二的工作人員會受到基于人工智能的自動化轉型的影響。這將導致大量的勞動力流失,加劇經濟不平等。同時,人工智能的應用還可能加速部分企業的壟斷,造成財富集中和社會分化,給社會帶來不穩定因素。
人工智能技術的廣泛應用產生了大量的個人數據,這些數據對于訓練和改進人工智能至關重要;然而,數據收集和使用的不規范也帶來了隱私泄露和數據安全的問題。如果這些數據被濫用或遭到黑客攻擊,可能導致用戶的個人信息泄露和身份被盜用。我們都有過這樣的體驗,如果喜歡在手機上看某類文章或者視頻,相關的應用程序就會不停地推送該類型的內容。這說明用戶的喜好(個人隱私)已經被程序運營商掌握;每個人的智能手機上現在都裝有多個應用程序,我們有時候會發現,使用聊天軟件和朋友討論某個品牌的商品后不久,相關購物應用程序就會向自己推送該品牌的商品廣告,這說明購物應用程序可以跨界竊取用戶的隱私;臉書(Facebook)曾發生過大規模數據泄露事件,有5億多用戶的個人數據,包括姓名、電話號碼、居住地和生日等敏感信息,被泄露到了黑客論壇上。這一數據泄露引發了廣泛關注和批評,暴露了社交媒體平臺面臨的隱私保護和數據安全問題。
人工智能系統的訓練數據來源于人類創造的數據集,這些數據可能包含偏見和歧視性內容,由此導致一些人工智能系統在進行決策和推薦時表現出歧視性,這意味著我們需要重新審視人工智能的訓練數據和算法。例如,2018年,亞馬遜公司不得不放棄一款基于人工智能的招聘工具,因為它對女性候選人存在偏見。該系統的訓練數據來自過去10年的簡歷提交記錄,其中大多數為男性申請者。因此,人工智能算法學會了對包含與女性相關的術語的簡歷進行扣分或降級,導致招聘中的性別歧視。在信貸領域,某些人工智能驅動的信用評分系統可能會根據歷史借貸數據,對特定群體的貸款申請進行不公平的拒絕。例如,如果歷史數據顯示某個少數族裔或社會經濟群體的貸款違約率較高,那么人工智能算法可能會傾向于拒絕來自該群體的貸款申請,忽略個體的實際信用風險。人工智能信貸評估系統還可能會在決定貸款的利率和條件時對特定群體存有偏見,導致特定群體獲得更差的貸款條件,或被收取高于其實際信用風險所應支付的利率。
隨著人工智能技術的進步,某些領域的人工智能已經顯示出了與人類智能相媲美甚至超越人類智能的能力。例如, 2016年,谷歌公司旗下的AlphaGo在與世界頂級圍棋棋手李世石的對弈中取得了勝利。這一事件標志著人工智能具有了在復雜游戲中超越頂級人類棋手的水平。之后的AlphaGo Zero甚至不需要人類棋譜數據,僅通過自我對弈學習,就能達到超越人類職業棋手的實力。又如,自然語言處理領域的人工智能系統在語義理解和生成方面取得了顯著進步。OpenAI公司的GPT-4模型在自然語言理解和生成任務上展現了出色的實力,能夠寫文章、回答問題、生成對話等,其表現水平與人類接近。當人工智能開始接替我們完成跟同事、朋友和親人的交流溝通時,這是否有可能剝奪了一些對我們而言更重要的東西?它是否在模糊我們的個性,消解與其他人互動的樂趣?甚至,這種自動完成技術會不會改變人類大腦的工作方式?
如此種種,人工智能對人類智能潛在的超越挑戰了人類的自尊心,可能引發人與機器之間的界限問題以及關于人工智能是否有可能擁有類似人類意識和情感的爭議。
2023年2月,美國軍火商洛克希德·馬丁公司發布消息稱,人工智能軟件已在2022年12月駕駛一架經過改裝的F-16戰斗機飛行了超過17個小時,機上沒有任何人類駕駛員。這是人工智能首次駕駛軍用飛機。美國國防部于2023年1月25日發布一項命令,要求軍方加強對自主武器的開發和使用。北約已于此前的2022年10月13日發布了一項相關實施計劃,旨在保持該聯盟在“殺手機器人”方面的“技術優勢”。這意味著武器化的人工智能有可能成為未來戰爭對抗的方式。
人工智能是某些武器系統日益增強的自主性的核心。人們關注的關鍵功能,如目標鎖定和自主反擊等,可能很快就會被軍事部門掌握。在俄烏沖突中能清晰看見人工智能在戰場上的使用,其應用范圍包括目標鎖定輔助和先進的巡飛彈等。這種技術可能會在戰場上取代人類士兵的角色,引發道德責任問題。例如,相關武器系統可能無法辨別戰斗人員與非戰斗人員和平民,導致無差別攻擊與誤殺。烏克蘭并不是首個在戰場上進行這種部署的國家,早在2019年,土耳其制造的“卡爾古”-2(Kargu-2)自殺式無人機已經參與了在敘利亞和土耳其邊境的行動。“卡爾古”-2自殺式無人機是第一款公開宣稱可以發動“蜂群”攻擊的自殺式無人機,它們不僅可以組成“蜂群”,而且能同時對不同目標實施攻擊,還具有面部識別等其他功能,戰場實用性較好。
現在,人工智能武器化被視為世界主要軍事大國之間競爭的核心。這種競爭為國際社會中那些呼吁維持和規范人類對武器系統的控制的主張敲響了警鐘。如果不及早采取行動,人類可能很快就會喪失監管人工智能武器的最佳時機。

隨著人工智能技術的不斷進步,我們也需要認真思考人工智能的道德責任問題。如果一個人工智能系統因為做出錯誤決策而造成了客觀損害,誰來承擔責任?倫理學中有一個經典思維實驗—電車難題(trolley problem),它指的是圍繞電車產生的倫理上的二元對立局面:正在行駛中的電車剎車失靈,如果沒有外力干預將會撞上前方正在施工的10名工人。如果有人搬動道閘讓電車駛向另一條鐵軌,10名工人將得救,但是另一條軌道上也有1名工人在施工。到底是救10個人,還是救1個人?在這種情況下,人工智能是否有權做出決策?其行為方式將依據怎樣的倫理?又如,在藝術領域,如果某位藝術家從電腦上獲取了草圖,他還是真正的藝術家嗎?藝術的初創往往是創作過程中難度最大的,這也是人類創造力的核心。如果把它交由人工智能完成,這個過程似乎更像是一條流水生產線,人類在其中僅僅充當檢查員的角色。或者,藝術家會發現自己陷入技術進步的寄生循環中。由于人們不斷糾正人工智能創造的作品,人工智能的創作技巧將會得到改進,人類參與的程度也將越來越少。在這種情況下,藝術家聲稱對自己的作品享有版權是否會遭遇道德困境?
隨著人工智能技術的不斷發展,一些專家擔心人工智能可能會失去控制,給人類社會帶來嚴重威脅。以今天的深度學習系統為例,它面臨著“黑匣子”問題—以一種對專家來說過于不透明的方式處理信息。AlphaGo在2016年擊敗了世界圍棋冠軍李世石,它在比賽中執行了完全意想不到的一手棋,扭轉了賽局并展示了復雜的網絡通過我們無法理解的方式做出的決策。如果人類仍然在為第37手棋而冥思苦想;那么,可以說,在互聯網超級系統的背景下,“黑匣子”問題會更加嚴重。如今的人工智能使用自我改進算法,即掃描系統以尋找改進自己的可能并最終實現自我升級。隨著系統改進,算法再次運行,從而創建出另一個改進版本,如此循環往復,無窮無盡。人類觀察者將無法跟上它們所處理的內容,因為系統在不斷變化,變得更加復雜、更加自主。因此,“自我改進”算法可能會引入自主行為。最終的結果可能是人類失去對超級系統的掌控。
我們創造了一種人類既無法預測也無法理解的新型智能。研究人員目前尚不清楚除了對計算機進行基本的物理限制之外,對人工智能是否還有其他硬性的限制。如果搞不清楚這個問題并制定有效的防范措施,可能會對人類社會產生災難性的后果。
人工智能的發展為社會帶來了巨大的機遇和挑戰。盡管可能引起一系列潛在的社會問題,但我們不能因為擔心產生問題而停止對人工智能技術的研究。相反,我們需要認真面對這些問題,并采取積極的措施來解決它們。只有這樣,我們才能充分發揮其潛力,以期推動人工智能的健康發展,真正造福于人類社會。