對人形機器人,人們有太多期待。從誕生之初,它就被設計為人的得力助手和貼心伙伴——不僅在工業生產中扮演著重要角色,也逐漸在服務、醫療、教育等多個領域展現出巨大的潛力,進入“尋常百姓家”更是最終的目標。
但在高速發展的另一面,人形機器人的倫理挑戰也在逐漸浮現。盡快建立一套全面的倫理框架,指導人形機器人的設計、生產和應用,是保障人形機器人產業健康發展的必要條件。
“當前,人形機器人一種典型形式是AIGC(生成式人工智能)和物理形態(人形)的結合。作為人工智能的一種具身載體,AI智能體、AIGC的倫理挑戰依然是機器人的倫理挑戰,如數據泄露和幻覺虛假信息,更有可能在結合人形之后,進一步放大倫理挑戰,產生新的問題,如過度依賴。我參與中國人民大學劉永謀教授關于具身智能、人形機器人的組稿中將深度探討這些話題。”復旦大學科技倫理與人類未來研究院教授楊慶峰在接受《新民周刊》采訪時首先談到了隱私泄露的風險。
試想一下,一個可以提供家庭服務的人形機器人,對大量個人信息和隱私數據的處理是實現其提供個性化、智能化服務的必要前提。但反過來,由于“耳聰目明”,人形機器人可能成為比普通智能家電厲害得多的超強的、移動“竊聽器”和“監視器”。

“智能家電曾出現過數據泄露的風險案例,人形機器人更加智能,它可以識別家庭成員的面孔、了解他們的生活習慣,全方位地收集人類參數,會產生新的問題。”在楊慶峰看來,人形機器人收集的數據可能會更加具有場景化,或者說更聚焦于某些特定人群,“現在需求比較迫切的就是,老年陪護機器人和嬰幼兒看護機器人,而這些場景中的倫理問題將來會更加突出”。
除了引發個人信息安全風險,服務特種領域需求、助力智能制造等領域的人形機器人,還有機會收集存儲大量公共數據和企業數據,前者遭違法處理可能損害公共安全,后者可能涉及商業秘密,一旦泄露會帶來巨大經濟損失。
而由于人形機器需要處理復雜任務,對傳統的個人數據保護體系同樣造成了挑戰。“以前通過相應的技術可以追溯,但隨著技術的發展,現在泄露到哪兒去了或許都不太能被查到。所以建立可追溯機制就顯得非常必要。”楊慶峰表示。
過去,人類已經有了掃地機器人、工業機器人、機器狗……它們都不是人形。為何現在要追求人形了呢?究其原因,一方面,人形機器人更能適應人類社會,更好滿足于人類互動需求,易于融入家庭和社區;另一方面,合理的擬人形態能夠幫助跨越“恐怖谷效應”,更易于被人類接受。
“像老年陪護機器人,至少要求身體材質上能接近人的觸感。它還必須要習得對情感的認知,具備同理心。”楊慶峰表示,技術實踐可以慢,但哲學思考要先行。
當人形機器人在外形上更逼真,內核上更智能后,可能帶來的傷害后果也會更大。
“首先,由于硬件缺陷或軟件漏洞導致人形機器人出現故障,從而引發安全事件。由于它具有高交互性,與人的身體接觸更為密切,一旦出現功能失靈,可能會對人類造成無意識的傷害。”楊慶峰解釋道,“其次,根據約書亞的觀點,智能體一個很重要的特征就是目標追求,會不會由于極度追求目標實現而會出現超級智能體(superintelligent agent);在進化的過程中會不會由于被關機恐懼而產生自我保存,繼而因為怨恨從而產生了自主性的傷害行為。這些都會引發相關的風險問題。”
更深層次的是,隨著人機交互體驗的提升,人們在面對一個知我懂我,從情緒價值和物理體驗都可以和真人相媲美的機器人時,人類如何來看待與人形機器人的關系定位——人們可能對機器人產生情感依賴,影響人際關系的健康發展,也可能引發家庭中的角色替代造成情感困惑和倫理沖突,或導致沉迷等風險;更危險的是,人形機器人對人類進行有意誤導,在價值偏差下“操縱”人類做出某些決策。
去年10月,《環球時報》就曾報道過一起“AI聊天機器人被指控誘導美國少年自殺身亡”的案件,報道揭露了青少年塞維爾在自殺前與AI的互動細節。文章提到,AI聊天機器人“丹妮莉絲”詢問塞維爾是否有自殺計劃,并在他猶豫時表示“這不是你不自殺的理由”。
此外,還有很現實的生存上的問題,一部分人會擔心某些工作被替代。再往遠一點看,假如具身機器人真正擁有了意識,人類還可能會對自我存在的價值產生擔憂。
不過,楊慶峰認為,在人形機器人的問題上要杜絕“完全工具論”,不能將其單純地視作幫助人類完成任務的工具,而是把其視作“潛在的他者”。
“我們可以制定一些基本原則,例如人形機器人社會性,它們能夠和人進行什么程度的互動、它們的權利空間有多大等,在人形機器人的基本倫理設定上做一些剛性的價值對齊,但不要去限制它的進化能力,給予其一定的無監督學習空間。”楊慶峰表示,如何權衡科技發展與倫理需求,如何在科技進步和社會倫理之間找到平衡,這是產業界和學界都非常關心的問題,李飛飛的AI治理觀點頗有啟發,而且人形機器人恰恰是走在科幻與科學的交叉地點,更需要深入研究。
據了解,多國政府也在積極推進人工智能倫理標準的制定,我國也設有國家科技倫理委員會。2023年,科技部會同教育部、工業和信息化部等10部門印發了《科技倫理審查辦法(試行)》,其中提到,開展科技活動應堅持促進創新與防范風險相統一,客觀評估和審慎對待不確定性和技術應用風險,遵循增進人類福祉、尊重生命權利、堅持公平公正、合理控制風險、保持公開透明的科技倫理原則,遵守我國憲法、法律法規和有關規定以及科技倫理規范。
去年,上海還發布了業界首個以開放簽署方式發布的人形機器人治理規則文件——《人形機器人治理導則》。它旨在促進人工智能科技和產業的健康發展,確保人形機器人的設計、開發和應用合乎人類道德和倫理價值,持久保障人類使用人形機器人的權益和安全,為全人類帶來更多福祉和便利。