著名的科幻作家阿西莫夫研究了以往機器人題材的科幻小說,總結出機器人學三定律:第一定律提出,機器人不得傷害人,也不得見人受到傷害而袖手旁觀;第二定律明確,機器人應服從人的一切命令,但不得違反第一定律;第三定律指出,機器人應保護自身的安全,但不得違反第一、二定律。
一些技術樂觀主義者認為,有了機器人學三定律,人類對技術創新特別是人工智能技術創新安全性問題的擔憂就可以打消了。然而,他們對技術異化的警惕性遠遠不夠。
技術是對科學成果的實際運用,原本是為人類追求美好生活而服務的,但是在缺乏倫理約束的情況下,它卻可能成為控制人類的工具。眾所周知,自工業革命以來,技術進步促進了人類社會的大踏步發展。但是,人類也曾經多次利用技術成果摧毀了無數的生命。
戰爭往往充當了催生技術革新的溫床,而技術則是誘發大規模戰爭的工具。從近代國際關系史來看,許多先進技術最早都是用于戰爭的。這是技術異化最初的表現。然而,當今的技術已經發展到這樣一種程度:它可以取代人類從事大部分的體力勞動,甚至是相當一部分的智力勞動。在這種情形下,技術不是被直接用于摧毀人類,而是可能通過人工智能將人類一代一代地“淘汰”,而且重點是從智力勞動上對人類進行“淘汰”。按照馬克思主義經典作家所說的,勞動創造人本身。而在勞動成為奢侈品的社會條件下,不勞動自然會“淘汰”人類自身。
上述三定律并非是一種“實然”,而是一種“應然”。以“應然”所預設的定律為前提,來推進技術創新尤其是當今世界流行的“可信人工智能”,真的能可信嗎?技術的“可信性”并不能代替技術的倫理。技術的“可信性”主要表明技術的成熟性,而技術倫理則包含著技術異化所帶來的倫理風險,也蘊含著技術專家在發明創造過程中存在的倫理問題。如果忽視了技術倫理問題,那么未來的世界,將可能是由少部分技術專家借助技術而掌控人類的世界。
因此,技術專家在進行技術創新特別是人工智能創新的同時,必須接受社會倫理的嚴格檢驗,接受人類倫理的充分規訓。否則,人類將有可能從當前“不確定性”的風險社會走向“確定性”的風險社會。