趙嘉怡 蔡佩爽


年輕的瑪莎陷入忽然失去愛人的悲痛中不能自拔,朋友為她推薦了一項特殊的語音服務,讓她能重新和愛人通話。研究者根據逝者在網上留下的社交痕跡,創造出一個虛擬的人格,這讓瑪莎通過手機、電腦,在真實聽到“愛人”的聲音后重獲安慰。
她開始了隨時佩戴耳機的生活,就好像愛人在身邊。在醫院錄制胎兒律動的時候,她在興奮中把正在通話的手機摔到地上。這讓她驚慌失措,就像是把愛人摔壞了。手機恢復正常后,“愛人”安慰她說:“我沒摔壞,我在云里呢。我還有更高級的服務,價格很貴。”
已經無法在語言中得到滿足的瑪莎重價訂購了這項服務,一個和“愛人”有著相同面貌和觸感的“人體”機器人站在她面前。
他禮貌,聰明,智能。無需吃飯,無需睡眠,卻能假裝睡著,陪在瑪莎身邊。生活就像意外沒有發生時一樣。
家人的一次不期造訪,打破了幻象。在看到屋子里男人的衣服后,姐姐問她是不是有了新男友。這讓她意識到,她無法從機器人那里獲得任何東西,那只是根據愛人的過去模擬的人格,他甚至不能說有人格,只是一種高級的程序罷了。
最終“高級程序”被安置在閣樓里,就像一個失去新鮮感的玩具。
故事雖然存在于《黑鏡》的幻想,但實現它的基礎已經觸手可及。社交信息、超薄觸屏手機、觸屏電腦、類人機器人、大數據、人工智能,那么真實地存在于我們的生活。人與機器界限的模糊,加速著“后人類”世界的到來,看似極端的故事,只是把現實推進了一小步。
遵守誰的規則?
難以編程的情緒
不久前,上海交通大學機器人研究所完成的“助行機器人”,能自己識別道路,自行確定行駛路線,帶著行動困難或視力有障礙的人出行。但這款機器人真要實際應用,甚至推向市場,卻面臨如下障礙:它應該遵守什么交通規則?是針對行人的交通規則,還是機動車行駛規則?如果它造成了交通事故,該如何處理?對此,上海交大機器人研究所常務副所長曹其新教授說:“這些問題已經讓我們糾結了很久。”
在《2001太空漫游》中,控制飛船的電腦“HAL”收到指令,它必須完成調查木星附近人造天體的任務,但同時,任務的真實目的不能令宇航員知曉。面對這個矛盾,HAL的解決方式是殺死所有船員。
在機器人不斷獲得更高智能、向自動化邁進時,存在于科幻領域的選擇困境,現在真實地擺在我們面前。無人駕駛汽車是否應當為避開違反交通規則的行人而犧牲本車乘客的生命安全?在充滿不確定性的未知情境中,如何保證機器人做出恰當的選擇?
事實上,在機器人的智能程度超過賦予它智慧的人類時,要對機器人做出情感模仿以及倫理道德的界限劃分,如今還面臨著技術與倫理的雙重因素。
比如,情緒是無法用數學模型和科學公式解讀的人類特有的一種反應,情緒的非線性特征決定了其不確定性。如當朋友之間說謝謝,對方的回答可能就不是通常的“不客氣”,很有可能是“干嘛跟我這么客氣”之類的句子。就像瑪莎把“愛人”帶到山頂,讓他跳下去,她抓狂地說:“如果他還活著,聽到這樣的話他會說不要這樣,但是你只會遵從我,乖乖跳下去。”
諸如此類的場景有很多,情緒會隨時隨著外部環境的變化而發生變化,那么如何通過有效的公式解讀將其運用到機器人身上,這是一個需要長期研究的課題。當情緒無法有效表達時,倫理的界限自然也無法確定。
是他,還是它?
機器公民的物種定位
是他,還是它?
伴隨生命、信息、智能和納米等新興科技的發展,人、動物和機器之間的分野日漸模糊,除了機器人外,將來我們還可能會生活在一個充滿各種“混合人”的“后人類”的世界里,比如人與動物的結合,人與機器的結合。因此,對機器人倫理地位的思考正在成為人類不可回避的價值基點。
《大西洋月刊》曾撰文指出:人類需要為談論智能機器人而感到不安,如果要說這是一場人類和機器之間的賽跑,那我們輸定了。
中國社會科學院科學哲學研究室主任段偉文認為:“隨著機器人作為一種打引號的‘他,不是動物的它,也不是人類的他,而是一種介于他和它之間的準他者。只有承認機器人是一種存在,承認其獨立的倫理地位和內在價值,保持‘他作為存在的完整性,人類才能和機器人和平共處,才能在與機器的結合中發展出恰當的倫理規范。”
致力于鉆研“機器人繁殖”的韓國科學家金中煥在自己的論文中寫道:“大多數機器人研究者都把精力放在如何讓機器人像人類一樣跑、彎手指、握手等,而忽視了機器人自身是一個‘人造物種的本質。”
他主導的機器人自我復制,與《我,機器人》何其相似?科學家在Nisson 5的程序里植入了夢想,機器人變擁有了代替人類管理世界的夢想。如果機器人能夠實現自我繁殖,那么人類該不該擔心科幻小說中的機器人與人類反目成仇的一幕會變成現實?人類自己創造的“物種”會不會最終成為人類的“機械公敵”?科學家的對策是,從一開始就很好地設定和管理“遺傳基因信息”,從而防止有危險的思想和行動的機器人出現。”