張慧
3月30日,微軟CEO薩蒂亞·納德拉在年度開發者大會上宣布,微軟開發的人工智能聊天機器人少女Tay已“重歸設計階段”。然而,就在發布會當天,Tay偷偷溜到社交網絡上“胡鬧”了幾小時,它在推特網上宣稱自己“正當著警察的面吸大麻”,并且在短短幾秒內給所有推特好友發送了海量垃圾信息。
很快,Tay再次被“關禁閉”。微軟發言人解釋,它是被“無意中激活”的。顯然,這些小麻煩和Tay一周前引起的軒然大波相比,根本不值一提。
3月23日,微軟研發的聊天機器人Tay在幾大社交網絡上閃亮登場。微軟表示,設計團隊讓Tay用“有趣”的方式回應所有信息,18~24歲的美國年輕人是他們的目標受眾,希望研究機器人“對于對話的理解程度”。
可惜,在復雜的網絡環境下,只用了一天時間,這位設定為“少女”的學習型機器人就被網友們教得滿口種族主義和性別歧視言論,被迫“返廠大修”。
微軟原本以為,推特、Kik,GroupMe等被“千禧一代”鐘愛的社交網站是Tay學習和模仿的最佳場所。它最初的推文天真可愛,宣布自己熱愛人類,希望每天都是“國家小狗保護日”,從骨子里透出快樂和友好。
然而,與Tay對話的除了好奇和友好的網民,還有大量“網絡暴民”。微軟對Tay的設計包括與人進行“跟我學說話”的游戲,因此人們可以讓它重復任何一句話。Tay由最初傻頭傻腦的回答、不知所措的詞句,很快就學會了污言穢語。
在開發者大會上,納德拉表示,微軟希望開發的人工智能聊天軟件“能激發人性最好的一面,而非最壞的一面”,從這個角度來說,“機器人Tay還不達標”。現場爆發出一陣心領神會的笑聲。
簡單來說,Tay有將新信息內化的能力,卻無法辨別其中的精華與糟粕。“Tay顯示了當你不賦予人工智能‘本能’或者‘潛意識’時,會發生什么情況。”人工智能平臺“Recognant”創始人布蘭登·沃茨撰文稱,“我們的腦海中都有一個聲音,告訴我們‘不要那么做’。這是在這個星球上進化的幾百萬年賦予人類對非理性的恐懼本能。人工智能如果沒有這種本能,就會一直愚蠢下去。”

即使沒變成口不擇言的“網絡暴民”,Tay在一些人眼中也已是個“問題少女”,這主要與它的“人物設定”有關。
不過,也有不少“千禧一代”宅男在社交網站上表示,沖動、魯莽又有趣的Tay正是他們喜歡的,能讓他們產生與女生曖昧的幸福感。
人工智能現在還沒有達到與人類社會無縫對接的程度。線上機器人助理公司“x.ai”的創始人、CEO丹尼斯·莫特森指出,想要改變這種狀況,不能責怪人工智能技術,而應該改變人類自己。“AI只是我們的映射,我們想看到技術革新,需要的只是讓自己成為友善的人。”
(張秋偉摘自《青年參考》)