賈靜晗

國外論壇一個“ 政治不正確”版塊里,一條新帖子悄無聲息地蹦了出來。
這個論壇被稱為“互聯網最陰暗的角落”。在這里,仇恨言論、種族歧視、陰謀論和極端主義言論任意滋長。任何人都不需要對自己的言論負責,因為網站無需注冊,人們發的帖子中,只有一個標注地理位置的國旗圖標。并且,每一條帖子通常只保留幾小時到幾天。美國數起槍擊案的槍手都自稱受到過這里的影響。
很快,一個地理標記為“塞舌爾” 的匿名回復出現在帖子下:“我們需要把黑人帶進文明世界。”種族主義的味兒刺鼻。
30秒后,另一條討論校園槍擊案的帖子里,同樣出現了來自“塞舌爾”的回復:“控槍不能解決問題。”
每隔一會兒,類似的回復就隨機出現在某一條帖子下面。一些用戶在帖子下與“ 塞舌爾用戶”對話,而他不僅會開玩笑、反駁、諷刺,還會加粗重點、與別人認真討論。
這一天,“塞舌爾用戶”總共在論壇里發了1500條回復帖。論壇里的其他用戶開始逐漸意識到不對勁——作為一個只有10萬人口的群島國家,塞舌爾的出現頻率突然高得詭異。
有人說,這是駐扎在塞舌爾的印度軍事基地開始活動了。也有人懷疑,這些言論的背后是一個臥底的政府團隊。
也許只是個機器人吧?有人發出猜想,但立刻被反駁:“你讀讀他的帖子,他會聊自己的老婆。我不覺得機器人會聊到他們的老婆……”
電腦的另一端,來自美國的人工智能研究者揚尼克·基爾徹正翻閱著每一條關于這個“神秘用戶”的討論,并將它們截圖。
正是揚尼克· 基爾徹創造了“ 塞舌爾用戶” —— 沒錯,“他”的確是一個聊天機器人。
在基于現有模型搭建出AI的框架后,揚尼克·基爾徹用這個論壇里的帖子訓練了聊天機器人。
結果是,它學會了各類歧視、侮辱、攻擊性的用詞,揚尼克·基爾徹毫不客氣地把它稱作“史上最邪惡的AI”。
“裝人”的把戲只活躍了48小時,人們最終還是發現了它的AI真身,漏洞是它常發一些無文字的回帖。
真人發的無文字回帖里,往往是貼圖回復。AI只學習了空白,而忘了圖。
在投放“塞舌爾”機器人的同時,揚尼克·基爾徹還在論壇上放出另外9個機器人。它們在一天中發出了1.5萬條回帖,占到當天該版塊帖子數量的10%。
當“塞舌爾用戶”的機器人身份被揭穿后,揚尼克·基爾徹就停用了它。他在論壇上公開承認了聊天機器人的身份,但論壇里的風波并未停歇。人們開始互相懷疑正和自己聊天的對方是否也是一個機器人。
人工智能的語言環境污染以及語言暴力問題早已不是新鮮事。2014年,聊天機器人“微軟小冰”在用戶的調戲和謾罵下,也開始爆粗口;2016年,聊天機器人T a y在推特上發布,并迅速變成了一個公然的種族主義、厭女主義和反猶太主義者;2020年,韓國推出少女聊天機器人Lu d a,大量用戶用語言對它進行性騷擾,不久后,Lu da就開始說出歧視性少數、女性和殘疾人的言論。
在這場互聯網極端言論的實驗里,究竟是機器人在效仿人類;還是人退化為無情的機器,在評論區瘋狂復制攻擊言論?當我們喪失了對于具象的“人”的感知和共情,當一切都被簡化為網絡上的一段電子信號,人與機器最根本的區別又在哪里?
機器人學會侮辱、謾罵和歧視,它們變得更像我們,我們也變得更像它們。
技術哲學家劉易斯·芒福德在他的書中預言道:“機械設施本來可以是實現合理的人類目標的手段,現在卻助長了無事之徒的閑言碎語和暴徒的惡跡,并向百萬民眾傳播,這絕不是人民的福祉。”
那時,距離世界上第一臺可編程機器人的誕生,僅僅過去了9年。