劉瀟
觀看阿爾法狗與李世石的“人機大戰”后,相信很多人都會和我一樣,對九段的李世石被一臺冰冷的智能機器恣意碾壓而心存幾分兔死狐悲之感。更多的人恐怕還會想到:如果有一天,機器人全面超越人類,碾壓的不單是人類的軀體,甚至是智商,人類是否也會像今天坐在阿爾法狗對面的李世石一樣束手無策?
其實人類有這樣的憂慮并非始于今日,那些富于幻想的文學家、藝術家們在上個世紀甚至上上個世紀就已經借助小說或影視的形式表達出同樣的隱憂。比如英國詩人雪萊的妻子瑪麗·雪萊創作于19世紀的科幻小說《弗蘭肯斯坦》以及拍攝于上個世紀的科幻電影《2001太空漫游》《終結者》等一系列作品,都從一個側面反映出人類潛意識中對人工智能這一人類創造出的“最終有可能毀掉它的創造者的東西”的深深憂慮。
或許有人會說,上述隱憂純屬文學家、藝術家們的神經過敏或多愁善感所致。殊不知,今天已有不少科學家在面對不斷發展進步的人工智能技術時,也步入了悲觀和憂慮者的行列。英國著名物理學家霍金便是“悲觀派”中的一員。
霍金因患有肌肉萎縮性脊髓側索硬化癥難以與人正常交流,正是人工智能系統推測他想要表達的語言詞匯,幫助他大大提升了打字和發郵件的速度。霍金表示,人工智能系統可以幫助他更好地演講、撰寫文章,也可以幫助他更方便地與親人和朋友交流。即便這樣,霍金還是對人工智能的發展心存疑忌,甚至認為創造“能思考”的機器的努力將威脅到人類自身的生存。他認為“對完全人工智能的發展可能會招致人類歷史的終結”,因為“人工智能可能會自發地開始進化,而且以前所未有的速度重新設計自己。受限于緩慢的生物進化過程的人類,根本無法與人工智能相比,最終會被它們超越”。
我們可以推測,隨著經濟、科技的發展,人類在未來一定能制造出“完全人工智能”機器。因為雖然人類在相當長的一段時間內將保持對人工智能技術的掌控,但是誰也不能保證,某一天不會因為一個偶然的設計錯誤,或“可以自發進化”的人工智能機器出現“逆反心理”而給它的“主人”以致命一擊。
未來的人工智能技術或許就像火一樣,成為人類最重要的工具之一,無法舍棄。但是切記,在火不為我們所掌控時,它完全可以將我們化為灰燼。人工智能同樣如此,如果理性地使用它將造福良多;一旦脫離了人類的控制,后果將不堪設想。
我們的科技工作者應當把霍金的話當作一種告誡,一種警醒,從而理性地、人道地、合法地開發和利用人工智能,千萬莫讓那些擔憂之語一語成讖!
【作者系江蘇省鹽城市亭湖高級中學學生,指導教師:王淦生】