張蘊嶺
前不久,116名專家簽名呼吁,聯合國應禁止研發和使用殺人機器人(即自動化武器,如無人機、無人戰車、哨兵機器人、無人駕駛軍艦等)。他們警告,世界正進行殺人機器人的軍備競賽,會引起“戰爭革命”,致命的自動化武器將成為恐怖的殺人武器,會引發空前規模的武裝沖突。
技術進步是推動世界發展的重要動力。然而,幾乎所有的技術都有利有弊,人工智能技術也是如此。從技術的發展史看,武器的發展總是與技術的進步相伴,技術成為戰爭的工具。其實,關于技術與道德的討論早就有之,基本的問題是如何處理技術與道德之間的關系。從本質上看,技術屬于科學的范疇,科學不斷發展,技術水平不斷提升,技術的使用范圍也必然擴大,而就技術本身而言,其使用是沒有邊界的。道德屬于哲學的范疇,哲學的基本原理是認識人類行為,包括人與人、人與社會以及國別與世界的關系等。道德是為這些行為確立正義規范,而那些基于公共利益的規范便是社會公德。
人類共處同一個地球,但地域、國家以及階層把人分割在不同的空間里。生存之爭、利益之爭、權利之爭等,讓人一直處在“拼死的”爭斗環境之中。在這樣的環境中,什么是公德,如何形成和落實公德,就需要人類去規范。從“人類命運共同體”的角度來認識,所謂公德,就是利于共同生存的規范。然而,現實中,公德并非自然產生。常被引述的例子是所謂“公地悲劇”,即大家共用一塊草地,盡管每家都知道過度放牧會導致草被吃光,最終使人畜無法生存,但每一家都不會主動減少或者放棄,為了私利甚至增加牲畜的數目。……