肖婷婷
美國《陸軍》雜志2014年11月號刊載威廉·馬修斯的一篇文章,文中描繪了這樣的場景——
美國陸軍一支20噸軍用卡車車隊沿著佐治亞州一條鄉村公路以每小時40英里的速度高速行駛,雖然駕駛座上沒有任何人,但是這些卡車還是遵守交通規則,可以轉彎避開障礙物,當小孩突然躥到街上時會緊急停下來。
兩架無人駕駛飛機在一座小鎮上空盤旋,在下方的街道上尋找自己的目標。當它們發現目標時,用無線電將目標的GPS坐標發送給一輛行駛著將要攔截目標的無人駕駛越野車。
一隊士兵蜷縮在他們即將要攻擊的建筑物不遠處的防護墻后面。他們從包裹中取出通用輕型自主機器人套件,掏出一個裝有監控攝像頭手掌大小的四旋翼直升機和一個滾動前進,可以爬樓梯的坦克狀機器人。這些微型機器人將會先行一步,向士兵們顯示下個轉角處是什么以及隔壁房間里有什么。士兵們將留下一個小型固定傳感器來監視其進出路線。
那么,問題來了,機器人取代人類上戰場,這靠譜嗎?
美軍開發“超人類戰士”
7月24日,美國《外交學者》網站發表了弗朗茨·斯特凡·蓋迪的題為《超人類和機器人殺手:美國陸軍如何設想2050年戰爭》的報道,編譯如下:根據一份總結美國陸軍贊助的研討會成果的新報告,新型超人類和自主戰斗機器人將成為2050年戰場上的兩個主要角色。
2015年3月,在馬里蘭州舉行的總結美國陸軍贊助的研討會,匯聚了不同群體的專家一起設想2050年戰術地面戰場。他們的結論是:屆時,人類將屬于現代戰場上的少數。2050年的戰場將“過度擁擠”,充斥著數量大大超過人類戰士的機器人。
與會者進一步預言,也許對2015年的決策者和高級軍官們來說,最令人不安的將是,2050年的戰斗節奏將會更快,令軍人們不堪重負,其結果是機器人將不得不在人類很少監督的情況下自主做出決定。
人類將不再能夠處于“決策圈內”,反而會在“圈上”行動。兩者的不同之處在于,在前者的情況下,人類決定是一個過程所需的步驟,因此,人類正在行使主動控制;而在后者情況下,人類只能觀察正在發生的行為(以及在某些情況下,觀察已經作出的決定及其原因),但他們只能在事后或者在等待預期行為時采取行動。
根據這一報告,雖然2050年戰場上的機器人跟今天存在的系統相似,如武裝無人機和“射后不管”導彈等,但比起如今的這些系統,這些機器人將“擁有更大的機器推理能力和智能自主權”。
在2050年的作戰空間里,機器人通常會團隊作戰,跟今天的軍團一樣。根據已確立的參與條例和優先級別,這些自組織或者協作性機器人集合將擁有不同程度的行動自由(從受到主動管理到完全自主行動)。機器人群和團隊(以及個別機器人)將被分配各種任務。
當然,依靠高度自治的殺手機器人力量以及其他新的作戰技術,會制造敵人可以利用的新的攻擊向量。比如說,如果敵方黑客設法通過電子欺騙控制美國的陸軍機器人,會發生什么?在一個像是影片《終結者》的場景里,他們會把槍口對準攜帶武器的戰友嗎?
在2050年的戰場上,人類有望與機器人將并肩作戰,那人類和機器人的分工如何?對此,專家們認為:2050年主要的陸軍部隊將是人類-機器人混合團隊。為了使人類能夠有效地與機器人結成伙伴,必須以各種方式來增強人類小組成員的力量。這些超級人類將有外骨骼,具備多種植入物,并且可以無縫訪問傳感器,認知能力得以增強。
最令人感到震撼的是,研討會與會者還預計,“轉基因士兵”將與“能力未得以增強的人類”一起作戰:他們(轉基因超級人類)將擁有得以增強的物理能力、感官和認知能力。在2050年這個時間框架里,超人類出現在戰場上是極有可能的,這是因為需要啟用這一發展的各個組成部分已經存在了,并且正在經歷迅速演變。
但是,在任何一點成為現實之前,將必須克服各種障礙。首先是,將需要開發新的指揮和控制概念,以成功管理、整合和帶領人類、超人類和機器人戰士。這意味著,創建一個成功地將人工與人類智能合并在一處的新型混合認知指揮架構。
霍金呼吁禁用殺人機器人
美國《時代》周刊網站7月28日報道稱,偉大的理論物理學家斯蒂芬·霍金和特斯拉汽車公司首席執行官埃隆·馬斯克,與數十名人工智能和機器人專家在27日發表的公開信中,一道呼吁禁止使用“攻擊性自動武器”。
“人工智能技術目前的發展已經使其在幾年內、而不是幾十年內成為可行——即使法律上不可行事實上也是可以實現的,這樣的情況危險極大,”這封公開信說。《衛報》報道說這封信將在布宜諾斯艾利斯舉辦的人工智能國際聯合大會上宣讀。“自動武器被稱為繼火藥、核武器之后的第三次戰爭革命。”
這封公開信把無需人類命令便能夠選擇并攻擊目標的人工智能武器,與無人機和巡航導彈等人類選擇打擊目標的武器有所區別。這封信中還說,雖然對軍隊官兵來說,人工智能技術可以令戰區更加安全,但這種不受人類控制的武器會引發“全球性人工智能軍備競賽”。
“它們流入黑市或落入恐怖分子和獨裁者之手不過是時間問題,”這封信的署名者們警告道。“人工智能可以通過多種方式使戰場對人類、尤其是平民來說更加安全,而不必通過創造殺戮新工具這種方式。”
英國《金融時報》網站7月27日發表題為《科學家提醒,要警惕殺人機器人軍備競賽》的報道稱,科技界的一些大人物呼吁全球禁止“殺人機器人”。他們提醒說,越過這一界限,將開啟新一輪全球軍備競賽。
人工智能領域的1000多位專家在一封公開信中表明了干預態度。在這封信上署名的包括斯蒂芬·霍金教授、特斯拉公司首席執行官埃隆·馬斯克,以及蘋果公司合伙創始人史蒂夫·沃茲尼亞克。
盡管“機器人士兵”仍處于“紙上談兵”階段,可是計算能力和人工智能的迅速進步,增加了軍方在20年內把機器人士兵派上戰場的可能性。
這封請愿書于7月28日在布宜諾斯艾利斯舉行的國際人工智能聯合大會上遞交。該信警告說,繼火藥與核武器的發明之后,可以獨立確定和襲擊目標且不需人類進行任何干預的武器系統的開發,將會帶來“第三次戰爭革命”。
它描繪了未來沖突的可怕情形,類似于系列電影《終結者》中的場景。
該信說:“對于執行暗殺、破壞國家穩定、征服民眾或選擇性殺死特定民族等任務,自主式武器是理想選擇。”
“因此,我們認為,人工智能軍備競賽對人類而言是無益的。人工智能可以讓戰場變得對人類——尤其平民——而言更安全的方式有許多種,不用創造新的殺人工具。”
聯合國也擔心“致命性自主式武器”的開發,以至于它去年召開了有史以來第一次此類會議,討論新科技帶來的風險。
加利福尼亞大學伯克利分校的人工智能領域專家、該信的署名者之一斯圖爾特·拉塞爾之前曾警告說,機器人武器系統可能使得人類“毫無防御能力”。
該信是今年第二封猛烈抨擊將人工智能引入到戰場上的信。不過,在呼吁禁止這些武器系統方面,這封最新的請愿書強硬有力得多。該信是由生命未來研究所協調寫成的。該所是由包括Skype公司合伙創始人揚·塔林在內的眾多志愿者于2014年創建的。馬斯克和霍金均是該研究所科學顧問委員會的成員。
自主式殺人機器人的想法對許多軍方人士而言具有吸引力,因為它們提供了重要的對敵優勢,其部署不會令本國部隊的任何人處于危險中,而且長期來看,比起必須支持和保護人員的先進武器,如戰斗機,它們的成本應該更加低廉。
五角大樓是機器人研究的最大支持者之一。2013年,其智庫之一海軍研究處發給塔夫茨大學、布朗大學、倫斯勒理工學院、喬治敦大學和耶魯大學等多所大學的研究人員一筆研究經費,高達750萬美元,讓其研究如何能教會自主式機器人分辨對錯。
西方軍事規劃者擔心,如果他們沒能致力于研究這一技術,那么他們可能會將新一輪軍備競賽的領導權讓給潛在對手,比如中國。
資料來源:搜狐網、參考消息網、鳳凰網