邵 笛
首都經濟貿易大學,北京 100070
?
國際人道法視角下的自主武器系統合法性問題研究
邵 笛
首都經濟貿易大學,北京 100070
2015年,自主武器系統得到了迅速的發展,美軍新型的X-47b艦載無人機成功完成了空中加油實驗,歐洲等國也在加緊步伐開發自主武器系統。隨著人工智能和無人機技術的快速發展,可以預見發展自主武器系統將成為未來的新趨勢。但是,自主武器系統的合法性遭到了質疑,人權觀察認為自主武器系統違反了國際人道法。本文將從國際人道法角度對自主武器系統的合法性進行分析。
自主武器系統;國際人道法;合法性
國際紅十字會在國際自主武器系統會議上的指出自主武器系統是“能夠獨立選擇目標攻擊目標的武器”。美國國防部為自主武器系統(Autonomous Weapon Systems,下文簡稱AWS)所下的定義是“在激活后,可以在無人操作操作的情況下自主選擇目標并交戰的武器系統。包括可以在激活后自主選擇目標并交戰的武器,監控者可以推翻系統決定的武器。”關于自主武器系統并不存在統一的權威定義,但從目前各方的定義來看,構成AWS的關鍵是能夠自主選擇目標、自主攻擊目標。目前各軍事強國都在開發AWS,這些裝備很可能在不遠的將來投入實戰,完全由電腦操作的武器引發了各方的關注,有必要對他們在國際人道法上的的合法性進行探討。
國際人道法涉及武器合法性的規則可以分為兩類。一類規范規定了武器自身(per se)是否合法的問題,另一類規則規定應用該武器的作戰方法是否合法。
(一)武器自身的合法性
判斷某種武器是否符合國際人道法,首先要看該種武器是否屬于被國際人道法明確禁止的武器,例如生物武器、化學武器。關于武器自身合法性的國際條約最早出現在在19世紀末。1868年《關于在戰爭中放棄使用某些爆炸性彈丸的宣言》即圣彼得堡宣言禁止使用輕于400克的爆炸性彈丸,1907年的《陸戰法規和慣例公約》禁止使用毒物或有毒武器。類似的公約還有《化武公約》、《地雷公約》,禁止了一系列不人道的武器。
目前沒有公約明確的禁止了AWS,它的合法性問題必須根據國際人道法的原則進行推理。
日內瓦公約《第一附加議定書》第三十五條禁止使用造成過分傷害和不必要痛苦的武器,禁止改變環境的作戰方法。這一條是從武器的使用效果方面來判斷武器合法性的,AWS在這一方面與傳統武器并無區別,AWS本身是一個搭載武器的平臺,是否造成了過分傷害或不必要痛苦,根本上取決于設計人員為它搭載了什么武器。AWS與傳統武器的不同在于它的自主運行模式,只要搭載的武器符合相關公約,AWS可以成為符合國際人道法的武器。
人權觀察認為,自動武器系統在戰場上無法識別戰斗員和平民,所以AWS的作戰肯定是不分皂白的,違反了《第一附加議定書》第五十一條第二款規定,無法以特定軍事目標為作戰對象。這種觀點并不正確,首先,真正的AWS仍然沒有實際列裝,無法斷言在未來無法發展出自主識別敵我的系統。其次,導彈、制導炸彈都無法識別平民和戰斗員,但導彈、炸彈等可以通過操作員選擇目標來避免危機平民,并不是所有的戰場都會有平民或民用物體存在。例如在遠離城市的偏遠地區或遠離商船通常航道的海域,使用AWS攻擊坦克、戰艦等目標并不會產生識別的問題,這種識別的不足即使存在,也是可以通過適當地部署而避免的,避免在平民人口密集的地區部署AWS,即可以特定軍事目標為對象,因此AWS不屬于非法武器。
人權觀察的報告還指出“無情的機器人可能成為獨裁者鎮壓人民的工具,同時又免除了獨裁者們對軍隊反抗的恐懼”。認為“機器人不受感情和同情心的束縛,可能成為殺戮平民的工具。”這些批判似是而非,人類的情感是雙刃劍,仇恨激化了在盧旺達、前南斯拉夫、中東、非洲等地戰亂與暴行,而AWS沒有情感,不會受到各種理念、情緒的影響,只會依設定的程序行事,不會出于某種激情而從事暴行。AWS的使用實際上有利于國際人道法得到遵守,它不會受到恐懼、憤怒等情感的影響,也排除了人類操作員犯錯的可能性,減少了對平民及民用物體造成誤傷的可能性。
(二)非法使用AWS問題
1.區分原則
區分原則是國際人道法的基本原則。①日內瓦公約第一附加議定書第48條規定了區分原則,沖突各方無論何時均應在平民居民和戰斗員之間和在民用物體和軍事目標之間加以區別,沖突一方的軍事行動僅應以軍事目標為對象。
《第一附加議定書》第五十一條第二款具體規定了對平民的保護:“平民居民本身以及平民個人,不應成為攻擊的對象。禁止以在平民居民中散布恐怖為主要目的的暴力行為或暴力威脅。”第五十二條第一款規定了對民用物體的保護:“民用物體不應成為攻擊或報復的對象。民用物體是指所有不是第二款所規定的軍事目標的物體。”根據上述規定,使用AWS直接攻擊平民、民用物體或者恐嚇平民都是違反國際人道法的。無論區分過程是由人類還是AWS自己完成,AWS與傳統的其他武器在區分問題上并沒有區別,國際人道法沒有規定區分應當如何完成,從區分的結果角度規定平民和民用物體不得受到攻擊和恐嚇。所以區分的方法無論是由操作人員手動、肉眼對目標進行區分,或是由武器自己通過預先設定程序的傳感器進行識別,都不屬于國際人道法調整的范圍,只要采取的某種識別方式成功區分了戰斗員和平民即合法。
除了禁止攻擊平民和民用物體,第一附加議定書同樣禁止不分皂白的攻擊。第一附加議定書第五十一條第4款第1項規定“不分皂白的攻擊”主要指不以特定軍事目標為對象的攻擊,不同于該款第二項的規定,第一款強調的是武器本身可以針對特定軍事目標,但是該交戰方并沒有這樣做的情況。據此,在AWS本身具備區分平民與戰斗員能力的情況下,如果該交戰方對AWS進行設置,要求其進行不區分軍事目標與民用物體的攻擊,即構成違法。
2.比例原則
條約國際人道法中比例原則主要體現在第一附加議定書第51條第5款第2項和第57條第2款第1項,根據規定不得發動可能附帶使平民生命受損失、平民受傷害、平民物體受損害、或三種情形均有而且與預期的具體和直接軍事利益相比損害過分的攻擊。
這兩條規定涉及了“過分”的判斷問題。判斷是否“過分”,不是簡單地將平民傷亡與敵方傷亡進行比較,而是應當根據具體情況判斷目標價值,判斷發動攻擊是否符合軍事必要原則,以確定可允許的附帶傷害。
AWS不同于現有的無人機,無人機仍然是有人操控的,只是操縱者遠離戰場,是否符合比例原則的判斷仍然是由人類進行。而AWS無人操作,是根據預設的程序進行戰斗。因此AWS能否在無人操作或監控的情況下確定一次具體攻擊任務是否具備相應的軍事必要性和附帶傷害,是判斷某一次AWS攻擊合法性的關鍵。
AWS能否自動完成比例原則的評估是問題的關鍵。很多國家都有判斷附帶傷害發生可能性的標準,例如美國目前有一套有效的確定附帶傷害發生可能性的系統,即“collateral damage estimate methodology”(CDEM),CDEM會根據武器的精確度、爆炸范圍、攻擊戰術、目標附近出現平民的可能性等因素來作出分析。但是在進行了CDEM的分析后仍然要由指揮官對是否符合比例原則進行評判,CDEM的作用更大程度上是輔助性的。AWS能否獨立運用類似CDEM的標準完成比例原則的判斷是不能確定的。
AWS本身并不屬于被禁止的武器,但是是否部署AWS、在哪里部署AWS仍取決于人類,因此盡管AWS仍處于試驗階段,進行區分和比例判斷的能力有限,但是它的技術風險仍然可以通過適當的部署加以回避,例如禁止在平民聚集的區域部署AWS,以及采取類似禁飛區、雷場的使用方式,公布某區域內AWS的存在,都可以有效避免平民遭受攻擊。
AWS本身并不違反現有國際人道法,但是AWS的與其他武器一樣,可能被人類以違反國際人道法的方式使用。如果能夠在現有國際人道法框架內合理的使用AWS,實際上有利于戰斗員和平民的保護。
[ 注 釋 ]
①Legality of the Threat or Use of Nuclear Weapons,Advisory Opinion,1996 I.C.J.226(July 8),P 78-79.
[1]Michael N.Schmitt & Jeffrey S.Thurnher,“Out of the Loop”:Autonomous Weapon Systems and the Law of Armed Conflict,Harvard National Security Journal,4 Harv.Nat'l Sec.J.231.
[2]Benjamin Kastan,Autonomous Weapons Systems:A Coming Legal “Singularity”?,University of Illinois Journal of Law,Technology & Policy,2013 U.Ill.J.L.Tech.& Pol'y 45.
[3]Tyler D.Evans,At War With the Robots:Autonomous Weapon Systems and the Martens Clause,Hofstra Law Review,41 Hofstra L.Rev.697.
[4]Jack M.Beard,Autonomous Weapons and Human Responsibilities,Georgetown Journal of International Law,45 Geo.J.Int’l L.617.
D
A
2095-4379-(2017)06-0133-02
邵笛(1990-),男,漢族,天津人,首都經濟貿易大學,碩士,研究方向:國際法學。