王浩東
【摘要】近年來,人工智能技術發展迅猛,加快了具備自主控制能力的武器和戰斗系統在戰爭中的應用,美國國防部和軍方已經表示將人工智能與武器系統結合是未來趨勢,歐洲各國也在加緊研制各類自主控制武器系統,但這勢必會對目前國際人道法原則發起挑戰,影響其對非人道行為的制裁。本文將從介紹戰爭中人工智能技術的運用情況出發,探討其對國際人道法體系的挑戰,對未來國際人道法的發展提出可行的建議。
【關鍵詞】人工智能 ?國際人道法 ?挑戰與對策
一、戰爭中人工智能技術運用介紹
人工智能,是指能夠使機器以人類智能相似的方式作出反應的計算機技術,它不是人的智能,但可以超過人的智能。在戰爭中,人工智能可以依靠大數據的分析,對軍事指揮官的軍事行動提供決策建議,但最后的決定權依舊掌握在指揮官手中,故在這一應用場景下,人工智能技術只是作為數據資料,不產生違反國際人道法的情況。而人工智能目前最主要并且最具爭議的應用主要體現在自主控制武器的使用。
紅十字國際委員會提出,自主控制武器是指能夠獨立選擇目標進行攻擊的武器。而美國國防部則認為自主控制武器是指在投入使用后可以自主選擇目標并與之交戰的武器。各方對于自主控制武器的定義都表明獨立自主地選擇目標并進行不同程度的打擊是這決定這一武器不同于傳統軍事技術的關鍵。自主控制武器能夠在減少武器使用方戰斗員傷亡的情況下實現軍事目的,成為各國加快速度研發這一武器系統并廣泛應用于戰爭中的現實動力。因此,對于這一技術是否符合國際人道法的規定的研究存在一定的必要性。
二、國際人道法基本原則概述
在國內外學者對于國際人道法的研究中,比例原則和區分原則均屬于國際人道法的基本原則成為各方的共識。因此,要分析自主控制系統是否具備合法性,就要從研究比例原則和區分原則出發。
(一)比例原則
在國際人道法體系中,比例原則主要體現在日內瓦公約《第一附加議定書》的第五十一條和第五十七條中。按照第五十一條的規定,預期的軍事利益若不及附帶造成的損失,那么這次軍事行動便違反了比例原則。而第五十七條規定了在實施軍事行動時,應盡可能采取預防措施,以降低對平民和民用物體造成的危險。另外,在日內瓦公約《第二附加議定書》以及《國際刑事法庭規約》中,均有對比例原則的相關規定。
(二)區分原則
區分原則在《圣彼得堡宣言》中首次被闡述,此后在多部法律文件中得到重申。日內瓦公約《第一附加議定書》第四十八條將區分原則描述為,為了尊重與保護平民和民用物體,沖突各方無論何時都要區分平民和戰斗員,民用物體和軍事目標。國際刑事法庭也在關于核武器合法性問題的咨詢意見中表示,國家并沒有無限制的權利選擇其使用的作戰手段和方法。
三、自主控制武器合法性探究
(一)自主控制武器與比例原則
根據比例原則的要求,自主控制武器造成的傷害需要低于取得的軍事利益。在武裝沖突中,影響軍事行動所造成損失的范圍由多重因素決定,人為指令下的軍事行動在沒有合理規劃的情況下,極容易違反比例原則,而自主控制武器通過人工智能進行技術分析,往往能夠更迅速地模擬出打擊后的傷害范圍,對違反比例原則的軍事行動方案加以避免,保證附帶傷害與預期軍事利益之間的平衡性。即便其計算存在一定的誤差,在多數情況下,自主控制武器比人為指揮的軍事行動更能遵循比例原則。
(二)自主控制武器與區分原則
區分原則要求平民和民用物體等不得作為軍事目標,自主控制武器發起的攻擊也需要對該類受保護主體加以避免。毫無疑問,人工智能在數據庫支持下比人類更容易分辨出醫院、古跡等這類受到國際人道法保護的民用物體。國際人道法將平民定義為沒有直接加入武裝沖突的人,這一概念本就不夠明確,就更提高了自主控制武器的技術要求。但是,人工智能技術如果滿足了這一要求,其也就不違反區分原則的要求。
綜上,在人工智能技術發展到足夠成熟的情況下,自主控制武器在戰爭中的運用便不違反國際人道法的規定。
四、人工智能技術對國際人道法的挑戰
雖然自主控制武器的可以在戰爭中被合法運用,但是一旦其造成過分損失或因技術失誤造成不符合國際人道法規定的后果,對責任主體的確定便成為一個關鍵。顯然,載有人工智能技術的自主控制武器不能以被告身份登上軍事法庭。
根據前述內容,自主控制武器的使用在具備合法性的情況下,武器的生產者和技術的開發者也不應承擔刑事責任。而在武裝沖突中,自主控制武器的使用應當是需要經過指揮官批準的,那么指揮官是否需要對自主控制武器造成的不當后果造承擔責任呢?
根據《犯罪要件》,各個罪名的成立都需要以“故意”來作為主觀方面的構成要件。而與我國刑法理論不同的是,此處的故意只要求犯罪嫌疑人希望或者追求犯罪結果的發生,并對發生的結果有清醒的認識,類似我國刑法上的直接故意,又或是犯罪嫌疑人意識到自己的作為或者不作為將使危害結果不可避免。而自主控制武器在發起攻擊時,脫離指揮官的控制,其根據人工智能技術將演算出多種軍事行動策略,每個策略都可能會造成截然不同的后果,指揮官相對于大數據分析,對這些情況的掌握顯然是有限的,很難在主觀層面上談論指揮官對于自主攻擊武器造成的后果存在故意。因此,依照現階段的法律體系,難以針對自主控制武器所造成的違反國際人道法的危害后果確定相關主體的刑事責任。
五、國際人道法的對策
由于自主控制武器主觀上的獨立性,指揮官免除了其采取人工智能技術所帶來的違反國際人道法的危害后果,逃脫了法律制裁,這使受國際人道法保護的主體被置于危險境地,國際人道法的秩序體系也將受到一系列挑戰。
筆者認為,自主控制武器造成了嚴重的危害后果,批準使用這一武器的指揮官難辭其咎,其應當成為責任主體,接受法庭的審判和法律的制裁。首先,國際人道法應當對“故意”這一構成要件進行擴充,將有意或刻意的放任也加入到主觀故意中去,因為指揮官明知自主控制武器是脫離自己的指揮而采取行動的,其借助該項技術來達到軍事目的,就應當對運用自主控制武器這一行為產生的所有后果承擔責任。其次,應當明確負有刑事責任的指揮官應承擔個人責任,自主控制武器不是適格的國際人道法主體,雙方之間不存在上下級關系,引用《羅馬規約》第二十五條,指揮官的行為是單獨實施犯罪。 這兩種做法,成本低,規則明確,能在一定程度上緩解人工智能技術對國際人道法的沖擊。