军用无人系统的合法性及未来挑战

发布时间:2018-07-02 来源: 感恩亲情 点击:


  2017年,联合国在日内瓦举行《特定常规武器公约》框架下可致命性自主武器系统第二次正式专家会议,来自联合国《特定常规武器公约》缔约方的几十个国家、地区和国际组织(包括如联合国裁军研究所、国际红十字委员会等)参加了会议,其中包括中国外交部和国防部也派遣代表参会,与会人员对可致命性自主武器系统特别是其定义以及对伦理道德和国际法的冲击进行了激烈讨论。
  军用无人系统因其零伤亡和对复杂任务的良好适应性,被认为将是继火药和核武器发明之后的革命性武器,它的广泛使用将完全改变现有的战争形态和格局,甚至改变战争的本质,因而受到各国的高度重视。但是,军用无人系统自主性的发展和作战运用对伦理、道德、法律层面所带来的挑战,也引起了国际社会的广泛关注和担忧,国际舆论和立法将深刻影响和制约军用无人系统发展与运用的走向。
  随着人工智能和信息技术发展,技术层面基本上已经不再是制约军用无人系统发展的瓶颈,各种军用无人系统,特别是以无人机为典型的军用无人系统已广泛应用到军事领域并在反恐领域取得实效。可致命性自主武器系统就是在无人化平台上搭载可致命性武器载荷的军用无人系统。
  一些激进的和平组织和人士将自主武器系统称呼为“杀人机器人”。研究国际社会对军用无人系统发展的方向舆论,特别是其在伦理道德以及国际法层面所带来的挑战,可以对未来军用无人系统发展趋势做出有意义和有效的前瞻,对于我国和军队发展运用军用无人系统、合理规避国际争议,具有一定的战略价值。
  以美国为例,美国的地面无人系统,如角斗士多用途无人战车已大量列装海军陆战队。执行侦察、战场运输和排雷等任务的专用机器人如第一眼、非洲猎豹等也投入了使用。海上方面,美国研发了多种可长时间自主巡逻海岸、港口并识别可疑船只的无人巡逻艇,正在试验的无人潜航器可执行侦察监视、探雷扫雷和攻击等任务。无人机方面,1995年7月,捕食者无人机首次加入巴尔干地区的军事行动以来,美军的无人机已被先后部署到本土以外的8个国家。特别是“9·11”事件以后,美国开始在全球部署可致命性无人机。据美国智库机构新美国基金统计,2004年—2013年,无人机在巴基斯坦和也门共执行过428次攻击任务,造成2439~3982人死亡;其中在巴基斯坦境内攻击355次,造成2003~3321人死亡。在2017年5月份召开的致命性自主武器系统专家会议上,巴基斯坦用了长达5页纸的内容表达了对未来自主武器系统的深切担忧。

现有军用无人系统的合法性问题


  研究现有军用无人系统的合法性问题,有效运用和发展现有军用无人系统技术是十分必要的。对现有的军用无人系统,可将其分为非致命性军用无人系统和可致命性军用无人系统分别进行讨论。
  非致命性军用无人系统的合法性问题。一般来讲,非致命性军用无人系统多应用于侦察监视、障碍物清除、搜索营救、爆炸物拆除、生物化学武器探测等非战争军事行动和反恐领域。通过应用这些非致命性军用无人系统,可以使原本需要由士兵执行的任务由无人系统来执行,有效降低士兵伤亡率;一些不适宜由人类执行的复杂环境的任务也可以交由无人系统执行,提高任务效率。很多技术专家强调机器人技术的“双重使用属性”,强调不能因为害怕致命性自主武器系统的潜在威胁就停止发展人工智能和自主系统,因为它们可以很完美地应用在民事领域以及非战争军事行动中,“可以给我们的生活带来积极的改变”。
  现有可致命性军用无人系统的合法性问题。现有致命性军用无人系统都是由人类远程操控进行的,一般认为,目前尚未出现完全意义的致命性自主武器系统。对于现有致命性军用无人系统的合法性,国际社会颇有争议。“探讨致命性军用无人系统的合法性,一般是看该种新形式、新手段的武器是否严格遵守军事冲突的国际法律”。所有这些新武器都必须严格遵守国际人道主义法的基本规定,包括区分原则、比例原则、军事必须原则以及人权原则。
  《1949年8月12日日内瓦公约关于保护国际性武装冲突受难者的附加议定书》(第一议定书)就区别原则和比例原则做出了规定,要求攻击行动应限于军事目标,平民和平民目标不得作为攻击目标,并且禁止实施可能给平民生命、健康、财产或三者同时造成意外损害,与预期的具体和直接军事利益相比损害过大的攻击。以攻击型无人机为例,它是由战斗人员进行操控并下达攻击命令,其本身并不能自主飞行(仅在无人机与操作人员失去联系的时候,无人机才会加载自动飞行模块进行自动返航)和攻击。其作战的军事必须性是由作战司令部或者作战指挥员决定和负责。战斗人员通过远程画面对敌方战斗人员和平民进行区分然后攻击。攻击使用的是挂载的导弹,与一般飞机无异。
  因此,承担战争责任的决策者和行为主体都是明确的,武器使用的也是常规的导弹,我们可以认為现有的以攻击型无人机为典型的可致命性军用无人系统本身是合法的。
  但是正如奥地利专家担忧的:“我们非常怀疑一个预先程序化的无人武器系统能够在一个人类远程的控制下,通过人类对情况的判断,做出准确而必要的决定。也就是说,如何让我们相信杀伤性的武力是否是在某个人类控制下,针对每个情况,理性而准确的做出决定,从而使该个人类能够在国际法约束下履行责任。”这种担忧是有道理的,因为比例原则的根本意义在于当保护不可能是绝对的时候,应秉承善意,用人道和军事需要这两项原则互相制约,从而达到最大程度保障无辜平民生命权的目的。
  然而基于两方面的原因,可致命性无人系统可能更容易造成不必要和不成比例的平民伤亡。一是军用无人系统给攻击策划者和实施者创造一个与现实割裂的虚拟的战场环境,难以让操作人员全面掌握真实而准确的战场信息,尤其是在准确辨识攻击目标方面。二是操控者置身事外的心态不利于其以克制的情绪操控武力。有操控者在接受媒体采访时表示,按下导弹发射按钮的那一刻是他最有成就感的时候。操控者在进行操作的时候可能会形成一种进行电玩游戏的心态,其动用武力的意愿在不经意间就遭到了强化,有可能对平民等非军事目标造成不必要的伤害。

相关热词搜索:性及 合法 挑战 未来 系统

版权所有 蒲公英文摘 www.zhaoqt.net