作者:Aurora Weiss
维也纳(INPS Japan)– 包括来自144个国家/地区、国际组织、工业界、学术界、科学界和民间社会的代表在内的1000多名嘉宾齐聚维也纳,讨论如何监管自主武器系统。主题为“站在十字路口的人类:自主武器系统和监管挑战”的首届自主武器系统国际会议于2024年4月29日至30日举行,由奥地利外交部筹办。
通过引入人工智能,武器的自主性不断增强,从根本上改变了武装冲突。尽管经过多年的努力和讨论,但国际层面尚未实施针对快速技术进步的监管。自主武器系统已经在当前的冲突中得以应用,例如以色列在加沙的战争和俄罗斯对乌克兰的战争。由于在武装冲突中使用人工智能引发了国际法、道德、人道主义和安全方面的严重问题,因此迫切需要进行监管。
自主武器系统将很快遍布世界各地的战场。我们已经通过人工智能无人机和基于人工智能的打击目标筛选见识了这一点。科技正在飞速发展,政策却落后了。我们面临着严重的法律、道德和安全问题:我们如何才能防止将生死决定权交给机器?我们如何处理容易出现错误和偏差的算法?我们如何才能阻止人工智能驱动的军备竞赛并防止这项技术落入恐怖分子之手?再怎么强调其紧迫性也不为过。这是我们这一代人的“奥本海默时刻”。奥地利外交部长 Alexander Schallenberg 在开幕致辞中强调:“现在是时候就确保人类控制的国际规则和规范达成共识了”。他呼吁,每失去一个生命都是令人心
痛的,我们必须始终确保有关生死的决定不是由机器做出的。
奥地利长期以来一直致力于自主武器系统的国际监管,并在该领域发挥着先锋作用。2023年,奥地利协调了联合国关于自主武器系统的第一项决议,强调了进行监管的必要性。制定国际法律和标准需要时间,因为正式通过一项条约通常需要数十年的努力、密切的合作和集体动员。协议签署后还需要有效的支持。
自主武器系统经过预先编程,可以杀死特定的“目标轮廓”。然后,该武器会被部署到这样一种环境中:其中的人工智能使用传感器数据(例如面部识别)搜索“目标轮廓”。自主武器是数字非人化的最极端例子。赋予机器做出生死决定的权力,损害了人类的尊严,剥夺了我们的权利。人类个体没有被视为人,而是被视为物体。当自动武器被激活时,我们并不确切知道它会袭击谁或者什么目标,也不确切知道袭击会在何时何地发生。
奥地利长期以来一直致力于裁军问题和制定具有法律约束力的国际条约,例如挑战现有核秩序的《禁止核武器条约》(TPNW)。奥地利外交部裁军、军控和防扩散司司长 Alexander Kmentt 是促成 TPNW 的人道主义倡议的缔造者之一。会议期间,许多发言者指出,我们再一次处于历史性的奥本海默时刻。我们请 Kmentt 大使解释了核武器和自主武器之间的比较。
Alexander Kmentt 解释说:“对于作为对照的奥本海默时刻,在广岛和长崎之后,包括奥本海默和爱因斯坦在内的许多人都警告过核武器的影响,并推动了监管。如今,已经有资深的人工智能专家对人工智能和自主武器系统可能存在的风险发出警告,并要求监管,但当前的地缘政治局势使得就国际
规则达成一致非常困难。我们必须争取不要错过仍有可能采取预防行动的时机。”
从 Kmentt 等军控专家的角度来看,自主武器系统存在一些重大挑战。武器系统的自主性增加(通过使用人工智能)将从根本上改变武装冲突。我们已经目睹了其中的一些变化。一个主要的问题是机器根据预编程算法做出生死攸关的决定。
一位忧心忡忡的的奥地利外交官说道:“当机器相互学习和交流时,在武器做出此类决定时人类的角色是什么,或者应该是什么?我们已经看到了人工智能军备竞赛的迹象。很快,这些武器将出现在世界各地的许多武器库中,也将落入恐怖分子等非国家行为者的手中。”
目前,还没有具体的规则来应对自主武器系统等武器系统所带来的法律、道德和安全政策挑战。Kmentt 强调,奥地利希望提高这一问题的政治影响力,并推动自主武器系统国际规则的进展。奥地利去年在联合国大会上发起了一项决议,而现在已经主办了这次会议。这是迄今为止专门就这一问题举行的规模最大的国际会议,意义重大。我们希望,这可以推动制定国际规则的政治影响力。我们了解到他对建立《禁止核武器条约》做出了巨大贡献,于是询问他,这次会议是否表明一项关于自主武器系统的条约即将起草。
“目前的挑战是从持续多年的讨论转向就一项条约进行实际谈判。联合国秘书长要求国际社会在2026年之前做到这一点。如果我们进行谈判,我们的目标应该是明确禁止不能按照国际法使用或违反基本道德原则的系统,并以能够维持有意义的人类控制水平的方式监管其他系统”,Alexander Kmentt
总结道。“科技创新日新月异。一些进步已应用于武器开发,从定向能武器到纳米武器或神经武器,再到成群的自主机器人平台。这些发展可能会对维护国际和平与安全、保护人权和实现可持续发展目标的既定规范带来挑战。”
正因如此,Article 36 董事Richard Moyes 认为,维也纳会议对于继续建立国家、国际组织和民间社会之间的合作具有重要意义,而这些合作是实现这些条约所必需的。“停止杀手机器人”是一个由世界各地关注人权、冲突、技术和保护平民的民间社会组织组成的联盟。这是一项由多个组织共同努力推动各国制定新的国际条约的合作。
“我们尚未进入起草条约文本的阶段,但我们正在让不同的合作伙伴建立对签署条约的信心。最终,只有各个国家才能就新的国际法达成一致,但我们可以共同努力,确保大家行动起来”,冲突对平民影响和武器技术国际监管方面的专家 Richard Moyes 向我们透露。
他曾参与制定许多有关武器和冲突的国际法律和政治文书。关于自主武器系统,他认为消除使用武力时的人类控制和责任是一项特殊的威胁。“人会犯错误,人有时会做可怕的事情,但我们所有关于使用武力的法律框架都是建立在人做出决定并承担责任的基础上的。如果我们要在武装冲突中保留法律的概念,我们就需要保持有意义的人类控制。将生死决定权交给机器也会使人丧失人性,会进一步降低对人命的尊重,特别是对于那些已经被边缘化的人来说”,Moyes 说道,他指出在新技术成为普遍问题之前对其进行监管非常具有挑战性。当自主武器成为一个普遍问题时,就为时已晚了。Moyes 强调,法律条约应该禁止那些不能在有意义的人类控制下使用的系统,并制定规则确保在实践中进行控制。还应该禁止直接以人类为攻击目标的自主系统。在他看来,这些都是影响未来技术发展的关键规则。
“一个关键的挑战是,高度军事化的国家不愿接受对其军事选择的任何限制。我们需要让更多的国家划定界限,引导社会朝更安全的方向发展”,英国非政府组织 Article 36 的这位董事告诉我们。
非政府组织国际创价学会 (SGI) 也强调了建立法律框架、尤其是国际条约的重要性,该组织也是停止杀手机器人运动的一部分。
来自日本的 SGI 裁军项目协调员 Hayato Yamashita 呼吁:“因此,我们与越来越多的利益攸关方一起呼吁制定一项国际条约,禁止和规范武器系统的自主性,以便在面对快速发展的技术变革时维护人类的权利和尊严。”
INPS Japan
本文由 INPS Japan 与具有联合国经社理事会咨商地位的国际创价学会联合为您提供。
Translation coordinated by Kevin Lin