致命的人工智能武器来了: 我们如何控制它们?

极光欣色2024-04-29 14:12:30  111

2023年3月,乌克兰顿巴斯地区,一名乌克兰士兵正准备一架携带手榴弹的无人机准备发动袭击。资料来源:Getty

在俄罗斯和乌克兰的冲突中,视频画面显示,无人机深入俄罗斯领土,距离边境1000多公里,并摧毁了石油和天然气基础设施。专家表示,人工智能(AI)很可能正在帮助指导无人机瞄准目标。对于这种武器,没有人需要扣动扳机或做出引爆的最后决定。

包括配备人工智能的无人机在内的致命自主武器(LAWs)的开发正在增加。例如,美国国防部迄今已为其“复制者”(Replicator)计划拨款10亿美元,该计划旨在建立一支小型武器化自动驾驶汽车车队。实验用的潜艇、坦克和舰船都使用人工智能来驾驶和射击。商用无人机可以使用人工智能图像识别来锁定目标并将其炸毁。法律不需要人工智能来操作,但这项技术增加了速度、特异性和逃避防御的能力。一些观察人士担心,在未来,任何派系都可能派出大批廉价的人工智能无人机,利用面部识别技术除掉某个特定的人。

战争是人工智能的一个相对简单的应用。“一个系统找到一个人并杀死他们的技术能力比开发一辆自动驾驶汽车要容易得多。这是一个研究生项目,”加州大学伯克利分校(University of California, Berkeley)的计算机科学家、反对人工智能武器的知名活动家斯图尔特?拉塞尔(Stuart Russell)表示。2017年,他帮助制作了一个名为“屠杀机器人”的病毒视频,突出了可能存在的风险。

人工智能在战场上的出现引发了研究人员、法律专家和伦理学家之间的争论。一些人认为,人工智能辅助武器可能比人类制导武器更准确,可能会减少附带损害——比如平民伤亡和对居民区的破坏——以及士兵死亡和致残的数量,同时帮助脆弱的国家和群体自卫。其他人则强调,自主武器可能会犯下灾难性的错误。许多观察人士对将目标定位决策交给算法有首要的道德担忧。

2023年7月,联合国安理会讨论了人工智能武器问题。图片来源:Bianca Otero/Zuma/eyevine

多年来,研究人员一直在努力控制这种新威胁。现在,联合国已经迈出了关键的一步。去年12月的一项决议将法律议题列入今年9月的联合国大会议程。联合国秘书长António古特雷斯去年7月表示,他希望到2026年禁止无人监督的武器。马萨诸塞州剑桥市哈佛大学法学院的人权律师邦妮·多彻蒂(Bonnie Docherty)说,在十多年来进展甚微的情况下,将这一议题纳入联合国议程具有重要意义。“外交行动缓慢,但这是重要的一步,”她说。

专家表示,此举为各国在人工智能武器问题上采取行动提供了第一条切实可行的途径。但这说起来容易做起来难。这些武器引发了一些棘手的问题,比如人的能动性、问责制,以及官员应该在多大程度上把生死决定外包给机器。

在掌握之中吗?

控制和规范武器使用的努力可以追溯到几百年前。例如,中世纪的骑士们同意不用长矛瞄准对方的马。1675年,交战的法国和神圣罗马帝国同意禁止使用毒弹。

如今,对武器的主要国际限制是通过1983年的《联合国特定常规武器公约》(UN Convention on Certain Conventional Weapons,简称CCW),该条约曾被用于禁止激光致盲武器。

这种或那种自主武器至少已经存在了几十年,包括热追踪导弹,甚至可以追溯到美国内战的压力触发地雷(取决于自主性的定义)。然而,现在人工智能算法的开发和使用正在扩大它们的能力。

自2013年以来,《常规武器公约》一直在正式调查人工智能武器,但由于需要国际共识才能通过法规,而且许多积极开发这项技术的国家反对任何禁令,因此进展缓慢。今年3月,美国主办了《负责任军事使用人工智能和自主的政治宣言》(Political Declaration on Responsible Military Use of Artificial Intelligence and Autonomy)的首次全体会议,这是一项平行的努力,强调最佳实践的自愿指导方针,而不是法律上可强制执行的禁令。

部分问题在于对法律到底是什么缺乏共识。2022年的一项分析发现,北大西洋公约组织(NATO)等国家和组织提出了至少十几个自主武器系统的定义。罗素说,这些定义涵盖范围很广,对人工智能的共识有限,甚至对人工智能的理解也有限。

例如,英国表示,LAWs“能够理解更高层次的意图和方向”,而中国则表示,这种武器可以“自主学习,以超出人类预期的方式扩展其功能和能力”。伊斯雷尔宣称:“我们应该远离机器发展、创造或激活自己的想象——这些应该留给科幻电影。”德国将“自我意识”作为自主武器的必要属性——大多数研究人员表示,这种品质即使不是完全不可能,也与今天的人工智能相差甚远。

“这意味着武器必须在早上醒来,决定自己去攻击俄罗斯,”罗素说。

尽管需要制定一个更全面、更具体、更现实的法律定义,但一些专家表示,这可以等待。“传统上,在裁军法中,尽管这是违反直觉的,但实际上他们经常在谈判中最后做出定义,”多赫蒂说。一个可行的定义通常足以启动这一进程,并有助于缓和反对采取行动的国家最初的反对意见。

人工智能的优势

根据奥登塞南丹麦大学战争研究中心(University of Southern Denmark)于2023年发布的一份分析报告,目前军队指挥官可以使用的由人工智能制导的自主武器相对粗糙——行动缓慢、笨拙的无人机,配备了足够的炸药,可以炸毁自己和目标。

这些“四处游荡的弹药”有飞机模型那么大,价值约5万美元,能携带几公斤炸药到50公里外,足以摧毁一辆汽车或杀死个别士兵。这些弹药使用机载传感器监测光学、红外或无线电频率来探测潜在目标。人工智能将这些传感器输入与预先指定的坦克、装甲车和雷达系统以及人类的轮廓进行比较。

观察人士表示,与遥控无人机相比,这些自主炸弹提供的最显著优势是,如果对方拥有干扰电子通信的设备,它们仍然可以工作。自主操作消除了远程操作人员被敌人追踪和攻击的风险。

尽管有传言称,2020年自主弹药在利比亚杀死了战斗人员,但来自乌克兰冲突的报道证实了人工智能无人机现在正在使用的观点。罗素说:“我认为,在乌克兰,他们已经开始使用完全自主的武器,因为电子干扰非常有效。”乌克兰的雅罗斯拉夫·洪查尔(Yaroslav Honchar)等军事指挥官表示,该国“已经在没有人为干预的情况下进行了完全的机器人行动”。

很难知道人工智能武器在战场上的表现如何,很大程度上是因为军方不公布此类数据。去年9月,在英国议会的一次调查中,当被直接问及人工智能武器系统时,英国战略司令部(UK Strategic Command)副司令汤姆?科彭格-赛姆斯(Tom Copinger-Symes)没有透露太多信息,只是说英国军方正在进行基准研究,将自主系统与非自主系统进行比较。他说:“不可避免地,你想要检查一下,与让10个图像分析师看同一件事的老式系统相比,这种系统是否物有所值。”

尽管现实世界的战场数据很少,但研究人员指出,人工智能具有卓越的处理和决策能力,理论上,这将提供显著的优势。例如,在快速图像识别的年度测试中,算法的表现超过了人类专家的表现近十年。例如,去年的一项研究表明,人工智能可以比人类专家更快、更全面地发现科学论文中的重复图像。

2020年,一个人工智能模型在一系列模拟空战中击败了一名经验丰富的F-16战斗机飞行员,这要归功于“人类飞行员无法比拟的激进和精确的操作”。然后,在2022年,中国军事研究人员表示,一架由人工智能驱动的无人机战胜了一架由地面操作员远程驾驶的飞机。这架人工智能飞机爬上了对手的机尾,进入了一个可以将其击落的位置。

美国空军的X-62A VISTA飞机已被用于测试自主代理执行先进空中机动的能力。图片来源:美国空军图片

华盛顿战略与国际研究中心(Center for Strategic and International Studies)的安全分析师扎克?卡伦伯恩(Zak Kallenborn)表示,人工智能无人机可以“围绕如何执行特定的演习、飞得离对手多近以及攻击角度做出非常复杂的决定”。

不过,卡伦博恩表示,目前还不清楚人工智能武器能带来什么重大的战略优势,尤其是在双方都能获得人工智能武器的情况下。他说:“问题的很大一部分不在于技术本身,而在于军队如何使用这项技术。”

从理论上讲,人工智能也可以用于战争的其他方面,包括编制潜在目标的清单;例如,媒体报道引发了人们的担忧,即以色列利用人工智能创建了一个包含数万名武装分子嫌疑人姓名的数据库,尽管以色列国防军在一份声明中表示,它没有使用“识别恐怖分子特工”的人工智能系统。

沙地上的分界线

通常用来评估自主武器伦理的一个关键标准是它们的可靠性以及可能出现问题的程度。例如,2007年,英国军方匆忙重新设计了用于阿富汗的自主硫磺导弹,因为担心它可能会把一辆校车的学生误认为是一卡车叛乱分子。

Kallenborn说,人工智能武器可以相当容易地锁定红外或强大的雷达信号,将它们与数据库进行比较,以帮助确定什么是什么。Kallenborn说:“这相当有效,因为一个走在街上的小孩不会在他的背包里有一个大功率的雷达。”这意味着,当人工智能武器探测到战场上雷达信号的来源时,它可以在伤害平民的风险很小的情况下进行射击。

但他说,视觉图像识别问题更大。Kallenborn说:“如果它基本上只是一个像相机一样的传感器,我认为你更容易出错。”尽管人工智能擅长识别图像,但它并不是万无一失的。他说,研究表明,对图片的微小改变会改变神经网络对它们进行分类的方式,比如让它们把飞机和狗搞混。

伦理学家的另一个可能的分界线是如何使用武器:例如,攻击还是防御。先进的自主雷达制导系统已经用于保护海上船只免受快速来袭目标的攻击。英国兰开斯特大学(Lancaster University)的社会学家露西·萨奇曼(Lucy Suchman)研究人与机器之间的相互作用,她说,伦理学家对这种自主武器更放心,因为它针对的是军械而不是人,而且这种信号很难被错误地归因于其他任何东西。

研究人员和军方普遍提出的一个原则是,自主武器应该有一个“人在循环”。但人们应该或必须在何处以及如何参与,仍有待讨论。包括Suchman在内的许多人通常将这个想法解释为,在授权攻击之前,人类特工必须在视觉上核实目标,并且必须能够在战场条件发生变化时取消攻击(例如,如果平民进入战区)。但这也可能意味着,人类在释放武器之前,只是对目标的描述进行了编程——这是一种被称为“发射后忘记”的功能。

一些系统允许用户根据具体情况在完全自主和人工辅助模式之间切换。萨奇曼和其他人说,这还不够好。“要求人类禁用自动功能并不构成有意义的控制,”她说。

完全自治的想法也搅浑了问责制。多彻蒂说:“我们非常担心自主武器系统的使用会陷入问责制的空白,因为很明显,你不能让武器系统本身承担责任。”她补充说,让运营商对一个自主运行的系统的行为负责,在法律上也是具有挑战性的,而且可以说是不公平的。

罗素建议“在机载计算和发射电路之间没有通信”。这意味着发射必须由远程操作人员激活,而不能由人工智能激活。

罗素说,在法律讨论中,至少有一点(几乎)每个人似乎都同意:甚至包括美国和中国在内的普遍反对控制的国家也表示,包括人工智能在内的自主代理不应该参与发射核武器的决定。

然而,俄罗斯在这个问题上似乎更为谨慎。人们普遍认为莫斯科重启了冷战时期的“周边”计划,至少在理论上,该计划可以在无人监督的情况下对西方发动首次核打击。美国和中国在有关自主武器的各种会谈中都提出了这个问题,许多人说,这可能会给俄罗斯施加压力,迫使其改变战略。

管理系统

Kallenborn说,不幸的是,任何禁止使用LAWs的禁令都很难通过检查和观察来执行——这是一种经典的“信任但验证”的方法,通常用于其他受管制的武器。

以核武器为例,有一个完善的核材料现场检查和审计系统。但有了人工智能,事情就更容易隐藏或改变。“这可能就像改变几行代码一样简单,说,好吧,现在机器决定去炸毁它。或者,你知道,删除代码,然后在军备控制检查员到达时将其重新插入。”“这需要我们重新思考如何看待武器系统和军备控制方面的核查问题。”

卡伦博恩说,检查可能不得不从生产时转向生产后。“这些东西会被击落。他们会被抓住的。这意味着你可以进行检查并查看代码。”

从今年9月的联合国大会开始,所有这些问题都将纳入联合国的讨论;奥地利也在4月底召开了一次先驱会议,以帮助启动这些对话。Docherty说,如果有足够多的国家在9月份投票采取行动,那么联合国可能会成立一个工作组来解决这些问题。

多赫蒂补充说,可能在三年内达成一项条约。多赫蒂在联合国2017年《禁止核武器条约》的谈判中发挥了关键作用。“根据我的经验,谈判一旦开始,进展就相对较快。”

转载此文是出于传递更多信息目的。若来源标注错误或侵犯了您的合法权益,请与本站联系,我们将及时更正、删除、谢谢。
https://www.414w.com/read/369352.html
0
最新回复(0)