以色列如何在加沙使用人工智能——这对未来的战争意味着什么
2025-04-29 17:59

以色列如何在加沙使用人工智能——这对未来的战争意味着什么

  

  人工智能战争可能会让人联想到杀手机器人和自主无人机,但在加沙地带,一种不同的现实正在展开。在那里,人工智能一直在为以色列的报复行动提供建议,以根除哈马斯在2023年10月7日发动的袭击。一个名为“福音”(The Gospel)的程序为武装分子可能活动的建筑和结构提供建议。“薰衣草”程序可以识别哈马斯和其他武装组织的嫌疑成员,上至指挥官,下至步兵。“爸爸在哪里?据报道,通过追踪他们的手机来跟踪他们的行动,目的是瞄准他们——通常是在他们的家里,他们的出现被视为对他们身份的确认。随后的空袭可能会杀死目标的所有家人,如果不是公寓大楼里的所有人的话。

  这些以色列国防军(IDF)已经承认正在开发的计划,可能有助于解释21世纪最具破坏性的轰炸行动的速度,据哈马斯管理的加沙卫生部(Gaza Health Ministry)称,有超过44,000名巴勒斯坦人在轰炸中丧生,美国和联合国认为该部门的统计数据是可靠的。在早期的加沙战争中,以色列退伍军人说,空袭发生的速度要慢得多。耶路撒冷希伯来大学讲师、以色列国防军前法律顾问塔尔·米姆兰(Tal Mimran)告诉《时代》杂志:“在我在目标室工作期间(2010年至2015年),你需要一个由大约20名情报官员组成的团队,工作大约250天,收集200到250个目标。”“今天,人工智能将在一周内做到这一点。”

  战争法专家已经对人工智能在军事领域的出现感到震惊,他们担心,人工智能在加沙和乌克兰的使用,可能会建立危险的新规范,如果不受到挑战,这些规范可能会成为永久性的。

  管理武装冲突的条约在涉及用于实现军事效果的工具时没有具体规定。涵盖战争的国际法要素——比例性、预防措施以及平民和战斗员之间的区别——适用于所使用的武器是弓弩还是坦克,还是人工智能驱动的数据库。但包括红十字国际委员会(International Committee of the Red Cross)在内的一些倡导者认为,人工智能需要一项新的法律文书,并指出随着人工智能武器系统变得更加先进,确保人类控制和问责的必要性至关重要。

  “技术的发展速度远远超过了政策的发展速度,”新美国安全中心执行副总裁、《无人之军:自主武器与战争的未来》一书的作者保罗·沙雷说。“实际上,与不久的将来可能出现的人工智能系统相比,我们迄今为止看到的人工智能系统类型很可能相当温和。”

  以色列国防军在加沙使用的人工智能系统一年前首次在以色列在线新闻媒体+972杂志上详细报道,该杂志与《卫报》分享了这一报道。调查背后的以色列记者和电影制作人尤瓦尔·亚伯拉罕告诉《时代周刊》,他认为“有系统地轰炸私人住宅”的决定是“造成加沙平民伤亡的首要因素”。他强调说,这个决定是由人类做出的,但他说,人工智能瞄准项目使以色列国防军“采取了这种极其致命的做法,然后将其大规模扩大。”亚伯拉罕的报告是根据他与六名在10月7日之后在加沙行动中有第一手经验的以色列情报官员的谈话得出的。亚伯拉罕援引目标官员的话说,他们发现自己听从了拉文德计划,尽管他们知道该计划在大约10%的情况下会产生错误的目标建议。

  一名负责授权发动袭击的情报官员回忆说,他花了大约20秒的时间亲自确认目标,这可能相当于确认目标是男性。

  以色列军方在回应“+972”报告时表示,它对人工智能的使用被误解了,并在6月的一份声明中表示,福音书和拉文德只是“帮助情报分析师审查和分析现有信息”。它们不是确定有资格攻击目标的唯一依据,它们也不能自主选择攻击目标。”在五月份耶路撒冷的一次会议上,一位高级军事官员试图将这些工具的重要性降到最低,他将其比作“美化的Excel表格”,米姆兰和另一位与会者告诉时代周刊。

  以色列国防军并没有特别反驳亚伯拉罕关于拉文德的误误率为10%的报道,也没有特别反驳分析员可能只花20秒就能分析目标的说法,但在给《时代周刊》的一份声明中,一名发言人表示,分析员“根据国际法和以色列国防军指令中规定的额外限制,核实所识别的目标符合相关定义。”

  将数据转换成目标清单并不违反战争法。事实上,西点军校(West Point)的一位学者在评估以色列的项目时发现,信息越多,准确性越高。根据当代的一些说法,以色列上一次在2021年对加沙发动战争可能就是这种情况。这场短暂的冲突显然标志着以色列国防军第一次在战争中使用人工智能,之后,联合国近东救济工程处(UNRWA)当时的负责人评论说:“以色列军队在过去11天里的袭击方式非常复杂。”UNRWA是联合国为巴勒斯坦人提供卫生、教育和宣传的机构。但导致232名巴勒斯坦人死亡的2021年的一轮战斗是另一种战争。这场战斗是在以色列交战规则下进行的,表面上是为了尽量减少平民伤亡,包括“敲门”——在建筑物的屋顶上扔一个小炸弹,警告居住者房屋即将被摧毁,应该撤离。

  目前的战争是14个多月前为报复大屠杀以来对犹太人最严重的袭击而发动的。在这场战争中,以色列领导人切断了加沙所有地区的供水和供电,在短短五天内发动了6000次空袭,并暂停了一些旨在限制平民伤亡的措施。“这一次我们不会“敲屋顶”并要求他们撤离家园,”前以色列军事情报局长阿莫斯·亚德林在10月7日五天后告诉时代周刊,警告说未来几周在加沙将是“非常血腥的”。“我们将攻击每一个哈马斯成员,特别是哈马斯领导人,确保他们在考虑攻击以色列之前三思。”亚伯拉罕报告说,目标官员被告知,为了杀死一名哈马斯士兵,可以杀死15到20名非战斗人员(他报告说,在以前的冲突中,这个数字是零),为了杀死一名指挥官,可以杀死多达100名平民。以色列国防军没有对这些数字发表评论。

  专家警告说,随着人工智能产生目标,死亡人数可能会攀升到更高。他们引用了“自动化偏见”——假设人工智能提供的信息是准确可靠的,除非有其他证明,而不是相反。亚伯拉罕说,他的消息来源报告了他们做出这种假设的次数。亚伯拉罕说:“是的,确实有人参与其中,但如果人工智能在做出决定后的最后阶段才来,如果它只是一个正式的橡皮图章,那么它就不是有效的监督。”在10月7日之前六个月,以色列国防军前参谋长阿维夫·科查维在接受以色列新闻网站Ynet采访时也发表了类似的看法。“我们担心的不是机器人会控制我们,”他说,“而是人工智能会取代我们,而我们甚至没有意识到它正在控制我们的思想。”

  国家安全法博客Just security的执行主编、《战争中的法律与道德》(law and Morality at War)一书的作者阿迪勒·哈克(Adil Haque)描述了这种紧张关系。“这里的心理动态与法律标准背道而驰,”他说。“法律上的假设是,除非你有非常有力的证据证明他们是合法的目标,否则你不能攻击任何人。但从心理上讲,这些系统的影响可能会让你认为这个人是合法的目标,除非有一些非常明显的迹象表明你独立地表明他们不是。”

  以色列并不是唯一一个在军事中使用人工智能的国家。乌克兰有数十家国防科技公司在运营,硅谷公司Palantir技术公司的首席执行官在2023年告诉《时代》杂志,该公司开发的软件“负责大部分针对”俄罗斯的目标,并描述了向指挥官提供根据卫星、无人机、开源数据和战场报告编制的目标选择的程序。与以色列一样,专家指出,乌克兰对人工智能的使用“主要是支持和信息作用”,从人工智能驱动的火炮系统到人工智能制导的无人机,各种正在试验的技术尚未完全自主。但对潜在滥用的担忧比比皆是,尤其是在准确性和隐私问题上。

  人工智能政策专家、创新治理研究所所长、乌克兰数字化转型部的非政府组织和监督机构Anna Mysyshyn告诉《时代》杂志,虽然面部识别系统Clearview AI等“两用技术”在乌克兰的国防中发挥着重要作用,但人们仍然担心它们在战争之外的用途。她说:“我们正在讨论……如何在使用在战场上具有优势的技术与保护人权之间取得平衡。”她指出,“由于需要平衡军事需要与保护平民之间的关系,对这些技术的监管变得复杂。”

  由于战斗主要局限在战场上,俄罗斯和乌克兰军队都在战场上坚守阵地,在加沙引发辩论的问题并没有成为焦点。但是,任何拥有先进军事力量的国家——包括美国——都可能很快面临机器学习带来的问题。

  佛蒙特州参议员彼得·韦尔奇在给《时代》杂志的一份声明中说:“国会需要准备好对人工智能技术设置护栏,尤其是那些对国际人道主义法提出质疑并威胁到平民的技术。”今年9月,他和伊利诺伊州参议员迪克·德宾(Dick Durbin)给国务卿安东尼·布林肯(Antony Blinken)写了一封信,敦促国务院“积极和公开地参与制定有关人工智能技术伦理部署的国际规范”。韦尔奇还提出了他提出的人工智能武器责任和风险评估(AWARE)法案,该法案如果通过,将要求国防部对人工智能系统的国内部署、与之相关的风险以及这些技术的任何外国共享或出口进行分类。

  韦尔奇说:“有必要采取更全面和公开的方法来应对人工智能武器的风险,保持美国在道德技术发展方面的领导地位,并在这一关键领域建立国际规范。”

  任何政府似乎都不太可能找到动机来引入限制,同时限制本国军队在这一过程中的进步。“我们以前就这么做过,”红十字国际委员会技术政策顾问亚历克西?德鲁(Alexi Drew)反驳道,他指的是有关裁军、集束弹药和地雷的条约。“当然,这是一个非常复杂的挑战,但并非不可能实现。”

本内容为作者翻译自英文材料或转自网络,不代表本站立场,未经允许不得转载
如对本稿件有异议或投诉,请联系本站
想要了解世界的人,都在 世腾网

相关推荐