过去两周,Anthropic首席执行官达里奥·阿莫德伊与国防部长佩特·赫格塞思之间的冲突定义了这一时期。两人在人工智能(AI)技术用于军事领域的使用上发生了争执。
Anthropic拒绝让其AI模型被用来大规模监视美国人或完全自主的武器系统(无需人类输入),以进行打击决策。与此同时,赫格塞思部长则认为国防部不应该受到供应商规则的限制,并且任何“合法使用”该技术的行为都应被允许。
在周四,阿莫德伊公开表达了Anthropic不会妥协的态度——尽管公司可能会因供应链风险而面临威胁。
然而,在新闻周期快速变化的情况下,重新审视这场战斗的关键所在是有必要的。从根本上来说,这场争执关乎谁控制强大的AI系统——是构建这些系统的公司还是希望部署它们的政府。
如我们所述,Anthropic不希望其AI模型被用于大规模监视美国人或自主武器(没有人类参与目标选择和发射决策)的用途。传统防务承包商通常对其产品的使用方式几乎没有发言权;但自成立之初起,Anthropic就认为人工智能技术带来了独特的风险,因此需要采取独特的保护措施。
从公司的角度来看,问题在于如何在军事应用中维护这些保护措施。美国军队已经依赖高度自动化的系统,其中一些系统是致命的。历史上的决策将使用致命武力的权利留给了人类,但对军用自主武器的法律限制很少。
国防部并没有明确禁止完全自主的武器系统。2023年的一项国防指令表明,AI系统可以在无人干预的情况下选择和攻击目标,只要它们符合某些标准并经过高级防务官员审查。
正是这一点使Anthropic感到不安。军事技术本质上是保密的,因此如果美国军队正在采取步骤自动化致命决策,我们可能直到其投入运营后才会知道。而且,如果它使用了Anthropic的模型,这可以被视为“合法使用”。
Anthropic并不认为此类用途应该永久被排除在外;但它认为其现有模型还不足以安全地支持这些用途。设想一个自主系统错误识别目标、未经授权升级冲突或在无人能逆转的情况下作出瞬时致命决策的情景。将一个不太强大的AI置于武器控制之下,你得到的是一种非常快且极具信心但不擅长应对高风险情况的机器。
AI也有能力大幅强化对美国公民的合法监控。根据现行美国法律,在通过收集文本、电子邮件等通信手段进行监视方面已经存在可能性。
AI改变了这一方程,它能够实现自动化大规模模式检测、跨数据集实体解析、预测风险评分以及连续行为分析。
五角大楼的论点是,国防部应该可以为任何需要的合法用途部署Anthropic的技术,而不应受到如自主武器或监控这样的内部政策的限制。具体而言,赫格塞思部长认为国防部门不应受供应商规则的限制,并且它将进行“合法使用”该技术的行为。
五角大楼首席发言人肖恩·帕尔内尔在周四的X平台上表示,该部门对开展大规模国内监控或部署自主武器不感兴趣。他说:“我们所要求的是:允许国防部出于所有合法目的使用Anthropic的模型。这是一个简单且常识性的请求,它将防止Anthropic危及关键军事行动并可能使我们的战斗人员处于危险之中。
我们将不会让任何公司决定我们在执行决策时应遵循的条款。”他补充说,Anthropic需在东部时间周五下午5:01之前作出决定;否则,五角大楼将终止与Anthropic的合作,并将其视为对防务运营构成风险的供应链风险。
推荐意见