Sam Altman 承认,OpenAI与国防部的协议“确实仓促”,而且“看起来不太好”。在Anthropic与五角大楼的谈判失败后,总统唐纳德·特朗普指示联邦机构在6个月过渡期内停止使用 Anthropic 的技术。国防部长皮特·赫格塞表示将把该公司视为供应链风险。
随后,OpenAI迅速宣布已达成协议,其模型将在受控环境中部署。尽管Anthropic和Altman都声称其公司设定了相同的红线(如不用于完全自主武器或大规模国内监控),但仍有一些明显的问题:OpenAI是否真的遵守了它的保障措施?为何它能达成协议而Anthropic不能呢?
作为回应,OpenAI的高管们在网上社交平台上为其协议进行辩护,并发布了一篇博客文章概述其方法。实际上,该帖子指出,在三个关键领域内,OpenAI 的模型将无法使用:大规模国内监控、自主武器系统以及“高风险自动化决策(例如‘社会信用’系统)”。与其它减少或移除安全护栏并主要依赖使用政策作为国家安全部署中的主要保障的公司不同,OpenAI表示其协议通过更广泛、多层次的方法保护了这些红线。“我们保留完整的安全体系裁量权,在云端部署时有经过审核的 OpenAI 人员参与其中,并且我们拥有强有力的合同保护。”博客文章如此说道,“这还有助于美国现有法律的强大保护措施。”
随后,Techdirt 的 Mike Masnick 声称该协议“确实允许进行国内监控”,因为提到的数据收集将遵守行政令12333(及其他多项法律)。Masnick 将此描述为“NSA 通过在*美国境外*拦截通信线路来隐藏其国内监控行为,即使这些通讯包含来自或涉及美国人的信息。”
OpenAI 的国家安全合作伙伴负责人 Katrina Mulligan 在 LinkedIn 上发布了一条帖子,表示有关合同语言的讨论假设了“唯一防止美国人受到 AI 用于大规模国内监控和自主武器使用的影响的是国防部与单一合同中的一项单一使用政策条款”。Mulligan 表示,“实际操作架构比合同语言更重要……通过限制我们的部署仅限于云端 API,我们可以确保我们的模型无法直接集成到武器系统、传感器或其他操作硬件中。”
Altman 在 X(原 Twitter)上也回答了关于协议的问题,承认它确实仓促并且引发了对 OpenAI 的大量批评(以至于 Anthropic 的 Claude 已在 Apple App Store 中超越 ChatGPT)。他为什么还要这样做?“我们真的很想缓和局势,我们认为这份协议对我们来说是好的。”Altman 说,“如果我们的预测正确,并且该协议有助于缓解国防部与行业之间的紧张关系,我们将被视为天才,而一家为了帮助行业发展而承受大量痛苦的公司。如果不成功,我们仍然会被称为仓促行事并且不够谨慎。”
安东尼·哈是 TechCrunch 的周末编辑。此前,他在 Adweek 担任科技记者,在 VentureBeat 担任高级编辑,在霍利斯特自由派报担任地方政府记者,并在一家风投公司担任内容副总裁。他现居住于纽约市。
欲了解 Founder Summit 2026 的更多信息,请注册并获得高达 $300 的门票折扣。立即注册
推荐意见