本周,人工智能前沿实验室 Anthropic 宣布,将限制其最新模型 Mythos 的发布范围。官方给出的理由是:该模型在发现全球关键软件漏洞方面的能力过于强大,存在潜在的安全风险。因此,Antholog 决定不向公众开放,而是仅向包括亚马逊云服务(AWS)和摩根大通(JPMorgan Chase)在内的关键基础设施运营商提供访问权限。
这种“选择性开放”并非孤例。据报道,OpenAI 也在考虑针对其下一代网络安全工具采取类似的策略。表面上的逻辑十分清晰:通过让大型企业先行掌握防御手段,从而领先于那些试图利用先进大语言模型(LLM)渗透安全软件的恶意攻击者。然而,这一策略背后的深层意图,可能远不止“网络安全”这一层含义,更像是一场精心策划的商业防御战。
技术层面的质疑声同样不绝于耳。AI 网络安全实验室 Irregular 的首席执行官 Dan Lahav 此前曾指出,AI 发现漏洞本身固然重要,但漏洞是否具有实际的攻击价值,取决于其能否被串联成完整的攻击链。此外,初创公司 Aisle 也表示,利用较小的开源权重模型,也能实现与 Mythos 相当的性能。这意味着,Mythos 并非网络安全领域的“唯一终极方案”,其核心竞争力可能并非不可替代。
由此,一个更具商业色彩的解释浮出水面:限制发布正在为大型企业合同创造一种“飞轮效应”。通过将顶尖模型锁定在企业级协议内,Anthropic 实际上切断了小型实验室通过“知识蒸馏”(Distillation)技术低成本复制其模型的能力。正如软件工程师 David Crawshaw 所言,这实际上是为防止模型被蒸馏而披上的“营销外衣”。当顶尖模型不再对公众开放时,小型实验室将被迫处于追随者的地位,而巨头们则能通过不断迭代的、仅限企业的专属版本,确保企业级市场的利润持续增长。
当前的 AI 生态正处于一场激烈的拉锯战中:一方是致力于开发超大规模、超强能力的顶尖实验室;另一方则是依赖多种模型组合、并试图通过开源路径获取经济优势的竞争者。为了应对“蒸馏”带来的威胁,Anthropic、Google 和 OpenAI 等巨头甚至已开始联手,旨在识别并阻断此类行为。对于这些实验室而言,阻断蒸馏不仅是维护技术领先地位的必要手段,更是其商业模式能否在利润化时代存续的关键。
无论 Mythos 的发布策略究竟是为了保护互联网安全,还是为了捍卫其商业利益,其结果都将深远地影响 AI 行业的格局。Anthropic 尚未对“限制发布是否与防范蒸馏有关”做出正面回应,但不可否认,他们已经找到了一种既能维护互联网安全、又能保护自身利润底线的巧妙手段。
推荐意见