随着大模型技术的迭代演进,如何在大规模能力释放的同时构建严密的防御体系,已成为行业关注的核心议题。近日,GPT-5.1-Codex-Max 的系统卡片正式发布,详细披露了该模型在安全性构建方面的多维防御布局。
在模型层级的防御机制方面,开发者采用了更为精细化的安全训练方案。通过针对性地模拟有害任务场景及提示词注入攻击,该模型已在底层逻辑中强化了对恶意指令的识别与拦截能力,旨在从源头上降低模型产生违规内容的风险,提升模型的鲁棒性。
除了模型本身的加固,GPT-5.1-Codex-Max 还引入了产品层级的多重防护手段。其中,“智能体沙箱化”技术与“可配置的网络访问权限”成为了关键防线。通过将智能体运行环境隔离在受控的沙箱内,并严格限制其网络交互边界,开发者成功构建了一个具备高度可控性的运行生态,从而有效防止了潜在的自动化攻击扩散。
🔗 来源:OpenAI
推荐意见