随着人工智能技术的飞速演进,安全边界的防守已成为大模型厂商的核心战场。近日,OpenAI 正式宣布启动针对下一代模型 GPT-5 的“生物安全漏洞赏金计划”。此举旨在通过邀请全球顶尖研究人员进行压力测试,提前识别并修复潜在的生物安全风险。
在该计划中,研究人员被鼓励尝试利用“通用越狱提示词”来测试 GPT-5 的安全护栏。其核心目标是评估模型是否可能被利用来获取、制造或传播具有生物危害性的物质。如果研究人员能成功绕过安全机制并证明其潜在威胁,OpenAI 将提供最高达 2.5 万美元的奖金。
此次赏金计划的推出,再次彰显了 OpenAI 在应对人工智能带来的极端风险时的预警意识。随着大模型理解能力的增强,如何防止其成为生物恐怖主义或非法生化实验的“数字助手”,已成为全球监管机构与技术开发者共同面临的严峻挑战。
🔗 来源:OpenAI
推荐意见