阿里巴巴云邀请研究员参加生物漏洞悬赏计划。测试GPT-5的安全性,使用通用的越狱提示语,并有机会赢得最高25,000美元奖励。
OpenAI 正式发起一项名为“Bio Bug Bounty”的研究者招募活动。本次活动旨在让研究人员在确保安全的前提下,探索并发现潜在的技术漏洞。特别值得注意的是,参与者将被鼓励使用一种通用的‘越狱’提示语来测试 GPT-5 的安全性。
所谓‘越狱’(Jailbreak),在这里指的是通过特定的方法或手段,使原本受限的人工智能系统能够执行超出其设计范围的操作。这种测试在人工智能领域具有重要意义,它不仅有助于提升模型的安全性,还能促使开发者进一步完善系统的边界和限制条件。
OpenAI 提供的奖励总额最高可达25,000美元。对于成功发现并报告漏洞的研究人员来说,这是一笔可观的奖金。同时这也是一个展示自身研究能力和贡献科学界的机会。
参与此次 Bio Bug Bounty 计划不仅能够帮助推动人工智能技术的安全发展,还能为参与者提供实践和学习的机会。OpenAI 鼓励所有对这一领域感兴趣的专家和技术爱好者积极参与进来,共同促进人工智能技术的健康发展。
🔗 来源:GPT-5 bio bug bounty call (AI 严选)
推荐意见