为了帮助网络安全防御者应对日益复杂的威胁,OpenAI 正在扩大其“可信访问网络安全”(TAC)计划。该计划将向经过验证的防御者和团队提供专门为网络安全任务微调的 GPT-5.4-Cyber 模型。此举基于三大原则:扩大合法用户的访问权限、通过迭代部署谨慎学习、以及投资于整个安全生态系统的韧性。最终目标是利用先进的人工智能工具,让软件开发过程本身变得更安全,从而系统性地提升网络防御能力。
扩大对防御者的支持
AI 技术既能帮助防御者更快地发现和修复问题,也可能被攻击者利用。为此,OpenAI 正在采取行动,通过 Trusted Access for Cyber (TAC) 计划,将更强大的工具交到合法的防御者手中。
- 新模型推出: 为经过验证的专业人士提供 GPT-5.4-Cyber 模型,该模型专门针对防御性网络安全用例进行了微调,降低了在执行合法安全任务(如二进制逆向工程)时的限制。
- 逐步部署: 随着模型能力的增强,OpenAI 会同步提升其安全防护措施,并通过小范围、迭代的方式发布新功能,以便在实践中学习和改进。
核心指导原则
OpenAI 的网络安全策略遵循三个核心原则,以平衡工具的可用性与滥用风险。
- 民主化访问: 目标是让尽可能多的合法防御者使用这些工具。通过自动化的身份验证等清晰、客观的标准,而不是主观判断,来决定谁可以获得高级功能的访问权限。
- 迭代部署: 通过谨慎地将系统投入实际使用并持续改进,来更好地理解其能力和风险。这包括不断更新模型和安全系统,以抵御恶意攻击并增强防御能力。
- 投资生态系统韧性: 通过提供可信访问渠道、专项资金支持、开源安全贡献以及像 Codex Security 这样的工具,支持和加速整个防御者社区的发展。
网络安全能力具有天然的双重用途,因此风险不仅取决于模型本身,还取决于用户、用户的可信信号以及他们获得的访问级别。
自动化安全工具:Codex Security
软件开发过程本身必须变得更加安全。将先进的 AI 模型集成到开发流程中,可以在代码编写阶段就提供即时、可行的安全反馈。
Codex Security 工具就是这一理念的体现,它可以:
- 自动监控代码库。
- 验证发现的安全问题。
- 提出修复建议。
自推出以来,Codex Security 已帮助修复了生态系统中超过 3,000 个关键和高危漏洞,将安全防护从零散的审计转变为持续的风险降低过程。
如何获得可信访问权限
为防御者提供专门工具的访问流程被设计得非常直接:
- 个人用户: 可以在
chatgpt.com/cyber验证自己的身份。 - 企业用户: 可以通过其 OpenAI 代表为团队申请可信访问权限。
通过验证的客户将能使用限制更少的模型版本,从而更顺畅地进行安全教育、防御性编程和负责任的漏洞研究。对于希望获得 GPT-5.4-Cyber 等更高级别访问权限的客户,可以在现有 TAC 计划的基础上进一步申请。