扫一扫
关注微信公众号

OpenAI拉响“高危”警报,CTF胜率从27%飙升至76%!
2026-01-09   安全牛

这个被大模型席卷的时代,我们一直在问:AI 到底什么时候能真正像一名黑客一样思考?

答案可能比我们预想的更近。

近期,OpenAI 发出了一项令人瞩目的预警:其正在筹备的人工智能模型即将触及网络安全风险的“高(High)”等级。这意味着,AI 不再仅仅是辅助写脚本的工具,它正演变为具备双重用途(Dual-use)的超级引擎——既能构筑铜墙铁壁,也能制造前所未有的自动化威胁。

更有内部数据显示,新一代模型在 CTF(夺旗赛)中的表现已出现质的飞跃。当 AI 开始通过图灵测试的“黑客版”,作为防守方的我们,准备好了吗?

警报拉响:CTF 胜率飙升至 76%

OpenAI 的这一警告并非空穴来风。根据其内部“准备框架(Preparedness Framework)”,“高”风险等级仅次于“严重(Critical)”,意味着模型可能具备开发可用的零日漏洞(Zero-day)远程利用代码,甚至能够有意义地协助进行复杂的、隐蔽的企业级或工业级入侵行动。

最让安全圈震惊的是其能力的进化速度。据报道,OpenAI 的内部测试显示:

  • 8月:GPT-5 模型在 CTF 挑战赛中的解题成功率为 27%。
  • 11月:GPT-5.1-Codex-Max 模型在同一标准下的成功率已飙升至 76%。

这种指数级的增长,核心驱动力在于“Agentic AI(代理型AI)”能力的提升。OpenAI 研究员 Fouad Matin 指出,这背后的关键在于“模型长时间持续工作的能力”。换句话说,AI 不再是问一句答一句,而是能够像人类黑客一样,不知疲倦地进行长时间的自主操作、试错和暴力破解。

矛与盾:AI 安全的双重未来

技术永远是中立的,关键在于谁掌握了它。

OpenAI 并不避讳这种风险。早在今年6月,他们就发布了关于生物武器风险的类似警告。而在网络安全领域,攻防本同源。OpenAI 正在采取一系列措施,试图将这种强大的能力引导至防御端,旨在为经常“以寡敌众、资源匮乏”的防御者提供不对称优势。

防御侧的三大重磅布局:

  • 自动化漏洞修复专家 Aardvark:目前处于内测阶段的 Aardvark 是一款代理型安全研究工具。它不仅能扫描代码库,还能通过对整个代码库的逻辑推理,发现传统工具难以识别的新型 CVE,并自动提出补丁建议。OpenAI 计划未来向部分非商业开源项目免费提供此覆盖,以加固开源生态链。
  • 可信访问计划(Trusted Access Program):针对网络防御领域的合格用户和客户,OpenAI 将探索分层访问机制。让防御者能优先使用模型的高级功能进行代码审计、威胁情报分析等工作,同时通过权限控制限制恶意滥用。
  • 前沿风险委员会(Frontier Risk Council):这是一个由资深网络防御者和安全从业者组成的顾问小组,他们将直接参与定义“有用的防御能力”与“潜在滥用”之间的界限。

行业观点:保持警惕,但拒绝恐慌

面对“AI 黑客”的崛起,我们是否应该恐慌?

Recorded Future 的威胁情报分析师 Allan Liska 给出了更为冷静的看法。他在邮件中表示:“虽然 AI 确实因为能力提升和针对护栏的攻击而增加了安全风险,但不要过度炒作这些威胁。”

Liska 指出,尽管国家级黑客和网络犯罪分子对 AI 的兴趣日益浓厚,但目前的威胁并没有超过遵循最佳安全实践(Best Practices)的企业所能防御的范畴。

换句话说,基础的安全基线(Patching, MFA, Segmentation)依然是目前最有效的防线。

成为驾驭 AI 的超级个体

OpenAI 的这次预警,实际上是向全行业释放了一个信号:网络安全的“自动化战争”时代正在加速到来。

对于我们每一个从业者而言,这既是挑战也是机遇。

  • 挑战在于:脚本小子(Script Kiddies)将升级为“AI 小子”,攻击成本将进一步降低,攻击频率和复杂度将指数级上升。
  • 机遇在于:利用 Aardvark 这样的工具,我们可以从繁琐的代码审计和基础运维中解脱出来,将精力集中在更高维度的攻防对抗和安全架构设计上。

未来,不会是 AI 取代安全工程师,而是“会用 AI 的安全工程师”取代“不会用 AI 的安全工程师”。


热词搜索:OpenAI

上一篇:企业 AI 系统面临的九大网络安全威胁:从数据投毒到提示注入
下一篇:最后一页

分享到: 收藏