OpenAI:新模型可能构成高网络安全风险

这些模型的日益强大的能力可能会显著增加能够实施网络攻击的人数。

12月11日消息,据 Axios 率先报道,OpenAI 周三表示,其前沿AI模型的网络安全能力正在加速发展,并警告称,即将推出的模型可能会带来“高”风险。

这些模型的日益强大的能力可能会显著增加能够实施网络攻击的人数。

OpenAI 表示,在最近发布的版本中,其功能已经显著提升,特别是模型能够自主运行更长时间,这为暴力攻击铺平了道路。

该公司指出,GPT-5 在 8 月份的夺旗赛中得分为 27%,而 GPT-5.1-Codex-Max 上个月的得分为 76%。

该公司在报告中表示:“我们预计即将推出的AI模型将继续沿着这条轨迹发展。为此,我们正在进行规划和评估,假设每个新模型都能达到我们《准备框架》中衡量的‘高’网络安全能力水平。”

OpenAI 在 6 月份发布了类似的关于生物武器风险的警告,然后在 7 月份发布了 ChatGPT Agent,该代理的风险等级确实被评为“高”。

“高”是第二高的级别,仅次于“临界”级别,在临界级别下,模型公开发布是不安全的。

该公司没有具体说明何时会推出首批被评为“高”网络安全风险的型号,也没有说明未来哪些类型的型号可能会构成这种风险。

OpenAI 的 Fouad Matin 在接受 Axios 独家采访时表示: “我明确指出,推动这一目标的关键因素是模型能够长时间运行的能力。”

马丁表示,这种依靠长时间的暴力攻击更容易防御。

“在任何有防御的环境下,这都很容易被发现,”他补充道。

领先的模型在发现安全漏洞方面越来越出色——而且不仅仅是 OpenAI 的模型。

因此,OpenAI 表示,它一直在加大力度与整个行业合作应对网络安全威胁,包括通过其于 2023 年与其他领先实验室共同发起的“前沿模型论坛” 。

该公司表示,将成立一个独立的“前沿风险委员会”,这是一个咨询小组,旨在“让经验丰富的网络防御者和安全从业人员与 OpenAI 的团队密切合作”。

OpenAI表示,该技术目前也正在进行Aardvark的内部测试。Aardvark是一款开发者可以用来查找产品安全漏洞的工具。开发者需要申请才能获得Aardvark的访问权限,该工具已经发现了一些关键漏洞。


猜你喜欢