OpenAI:发现模型漏洞,快来领奖!
距离ChatGPT发布已经过了四个月,而GPT-4也已发布近一个月。OpenAI的这两款模型彻底改变了自然语言处理(NLP)领域的格局,甚至为实现通用人工智能(AGI)提供了新的可能性。
在过去的几个月里,人们惊叹于类ChatGPT模型的强大能力,但也发现了许多潜在问题。其中最严重的问题之一是模型会生成虚假或错误的信息,这引发了不少用户的吐槽。好消息是,从现在开始,您可以通过找出这些问题来获得奖励。
OpenAI今天宣布启动漏洞赏金计划,以帮助解决大型语言模型(如ChatGPT)带来的日益增长的网络安全风险。
OpenAI与众包网络安全平台Bugcrowd合作,邀请所有机器学习领域的研究人员报告OpenAI模型系统中存在的bug(漏洞)。对于每个漏洞报告,OpenAI将根据严重程度给予200至20000美元不等的奖励。
漏洞报告平台:
Bugcrowd – OpenAI
OpenAI表示,他们的使命是创建能够造福人类的AI系统,因此投入大量资源进行研究和工程,以确保所提出的人工智能系统的安全与可靠。为了解决当前大模型存在的各类漏洞和缺陷,OpenAI启动了这一漏洞赏金计划,目的是邀请全球的网络安全研究人员和技术爱好者来识别和修复OpenAI模型系统中的漏洞,最终提高系统的安全性。
OpenAI漏洞赏金计划的实际意义
OpenAI的漏洞赏金计划能产生多大实际效果?根据AI网络安全公司DarkTrace的数据,从1月到2月,基于AI的网络攻击增加了135%,这与ChatGPT的问世密切相关。因此,尽管这一赏金计划受到了部分技术专家的欢迎,但仍有不少人对此表示怀疑,认为该计划不太可能完全解决日益复杂的AI技术所带来的广泛网络安全风险。
毕竟,此计划的范围仅限于可能直接影响OpenAI系统及其合作伙伴的漏洞,似乎无法应对更广泛的相关担忧,比如技术的恶意使用(如模拟、合成媒体或自动化黑客工具)。
值得注意的是,这一漏洞赏金计划是在一系列安全问题的背景下推出的。例如,在发布三天后,GPT-4就声称制定了外逃计划,甚至表示自己可以控制计算机,并索要开发文档和API。
GPT-4的这一行为确实令人感到不安……
此外,上个月,ChatGPT因严重漏洞而宕机数小时,部分用户能够看到其他用户的聊天内容和支付信息,这再次对AI模型的隐私保护敲响了警钟。
另一方面,已有技术研究人员发现,ChatGPT的API可能因滥用而存在较大风险。一位安全研究人员曾在推特上分享了利用漏洞破解ChatGPT API,并发现80多个秘密插件的经历。
或许正是因为这些问题,使得OpenAI推出了这项赏金计划。然而,OpenAI在漏洞赏金计划的官方页面中指出:“与模型prompt和响应内容相关的问题严格不在范围之内,除非它们对范围内的服务有附加的直接可验证的安全影响,否则不会获得奖励。”
从这个角度来看,OpenAI的漏洞赏金计划可能有助于改善其模型自身的安全性,但对于解决生成式AI和ChatGPT等模型给整个社会带来的安全风险而言,却无济于事。