我的OpenAI漏洞悬赏经历:呼吁提升漏洞披露透明度
2025年8月,我在ChatGPT中发现了一个业务逻辑漏洞,该漏洞允许免费层用户通过编辑旧对话中的消息来绕过GPT-5高级模型的消息限制。这不是越狱提示或模型幻觉——这些类别明确不在OpenAI漏洞悬赏计划范围内——而是一个直接的访问控制绕过,可能让用户无限制使用付费功能,有可能导致服务器过载并破坏订阅模式。
遵循负责任的披露实践,我通过OpenAI的合作平台Bugcrowd提交了详细报告。提交内容包括逐步复现说明、截图和概念验证。9月19日,报告被分配为P2优先级,这表明已得到确认并进行了初步分类。此后,沟通就停止了。没有分类更新,没有影响或缓解措施的讨论,也没有确认报告正在处理中。
10月初,我重新测试了该问题,发现用户在达到消息限制后编辑按钮已被移除——这是一个有效的服务器端缓解措施。问题已得到修复。然而,解决过程没有任何通知或认可:没有来自Bugcrowd或OpenAI的确认,没有关于修复的对话,也没有任何迹象表明我的报告是解决方案的一部分。提交69天后,唯一可见的结果是一个静默补丁。
这次经历暴露了漏洞悬赏计划中一个常见且令人不安的模式:有意义的报告有时被悄悄修复,而报告它们的研究人员却得不到认可、补偿甚至基本沟通。结果是挫败感和幻灭感。当组织拒绝与帮助保护其系统的人员公开接触时,遵循负责任披露程序的道德黑客可能会被边缘化。
为什么这很重要
漏洞悬赏计划应该是一种有利于研究人员、公司和最终用户的协作机制。当研究人员投入时间发现并负责任地披露漏洞时,他们实际上是在充当无偿的安全合作伙伴。良好的计划管理应通过提供及时沟通、透明的分类以及在适当时给予奖励或公开认可来认识到这一点。当这些要素缺失时,计划可能会阻碍熟练研究人员的参与,并激励不太负责任的披露渠道。
我观察到的问题
静默分类和修复:我报告的漏洞最初得到了确认,但之后就没有任何接触。问题得到了修复,但没有沟通说明修复是否因为报告而部署,还是巧合。
无更新或反馈:除了P2分配之外,OpenAI没有后续行动:没有澄清请求,没有分类的预计时间表,也没有最终处理结果。
不明确的奖励流程:OpenAI的计划宣传关键发现最高奖励10万美元,有效报告最低奖励200美元,但没有讨论我的报告是否会获得任何奖励或认可。
情感和专业成本:计划运营者的沉默破坏了信任。研究人员可能会因为做了正确的事而感到被忽视和低估。
漏洞悬赏计划如何改进
以下是平台和公司可以采取的实际、可实施的步骤,以建立信任并激励负责任的披露:
及时、透明的沟通:明确分类时间表和定期状态更新(即使只是说"仍在审查中")将让报告者放心,并减少重复提交的噪音。
公开(或私下)认可:即使报告不符合赏金条件,认可研究人员的努力并解释处理结果也能鼓励持续的良好参与。
对有效报告提供最低保障补偿:为经过验证、有影响的发现设定并兑现基准奖励,将表明研究受到重视。
明确的修复功劳和披露政策:如果因为报告而部署修复,应告知研究人员他们是否会在计划名人堂列表或公开公告中获得功劳。
更好的分类服务等级协议:像Bugcrowd这样的平台及其服务的公司应发布并遵守初始分类和全面审查的服务等级期望。
更广泛的社区讨论
我的经历并非个例。许多研究人员报告在提交和分类之间等待时间过长、静默修复或无法解释的账户操作。这不仅是个别研究人员的问题——这是一个系统性问题,侵蚀了漏洞悬赏计划旨在培育的生态系统。
致安全研究人员同行:你们是否经历过类似的"被忽视"或延迟?在与赏金平台或供应商安全团队跟进时,你们发现了哪些最佳实践有效?
致平台和供应商:如果你们读到这篇文章,请考虑重新审视你们的通知和分类政策。负责任的披露是双向的;保持开放、尊重的渠道将使互联网对每个人都更安全。
结论
负责任的披露对于维护系统安全至关重要。当公司和平台未能沟通或认可安全研究人员的贡献时,他们就削弱了那些帮助发现和修复漏洞的人的激励。透明、及时的接触和公平的认可是实际的步骤,最终将加强协作并改善每个人的安全结果——我只是想要认可,赏金并不是那么重要。
如果你同意我分享的内容,请关注我并留下一些掌声。我也很想听听你自己的经历——如果你在漏洞悬赏计划或漏洞披露中遇到过类似情况,请在评论中分享。你的见解和故事有助于让社区更强大。
#漏洞悬赏 #网络安全 #道德黑客 #OpenAI #Bugcrowd #漏洞披露 #信息安全 #透明度 #安全研究 #AI安全