AI巨头在GitHub意外泄露密码与数字密钥 - 安全漏洞全解析

安全研究人员发现全球65%的顶尖AI公司在GitHub上意外泄露API密钥、令牌等敏感凭证,这些凭证可访问内部系统、训练数据甚至私有AI模型,涉及公司总估值超过4000亿美元。

发生了什么?

全球众多顶尖人工智能公司正在犯一个简单但危险的错误——他们在GitHub这个每日被数百万开发者使用的代码共享网站上,意外公开了密码和数字密钥。

安全公司Wiz的研究人员检查了50家领先AI企业,发现其中65%的企业意外在线上暴露了高度敏感信息。

为什么这很重要?

被泄露的并非普通密码,而是包含API密钥、令牌和其他能够访问内部系统、训练数据甚至私有AI模型的凭证。

研究人员不仅检查了AI公司在GitHub上的主要公共项目,还检查了已删除的代码副本(称为“fork”)、代码片段(“gist”)、工作流日志和文件的旧版本。通过调查发现,许多公司都忽略了简单的安全措施。

在多个案例中,泄露的密钥和令牌实际上可用于访问公司系统——包括Eleven Labs、LangChain和Hugging Face等流行AI平台。

据研究人员称,在近半数的案例中,当他们尝试提醒受影响公司时,未收到任何回应,问题也未被修复。

问题有多严重?

受影响公司总估值超过4000亿美元,包括Anthropic(Claude的制造商)、Glean和Crusoe Energy等知名企业。

这是如何发生的?

与许多网络安全问题一样,这个问题始于人为错误。程序员编写代码时经常需要包含密码以确保程序正常运行,但当软件工程师在公开共享代码前忘记删除密码时,问题就出现了。

解决这个问题变得更加复杂,因为密钥并不总是显而易见。它们可能隐藏在已删除文件(实际上并未真正删除)、公司员工的个人账户、早已被遗忘的旧代码版本、隐藏注释和文档中。而且,正如研究人员发现的那样,许多AI初创公司缺乏适当的问题报告机制。

这对非AI从业人员有何影响?

这些AI公司开发的技术正日益融入我们的个人和职业生活,为聊天机器人、推荐系统、决策工具等提供支持,这些很可能对您的业务至关重要,并在未来变得越来越重要。

如果黑客成功访问这些公司的系统,他们可以窃取私有AI模型和训练数据、窃取内部公司通信、操纵我们依赖的AI系统,并获取AI系统工作原理的信息。

应该采取什么措施?

AI公司应使用工具在代码公开前自动扫描暴露的密码和凭证。他们还应该培训软件开发人员永远不要在代码中使用真实密码,并确保建立清晰的渠道,供安全研究人员在发现问题时进行报告。

讽刺的是

开发世界上最复杂程序的AI公司,竟然会犯如此基础的安全错误?确实如此。

comments powered by Disqus
使用 Hugo 构建
主题 StackJimmy 设计