单个投毒文档可通过ChatGPT泄露“机密”数据
安全研究人员在OpenAI的Connectors中发现了一个安全弱点,该功能允许将ChatGPT与其他服务连接。利用此漏洞,研究人员能够在没有任何用户交互的情况下从Google Drive提取数据。
最新生成式AI模型不仅是独立的文本生成聊天机器人——它们可以轻松连接到您的数据,为问题提供个性化答案。OpenAI的ChatGPT可以链接到Gmail收件箱、检查GitHub代码或在Microsoft日历中查找约会。但这些连接有可能被滥用——研究人员证明只需单个“投毒”文档即可实现。
(插图说明:Wired Staff/Getty Images)
已订阅?登录 您已阅读完最后一篇免费文章。
技术、权力与文化的交汇点。开始免费试用,获取5份全新高级新闻通讯——可随时取消。
热门文章:
- 黑客寻找高安全性保险柜后门——现在可在几秒钟内打开它们
- 为警察和军用无线电设计的加密可能易被破解
- 8月夜空中观看6颗行星连珠
Matt Burgess是WIRED的高级撰稿人,专注于欧洲的信息安全、隐私和数据监管。他毕业于谢菲尔德大学新闻学专业,现居伦敦。
相关主题:人工智能、网络安全、黑客攻击、安全漏洞、Google、OpenAI、ChatGPT、黑帽大会、DefCon
每日通讯:我们为您每日精选的最大故事。
更多安全相关报道:
- 泄露事件揭示朝鲜IT诈骗分子的日常工作
- 观看AI代理尝试入侵我的氛围编码网站
- 前NSA局长Paul Nakasone向科技界发出警告
- 中国盐台风黑客入侵美国国民警卫队近一年
- 克里姆林宫最狡猾黑客组织使用俄罗斯ISP植入间谍软件
- 去年CrowdStrike中断期间至少750家美国医院受影响
- 收养机构数据泄露暴露儿童和家长信息
- Tornado Cash开发者Roman Storm在联邦加密案中被判有罪
- Google将使用AI根据搜索历史猜测年龄
- 困扰企业流媒体平台的错误配置可能暴露敏感数据
WIRED是实现明天的地方。它是理解和不断变化世界的信息和思想的重要来源。WIRED对话阐明了技术如何改变我们生活的每个方面——从文化到商业,从科学到设计。我们发现的突破和创新带来了新的思维方式、新的联系和新的行业。