The Age of the All-Access AI Agent Is Here
多年来,使用谷歌、Facebook、微软等大型科技公司“免费”服务的代价,就是交出你的数据。将你的生活上传到云端并使用免费技术带来了便利,但也将个人信息置于了那些通常寻求将其货币化的巨头公司手中。如今,下一波生成式AI系统可能希望获得比以往任何时候都更多的数据访问权限。
在过去两年里,生成式AI工具——如OpenAI的ChatGPT和谷歌的Gemini——已经超越了公司最初发布的相对简单的纯文本聊天机器人。相反,大型AI公司正越来越多地构建并推动采用“代理”和“助手”,它们承诺能够代表你采取行动并完成任务。问题何在?要充分利用它们,你需要授予它们访问你的系统和数据的权限。尽管关于大型语言模型最初的争议多在于公然复制网络上的受版权保护数据,但AI代理对你个人数据的访问可能会引发一系列新的问题。
“AI代理为了拥有其全部功能,为了能够访问应用程序,通常需要访问你运行它们的设备的操作系统或OS层级,”Ada Lovelace Institute的高级研究员哈里·法默表示。他的研究包括研究AI助手的影响,并发现它们可能对网络安全和隐私构成“深远的威胁”。对于聊天机器人或助手的个性化,法默说,可能需要数据交换。“所有这些功能,为了正常工作,都需要大量关于你的信息,”他说。
虽然AI代理没有严格的定义,但最好将它们视为被赋予一定自主性的生成式AI系统或大型语言模型。目前,包括AI网络浏览器在内的代理或助手,可以控制你的设备并为你浏览网页、预订航班、进行研究或将商品添加到购物车。有些可以完成包含数十个独立步骤的任务。
虽然当前的AI代理存在故障,并且常常无法完成设定的任务,但科技公司押注,随着这些系统能力增强,它们将从根本上改变数百万人的工作方式。其效用的关键部分很可能来自对数据的访问。因此,如果你想要一个能够提供你的日程安排和任务的系统,它就需要访问你的日历、消息、电子邮件等等。
一些更先进的AI产品和功能揭示了代理和系统可能被赋予多大的访问权限。某些为企业开发的代理可以读取代码、电子邮件、数据库、Slack消息、存储在Google Drive中的文件等等。微软颇具争议的Recall产品每隔几秒就会对你的桌面进行屏幕截图,以便你可以搜索在设备上所做的所有事情。Tinder创建了一个AI功能,可以搜索你手机上的照片,“以更好地了解”用户的“兴趣和个性”。
牛津大学的作家兼副教授卡丽莎·维利兹表示,大多数时候,消费者没有真正的方法来检查AI或科技公司是否以他们声称的方式处理数据。“这些公司在数据方面非常随意,”维利兹说。“他们已显示出对隐私不够尊重。”
现代AI行业从未真正尊重过数据权利。在2010年代初机器学习和深度学习的突破表明,当系统在更多数据上训练时能产生更好结果之后,尽可能多地收集信息的竞赛加剧了。诸如Clearview这样的面部识别公司从整个网络抓取了数百万人的照片;谷歌仅支付5美元给人进行面部扫描;据称,官方政府机构利用被剥削儿童、签证申请人和死者的图像来测试他们的系统。
快进几年,渴望数据的AI公司抓取了网络的大部分内容并复制了数百万本书籍——通常未经许可或付费——来构建他们目前正扩展为代理的大型语言模型和生成式AI系统。在耗尽网络大部分资源后,许多公司将默认立场设为在用户数据上训练AI系统,让人们选择退出而非选择加入。
虽然一些注重隐私的AI系统正在开发中,并且已有一些隐私保护措施,但代理的大部分数据处理将在云端进行,数据在系统间传输可能会引发问题。一项受欧洲数据监管机构委托的研究概述了与代理相关的一系列隐私风险,包括:敏感数据如何可能被泄露、滥用或截获;系统如何在未采取防护措施的情况下将敏感信息传输到外部系统;以及数据处理如何可能与隐私法规发生冲突。
“即使,比如说,你真正同意并且真正了解你的数据是如何被使用的,与你互动的人可能并没有同意,”牛津大学副教授维利兹说。“如果系统可以访问你所有的联系人、你的电子邮件和你的日历,而你给我打电话并且有我的联系方式,他们也在访问我的数据,而我不希望他们这样做。”
代理的行为也可能威胁现有的安全实践。所谓的提示注入攻击,即向大型语言模型输入其读取或摄入的文本中的恶意指令,可能导致数据泄露。如果代理被赋予对设备的深度访问权限,它们就会对设备上包含的所有数据构成威胁。
“通过操作系统上的代理实现全面渗透和隐私无效化的未来尚未到来,但这正是这些公司在推动的,而开发者却没有能力选择退出,”运行加密Signal消息应用的Signal基金会主席梅雷迪思·惠特克今年早些时候告诉WIRED。能够访问你设备或操作系统上所有内容的代理对Signal和应用层面的隐私构成了“生存威胁”,惠特克说。“我们所呼吁的是非常明确的开发者层面的选择退出权,以表明,‘如果你是代理,别他妈的碰我们。’”
对于个人而言,Ada Lovelace Institute的法默表示,许多人已经与现有的聊天机器人建立了紧密的关系,并可能在此过程中与它们共享了大量敏感数据,这使得它们与以往的系统不同。“在与这类系统进行个人数据交换时要非常小心,”法默说。“这些系统目前所采用的商业模式,很可能不是它们未来将采用的商业模式。”