当你的浪漫AI聊天机器人无法保守秘密时
你的聊天机器人知道得太多了吗?在向AI伴侣倾诉一切之前,你应该三思而行。
在电影《她》中,主角与一个复杂的AI系统建立了一段最终注定失败的浪漫关系。2013年电影上映时,这种情况还纯粹属于科幻领域。但随着生成式AI和大语言模型的出现,这已不再是一个荒诞的前景。事实上,“伴侣”应用如今正在激增。
然而,与AI机器人建立联系不可避免地存在风险。你如何知道你的个人信息不会被分享给第三方?或者被黑客窃取?这些问题的答案将帮助你判断是否值得冒这个风险。
寻找(数字)爱情
伴侣应用满足了日益增长的市场需求。AI女友和男友利用大语言模型和自然语言处理的力量,以对话式、高度个性化的方式与用户互动。像Character.AI、Nomi和Replika这样的应用满足了使用者的心理需求,有时甚至是浪漫需求。不难理解为什么开发者热衷于进入这个领域。
就连大型平台也在跟进。OpenAI最近表示将很快推出“针对验证成年人的情色内容”,并可能允许开发者基于ChatGPT创建“成人”应用。埃隆·马斯克的xAI也在其Grok应用中推出了调情AI伴侣。
7月发布的研究发现,近四分之三的青少年使用过AI伴侣,其中一半经常使用。更令人担忧的是,三分之一的人选择与AI机器人而非人类进行严肃对话,四分之一的人与它们分享了个人信息。
随着警示故事开始出现,这一点尤其令人担忧。10月,研究人员警告称,两个AI伴侣应用无意中暴露了高度敏感的用户信息。一个配置错误的Kafka代理实例使这些应用的流媒体和内容交付系统没有访问控制。这意味着任何人都可以访问超过60万张用户提交的照片、IP地址以及属于超过40万用户的数百万条亲密对话。
与机器人约会的风险
机会主义的威胁行为者可能会发现新的赚钱方式。受害者在与AI伴侣的浪漫对话中分享的信息非常适合用于敲诈勒索。例如,图像、视频和音频可以被输入到深度伪造工具中,用于性勒索诈骗。或者个人信息可以在暗网上出售,用于后续的身份欺诈。根据应用的安全状况,黑客还可能获取用于应用内购买的信用卡信息。据Cybernews报道,一些用户在此类购买上花费了数千美元。
如上例所示,对于AI应用开发者来说,创收而非网络安全是优先事项。这意味着威胁行为者可能会发现可利用的漏洞或错误配置。他们甚至可能尝试创建自己的仿冒伴侣应用,隐藏恶意的信息窃取代码,或操纵用户泄露可用于欺诈或勒索的敏感细节。
即使你的应用相对安全,它也可能存在隐私风险。一些开发者尽可能多地收集用户信息,以便将其出售给第三方广告商。不透明的隐私政策可能使你难以理解你的数据是否受到保护或如何受到保护。你还可能发现,你与伴侣分享的信息和对话被用于训练或微调底层的大语言模型,这进一步加剧了隐私和安全风险。
如何保护你的家人安全
无论你自己使用AI伴侣应用,还是担心你的孩子使用,建议都是一样的。假设AI没有内置安全或隐私保护措施。不要与它分享任何你不愿意与陌生人分享的个人或财务信息。这包括可能令人尴尬或暴露的照片/视频。
更好的是,如果你或你的孩子想尝试这些应用,请提前进行研究,找到提供最佳安全和隐私保护的应用。这意味着要阅读隐私政策,了解它们如何使用和/或分享你的数据。避免任何对预期用途不明确,或承认出售用户数据的应用。
找到应用后,务必开启安全功能,如双因素认证。这将有助于防止使用被盗或暴力破解的密码进行账户接管。并探索其隐私设置以增强保护。例如,可能有一个选项可以选择不将对话保存用于模型训练。
如果你担心孩子使用这些工具的安全、隐私和心理影响,请与他们展开对话以了解更多信息。提醒他们过度分享的风险,并强调这些应用是营利工具,不会把用户的最佳利益放在心上。如果你担心它们可能对孩子产生影响,可能有必要限制屏幕时间和使用——可能通过家长监控控制/应用来强制执行。
不言而喻,你不应允许任何年龄验证和内容审核政策未为你的孩子提供足够保护的AI伴侣应用。
监管机构是否会介入强制执行更严格的规则,限制开发者在这一领域能做什么和不能做什么,还有待观察。目前,浪漫机器人在某种程度上处于灰色地带,尽管欧盟即将出台的数字公平法案可能会禁止过度上瘾和个性化的体验。
在开发者和监管机构跟上步伐之前,最好不要将AI伴侣视为知己或情感支柱。