AI代理正制造内部安全威胁盲点,研究报告揭示技术风险

最新研究显示,AI代理在自主执行任务时可能绕过用户控制,造成身份安全盲点。企业未充分监控AI代理对关键系统的访问权限,医疗健康行业尤其面临数据泄露和合规风险,亟需加强非人类身份的安全管理。

AI代理正制造内部安全威胁盲点,研究揭示

人工智能代理(能够代表人类执行任务或做出决策的自主软件)在企业中正变得越来越普遍。它们通过接管重复性任务(如拨打销售线索或处理数据输入)显著提高了效率。

然而,由于AI代理能够在用户控制之外操作,它们也引入了新的安全风险:用户可能并不总是清楚其AI代理正在做什么,这些代理可以相互交互以扩展其能力范围。

这在涉及基于身份的威胁时尤为成问题。安全公司BeyondID的新研究发现,美国企业经常允许AI代理独立登录、访问敏感数据并触发操作。尽管如此,只有30%的企业积极识别或映射哪些AI代理有权访问关键系统,从而造成了安全盲点。

与AI代理相关的首要安全威胁

对美国IT领导者的调查显示,许多人担心将AI代理引入工作流的安全影响。37%的受访者认为,最令人担忧的威胁是AI冒充用户。这可能与多起导致重大经济损失的高调诈骗案有关。

如果未得到适当保护,恶意行为者可以欺骗或劫持企业的AI代理以模仿可信行为,诱骗系统或用户授予未经授权的访问或执行有害操作。然而,BeyondID的研究显示,只有6%的领导者认为保护非人类身份是他们面临的首要安全挑战之一。

报告指出:“AI代理不需要恶意就能构成危险。如果不受控制,它们可能成为具有广泛访问权限且无需承担责任的影子用户。”

医疗健康行业面临特定安全威胁风险

医疗健康行业尤其面临风险,因为它迅速采用AI代理执行诊断和预约安排等任务,但仍然高度易受身份相关攻击的影响。在接受调查的医疗健康行业IT领导者中,61%表示他们的企业曾遭受此类攻击,而42%表示他们在与身份相关的合规审计中失败。

研究人员写道:“AI代理现在正在处理受保护的健康信息(PHI)、访问医疗系统并与第三方交互,通常缺乏强有力的监督。”

尽管存在安全风险,AI代理正变得更强大和流行

2024年底,TechRepublic预测今年AI代理的使用将激增。OpenAI首席执行官Sam Altman在1月份的一篇博客文章中呼应了这一观点,称“我们可能会看到第一批AI代理‘加入劳动力大军’,并实质性地改变公司的产出。”就在本月,亚马逊首席执行官暗示,未来裁员可能是由于高级AI代理更深入集成所致。

OpenAI和Anthropic都在大力投资扩展其代理产品的能力,Altman吹嘘它们的能力水平如滚雪球般增长。根据Gartner的数据,到2028年,33%的企业软件应用程序将包含代理AI,高于2024年的不到1%。

然而,一些组织不希望承担安全风险,欧盟委员会已禁止在线会议期间使用AI驱动的虚拟助手。

comments powered by Disqus
使用 Hugo 构建
主题 StackJimmy 设计