揭开影子AI悖论
关于影子AI(企业内部未经批准使用的人工智能工具)的研究报告层出不穷,这让我最初质疑是否真的需要另一份此类研究。在阅读了数十份现有报告后,我的印象依然如此:影子AI无处不在,而指出这一点的报告也数不胜数。
然而,阅读越深入,我越发清晰地意识到一个关键元素的缺失。这种源源不断的研究供应并未满足实际的需求。虽然现有研究回答了“是否存在影子AI”的问题,但对于更为重要的“为什么存在影子AI”却着墨不多。
一个天真的答案是,AI工具有助于员工完成任务,他们自然会去使用。另一方面,希望保住工作的员工遵守公司政策也同样有利,所以事情并非那么简单。如果我们想要一套能够付诸实践、用以降低影子AI风险的行为者理论,就需要更细致地阐明驱动和反对使用未经批准AI工具的动机。
要理解人们为何使用影子AI,我们需要更广泛地思考人们做任何事情的动机。是的,我们想完成工作,也想避免惩罚,但我们同时也是社会性生物,主要受情感和归属感驱动,在信息不完善的情况下,努力为我们感知到的“内部群体”利益进行优化。我们需要为“人们做对自己有利的事”这一说法增添更多细节,才能解释真实的人类行为。
我不会在这里重述整个报告,但这是阅读和理解它的一个有用框架,特别是用于消化那些最具挑战性的发现。最可能使用影子AI的人群,从理论上讲,本应是最不可能的人群:那些自认为拥有智力或制度权威从而可以豁免于规则的AI专家和高管们。(如果你发现自己符合这个描述,嗯,你并不孤单。)如果你将人类视为有血有肉的计算机,这些发现是反直觉的;但如果你想想你生活中的任何人,它们又完全可以理解。
这是我从这项工作中得出的重要启示:那些关注影子AI风险的人,应该将组织中的其他人当作人来接触。我们的报告讨论了在总体上可衡量的员工动机,但人类多样性是巨大的,驱动你周围人群的动机可能各不相同。未经批准软件的风险是真实存在的,但驱使你的同事接受这些风险的潜在益处也同样真实。从现在起,让我们假定人们正在使用AI工具,然后从询问“为什么”开始对话。