AI威胁加剧英国关键系统风险,数字鸿沟成网络安全新挑战

英国国家网络安全中心警告,人工智能工具将加速网络攻击,导致防御时间窗口缩短。关键基础设施和网络安全薄弱的企业面临更高风险,需加强基础安全实践和AI系统防护。

UK critical systems at risk from ‘digital divide’ created by AI threats

网络主管警告称,未来两年将出现分化:能够跟上人工智能(AI)驱动的网络威胁的组织与落后的组织之间将产生差距。

AI工具将使攻击者能够越来越快地利用安全漏洞,让组织在面临网络攻击风险之前修复漏洞的时间极为有限。

根据英国国家网络安全中心(NCSC)——信号情报机构GCHQ的一部分——今日发布的研究,软件供应商披露漏洞与网络犯罪分子利用漏洞之间的时间差已经缩短至数天。

然而,AI将“几乎肯定”进一步缩短这一时间,给网络防御者带来挑战,并为依赖信息技术的公司创造新的风险。

NCSC报告还表明,AI模型和系统在英国技术基础中的日益普及将为对手提供新的机会。

尤其面临风险的是国家关键基础设施(CNI)中的IT系统,以及网络安全控制不足的公司和行业。

报告指出,在急于提供新AI模型的过程中,开发人员将“几乎肯定”优先考虑系统开发速度而非提供足够的网络安全,从而增加来自有能力的国家相关行为体和网络犯罪分子的威胁。

随着AI技术更深入地融入业务运营,NCSC敦促组织“果断采取行动,加强网络弹性并减轻AI驱动的网络威胁”。

NCSC运营总监Paul Chichester表示,AI正在改变网络威胁格局,扩大攻击面,增加威胁数量并加速恶意能力。

“虽然这些风险是真实的,但AI也为增强英国韧性和推动增长提供了强大机遇,这使得组织采取行动至关重要,”他在曼彻斯特的NCSC CyberUK会议上表示。

“组织应在AI系统及其依赖项上实施强大的网络安全实践,并确保部署最新的防御措施。”

根据NCSC,将AI和连接系统集成到现有网络中要求组织重新关注基本安全实践。

NCSC发布了一系列建议和指南,以帮助组织采取行动,包括网络评估框架和10步网络安全指南。

今年早些时候,英国政府宣布了一项AI网络安全实践准则,以帮助组织安全地开发和部署AI系统。

该实践准则将通过欧洲电信标准协会(ETSI)成为新的全球安全AI标准的基础。

阅读更多关于AI时代的网络安全

根据Enterprise Strategy Group的研究,网络安全和生成式AI是2025年企业IT投资计划的首选,无论是单独还是结合。

专家警告AI在赋能和挑战网络防御方面的双重作用,并呼吁进行情报共享,以及在AI驱动的创新与现有安全实践之间取得平衡。

NCSC及其美国对应机构CISA已召集科技公司和政府共同签署一套新指南,旨在促进AI开发中的安全设计文化。

comments powered by Disqus
使用 Hugo 构建
主题 StackJimmy 设计