欧盟AI法案进入新执法阶段

欧盟AI法案第二阶段执法正式启动,要求通用AI模型披露训练数据来源并遵守版权规定,高风险AI系统需进行风险评估和活动日志记录,违规企业将面临最高全球营收7%的罚款。

欧盟AI法案进入新执法阶段

欧盟AI法案于上周末进入新执法阶段,这将影响企业构建和实施影响欧洲居民或被其使用的AI系统的方式。

自欧盟全面新AI法案生效已有一年。该法律于2025年2月开始第一阶段执法(最初由欧盟委员会于2021年提出,2024年3月正式批准),禁止了某些被认为具有不可接受风险的AI用途,例如从互联网或闭路电视收集面部图像。

8月2日开始了第二阶段执法,引入两个主要要求:第一是所有欧盟成员国必须建立国家机构提供通知和监督;第二是开始执行关于所谓"通用目的"AI(GPAI)模型的法规,包括语言模型和计算机视觉系统。

AI法案对GPAI模型有多项要求,包括披露训练数据和使用许可。这意味着GPAI模型提供商必须提供用于训练模型的内容详细摘要以及训练数据生成者同意的证明。对于被评估为具有"系统性风险"的GPAI模型,提供商必须展示如何评估模型、如何降低风险,并报告任何严重事件。

“用于训练向欧洲用户提供的通用AI模型的来源必须清晰记录,“欧盟委员会发言人告诉媒体,“如果受版权保护,必须向作者支付报酬,并且最重要的是必须获得其同意。”

关键性金字塔结构

2025年8月2日后投入生产的任何新GPAI模型都将开始执法。对于已投入生产的GPAI模型(如来自某机构、某中心、某科技公司及欧洲AI公司的模型),欧盟委员会提供了一年的宽限期。违反新法规可能面临从750万欧元(约810万美元)或营业额的1%到3500万欧元(约3800万美元)或全球营收7%的罚款。这些罚款现已生效。

为鼓励合规,欧盟委员会上月发布了《欧盟AI实践准则》,旨在帮助企业遵守AI法案在安全、透明度和版权问题上的义务。许多美国科技巨头和欧洲AI公司签署了该准则,但有些公司没有签署。某机构签署了该准则,但有所保留。

“……我们仍然担心AI法案和实践准则可能减缓欧洲AI的发展和部署,“该公司在博客文章中写道,“特别是偏离欧盟版权法、减缓审批步骤或要求披露商业秘密可能会抑制欧洲模型的开发和部署,损害欧洲的竞争力。”

某科技公司表示不会签署AI实践准则。“欧洲在AI方面正走向错误道路,“该公司全球事务负责人写道,“我们仔细审查了欧盟委员会的通用AI(GPAI)模型实践准则,某科技公司不会签署。”

下一阶段执法将涉及所谓高风险AI系统,欧盟委员会将其描述为用于执法、教育、关键基础设施和信用评分等领域的AI系统。部署这些类型系统的组织在部署前需要采取额外预防措施,例如进行风险评估以确定是否侵犯基本权利、提供系统监控、维护这些AI系统活动日志,并确保支持人员经过培训。

相关事项:

  • 欧盟AI法案生效时的五个问题
  • 欧盟投票通过AI法案,执法于2024年底开始
  • 欧洲政策制定者批准AI法案规则
comments powered by Disqus
使用 Hugo 构建
主题 StackJimmy 设计