Trail of Bits回应NTIA人工智能问责制征求意见:构建可信AI系统的技术路径

本文详述Trail of Bits针对NTIA人工智能问责制政策征求意见的技术回应,提出基于操作设计域(ODD)的风险评估框架,强调基础网络安全实践对AI系统安全审计的关键作用,并探讨独立审计机构在AI治理中的技术必要性。

关键立场与技术建议

  1. 上下文定义是AI问责的前提

    • AI系统的审计必须基于可验证的功能声明,而非狭窄的基准测试。评估范围应关联到监管、安全、伦理或技术主张,这些是利益相关方需负责的领域。
    • 推荐采用源自自动驾驶系统的**操作设计域(ODD)**概念,为生成式模型等AI系统定义风险评估的操作边界,明确系统安全行为的特定条件。
  2. 风险阈值需民主决策

    • AI创新的问责机制必须与立法机构、监管机构确定的风险阈值挂钩。不同应用场景的风险等级应通过民主程序界定,当前缺乏AI开发者实施问责机制的成本数据支撑决策。
  3. 基础安全实践赋能AI风险识别

    • 现有AI系统普遍未遵循基础软件安全规范(如IEC 61508、NIST 800-154)。采用这些实践可作为开发AI专属问责机制的第一步。
    • 技术评估不仅支持纯技术目标,更是验证系统整体行为是否符合社会技术、法律主张的必要工具。
  4. 反对通用许可制度的技术理由

    • AI系统本质是软件系统的延伸,其开发机制与传统软件无异。通用许可制将因AI组件的广泛性导致过度监管,应参照现有行业监管模式,仅对安全关键应用实施安全认证。
  5. 独立审计的技术必要性

    • 借鉴安全关键领域的成熟经验,强调第三方审计机构(而非供应商)对评估AI系统可信度的关键作用。独立性是保证评估准确性和监管结果公信力的技术基石。

技术实施路径

报告建议将网络安全和安全关键领域的成熟方法论作为构建AI专属问责机制的基础,包括:

  • 采用形式化方法验证系统行为边界
  • 建立可追溯的软件物料清单(SBOM)
  • 实施持续监控的运行时验证机制

文末呼吁行业共同推动新型AI审计技术的发展,并附有完整政策回应文件的GitHub链接。

comments powered by Disqus
使用 Hugo 构建
主题 StackJimmy 设计