关键立场与技术建议
-
上下文定义是AI问责的前提
- AI系统的审计必须基于可验证的功能声明,而非狭窄的基准测试。评估范围应关联到监管、安全、伦理或技术主张,这些是利益相关方需负责的领域。
- 推荐采用源自自动驾驶系统的**操作设计域(ODD)**概念,为生成式模型等AI系统定义风险评估的操作边界,明确系统安全行为的特定条件。
-
风险阈值需民主决策
- AI创新的问责机制必须与立法机构、监管机构确定的风险阈值挂钩。不同应用场景的风险等级应通过民主程序界定,当前缺乏AI开发者实施问责机制的成本数据支撑决策。
-
基础安全实践赋能AI风险识别
- 现有AI系统普遍未遵循基础软件安全规范(如IEC 61508、NIST 800-154)。采用这些实践可作为开发AI专属问责机制的第一步。
- 技术评估不仅支持纯技术目标,更是验证系统整体行为是否符合社会技术、法律主张的必要工具。
-
反对通用许可制度的技术理由
- AI系统本质是软件系统的延伸,其开发机制与传统软件无异。通用许可制将因AI组件的广泛性导致过度监管,应参照现有行业监管模式,仅对安全关键应用实施安全认证。
-
独立审计的技术必要性
- 借鉴安全关键领域的成熟经验,强调第三方审计机构(而非供应商)对评估AI系统可信度的关键作用。独立性是保证评估准确性和监管结果公信力的技术基石。
技术实施路径
报告建议将网络安全和安全关键领域的成熟方法论作为构建AI专属问责机制的基础,包括:
- 采用形式化方法验证系统行为边界
- 建立可追溯的软件物料清单(SBOM)
- 实施持续监控的运行时验证机制
文末呼吁行业共同推动新型AI审计技术的发展,并附有完整政策回应文件的GitHub链接。