责任与治理挑战在AI时代
当欧盟《人工智能法案》于2024年生效时,它标志着全球首个全面的人工智能监管框架诞生。该法律引入了基于风险的义务——从最低到不可接受——并规范了透明度、问责制和测试要求。但更重要的是,它引发了一个更广泛的辩论:当AI系统造成损害时,谁应承担责任?
欧盟框架传递了一个明确信号:责任不可外包。无论AI系统是由全球模型提供商开发,还是嵌入到企业工作流程中,问责制都贯穿整个生态系统。大多数组织现在认识到AI价值链中的不同层次:
- 模型提供商:负责训练和分发核心大语言模型
- 平台提供商:将模型打包成可用产品
- 系统集成商和企业:构建和部署应用程序
每个层次都承担着不同但重叠的责任。模型提供商必须对其训练使用的数据和算法负责。平台提供商虽然不参与训练,但在模型的访问和配置方式上扮演关键角色,包括身份验证、数据保护和版本控制。企业不能因为未构建模型而推卸责任——他们被期望实施防护措施,如系统提示或过滤器,以减轻可预见风险。最终用户通常不承担责任,但存在恶意或欺骗性使用的边缘案例。
在美国,由于没有全面的AI法律,一系列行政行动、机构指南和州法律开始塑造期望。美国国家标准与技术研究院(NIST)的AI风险管理框架(AI RMF)已成为事实上的标准。尽管是自愿性的,但它越来越多地在采购政策、保险评估和州立法中被引用。例如,科罗拉多州允许"高风险"AI系统的部署者将符合NIST框架作为法律辩护理由。
即使没有法定授权,偏离广泛接受框架的组织也可能面临过失理论的追责。部署生成式AI的美国公司现在被期望记录他们如何"映射、测量和管理"风险——这是NIST方法的核心支柱。这强化了一个原则:责任不会随着部署而结束。无论监管管辖区如何,都需要持续监督、可审计性和技术保障。
防护栏和缓解策略
对于在企业工作的IT工程师来说,了解他们的责任期望至关重要。
防护栏构成了企业AI治理的支柱。在实践中,防护栏将监管和道德义务转化为可操作的工程控制,保护用户和组织。它们可以包括用户输入的预过滤、在敏感关键词到达LLM之前进行阻止,或通过系统提示强制执行结构化输出。更高级的策略可能依赖检索增强生成或领域特定本体来确保准确性并减少幻觉风险。
这种方法反映了更广泛的企业责任实践:组织不能事后纠正外部系统的缺陷,但他们可以设计策略和工具来减轻可预见风险。因此,责任不仅附着在AI模型的起源上,也附着在部署过程中应用的安全保障质量上。
这些控制日益不仅仅是内部治理机制——它们也是企业证明符合新兴标准(如NIST的AI风险管理框架和期望操作化风险缓解的州级AI法律)的主要方式。
数据安全和隐私考虑
虽然防护栏有助于控制AI的行为方式,但它们不能完全解决处理敏感数据的挑战。企业还必须就AI处理信息的地点和方式做出慎重选择。
云服务提供可扩展性和尖端性能,但需要将敏感数据传输到组织边界之外。相比之下,本地或开源模型最小化暴露风险,但带来更高成本并可能引入性能限制。
企业必须了解传输到模型提供商的数据是否可以被存储、重新用于训练或为合规目的而保留。一些提供商现在提供具有数据保留限制(例如30天)和明确选择退出机制的企业选项,但组织间的认知差距仍然是严重的合规风险。
测试和可靠性
即使有了安全的数据处理,AI系统仍然是概率性的而非确定性的。输出根据提示结构、温度参数和上下文而变化。因此,传统的测试方法是不够的。
组织越来越多地尝试多模型验证,其中比较两个或多个LLM的输出(LLM作为评判者)。模型间的一致可以被解释为更高的置信度,而分歧则表明不确定性。然而,这种技术提出了新问题:如果模型共享相似的偏见,它们的一致可能只是强化错误怎么办?
因此,测试工作的范围和成本预计将扩大。企业需要结合系统性防护栏、统计置信度测量和场景测试,特别是在医疗保健、金融或公共安全等高风险领域。
然而,严格的测试本身无法预测AI系统可能被滥用的每一种方式。这就是"功能性红队测试"的作用:故意模拟对抗性场景(包括最终用户尝试利用合法功能),以发现标准测试可能遗漏的漏洞。通过将系统性测试与红队测试相结合,企业可以更好地确保AI系统安全、可靠,并能抵御意外错误和故意滥用。
劳动力缺口
即使是最强大的测试和红队测试,如果没有熟练的专业人员来设计、监控和维护AI系统,也无法成功。
除了责任和治理,生成式AI正在重塑技术劳动力本身。入门级编码任务的自动化导致许多公司减少初级职位。这种短期效率增益带来长期风险。没有进入行业的切入点,能够管理、测试和编排高级AI系统的熟练工程师渠道可能在未来十年大幅收缩。
与此同时,对具有跨架构、测试、安全和AI代理编排专业知识的全能工程师的需求正在上升。这些"独角兽"专业人士很罕见,如果没有系统性的教育和 mentorship 投资,人才短缺可能破坏负责任AI的可持续性。
结论
将LLM集成到商业和社会中需要多层次的责任方法。模型提供商被期望确保训练实践的透明度。企业被期望实施有效的防护栏,并与不断发展的法规和标准保持一致,包括广泛采用的框架,如NIST AI RMF和欧盟AI法案。工程师被期望在各种条件下测试系统。政策制定者必须预见对劳动力的结构性影响。
AI不太可能消除对人类专业知识的需求。没有熟练的人类指导,AI不可能真正负责任。只有在经过培训设计、监控和干预AI系统的专业人员的支持下,治理、测试和保障措施才能有效。因此,投资于劳动力发展是负责任AI的核心组成部分——没有它,即使是最先进的模型也面临误用、错误和意外后果的风险。