AI与合规:在法律与监管的正确方向上保持前行
缺乏周密规划,AI项目可能陷入法律与监管的雷区。本文探讨由幻觉、基础错误和即将出台的法规所带来的风险。
监管滞后与技术发展
人工智能(AI)的法规和法律框架目前落后于技术的应用速度。生成式AI(GenAI)的兴起将人工智能推到了组织现代化计划的前沿,但迄今为止,大多数开发是在监管真空中进行的。
监管机构正在匆忙追赶。根据行业分析师Gartner的数据,从2024年第一季度到2025年第一季度,全球推出了超过1000项拟议的AI法规。首席信息官(CIO)需要立即行动,以确保AI项目在Gartner副总裁分析师Nader Henein警告的“将是一个彻底的混乱”的监管环境中合规。
AI供应商及其客户的失误导致了一系列问题,包括隐私和安全漏洞、偏见和错误,甚至幻觉——AI工具产生不基于事实的答案。最引人注目的AI问题示例是幻觉。在这里,AI应用程序——通常是GenAI或大型语言模型(LLM)——产生一个不基于事实的答案。甚至有建议指出,最新的GenAI模型比先前版本更容易产生幻觉。OpenAI自己的研究发现,OpenAI的o3和o4-mini模型更容易出现幻觉。
错误与偏见
GenAI可能犯基本错误、事实错误,并容易产生偏见。这取决于系统训练的数据以及算法的工作方式。然而,偏见可能导致冒犯性结果,甚至歧视社会某些群体。这对所有AI用户来说都是一个担忧,尤其是在医疗保健、执法、金融服务和招聘等领域。
政府和行业监管机构越来越希望控制AI,或至少确保AI应用程序在现有的隐私、就业法律和其他法规范围内运作。一些机构走得更远,例如欧盟(EU)及其AI法案。在欧盟之外,更多监管似乎不可避免。
Gartner的Henein表示:“目前,英国几乎没有监管。信息专员办公室(ICO)和科学、创新与技术部国务大臣Chris Bryant都表示,预计在未来12到18个月内会有AI监管。我们不期望它是欧盟AI法案的复制品,但我们确实预期会有相当程度的一致性,特别是在高风险AI系统和可能被禁止的AI使用方面。”
AI法律与治理
AI受一系列有时重叠的法律和法规管辖。这些包括数据隐私和安全法律,以及在没有法律制裁支持的情况下围绕AI使用设定标准的指南和框架。
Digitate欧洲大陆首席技术官Efrain Ruh表示:“像欧盟AI法案这样的AI监管框架基于风险评估,特别是这些新技术可能对人们施加的风险。然而,广泛的应用和该领域创新的加速步伐使监管机构很难定义围绕AI技术的具体控制。”
过多的规则使组织难以合规。根据帮助小企业充分利用GenAI的公司AIPRM的研究,美国有82项AI政策和策略,欧盟有63项,英国有61项。其中,突出的法律是欧盟的人工智能法案,这是其第一个“横向”AI法律,管辖AI,无论其使用地点或方式。但美国的《安全、可靠和可信赖的人工智能开发和使用行政命令》也为AI安全、隐私和安全设定了标准。
此外,国际组织如OECD、UN和欧洲委员会已经开发了AI框架。但国际机构和国家立法者面临的任务远非易事。
转向合规
幸运的是,组织可以采取步骤确保合规。首先是确保CIO知道AI在组织中的使用位置。然后,他们可以审查现有法规,如GDPR,并确保AI项目遵守它们。但他们还需要监控新的和发展中的立法。例如,AI法案要求AI的透明度和人类监督,Sify Technologies首席解决方案官Ralf Lindenlaub指出。
董事会也越来越意识到“负责任AI”的必要性,根据Amazon Web Services全球高级AI专家Willie Lee的说法,84%的高管将其列为优先事项。他建议所有AI项目都以透明度处理,并伴随彻底的风险评估以识别潜在危害。Lee表示:“这些是正在编写的法规的核心理想。”
Digitate的Ruh表示:“基于AI的解决方案需要从一开始就建立正确的防护措施。未能这样做可能导致意外事件,对公司的形象和收入产生巨大负面影响。”