如今,很难找到一家尚未在其运营中实施人工智能或未在认真考虑实施的企业。无论是为了提高效率、最大化数据价值还是降低风险,其好处都是不可否认的。
然而,随着AI技术变得更加复杂并嵌入业务流程,董事会面临着新的责任和挑战。AI政策的影响现在已成为董事会层面的议题,需要战略监督、风险管理以及对道德领导的承诺。
董事会在AI监督中的角色
董事会历来负责设定组织的使命和愿景并批准其战略。目前,这包括对AI计划的监督。无论是批准对AI驱动分析工具的投资,还是审查公司对生成式AI工具的使用,董事会都必须确保AI与组织的目标和价值观保持一致。
许多公司已通过将AI监督职责分配给风险或审计委员会来应对——有些甚至设立了专门的AI委员会。目标是提供知情的、主动的治理,在创新与问责之间取得平衡。董事会应评估诸如组织AI计划的复杂性和规模、内部AI专业知识的水平以及现有委员会结构等因素。
拥有广泛或高风险AI应用的机构可能会受益于专门的AI委员会,以确保重点监督和跨职能专业知识;而AI使用范围较有限的机构,则可将监督整合到风险或审计委员会中,并辅以有针对性的教育和资源。
AI对治理的益处
AI不仅仅是需要管理的风险;它也是提升董事会效能的强大工具。AI可以自动化例行任务,如会议安排和数据分析,从而解放董事的时间用于更高级别的战略讨论。AI驱动的仪表板还可以呈现关键绩效指标,标记新出现的风险,甚至根据组织优先级建议议程项目。
通过采用这些工具,董事会可以做出更好、更快的决策,并专注于引导他们所服务的组织走向长期成功。
关键风险与挑战
尽管前景广阔,AI也带来了董事会必须应对的重大风险。最首要的担忧之一是数据隐私和安全。随着AI系统处理大量敏感信息,数据泄露和潜在监管处罚的风险也随之增加。董事会应确保健全的数据治理和网络安全措施切实到位。
为此,董事会应与包括首席信息官、首席风险官和法律顾问在内的执行领导团队密切合作,为数据访问、加密以及遵守欧盟《通用数据保护条例》和《加州消费者隐私法案》等法规制定明确的政策。
实施持续监控并对AI系统进行定期审计,有助于及早发现漏洞。此外,在整个组织内建立数据责任文化,确保所有员工都理解自己在保护数据完整性和隐私方面的角色。
另一个关键问题是偏见和透明度。AI可能会延续甚至放大现有偏见,导致不公平的结果和声誉损害。某些AI模型的“黑箱”特性,或其内部决策过程对用户不可见或不可理解,进一步使问题复杂化。这种不透明性使得董事会难以完全掌握AI如何得出特定输出或决策,从而增加了无意偏见或错误未被察觉的风险。
此外,AI生成的内容可能会无意中侵犯知识产权或传播错误信息,使组织面临法律和声誉双重风险。有缺陷的算法或对AI的滥用可能会侵蚀利益相关者的信任,招致法律审查,并削弱公司的竞争优势。
鉴于这些挑战,董事会必须了解与AI相关的全部风险,并在其升级为危机之前实施全面的政策来缓解这些风险。持续的教育对此至关重要。董事会应定期接受关于新兴AI风险、道德考量、监管变化和最佳治理实践的培训和更新。
此类培训最好通过独立的第三方专家、学术机构或专注于董事会级别教育的公认AI治理组织来提供。结合实用框架、案例研究和基于场景学习的项目,能使董事们有能力在AI监督和战略决策中进行知情的参与。
制定有效的AI政策
在制定有效的AI政策方面,董事会在帮助他们所服务的组织内设定负责任AI使用的基调和方向方面发挥着关键作用。该过程始于管理层对当前和整个企业内潜在的AI用例进行全面评估,确保清楚地了解AI的部署位置以及所涉及的特定风险。
在管理层界定了什么是可接受和禁止的AI使用之后,董事会应审查这些措施并予以批准,以确保这些指导方针优先考虑道德并符合组织的核心价值观。设定稳健的数据治理标准,制定解决数据隐私、安全性以及AI系统人工监督必要性的政策,对于内部以及与所有第三方供应商的外部合作都至关重要。了解公司供应商如何使用AI,对于确保他们的AI工具不被用来对付你是至关重要的。
最后,董事会应与管理层合作,实施持续监控AI性能的流程,这包括系统的效率、准确性以及与组织价值观的一致性,通过检测诸如偏见或幻觉等问题。追踪关键绩效指标,包括公平性指标、可解释性、错误率和操作响应能力,有助于实现主动治理。对结果的定期审计和政策的更新,确保组织在技术和法规发展过程中保持敏捷和合规。
利益相关者参与和沟通
AI政策不仅仅是内部事务。董事会应积极考虑关键利益相关者的利益,包括客户、员工、监管机构和更广泛的社区。就AI如何在组织内使用和治理进行透明的沟通,有助于建立信任并展示对负责任创新的承诺。
董事会应确保管理层清晰地向内部和外部传达AI政策,并将利益相关者的反馈纳入政策制定过程。董事会通常通过管理层获取利益相关者反馈,管理层可以实施正式的机制,如调查、焦点小组、咨询委员会和公共论坛,从客户、员工、监管机构和社区代表那里收集意见。
一些组织还采用结构化框架,如多方利益相关者参与模型,或将反馈渠道整合到其AI治理流程中,以确保持续、有意义的对话。管理层应定期向董事会报告汇总的见解和任何关键问题,使董事会能够在政策制定和监督中考虑不同的观点。
可操作的AI董事会建议
董事会在构建公司的AI使用和治理模型时,可以采取以下行动:
- 发现企业中真实使用AI的地方。影子信息技术和影子AI是真实存在的,它们就在眼皮底下发生。董事会无法管理或保护其看不见的东西。
- 要求管理层使用数据流图(包括宏观或企业层面以及微观或业务单元层面)对企业的AI使用进行威胁建模。
- 理解数据、隐私和信任边界在企业内部如何运作,因为AI改变了数据流动方式。这可能会影响内部和外部团队之间的信任边界。
- 要求管理层制定AI产品和供应商风险管理问卷,供审计过程中使用。
- 在业务和IT团队中建立一个AI倡导者网络,以了解和定义何为“正常”,这样董事会就会知道何时出现偏差或异常。
规划负责任的未来道路
随着AI迅速重塑商业格局,董事会再也不能采取袖手旁观的态度。那些董事会愿意提出尖锐问题、挑战假设并为负责任的AI使用设定明确护栏的组织将会蓬勃发展。这关乎赢得信任、保护企业品牌,以及释放AI作为创新和增长驱动力的全部潜力。
AI的未来正在今天世界各地的董事会会议室中书写。董事们应确保他们组织的故事是关于远见、正直和领导力的故事。
本文所表达的观点为作者个人观点,不代表NACD的立场。
Optiv是NACD的赞助商,为董事们提供关键和及时的信息与观点。Optiv是NACD的财务支持者。
本文最初作为NACD Directorship™ Online文章发表。经许可转载。