人工智能伦理:从原则到实践的技术治理
当某机构新兴技术与智能平台组的高级实践经理迪亚·温在2020年底创建某云服务负责任AI团队时,她开始寻找可以合作的思想领袖。人工智能和机器学习技术正在改变游戏规则,虽然具有显著优势,但也存在潜在风险。
随着这些强大技术的部署,某云服务的客户面临从法律问题到伦理困境的一系列潜在问题。企业高层领导者逐渐意识到,他们的组织缺乏应对这些风险的人员、制度知识和实践。客户正在寻求关于如何负责任地使用AI工具的指导。
强大技术带来的意外后果
对布莱克曼而言,企业AI伦理实际上关乎智能系统的设计,这些系统处理特定、狭窄任务的效率远超人类。在看似无限的数据驱动下,机器学习实现了自动化决策,产生了比以往更快、更准确的结果。
然而,这类系统也被证明可能存在缺陷或产生意外后果,对公司的声誉和利润造成重大损害。随着基于AI的产品和服务日益成为全球经济的组成部分,监督的必要性变得愈发明显。
响应"警报铃声"
布莱克曼的哲学背景为思考AI影响提供了有用基础。毕竟,道德责任行为是大多数关于人性讨论的核心。但在2018年,他注意到AI在商业中的应用虽然仍处于起步阶段,却呈现爆发式增长。
“那是2018年,我意识到工程师们正在就AI对社会的影响敲响警钟,“布莱克曼提到剑桥分析公司丑闻的余波。
到2020年和2021年,关于AI伦理和责任的讨论达到白热化程度。布莱克曼提出了一个独特的观点,区分了两个群体:追求"AI向善"和"AI不恶”。
“那些在’AI向善’群体中的人会问:‘我们如何利用AI这个强大工具创造积极的社会影响?’“布莱克曼解释道,“这通常是企业社会责任的范畴,他们的目标背后很少存在商业模式。”
“而’AI不恶’是关于风险缓解。这些人有一个目标,可能具有伦理特征也可能没有,比如向人们提供贷款、面试求职者、诊断疾病和推荐治疗方案,他们会问:‘我们如何在使用AI帮助完成这些事情时,不在伦理上搞砸?’”
实现"向善"与"不恶"的路径
布莱克曼指出,企业长期努力寻找创建和维护道德健全组织的方法,而AI增加了新的复杂性层次。确保他们使用的工具准确、可靠并基于健全科学是一项具有挑战性的任务。
他特别强调,高级领导者(特别是CEO和COO)认为这是需要工程师和数据科学家解决的技术问题,这种观点是错误的。
“最终,这取决于高级领导层,“布莱克曼说,“初级工程师和数据科学家想做正确的事,但事实是,只有在有自上而下的正确执行策略的条件下,才能系统性地设计、开发、采购和部署符合道德责任的工具。更重要的是,你不能通过数学方法解决这些问题。数据科学家需要相关专家的支持,这些专家可以帮助做出定性判断,这是任何健全伦理风险评估的必要特征。”
建立合作伙伴生态系统
对温来说,构建"合作伙伴生态系统"是扩展某云服务工作规模的关键方法。客户开始越来越多地询问关于AI和ML的问题。
“我们的一贯回应方式是通过负责任AI框架在组织中实例化原则,在参与中提供战略指导,利用符合负责任AI原则的服务和工具,“温解释道。
“我们已经打开了潘多拉魔盒,无法关闭它,“温说,“我们在运用AI这种巨大力量时应该做什么,并确保它不会造成伤害?”
布莱克曼补充说,与某云服务合作是一个强大的伙伴关系。“将我们在定性评估、伦理技术和软件工程方面的集体经验结合起来为客户服务具有巨大价值,“温赞同道。