机器学习大学推出负责任AI课程
某中心机器学习大学(MLU)近期推出新课程"负责任AI——偏差缓解与公平性标准"。在这个免费公开的在线课程中,学员将学习负责任AI的多个维度,包括如何准备数据、在模型训练过程中缓解偏差,以及偏差缓解和公平性的其他方面。
该课程与某机构云服务新推出的AI服务卡片形成互补,这些卡片提供关于预期使用案例和限制的负责任AI文档。
课程结构与受众
负责任AI是一门入门级课程,面向技术人员,旨在解释AI系统中偏差的来源、测量方法,以及最终如何尽可能缓解偏差。学习本课程不需要机器学习知识,但熟悉Python编程和高中水平的数学会有帮助。
除了录制的讲座外,课程还提供白皮书、使用云服务服务的代码示例和其他在线资源。在最终项目中,学员需要实施自己选择的偏差缓解技术,以减少模型结果在不同亚群体间的差异。
课程提供大量关于如何构建机器学习模型的基础材料,是从决策树和集成方法到自然语言处理等所有其他MLU课程的良好入门。
课程开发背景
该课程的推出既出于业务需求,也源于个人热情。随着接触更多机器学习项目,注意到项目组成员中男性占多数,这引发了对身份多样性、代表性和机器学习解决方案开发中潜在问题的思考。
在业务方面,看到越来越多的法规要求,如欧盟的《通用数据保护条例》(GDPR)和《人工智能法案》,或美国的《主要理由框架》。这无疑使人们对该主题产生更多兴趣。
与遵守法规同样重要的是,某机构云服务的目标是负责任地使用和开发ML和AI系统。最终,测量和缓解偏差对于建立信任和评估AI系统及模型的风险是必要的。未能缓解偏差可能导致信任丧失并使客户亚群体处于不利地位。
课程内容设计
课程旨在涵盖机器学习生命周期每个阶段的偏差方面。在开始收集课程材料时,注意到没有任何免费课程同时涵盖理论和代码的完整ML流程。
许多其他课程只关注一个子组件,例如在训练模型之前测量偏差。本课程希望为生命周期的每个阶段提供实用的实践技能和代码示例,从机器学习问题的构思一直到部署。
偏差实例说明
人们尝试解决的一个常见机器学习问题是分类,模型提供不同类别的结果,例如"批准"或"拒绝",或者是否向某人展示广告。
机器学习模型对具有不同属性的一个亚群体的表现可能远好于另一个亚群体。关键在于拥有某种公平性度量,希望在不同亚群体中强制执行,以尽可能减少差异。
学员反馈
总体而言,课程获得了非常积极的反馈,是讨论最活跃的课程之一。许多学员的"顿悟时刻"是:可以制作一个公平的算法,但这并不意味着它是高性能的。
例如,可能有一个拒绝所有申请者的模型。从技术上讲,这是公平的——每个人都得到相同的结果——但显然也是不可取的。学员们常常惊讶地发现,需要两个指标来评估机器学习模型:性能和公平性。不能只做其中一个。
课程目标
希望学员明白没有一种唯一正确的方法。有许多不同的偏差缓解技术,这对机器学习生命周期的每个组成部分都适用。关键是尝试理解偏差的来源,而不是盲目假设没有任何偏差。
还希望学员认识到,有一些科学方法可以在实践中用于帮助缓解偏差。很多时候,人们观察甚至量化偏差问题,但不知道该如何处理。这门科学非常新,但正在取得巨大进步,并且已经达到可以在实践中用于缓解偏差的程度。
机器学习大学(MLU)为任何人在任何时间、任何地点提供与用于培训某中心自家开发人员的机器学习课程相同的学习资源。