贝叶斯优化实现AI公平性突破

研究人员通过改进贝叶斯优化方法,提出了一种适用于任何机器学习模型和公平性准则的通用框架。该方法通过在超参数优化过程中施加公平性约束,确保AI系统在不同用户群体中保持性能一致性,同时维持模型准确性。

某中心研究人员因促进AI公平性获最佳论文奖

在国际机器学习会议(ICML 2020)的第七届自动化机器学习研讨会上,某中心研究人员凭借题为《公平贝叶斯优化》的论文获得最佳论文奖。该论文致力于解决确保AI系统公平性的问题,这一主题近年来受到越来越多关注。

大多数关于AI公平性计算方法的研究(与政策方法或社会学方法相对)都专注于特定的公平性准则或特定类型的机器学习系统。某中心的研究团队——包括机器学习科学家Valerio Perrone、应用科学家Michele Donini、首席应用科学家Krishnaram Kenthapadi和首席应用科学家Cédric Archambeau,均来自某机构云服务部门——着手开发一种适用于任何公平性准则或任何类型机器学习系统的方法。

他们的方法是在优化机器学习模型的超参数时强制执行公平性约束:超参数是模型的结构特征或模型学习算法的参数,可以针对特定任务或训练数据集进行调整。例如,在神经网络模型中,超参数包括网络层数和每层的处理节点数;而在基于决策树的模型中,超参数可能包括决策树的数量或深度。

研究人员在论文中表明,修改超参数足以提供准确性和公平性的保证,并且这种方法与先前的方法(如在模型训练期间强制执行公平性约束或预处理训练数据以减少偏差)同样有效。然而,与这些方法不同,它适用于各种任务和模型。

双重分布

机器学习模型的超参数通常使用贝叶斯优化(BO)进行调整,这是一种寻找未知且采样成本高昂的函数最优值的方法。在超参数优化的情况下,该函数将特定的超参数设置与所得模型的准确性相关联。

由于该函数是未知的,优化过程通过采集输入-输出对的样本来探索它。BO提供了一种指导采样过程的方法,使其快速收敛到可能的最优值。

具体而言,BO假设函数的输出符合某种概率分布——通常是高斯分布。随着采样过程的进行,BO会改进对分布的估计,从而指导新采样点的选择。

某中心研究人员修改了这一过程,使其涉及两个分布:一个描述模型输出的准确性,另一个描述模型在某种公平性度量上的得分。然后选择新样本,目的是找到同时最大化准确性并满足特定公平性约束的超参数。

通常,公平性约束要求模型在不同用户子组中表现出相似的性能。研究人员的方法适用于具有这种一般形式的任何公平性约束。

在探索使用高斯分布来近似函数输出的BO时,研究人员的论文在某种程度上是另一篇在今年的ICML上获奖的论文《bandit设置中的高斯过程优化:无遗憾和实验设计》的续篇,该论文的合著者包括某机构云服务部门的首席应用科学家Matthias Seeger。Seeger的论文获得了会议的时间检验奖,特别是因为BO已被证明对超参数优化非常有用。

comments powered by Disqus
使用 Hugo 构建
主题 StackJimmy 设计