机器学习模型去偏开源代码发布

某中心发布开源代码库,通过约束贝叶斯优化技术调整模型超参数,在保证性能的同时减少机器学习模型中的偏见。该方法支持多种公平性度量标准,可有效平衡准确率与公平性。

某中心发布帮助减少机器学习模型偏见的新代码

近年来,算法偏见已成为机器学习的重要研究课题。由于训练数据不平衡等因素,机器学习模型可能对不同用户群体产生不同结果,而理想情况下应对所有群体一视同仁。

在某人工智能与伦理会议上,研究人员发表论文展示如何通过调整模型超参数来帮助减轻偏见。该方法基于贝叶斯优化技术,同时建模两个函数:一个关联超参数与模型准确率,另一个关联超参数与公平性度量。该方法对公平性度量的选择保持中立。

公平贝叶斯优化方法实践

以德国信贷数据集为例,该数据集用于预测个人信贷风险的二分类任务。数据集存在不平衡问题,正例数量是负例的两倍多。若聚焦于外国与本地工人两个子群体,不平衡更为明显。

使用该方法需要:

  1. 选择基础模型(如随机森林)及其待调优的超参数
  2. 选择公平性度量标准(如统计奇偶差异DSP)
  3. 设置公平性约束条件

实验结果对比

经过50次迭代实验,标准贝叶斯优化可能陷入高准确率但不公平的区域,而约束贝叶斯优化能够专注于超参数空间的公平区域,找到更准确的公平解决方案。

该代码已通过某中心AutoML框架AutoGluon发布,并提供了完整的使用教程。

comments powered by Disqus
使用 Hugo 构建
主题 StackJimmy 设计