一年前,某机构与国家科学基金会宣布投入2000万美元开展为期三年的AI公平性研究合作。首轮资助的十个项目已正式公布。国家科学基金会计算机与信息科学工程部副主任Erwin Gianchandani就该项目回答了三个关键问题:
1. AI公平性面临哪些挑战?
主要存在四方面挑战:
- 定义公平性:需要建立数学化的公平性标准,例如确保算法在不同群体中保持一致的统计指标(如成功率)。但公平性存在多种哲学定义,需在抽象层面达成共识才能指导系统设计。
- 系统问责机制:当AI系统做出不公平决策时,需明确责任归属。关键在于让用户理解系统决策依据,从而做出知情判断。
- 促进社会公平:探索如何利用AI改善资源分配(如医疗资源、防止无家可归等),通过数据分析推动社会公平。
- 技术普惠性:确保AI系统(如人脸识别、语音识别)在不同种族、社会经济背景的用户中具有同等性能。
2. 资助项目如何应对这些挑战?
- 定义公平性:某项目针对刑事司法系统的累犯预测,建立输入输出参数的公平性边界评估框架(如收入、负债等金融特征)。
- 系统可解释性:通过可视化深度神经网络的完整生命周期(数据准备、特征提取、优化目标),帮助用户理解决策过程。
- 医疗公平研究:分析心脏手术后种族差异的成因(生物因素、社会经济因素、医疗资源差异等),通过电子健康记录数据定位不平等根源。
3. 公私合作的价值体现在哪些方面?
- 问题导向研究:学术界能基于产业界实际需求开展"应用启发型"研究。
- 资源共享:企业提供云计算资源和海量数据,加速学术研究。
- 成果转化:借鉴企业经验将实验室成果快速落地。
- 人才培养:让学生接触产业界真实问题,培养未来AI领域所需的公平性研究人才。