美国国家科学基金会与某机构联合公布最新AI公平性资助项目
美国国家科学基金会(NSF)与某机构宣布从最新提案中遴选出13个研究项目。这些项目将获得总计950万美元资助,重点解决人工智能和机器学习技术中的不公平与偏见问题,具体包括:
-
可解释AI医疗决策框架
杜克大学团队开发基于匹配技术和决策树的因果推断框架,用于重症患者治疗策略制定,确保医生可追溯算法决策过程(资助金额:62.5万美元)。 -
公平表征学习算法
密歇根州立大学研究数据表征的效用与公平性平衡,通过理论分析和算法改进提升人脸识别系统的公平性(资助金额:33.2万美元)。 -
无障碍语音识别新范式
伊利诺伊大学团队建立针对方言、二语口音及残障人士的语音识别测试标准,开发开源训练方法确保技术普适性(资助金额:50万美元)。 -
基于规范经济学的AI公平性
哈佛大学将福利经济学理论引入AI公平性研究,应用于难民安置决策系统优化(资助金额:56万美元)。 -
阈值无关的公平AI系统
爱荷华大学提出新型训练方法,使公平约束模型能适应不同应用场景(资助金额:50万美元)。
其他重点项目涉及:
- 马里兰大学开发的STEM研究生公平录取与毕业预测系统
- 康涅狄格大学的医疗信息偏见检测技术(BRIMI)
- 宾夕法尼亚大学突破"公平性-准确性"权衡的理论研究
- 匹兹堡大学面向农业监测与灾害管理的空间公平深度学习框架
所有项目均通过NSF独立评审,某机构仅提供部分资金支持。这是双方自2019年启动"AI公平性计划"以来的第三批资助项目,此前已支持21项研究。技术成果将开源共享,涵盖算法框架、测试工具及实际系统集成方案。