国家科学基金会与某机构合作资助11个AI公平性研究项目
该项目支持计算研究,目标是创建可信赖的AI系统,以解决社会重大挑战。
2021年2月10日
2019年,国家科学基金会(NSF)与某机构宣布合作加速AI公平性研究,每个组织承诺在随后三年内各提供高达1000万美元的资助。去年,NSF宣布了首批获得资助的10个项目。35名研究人员获得了资金支持,项目涉及四个广泛的研究领域:
- 确保算法及包含算法的系统的公平性——从公平性的定义和量化开始;
- AI算法的问责制和透明度;
- 利用AI促进社会公平;
- 确保AI的惠益普及所有人。
今年,NSF宣布了下一批37名研究人员,专注于11个项目,涵盖一系列主题,包括:
- 理论和算法基础;
- 人类与AI系统交互的原则;
- 自然语言理解和计算机视觉等技术;
- 以及包括招聘决策、教育、刑事司法和人类服务在内的应用。
“我们很高兴看到NSF选择了一组极具才华的研究人员,他们的研究工作受到多元视角的启发,”某机构自然理解副总裁表示。“随着AI技术在我们日常生活中越来越普遍,AI公平性成为一个日益重要的科学领域。我们很高兴与NSF合作,通过支持世界顶级研究团队的工作来加速这一领域的进展。”
“NSF正在与某机构合作,支持今年这批AI公平性项目,”NSF信息与智能系统部门主任Henry Kautz表示。“理解如何基于公平、透明和可信赖的原则设计AI系统,将推动AI应用的边界。它将帮助我们建立一个更公平的社会,所有公民都可以成为这些技术的设计者并从中受益。”
有关此AI公平性项目的更多信息,可在NSF网站上及其项目更新中获取。以下是2021年获奖者名单及其项目概述。
人在循环中的机器学习公平性
“该项目旨在通过建立一个分析、算法和实验框架,捕捉顺序学习和决策过程、基础用户群体的行动和动态及其福利,来理解自动化机器学习算法做出的公平决策的长期影响。”
首席研究员:Yang Liu
共同首席研究员:Mingyan Liu, Parinaz Naghizadeh Ardabili, Ming Yin
机构:加州大学圣克鲁兹分校
资助金额:625,000美元
项目描述
公共部门算法在循环决策的端到端公平性
“该项目的目标是开发方法和工具,协助公共部门组织进行公平和公正的政策干预。在住房和刑事司法等领域,影响生活、家庭和社区的关键决策由各种行为者做出,包括城市官员、警察和法院法官…”
首席研究员:Daniel Neill
共同首席研究员:Constantine Kontokosta, Ravi Shroff, Edward McFowland
机构:纽约大学
资助金额:625,000美元
项目描述
医学中公平AI的基础:确保患者属性的公平使用
“当前部署的医学机器学习模型可能表现出公平使用违规,损害健康结果。该项目在医学机器学习部署的关键阶段减轻公平使用违规:验证、模型开发和沟通…”
首席研究员:Flavio Calmon
共同首席研究员:Elena Glassman, Berk Ustun
机构:哈佛大学
资助金额:625,000美元
项目描述
组织众包审计以检测机器学习偏见
“该项目将探索三个主要研究问题。首先是调查招募和激励多样化众包参与的新技术。第二是开发新的有效形式的指导,帮助众包工作者发现偏见的实例并推广这些实例。第三是设计新的方式来综合众包的发现,以便开发团队能够理解并富有成效地采取行动…”
首席研究员:Jason Hong
共同首席研究员:Motahhare Eslami, Ken Holstein, Adam Perer, Nihar Shah
机构:卡内基梅隆大学
资助金额:625,000美元
项目描述
使用机器学习解决人员选择中的结构性偏见
“今天,美国的人员选择从业者主要受到两股知识的指导:1)与就业机会相关的法律前沿发展,2)社会、行为和经济科学中指导人员选择中接受的专业实践的发现积累…该研究项目专注于弥合差距,建立机器学习作为人力资源管理人员选择系统设计的第三支柱…”
首席研究员:Nan Zhang
共同首席研究员:Heng Xu, Mo Wang
机构:美国大学
资助金额:624,485美元
项目描述
面向自适应和交互式事后解释
“该提案有三个关键重点领域。首先,该提案将开发一个新的正式框架,用于生成自适应解释,这些解释可以定制以考虑感兴趣的亚组和用户配置文件。第二,该提案将通过动态整合用户输入,促进解释作为交互式通信过程。最后,该提案将改进现有的自动评估指标,如充分性和全面性,并开发新的指标,特别是对于未充分研究的全局解释…”
首席研究员:Chenhao Tan
共同首席研究员:Yuxin Chen, Himabindu Lakkaraju, Sameer Singh
机构:芝加哥大学
资助金额:375,000美元
项目描述
使用AI通过改善司法访问来增加公平性
“该项目应用人工智能(AI)通过改善公众对司法的访问来增加社会公平。尽管许多AI工具已经可供律师事务所和法律部门使用,但这些工具通常无法触及公众成员和法律服务从业者,除非通过昂贵的商业付费墙。研究团队将开发两种工具,使法律来源更易理解:法定术语解释支持(STATIS)和案例论证摘要(CASUM)…”
首席研究员:Kevin Ashley
共同首席研究员:Diane Litman
机构:匹兹堡大学
资助金额:375,000美元
项目描述
公共政策中的公平AI——在教育、刑事司法及健康与人类服务的ML应用中实现公平社会结果
“该项目通过改进理解如何以公平和负责任的方式将ML方法应用于高风险、真实世界设置,来推进机器学习(ML)服务社会公益的潜力…”
首席研究员:Hoda Heidari
共同首席研究员:Olexandra Chouldechova, Rayid Ghani, Zachary Lipton, Christopher Rodolfa
机构:卡内基梅隆大学
资助金额:375,000美元
项目描述
计算机视觉系统中的整体偏见缓解
“随着人工智能(AI)系统在改变生活的决策中越来越多地使用,例如雇佣或解雇个人或监禁刑期长度,对这些系统的公平性越来越关注。需要保证AI系统不对人口部分存在偏见。该项目旨在缓解计算机视觉领域中的AI偏见,计算机视觉是推动最近一种流行AI形式(称为深度学习)进展的驱动应用…”
首席研究员:Nuno Vasconcelos
机构:加州大学圣地亚哥分校
资助金额:375,000美元
项目描述
测量和缓解通用图像表示中的偏见
“该项目将研究当前计算视觉识别方法和模型中存在的社会偏见,这些方法和模型被广泛用作通用视觉表示的来源…”
首席研究员:Vicente Ordonez
共同首席研究员:Baishakhi Ray
机构:弗吉尼亚大学
资助金额:375,000美元
项目描述
量化和缓解语言技术中的差异
“在这项工作中,我们提出一个简单的问题:我们能否衡量我们使用的语言多样性在多大程度上影响我们可以从语言技术系统期望的结果质量?这将允许为各种语言技术任务开发和部署公平的准确性措施,鼓励这些技术的最先进进展专注于所有人,而不仅仅是少数…”
首席研究员:Graham Neubig
共同首席研究员:Jeffrey Bigham, Yulia Tsvetkov, Geoff Kaufman, Antonios Anastasopoulos
机构:卡内基梅隆大学
资助金额:375,000美元
项目描述