AI公平性研究项目解析与算法优化

本文详细介绍了13个AI公平性研究项目,涵盖算法偏见消除、语音识别可及性提升、医疗信息去偏见化等技术方向,包括可解释AI框架、公平表示学习、空间公平性深度学习等创新方法。

某中心与某机构公布AI公平性研究资助项目

某机构与某中心联合宣布了最新一轮“AI公平性”项目资助结果,共选出13个研究项目,资助总额达950万美元。这些项目致力于解决人工智能和机器学习技术中的不公平与偏见问题,开发人机交互原则,构建算法理论框架,并提升语音识别技术的可及性。

关键技术研究领域

可解释AI医疗决策框架

开发用于危重患者护理的可解释AI框架,结合匹配技术和决策树算法。通过将接受治疗的患者与未治疗的相似患者进行匹配,模拟随机对照试验,为每位患者估算治疗效果。采用稀疏决策树识别应接受相似治疗的可解释亚组。

公平表示学习算法

研究信息表示在效用与公平性之间的权衡关系,开发新表示方法和相应算法。通过理论分析提供性能限制证明,并在人脸识别系统中验证效果,旨在消除可能导致人口亚组歧视的信息。

包容性语音识别新范式

定义语音技术新标准:除非能为所有用户(包括地方口音、第二语言口音和残障人士)良好工作,否则不认为语音识别器有效。包含三个子项目:

  • 创建黑盒测试标准评估不同人群的实用性
  • 开发白盒测试标准调试包容性问题
  • 建立新训练方法保证所有数据代表群体的平等性能

规范经济学视角的AI公平性

从规范经济学角度重新思考AI公平性,将个人和群体的公平性实现与人们的偏好效用函数相联系。研究如何将规范经济学观点与现有AI公平性方法相协调,并将理论算法进展整合到难民安置决策系统中。

阈值无关的公平AI系统

改进公平感知AI技术,制定阈值无关的决策指标。增强公平约束AI模型的训练程序,使其适应不同上下文和应用场景,并满足新兴公平约束。

长期公平决策系统

开发AI系统公平性通用理论和技术,应用于改善STEM研究生项目中 underrepresented 群体的保留率和毕业率。超越设计满足静态公平概念的“公平分类器”,设计在时间跨度内做出决策的AI系统,确保流程完成的长期公平结果。

医疗信息偏见减少(BRIMI)

使用AI检测和减轻对少数群体造成不成比例伤害的偏见、有害和/或虚假健康信息。通过包括患者和医生的具体干预措施,推进公共卫生和事实核查组织的最新技术,为公共政策提供信息,提高公众批判性素养。

数据流公平感知深度学习

开发开源软件帮助用户评估在线算法公平性,减轻潜在偏见,检查效用-公平性权衡。实施两个实际应用:从视频数据在线识别犯罪事件和从点击流数据预测在线购买行为。

可靠机器翻译技术

开发技术可靠增强高风险语境中的跨语言交流,如医疗建议或求职申请。提供机制指导用户识别和从翻译错误中恢复,帮助他们在不完美翻译下做出更好决策。

公平拍卖与营销算法

开发算法确保在AI中介的拍卖、定价和营销中做出公平决策。制定理论框架和AI算法,确保受保护群体消费者在这些环境中不受有害歧视。新算法将促进这些应用中的公平商业行为。

可解释AI少年司法系统

开发自动化计算机生成的风险评分解释,说明这些评分如何产生。测试这些更好解释的风险评分是否帮助青少年和司法决策者理解评分,并调查这些评分对不同青少年群体是否同等有效。

突破算法公平性权衡障碍

突破“公平性/准确性权衡”范式,开发新一代学习框架明确保持空间公平性。结果和代码将免费提供并集成到现有地理空间软件中,方法将在现有真实系统(作物和水监测)中进行测试。

空间公平性深度学习

减少与数据样本位置或地理区域显著相关的偏见。开发新一代学习框架明确保持空间公平性,解决数据分布、数据数量和数据质量的变化问题。应用于农业监测和灾害管理等现实问题。

所有项目均采用开源方式发布研究成果,注重多学科合作和实际系统集成,推动人工智能技术向更加公平、透明和可信的方向发展。

comments powered by Disqus
使用 Hugo 构建
主题 StackJimmy 设计