某中心资助10位宾大工程博士生开展可信AI研究
某中心宣布向宾夕法尼亚大学工程与应用科学学院提供70万美元资助,用于支持公平可信人工智能领域的研究。该笔资金将分配给10位在该领域开展研究的工程专业博士研究生。
获得资助的学生将在ASSET中心(隶属于宾大工程学院的IDEAS计划)的指导下开展研究。ASSET中心的使命是推进"人工智能驱动系统的科学与工具开发,使设计者能够确保系统按设计运行,用户能够信任其按预期工作"。
ASSET中心主任表示:“ASSET中心很荣幸获得某中心对这些博士生的支持,他们致力于确保依赖人工智能的系统值得信赖。宾大的跨学科研究团队在回答将定义AI未来及其社会接受度的核心问题方面处于领先地位。”
某中心人工智能应用科学副总裁表示:“与宾大在信任、安全性和可解释性等重要主题上合作非常棒。这些对AI的长期积极影响至关重要,宾大在该领域处于领导地位。我期待看到学生们的研究成果在实际中的应用。”
资助的研究项目围绕以下主题展开:
- 具有公平性/隐私性/鲁棒性/安全性保证的机器学习算法
- 人工智能驱动系统的保障分析
- 可解释性与可理解性
- 神经符号学习
- 以人为中心的设计
某中心学者指出:“某中心的资助正值负责任AI研究的关键时刻。我们的学生正致力于创造行业所需的知识,这些知识将定义我们生活中如此多的商业技术,投资于专注于技术严谨和社会参与方式使用AI的研究人才至关重要。”
获资助学生及研究方向
Eshwar Ram Arunachaleswaran:研究网络分类器中个体分类时的公平性概念和公平算法
Natalie Collina:研究数据市场模型,探索为隐私和收益目的添加噪声的查询应答机制
Ziyang Li:开发名为Scallop的编程语言和开源框架,用于开发神经符号AI应用
Stephen Mell:研究如何利用神经符号技术使机器学习算法更鲁棒和数据高效
Georgy Noarov:研究黑盒机器学习模型的不确定性量化方法
Artemis Panagopoulou:使用大语言模型设计可解释的图像分类模型,生成分类中使用的概念
Jianing Qian:专注于获取对人类可解释的分层物体中心视觉表征,并学习利用这些表征的结构化视觉运动控制策略
Alex Robey:致力于开发对自然变化引起的分布偏移具有鲁棒性的深度学习
Anton Xue:研究深度学习的鲁棒性和可解释性,比较分析可解释学习方法的有效性
Yahan Yang:研究称为记忆分类器的两阶段分类技术,可提高标准分类器对分布偏移的鲁棒性