10位博士生获资助开展可信AI研究

某中心向宾夕法尼亚大学工程学院提供70万美元资助,支持10位博士研究生开展可信人工智能研究。研究重点包括算法公平性、隐私保护、可解释性等关键技术领域,涵盖神经符号学习、鲁棒机器学习等多个前沿方向。

某中心资助10位宾大工程博士生开展可信AI研究

某中心宣布向宾夕法尼亚大学工程与应用科学学院提供70万美元资助,用于支持公平可信人工智能领域的研究。该笔资金将分配给10位在该领域开展研究的工程专业博士研究生。

获得资助的学生将在ASSET中心(隶属于宾大工程学院的IDEAS计划)的指导下开展研究。ASSET中心的使命是推进"人工智能驱动系统的科学与工具开发,使设计者能够确保系统按设计运行,用户能够信任其按预期工作"。

ASSET中心主任表示:“ASSET中心很荣幸获得某中心对这些博士生的支持,他们致力于确保依赖人工智能的系统值得信赖。宾大的跨学科研究团队在回答将定义AI未来及其社会接受度的核心问题方面处于领先地位。”

某中心人工智能应用科学副总裁表示:“与宾大在信任、安全性和可解释性等重要主题上合作非常棒。这些对AI的长期积极影响至关重要,宾大在该领域处于领导地位。我期待看到学生们的研究成果在实际中的应用。”

资助的研究项目围绕以下主题展开:

  • 具有公平性/隐私性/鲁棒性/安全性保证的机器学习算法
  • 人工智能驱动系统的保障分析
  • 可解释性与可理解性
  • 神经符号学习
  • 以人为中心的设计

某中心学者指出:“某中心的资助正值负责任AI研究的关键时刻。我们的学生正致力于创造行业所需的知识,这些知识将定义我们生活中如此多的商业技术,投资于专注于技术严谨和社会参与方式使用AI的研究人才至关重要。”

获资助学生及研究方向

Eshwar Ram Arunachaleswaran:研究网络分类器中个体分类时的公平性概念和公平算法

Natalie Collina:研究数据市场模型,探索为隐私和收益目的添加噪声的查询应答机制

Ziyang Li:开发名为Scallop的编程语言和开源框架,用于开发神经符号AI应用

Stephen Mell:研究如何利用神经符号技术使机器学习算法更鲁棒和数据高效

Georgy Noarov:研究黑盒机器学习模型的不确定性量化方法

Artemis Panagopoulou:使用大语言模型设计可解释的图像分类模型,生成分类中使用的概念

Jianing Qian:专注于获取对人类可解释的分层物体中心视觉表征,并学习利用这些表征的结构化视觉运动控制策略

Alex Robey:致力于开发对自然变化引起的分布偏移具有鲁棒性的深度学习

Anton Xue:研究深度学习的鲁棒性和可解释性,比较分析可解释学习方法的有效性

Yahan Yang:研究称为记忆分类器的两阶段分类技术,可提高标准分类器对分布偏移的鲁棒性

comments powered by Disqus
使用 Hugo 构建
主题 StackJimmy 设计