可信AI研究获资助:10位博士生的技术创新

某中心向宾夕法尼亚大学10名工程博士生提供资助,支持其在机器学习算法公平性、隐私保护、可解释性及鲁棒性方面的研究,涵盖神经符号学习、人本设计等多个前沿技术领域。

某中心宣布向宾夕法尼亚大学工程与应用科学学院提供70万美元资助,用于支持公平可信人工智能研究。资金将分配给10名在该领域开展研究的工程博士生。

这些学生在ASSET中心(人工智能赋能系统:安全、可解释与可信中心)指导下开展研究,该中心隶属于宾大工程学院的IDEAS计划。ASSET中心的使命是推进"开发AI赋能数据驱动工程系统的科学和工具,使设计者能确保系统按设计运行,用户能信任其符合预期"。

资助的研究项目聚焦以下技术主题:

  • 具有公平性/隐私性/鲁棒性/安全性保证的机器学习算法
  • 人工智能赋能系统的保障性分析
  • 可解释性与可理解性
  • 神经符号学习
  • 人本设计

获得资助的10位博士生及其研究方向:

Eshwar Ram Arunachaleswaran(二年级博士生) 研究网络分类器中个体分类时的公平性概念与算法,可能涉及反馈机制。

Natalie Collina(二年级博士生) 研究数据市场模型,探索为隐私和收益目的在查询应答中添加噪声的算法与微观经济基础。

Ziyang Li(四年级博士生) 开发名为Scallop的编程语言和开源框架,用于构建神经符号AI应用,整合深度学习与经典算法。

Stephen Mell(四年级博士生) 研究通过神经符号技术增强机器学习算法的鲁棒性和数据效率,致力于在安全关键场景中实现少样本学习。

Georgy Noarov(三年级博士生) 研究黑盒机器学习模型的不确定性量化方法,包括校准和共形预测的强变体。

Artemis Panagopoulou(二年级博士生) 设计可解释的图像分类模型,利用大语言模型生成分类所用概念,通过创建人类可读特征提升AI系统可信度。

Jianing Qian(三年级博士生) 研究获取人类可解释的层次化物体中心视觉表征,并通过模仿与强化学习为机器人开发结构化视觉运动控制策略。

Alex Robey(三年级博士生) 研究对自然变化(如光照、背景和天气变化)导致分布偏移具有鲁棒性的深度学习技术。

Anton Xue(四年级博士生) 聚焦深度学习鲁棒性与可解释性,研究可解释学习方法的比较与分析技术。

Yahan Yang(三年级博士生) 研究名为记忆分类器的两阶段分类技术,通过结合数据"高层"结构的专家知识与标准分类器,提升模型对分布偏移的鲁棒性。

comments powered by Disqus
使用 Hugo 构建
主题 StackJimmy 设计