联邦学习与AI公平性研究新进展

某中心与南加州大学联合成立的机器学习安全与可信中心宣布首批博士研究员入选,研究重点涵盖联邦学习、分布式机器学习系统架构及机器学习公平性算法,推动可信人工智能技术发展。

某中心机器学习安全与可信中心遴选两位博士研究员

2021年8月3日,南加州大学与某中心联合成立的机器学习安全与可信中心(USC+Amazon Center on Secure and Trusted Machine Learning)宣布遴选两名博士研究生作为2021-2022年度机器学习研究员。该中心成立于2021年1月,致力于推动机器学习隐私保护、安全性和可信度的基础研究与方法创新。

研究员背景与研究方向

Chaoyang He(计算机科学系三年级博士生):

  • 研究导师:Mahdi Soltanolkotabi教授与Salman Avestimehr教授
  • 研究方向:联邦学习与大规模分布式机器学习系统
  • 研究意义:获得资助将更灵活地探索分布式机器学习架构与隐私保护技术

Ninareh Mehrabi(信息科学研究所三年级博士生):

  • 研究导师:Aram Galstyan教授
  • 研究方向:机器学习公平性与透明度算法
  • 研究意义:在客户至上的技术环境中深化可信人工智能研究

技术价值与行业影响

中心创始主任Salman Avestimehr教授指出:“机器学习研究员计划为最具天赋的学生提供独特机会,为其未来技术突破铺平道路。首年度即收到工程学院大量优秀提名,最终两位博士生因其技术贡献入选。”

某中心Alexa AI自然理解副总裁表示:“联邦学习与AI公平性是构建可信人工智能的基础技术,它们使我们能够安全可靠地改进客户日常依赖的体验。期待这些研究推动对话式AI领域的关键技术进步。”

南加州大学维特比工程学院院长强调:“首批研究员的遴选是推进中心原始技术愿景的重要一步,期待通过校企合作 initiative 取得卓越技术成果。”

技术应用前景

研究中心聚焦机器学习隐私保护、安全性与可信度的创新方法,通过联邦学习架构实现分布式训练过程中的数据隐私保护,同时通过公平性算法确保AI决策的透明性与公正性。这些技术对 conversational AI、大规模分布式系统及可信AI框架开发具有重要价值。


comments powered by Disqus
使用 Hugo 构建
主题 StackJimmy 设计