某中心机器学习安全与可信中心遴选两位博士研究员
2021年8月3日,南加州大学与某中心联合成立的机器学习安全与可信中心(USC+Amazon Center on Secure and Trusted Machine Learning)宣布遴选两名博士研究生作为2021-2022年度机器学习研究员。该中心成立于2021年1月,致力于推动机器学习隐私保护、安全性和可信度的基础研究与方法创新。
研究员背景与研究方向
Chaoyang He(计算机科学系三年级博士生):
- 研究导师:Mahdi Soltanolkotabi教授与Salman Avestimehr教授
- 研究方向:联邦学习与大规模分布式机器学习系统
- 研究意义:获得资助将更灵活地探索分布式机器学习架构与隐私保护技术
Ninareh Mehrabi(信息科学研究所三年级博士生):
- 研究导师:Aram Galstyan教授
- 研究方向:机器学习公平性与透明度算法
- 研究意义:在客户至上的技术环境中深化可信人工智能研究
技术价值与行业影响
中心创始主任Salman Avestimehr教授指出:“机器学习研究员计划为最具天赋的学生提供独特机会,为其未来技术突破铺平道路。首年度即收到工程学院大量优秀提名,最终两位博士生因其技术贡献入选。”
某中心Alexa AI自然理解副总裁表示:“联邦学习与AI公平性是构建可信人工智能的基础技术,它们使我们能够安全可靠地改进客户日常依赖的体验。期待这些研究推动对话式AI领域的关键技术进步。”
南加州大学维特比工程学院院长强调:“首批研究员的遴选是推进中心原始技术愿景的重要一步,期待通过校企合作 initiative 取得卓越技术成果。”
技术应用前景
研究中心聚焦机器学习隐私保护、安全性与可信度的创新方法,通过联邦学习架构实现分布式训练过程中的数据隐私保护,同时通过公平性算法确保AI决策的透明性与公正性。这些技术对 conversational AI、大规模分布式系统及可信AI框架开发具有重要价值。