交互式AI研究合作与奖项公布

某机构与约翰霍普金斯大学联合宣布首批交互式AI倡议获奖者,涵盖机器学习、计算机视觉、自然语言处理等领域的研究项目,包括博士奖学金和教师研究奖项,推动多模态AI技术发展。

某机构与约翰霍普金斯大学宣布首批研究奖项获得者

作为JHU + 某机构交互式AI倡议(AI2AI)的一部分,双方今日宣布了首批博士奖学金和教师研究奖项的获得者。该倡议于4月启动,设在约翰霍普金斯大学怀廷工程学院,重点推动机器学习、计算机视觉、自然语言理解和语音处理领域的突破性AI进展。

博士研究员

六名怀廷工程学院的博士研究生成为首批奖学金获得者:

Kelly Marchisio(计算机科学博士,研究方向:自然语言处理中的词嵌入空间几何优化,旨在创建更小、更通用且跨语言适用的嵌入空间)

Arya McCarthy(计算机科学博士,研究方向:千语言处理,通过神经机器翻译模型和形态学分析工具,推动对全球7000多种语言的支持)

Carolina Pacheco Oñate(生物医学工程博士,研究方向:有限数据和标注条件下的计算机视觉,结合深度学习和概率模型实现弱监督学习)

Desh Raj(计算机科学博士,研究方向:多参与者自由流动对话的语音识别,推动未来对话系统的核心技术进步)

Anshul Shah(计算机科学博士,研究方向:基于姿态的动作识别、视频理解与自监督学习,专注于计算机视觉和多模态AI)

Jeya Maria Jose Valanarasu(电气与计算机工程博士,研究方向:少样本和零样本学习,解决模型在未训练数据分布上的域适应问题)

教师研究奖项

九名教师获得研究奖项,项目包括:

Mark Dredze:将大型语言模型的知识表示与信息提取系统集成,探索语言模型在实际应用中的潜力

Philipp Koehn与Kenton Murray:评估多语言机器翻译的多语言性,研究大型通用模型的局限性

Anqi Liu:通过分布鲁棒学习实现在线域适应,专注于不确定性建模下的快速自适应算法

Jesus Antonio Villalba López:通用语音处理模型,开发能够转录语音、识别说话人身份和情感状态的大规模AI模型

Soledad Villar:绿色AI:通过利用对称性实现强大轻量级机器学习,降低模型训练的能耗和数据需求

Laureano Moro-Velazquez:改进非典型语音者的口语理解,创建新数据集和语音技术辅助言语障碍群体

Mahsa Yarmohammadi:通过自动投影和人工监督快速创建多语言数据集,支持跨语言NLP任务

Alan Yuille:弱监督多模态Transformer用于少样本学习,推动模型在新领域和细粒度任务中的泛化能力

该倡议旨在通过学术与工业界的合作,推动交互式和多模态AI技术的前沿发展。

comments powered by Disqus
使用 Hugo 构建
主题 StackJimmy 设计