机器学习会议聚焦前沿AI技术研究

某中心年度机器学习会议汇集了多位学术领域顶尖专家,分享包括生成式主动学习、异常检测、电影自动分析、预训练语言模型等前沿研究,探讨机器学习在各领域的应用与挑战。

学术专家主题演讲

近期某中心机器学习会议邀请了该领域的顶尖学术专家进行主题演讲(从左至右):Yoshua Bengio、Rama Chellappa、Thomas Dietterich、Mirella Lapata和Christopher Manning。该面向某中心科学家的活动还包括口头报告、海报展示、教程和研讨会。

某中心年度内部科学会议旨在展示机器学习在公司各业务应用中的进展,并促进公司科学社区内的更深层次合作。第九届年度活动邀请了五位顶尖学术专家进行主题演讲,同时包含口头报告、海报展示、教程和研讨会。

“这次会议在扩展某中心机器学习未来方面发挥着关键作用,“活动执行负责人在开幕致辞中表示,而另一位负责人补充说,某中心科学社区的增长证明了"机器学习在某中心的广泛应用为客户带来越来越多的价值”。

学术专家演讲内容

Yoshua Bengio:用于生成式主动学习的GFlowNets

摘要: 我们考虑以下设置:一个机器学习系统可以通过迭代提出批量候选实验,然后获得每个实验的得分(“效果如何?")来与昂贵的预言机(“真实世界”)交互。所有查询和结果轮次的数据可用于训练预言机的代理,一种世界模型的形式。然后可以查询世界模型(比世界模型便宜得多)以训练(在计算机中)一个生成模型,该模型提出实验,形成下一轮查询。能够很好做到这一点的系统可以应用于交互式推荐、发现新药、新材料、控制工厂或学习如何推理和构建因果模型。它们涉及许多有趣的机器学习研究线程,包括主动学习、强化学习、表示学习、探索、元学习、贝叶斯优化、黑盒优化。这个生成模型的训练标准应该是什么?为什么不直接使用蒙特卡洛马尔可夫链方法生成这些样本?是否可以绕过MCMC的模式混合限制?生成模型如何在尝试之前猜测好的实验可能在哪里?世界模型应该如何构建其认知不确定性的表示,即它期望预测得好或不好的地方?在回答这些问题的过程中,我们将介绍一个名为GFlowNets的新颖而令人兴奋的深度学习框架,它可以分摊通常由MCMC完成的非常昂贵的工作,将能量函数转换为样本,并为概率建模打开了迷人的可能性之门,包括快速估计边缘化概率和有效表示集合和图上的分布的能力。

Rama Chellappa:机器学习中的开放问题

摘要: 在这次演讲中,我将简要介绍我的团队最近在使用深度学习构建人脸识别和行为识别的操作系统方面的工作。虽然可以声称取得了合理的成功,但仍有许多开放问题需要解决。这些包括偏差检测和缓解、领域适应和泛化、从无标签数据中学习、处理对抗性攻击,以及在迷你批次学习中选择最佳训练数据子集。将总结我们最近解决这些挑战的一些工作。

Thomas Dietterich:用于OOD和新类别检测的异常检测

摘要: 每个部署的学习系统都应配备一个能力模型,可以检测新查询何时超出其能力范围。本演讲将讨论异常检测在深度学习对象分类中提供能力模型的应用。我们考虑两个对能力的威胁:分布外查询和对应新类别的查询。演讲将回顾异常检测的四种主要策略,然后调查一些最近发布的深度学习中异常检测方法。核心挑战是学习一个为异常分配不同表示的表示。演讲最后将讨论如何设置异常检测阈值,以在不依赖标记异常数据的情况下实现所需的漏报警率。

Mirella Lapata:通过转折点进行自动电影分析和摘要

摘要: 电影分析是一个涵盖许多任务的伞形术语,旨在自动解释、提取和总结电影内容。潜在应用包括生成脚本的较短版本以帮助制作公司的决策过程、增强电影推荐引擎,特别是生成电影预告片。在这次演讲中,我将介绍转折点识别作为分析电影内容的手段。根据编剧理论,转折点(例如,计划变更、重大挫折、高潮)是电影中关键的叙事时刻:它们定义了情节结构,决定了其进展并将其分段为主题单元。我将论证转折点及其提供的分割可以促进对长而复杂叙事(如剧本)的分析。我将进一步将生成电影的较短版本形式化为识别具有转折点的场景的问题,并为此任务提出一个基于语言和视听信息的图神经网络模型。最后,我将讨论为什么将剧本表示为(稀疏)图提供了可解释性并揭示了不同电影类型的形态。

Christopher Manning:从发现语言结构的大型预训练语言模型到基础模型

摘要: 我将首先简要概述最近NLP领域随着大型预训练transformer语言模型(如BERT)的兴起而发生的变化,以及这些模型在NLP任务上的有效性。然后我将重点介绍我工作的两个特定方面。首先,我将展示尽管仅使用简单的自监督任务,BERT类模型不仅学习单词关联,而且充当语言结构发现设备,捕捉诸如人类语言语法和代词共指之类的东西。其次,我将强调最近的进展是以巨大的计算成本为代价的,并探索ELECTRA模型,其中另一种判别学习方法允许以相当少的计算构建高效的神经单词表示。最后,我将介绍大型预训练模型如何扩展到更大的基础模型类别,这是一个具有很大希望但也有相应风险的方向,以及我们希望在斯坦福如何为它们的探索做出贡献。

comments powered by Disqus
使用 Hugo 构建
主题 StackJimmy 设计