学术研究员获奖名单
Steeve Huang 是三年级博士生,BLENDER实验室成员,专注于打击虚假信息传播。其研究涵盖三个关键方向:事实核查、假新闻检测、事实错误校正以及提升文本生成模型的可信度。他构建的零样本事实错误校正框架已证明能比传统监督方法产生更可信、更符合事实的修正。
Ming Zhong 是三年级博士生,数据挖掘组成员,研究方向是为满足不同用户需求定制对话式AI系统。具体包括:更好地理解人机交互和人人交互中的对话内容,开发新的定制化对话AI评估指标,以及通过跨模型知识转移提升效率。
研究项目详情
Volodymyr Kindratenko 教授项目: “从个性化教育到AI科学发现:快速部署AI领域专家” 本项目旨在开发基于知识的对话式AI,能够快速有效地获取特定领域的专业知识以成为该主题"专家"。提出新颖的事实一致性模型来评估答案是否基于已验证信息源,引入超越交叉熵的事实性损失训练惩罚方法,以及采用检索增强的强化学习与AI反馈机制。
Yunzhu Li 教授项目: “通过语言 grounded 动态神经场实现可操作的对话式AI” 目标是利用动态神经场开发多模态基础模型。成功后将实现三个关键应用:构建生成式动态数字孪生作为多模态数据生成引擎,促进具身环境中的对话式AI,以及赋能具身代理规划和执行现实世界交互任务。
Gagandeep Singh 教授项目: “大语言模型的高效公平性认证” 将开发首个基于新颖公平性规范和概率认证方法的大语言模型公平性形式化认证方案。该方法提供的认证证书将比当前基于测试的方法更能确保LLM的公平性。
Shenlong Wang 与 Romit Roy Choudhury 教授项目: “将空间感知集成到对话式AI中以实现现实任务辅助” 提出创新的对话式AI工作流,能够通过多模态感知获取、更新和利用关于用户及其周围环境的丰富空间知识。
Han Zhao 教授项目: “负责任对话式AI:监控和改进安全基础模型” 提出两个新的安全度量标准:鲁棒置信安全(RCS)和自我一致安全(SCS)。RCS要求LLM在遇到分布外应用实例或罕见尾部事件时识别低置信场景,SCS要求LLM在任何上下文中保持自我一致性。