研究重点概述
某中心在国际机器学习大会(ICML 2024)发表的论文偏向理论方向,部分研究涉及异常检测和自动语音识别等实际应用,但主要聚焦机器学习通用领域,包括负责任AI和迁移学习。学习算法、强化学习和隐私保护成为重点研究方向。
技术论文精选
异常检测
在线自适应异常阈值与置信序列提出了一种适应分布漂移的异常检测阈值方法。实验中,研究人员将信号建模为MNIST数据集中的手写数字序列,将分布漂移模拟为从数字0到数字1的变化,异常则被建模为除0或1以外的数字。
自动语音识别
交互式语音对话系统的高效自学习框架研究了语音交互系统的自学习机制。
持续学习
MemoryLLM:面向可自更新的大语言模型探索了大语言模型的持续学习能力。
可解释AI
用分布值解释概率模型对可解释AI的游戏理论方法进行了扩展。传统方法(如Shapley值分析)通常在标量值上操作(上图),而新方法将游戏理论方法推广到具有分布输出的模型(下图)。
隐私保护
基础模型的差分隐私偏置项微调展示了仅微调偏置项(右下)比同时微调偏置项和权重(左和右上)简单得多,在保持准确性的同时使训练速度提高2-30倍。
强化学习
在函数空间中学习目标网络研究表明,在函数空间中调和模型(左)并不需要在参数空间中调和它们(右)。实验表明,放弃参数值等价要求可以提高强化学习任务的性能。
其他技术方向
- 代码补全:REPOFORMER:仓库级代码补全的选择性检索
- 幻觉缓解:LLM置信度评分的多校准方法
- 模型压缩:COLLAGE:轻量级低精度LLM训练策略
- 检索增强生成:通过任务特定考试生成自动评估检索增强语言模型
- 迁移学习:将大型基础模型知识迁移到小型下游模型
技术标签
ICML | 强化学习 | 学习算法 | 大语言模型 | 幻觉缓解