研究重点
某中心在国际机器学习会议(ICML 2024)上发表的论文偏向理论方向。虽然部分论文涉及异常检测和自动语音识别等实际应用,但大多数研究关注机器学习的通用主题,如负责任AI和迁移学习。学习算法、强化学习和隐私保护成为特别受关注的领域。
技术研究详情
异常检测
**《基于置信序列的在线自适应异常阈值设定》**提出了一种使异常检测阈值适应分布漂移的方法。在实验中,研究人员将信号建模为MNIST数据集中的手写数字序列,将分布漂移建模为从数字0到数字1的变化,异常则被建模为除0或1以外的数字。
持续学习
**《MemoryLLM:面向可自更新的大语言模型》**研究了大语言模型的持续学习能力。
可解释AI
**《用分布值解释概率模型》**将博弈论方法推广到具有分布输出的模型。
博弈论方法(如Shapley值分析)比较黑盒模型在有和没有特定输入特征时的输出。这类方法通常处理标量值(上图),丢弃了概率模型捕获的信息。该研究将博弈论方法推广到具有分布输出的模型(下图)。
幻觉缓解
**《大语言模型置信度评分的多校准方法》**专注于大语言模型的置信度评分。
学习算法
- 《通过超梯度下降的元自适应优化器》
- 《用于微调语言模型的方差缩减零阶方法》
隐私保护
**《基础模型的差分隐私偏置项微调》**展示了仅微调偏置项比同时微调偏置项和权重更简单,在保持准确性的同时使训练速度提高2-30倍。
普通(黑色)和差分隐私(黑色和红色)算法反向传播的计算图。仅微调偏置项(右下)比同时微调偏置项和权重(左和右上)简单得多。
强化学习
**《在函数空间中学习目标网络》**表明在函数空间中协调模型并不需要在参数空间中协调它们。实验证明,放弃参数值等价要求可以提高强化学习任务的性能。
大多数强化学习算法涉及一个函数(v),用于预测代理在特定状态下采取特定行动的价值。通常,价值函数由两个神经网络(θ和w)近似,一个建模当前价值估计,另一个根据新交互更新。研究表明,在函数空间中协调模型(左)并不需要在参数空间中协调它们(右)。
检索增强生成
《通过任务特定考试生成自动评估检索增强语言模型》
迁移学习
《将知识从大型基础模型迁移到小型下游模型》
研究领域
机器学习
技术标签
ICML、强化学习、学习算法、大语言模型、幻觉缓解