语音技术前沿:Interspeech特别会议聚焦多设备与可信AI

某中心AI团队在Interspeech 2022牵头组织四项特别会议,涵盖多设备智能场景信号处理、包容性语音技术、可信语音计算及听力障碍语音清晰度预测。会议聚焦机器学习在分布式设备中的隐私保护、算法公平性等关键技术挑战,并公开征集论文。

多设备场景下的信号处理与机器学习挑战

本次会议旨在汇聚产业界与学术界专家,推动多设备信号处理与机器学习研究。议题包括但不限于:

  • 多设备音频数据集
  • 自动语音识别与关键词检测
  • 设备仲裁(确定响应查询的设备)
  • 语音增强:去混响、降噪、回声消除
  • 声源分离与说话人定位追踪
  • 隐私敏感的信号处理技术

包容性与公平语音技术

会议重点关注语音技术中的算法偏见问题,议题涵盖:

  • 偏见分析与缓解方法
  • 面向非标准语音(如ALS、听力障碍)的自动语音识别
  • 伦理考量与技术民主化
  • 公平性驱动的个性化技术

可信语音处理

针对语音数据中丰富的语言及副语言信息,会议探讨以下方向:

  • 差分隐私与联邦学习
  • 模型可解释性
  • 偏见量化与缓解
  • 新型隐私攻击防御
  • 可信语音处理数据集与基准

听力障碍者的语音清晰度预测

基于全球3.6亿听力障碍人群的需求,会议聚焦:

  • 统计语音建模与清晰度预测
  • 个性化听力模型构建
  • 实时清晰度预测技术
  • 清晰度增强模型评估方法

论文提交

所有特别会议论文需通过Interspeech主会议门户提交,截止日期为2022年3月21日。其中听力清晰度预测专题与为期五年的Clarity挑战赛联动,参赛者可基于公开数据集开发预测模型。

comments powered by Disqus
使用 Hugo 构建
主题 StackJimmy 设计