多设备场景下的信号处理与机器学习挑战
会议聚焦多设备组网环境中的机器学习与信号处理技术,重点探讨以下方向:
- 多设备音频数据集构建
- 自动语音识别(ASR)与关键词检测
- 设备仲裁机制(确定响应设备优先级)
- 语音增强:去混响、降噪、回声消除
- 声源分离与说话人定位追踪
- 隐私敏感的信号处理与机器学习方案
包容性语音技术
针对语音技术中的算法偏差问题,会议征集以下研究方向:
- 偏差分析与缓解算法(包括训练标准优化)
- 面向非标准用户群体的数据集构建与增强技术
- 非典型语音ASR(如ALS/中风/耳聋/唐氏综合征患者)
- 语音技术民主化与无障碍交互的伦理考量
- 公平性约束下的个性化技术应用
可信语音处理
会议关注超越准确率的综合可信指标,包括:
- 差分隐私与联邦学习在语音中的应用
- 语音处理伦理与模型可解释性
- 语音算法偏差量化与缓解
- 新型TSP数据集与基准框架
- 隐私攻击防护与可信机器学习
听力障碍语音清晰度预测
基于全球3.6亿听力障碍人群需求,会议聚焦:
- 统计语音建模与清晰度预测
- 能量/信息掩蔽噪声建模
- 基于听力图的个性化模型
- 低延迟场景下的实时预测
- Clarity预测挑战赛相关算法
提交说明
论文需通过Interspeech主会议门户提交,截止日期为2022年3月21日。多设备ML会议和包容性语音技术会议投稿需注明对应专题会议名称。
会议组织者包括某中心AI团队的应用科学家与高级经理,技术方向涵盖信号处理、机器学习公平性、隐私保护等核心领域。