可信自然语言处理研讨会推动社区建设

本文介绍了某中心Alexa可信AI团队在NAACL和Interspeech会议上组织的可信自然语言处理研讨会,涵盖可信机器学习框架、语言技术信任构建、医疗AI模型评估等关键技术议题,包括主题演讲、小组讨论和论文展示等专业内容。

会议背景

过去一年,机器学习公平性和隐私性研究呈现加速趋势。某中心Alexy可信AI团队通过在北美洲计算语言学协会会议(NAACL)组织可信自然语言处理研讨会(TrustNLP 2022),以及在Interspeech 2022举办"可信语音处理"特别会议,积极推动这一重要研究领域的社区建设。

TrustNLP主题演讲

本届TrustNLP研讨会包含投稿论文、权威专家主题演讲和多元背景的小组讨论。主题演讲嘉宾包括:

  • 某机构研究人员展示基于图结构的可信机器学习研究可解释映射框架,通过分析学术会议论文构建词共现矩阵,发现可信ML研究形成隐私保护与公平性两大社区
  • 某高校学者探讨构建积极可信语言技术的先验研究,包括负面观点重构问题和包含4万组提示-回复对的道德完整性语料库
  • 某医疗中心专家系统回顾临床数据ML技术演进,警示新冠检测等应用中存在的公共数据偏见风险,强调需要更鲁棒的可解释性方法

TrustNLP小组讨论

最受欢迎的下午小组讨论汇聚产学研专家:

  • 某机构专家强调需要更强大的工具框架评估部署阶段设计选择
  • 某AI机构研究员提出对大语言模型进行红队测试的必要性
  • 学者指出预定义基准测试表现良好的模型仍难以泛化到实际应用,需要探索适应动态数据流的方法

TrustNLP论文展示

最佳论文奖授予《基于释义句子的掩码语言模型伪对数似然偏差度量实证研究》,该研究通过阈值设定改进基于对数似然的偏差度量方法。所有演讲视频均在underline平台公开。

Interspeech特别会议

该会议首次涵盖对抗攻击、属性推断攻击和语音应用隐私增强策略等主题。闭幕小组讨论聚焦三个关键议题:

  • 某中心语音专家强调各类数据泄露风险教育的重要性
  • 某机构研究员指出公众对个人数据保护的需求
  • 学者认为提高公众意识比外部监管更能推动可信ML实践落地

专家组一致认为需要建立可与效用分数同时报告的可信ML量化指标。所有会议论文均可在Interspeech网站获取。

comments powered by Disqus
使用 Hugo 构建
主题 StackJimmy 设计