NAACL 2024自然语言处理技术论文精选

本文系统梳理了某机构在NAACL 2024会议上发表的30余篇论文,涵盖大语言模型应用、对话系统优化、多模态学习等前沿技术领域,展示了自然语言处理的最新研究进展和技术创新。

近年来,自然语言处理和计算语言学领域在深度学习革命后,又经历了大语言模型(LLMs)带来的新一轮变革。在今年的北美计算语言学协会年会(NAACL)上,涉及LLMs的研究成果占据主导地位,无论是将其作为研究对象还是作为自然语言处理应用的工具。本文将对某机构在NAACL上发表的论文进行分类,重点介绍明确涉及LLMs的研究与其他通用技术。

LLM相关研究

智能体

FLAP:基于约束解码的LLM流式规划 Shamik Roy, Sailik Sengupta, Daniele Bonadiman, Saab Mansour, Arshit Gupta

属性值提取

EIVEN:基于多模态LLM的高效隐式属性值提取 Henry Peng Zou, Gavin Yu, Ziwei Fan, Dan Bu, Han Liu, Peng Dai, Dongmei Jia, Cornelia Caragea

持续学习

Q-Tuning:基于队列的提示调优用于终身少样本语言学习 Yanhui Guo, Shaoyuan Xu, Jinmiao Fu, Jia (Kevin) Liu, Chaosheng Dong, Bryan Wang

对话系统

利用LLM进行对话质量评估 Jinghan Jia, Abi Komma, Timothy Leffel, Xujun Peng, Ajay Nagesh, Tamer Soliman, Aram Galstyan, Anoop Kumar

幻觉缓解

少即是多:改进事实一致性自动评估 Tong Wang, Ninad Kulkarni, Yanjun (Jane) Qi

TofuEval:评估LLM在主题聚焦对话摘要中的幻觉 Liyan Tang, Igor Shalyminov, Amy Wong, Jon Burnsky, Jake Vincent, Yu’an Yang, Siffi Singh, Song Feng, Hwanjun Song, Hang Su, Justin Sun, Yi Zhang, Saab Mansour, Kathleen McKeown

改进长格式答案生成的多源归因 Nilay Patel, Shivashankar Subramanian, Siddhant Garg, Pratyay Banerjee, Amita Misra

机器翻译

基于偏好驱动的大语言模型增强翻译范式 Dawei Zhu, Sony Trenous, Xiaoyu Shen, Dietrich Klakow, Bill Byrne, Eva Hasler

自然语言处理

面向非正式语言处理:大语言模型中的俚语知识 Zhewei Sun, Qian Hu, Rahul Gupta, Richard Zemel, Yang Xu

问答系统

自带知识图谱:零样本KGQA的自监督程序合成 Dhruv Agarwal, Rajarshi (Raj) Das, Sopan Khosla, Rashmi Gangadharaiah

推理

CoMM:协作多智能体多推理路径提示解决复杂问题 Pei Chen, Boran Han, Shuai Zhang

推荐系统

RecMind:基于大语言模型的推荐智能体 Yancheng Wang, Ziyan Jiang, Zheng Chen, Fan Yang, Yingxue Zhou, Eunah Cho, Xing Fan, Xiaojiang Huang, Yanbin Lu, Yingzhen Yang

人类反馈强化学习

RS-DPO:结合拒绝采样和直接偏好优化的LLM对齐方法 Saeed Khaki, JinJin Li, Lan Ma, Liu Yang, Prathap Ramachandra

负责任AI

ITERALIGN:大语言模型的迭代宪法对齐 Xiusi Chen, Hongzhi Wen, Sreyashi Nag, Chen Luo, Qingyu Yin, Ruirui Li, Zheng Li, Wei Wang

MICo:通过抑制控制预防性解毒大语言模型 Roy Siegelmann, Ninareh Mehrabi, Palash Goyal, Prasoon Goyal, Lisa Bauer, Jwala Dhamala, Aram Galstyan, Rahul Gupta, Reza Ghanadan

大语言模型向数据驱动角色的可控性 Junyi Li, Charith Peris, Ninareh Mehrabi, Palash Goyal, Kai-Wei Chang, Aram Galstyan, Richard Zemel, Rahul Gupta

检索增强生成

通过对比解码增强大语言模型的上下文理解 Zheng Zhao, Emilio Monti, Jens Lehmann, Haytham Assem

文本生成

低成本生成和评估词典例句 Bill Cai, Clarence Ng, Daniel Tan, Shelvia Hotama

多评论上下文融合 Aviv Slobodkin, Ori Shapira, Ran Levy, Ido Dagan

视觉语言模型

MAGID:自动生成多模态数据集的流水线 Hossein Aboutalebi, Justin Sun, Hwanjun Song, Yusheng Xie, Arshit Gupta, Hang Su, Igor Shalyminov, Nikolaos Pappas, Siffi Singh, Saab Mansour

提示视觉语言模型进行方面控制的指代表达生成 Danfeng Guo, Sanchit Agarwal, Arpit Gupta, Jiun-Yu Kao, Emre Barut, Tagyoung Chung, Jing Huang, Mohit Bansal

通用与经典技术

对话代理

利用有趣事实增强对话界面的用户参与度 Nikhita Vedula, Giuseppe Castellucci, Eugene Agichtein, Oleg Rokhlenko, Shervin Malmasi

信息抽取

利用客户反馈进行多模态洞察提取 Sandeep Sricharan Mukku, Abinesh Kanagarajan, Pushpendu Ghosh, Chetan Aggarwal

REXEL:文档级关系抽取和实体链接的端到端模型 Nacime Bouziani, Shubhi Tyagi, Joseph Fisher, Jens Lehmann, Andrea Pierleoni

机器学习

DEED:加速编码器-解码器Transformer模型的动态早期退出 Peng Tang, Pengkai Zhu, Tian Li, Srikar Appalaraju, Vijay Mahadevan, R. Manmatha

机器翻译

双语词典归纳的词汇性程度 Harsh Kohli, Helian Feng, Nicholas Dronen, Calvin McCarter, Sina Moeini, Ali Kebarighotbi

M3T:多模态文档级机器翻译的新基准数据集 Benjamin Hsu, Xiaoyu Liu, Huayang Li, Yoshinari Fujinuma, Maria Nădejde, Xing Niu, Yair Kittenplon, Ron Litman, Raghavendra Pappagari

负责任AI

通过追踪偏差影响缓解问答模型偏差 Mingyu Derek Ma, Jiun-Yu Kao, Arpit Gupta, Yu-Hsiang Lin, Wenbo Zhao, Tagyoung Chung, Wei Wang, Kai-Wei Chang, Nanyun Peng

语义检索

极高效的在线查询编码用于密集检索 Nachshon Cohen, Yaron Fairstein, Guy Kushilevitz

文本摘要

CCSUM:大规模高质量新闻摘要数据集 Xiang Jiang, Markus Dreyer

通过高质量伪标签选择的半监督对话摘要 Jianfeng He, Hang Su, Jason Cai, Igor Shalyminov, Hwanjun Song, Saab Mansour

视觉问答

多问题多答案文本视觉问答 Peng Tang, Srikar Appalaraju, R. Manmatha, Yusheng Xie, Vijay Mahadevan

comments powered by Disqus
使用 Hugo 构建
主题 StackJimmy 设计