论文阅读:ACL 2022 Long Time No See! Open-Domain Conversation with Long-Term Persona Memory
论文聚焦于开放域对话系统在长期对话中的表现问题,尤其是对话系统缺乏理解和记忆长期对话历史信息的能力,导致在与人类进行长期交流时效果不佳。为解决这一难题,论文提出了一个名为“长期记忆对话”(LeMon)的新任务,并构建了相应的对话数据集 DuLeMon 和一个带有长期记忆机制的对话生成框架 PLATO-LTM。这在以往的研究中鲜有涉及,而该论文首次尝试对双方的人物信息进行实时管理,包括记忆和利用用户
总目录 大模型相关研究:https://blog.csdn.net/WhiffeYF/article/details/142132328
https://arxiv.org/pdf/2203.05797
2022ACL|Long Time No See! Open-Domain Conversation with Long-Term Persona Memory
速览
ACL2022 | 长期对话中人物记忆管理新突破
该论文《Long Time No See! Open-Domain Conversation with Long-Term Persona Memory》发表于 ACL 2022,由百度公司、北京邮电大学、哥伦比亚大学的研究人员共同完成。论文聚焦于开放域对话系统在长期对话中的表现问题,尤其是对话系统缺乏理解和记忆长期对话历史信息的能力,导致在与人类进行长期交流时效果不佳。为解决这一难题,论文提出了一个名为“长期记忆对话”(LeMon)的新任务,并构建了相应的对话数据集 DuLeMon 和一个带有长期记忆机制的对话生成框架 PLATO-LTM。
在任务设计方面,LeMon 旨在让对话系统能够实时动态管理对话双方(用户和对话系统)的人物信息。这在以往的研究中鲜有涉及,而该论文首次尝试对双方的人物信息进行实时管理,包括记忆和利用用户的人物信息,以提升对话的吸引力和长期互动性。DuLeMon 数据集则为这一任务提供了丰富的语料支持,它不仅关注对话系统自身人物的一致性,还注重主动构建和利用用户的长期人物信息。该数据集是目前最大的中文多轮双向人物对话数据集,为研究提供了坚实基础。
在模型设计方面,PLATO-LTM 框架通过其长期记忆(LTM)机制,能够准确提取并持续更新长期人物记忆,无需依赖多会话对话数据集进行模型训练。该框架包含三个模块:人物提取器(PE)、长期记忆(LTM)和生成模块。人物提取器通过分类器从对话历史中提取人物信息并写入记忆;长期记忆模块分别存储对话双方的人物信息,并通过上下文匹配模型进行检索;生成模块则将检索到的人物信息与对话上下文结合,生成连贯的回复。
实验结果表明,PLATO-LTM 在长期对话一致性方面显著优于基线模型,从而使得对话更具吸引力。具体而言,PLATO-LTM 在 DuLeMon 数据集上的表现优于其他模型,尤其是在对话一致性和吸引力方面。该研究不仅为开放域对话系统在长期互动场景下的发展提供了新的思路和方法,也为未来相关领域的研究奠定了坚实基础,有望推动对话系统在更多实际应用场景中实现更自然、更持久的人机交流。
更多推荐
所有评论(0)