Mem2Seq Effectively Incorporating Knowledge Bases into End-to-End Task-Oriented Dialog Systems
本文提出了一个端到端的基于memory network和指针网络的对话生成模型,结合多跳注意力机制和指针网络,从对话历史和词汇表中生成回复。ACL2018paper linkcode link
本文提出了一个端到端的基于memory network和指针网络的对话生成模型,结合多跳注意力机制和指针网络,从对话历史和词汇表中生成回复。ACL2018paper linkcode link
这两篇文章分别来自 DSTC7 评测任务1 Sentence Selection 中排名第一和第二的团队,阿里巴巴达摩院以及Palo Alto研究中心。该任务重点关注了面向目标的对话系统中的回复选择问题,参赛者需要结合给定的对话片段在给出的一组候选回复中选择最符合的一个应答。这两个模型分别属于多轮对话的回复选择中基于序列的方法和基于层次的方法。Sequential Attention-based Network for Noetic End-to-End Response SelectionComparison of Transfer-Learning Approaches for Response Selection in Multi-Turn Conversations
本文主要研究的是将情感融入到开放域对话生成中,模型主要包含:对情感进行编码,捕获隐式地情感状态变化,使用显式地外部情感词汇;实验证明本文提出的模型(ECM)在生成内容和情感上都取得了一定的效果。paper linkcode link
本文是ACL2018上的文章,主要研究对话领域选择回复的问题,作者提出了DAM模型,主要通过stacked self-attention获取不同维度的表征,从而得到self-attention matching matrix和cross-attention matching matrix,取得了不错的效果。paper linkcode link
本文是Deep Dyna-Q Integrating Planning for Task-Completion Dialogue Policy Learning 团队的续作,主要解决的是原始DDQ模型对world model生成的simulated dialogues质量好坏的严重依赖,通过引入一个区分真实对话和模拟对话的判别器,进而提高DDQ模型的鲁棒性和有效性。paper linkcode link
本文是来自于SIGdial的一篇文章,主要研究的是LU和DST的联合建模,在不影响准确率的前提下提高了计算效率,同时在训练阶段引入了Scheduled Sampling,亦是创新点。本篇文章是作者一系列关于LU和DST的最新作,可结合之前两篇对比来看(参见Reference)。paper linkdataset link
SLU是任务型对话系统的基础,本文提出了一种基于对话历史建模的SLU模型,通过RNN对对话上下文进行建模,进而辅助对当前句子的理解,并且可以用于DST(对话状态追踪)。paper linkdataset link
本文介绍了一种新的语言表征模型 BERT——来自 Transformer 的双向编码器表征。与最近的语言表征模型不同,BERT 旨在基于所有层的左、右语境来预训练深度双向表征。BERT 是首个在大批句子层面和 token 层面任务中取得当前最优性能的基于微调的表征模型,其性能超越许多使用任务特定架构的系统,刷新了 11 项 NLP 任务的当前最优性能记录。paper linkcode link
本文提出了一种新的通过与真实用户交互来学习对话策略的方法Deep Dyna-Q,与之前的工作相比,只需要少量的真实对话数据,通过world model对用户建模,结合model-free和model-based,该方法能够高效的学习对话策略。
本文提出了几种针对于文档相关性排序问题的新模型,这些模型基于已有的DRMM模型:A Deep Relevance Matching Model for Ad-hoc Retrieval) 。不同之处在于,DRMM模型使用上下文无关的term encoding编码方式,而本文提出的改进模型则借鉴自PACRR的思想,融合n-grams和不同方式编码的上下文信息。实验证明,本文提出的模型优于BM25-baseline,DRMM和PACRR。code link