A Knowledge-Grounded Neural Conversation Model
本文在传统的基于数据驱动的对话系统中引入了背景知识,试图增加对话回复的有效信息。AAAI2018paper link
本文在传统的基于数据驱动的对话系统中引入了背景知识,试图增加对话回复的有效信息。AAAI2018paper link
本文是Wechat AI团队发表的基于DSTC7中第二个评测Sentence Generation 的论文,发表在AAAI2019上。研究的主要问题是基于背景知识的对话生成,主要通过指针生成机制和注意力机制从对话历史和背景知识中来生成更加有意义的回复。 paper link
本文研究的是基于大规模常识知识图谱的开放域对话系统,作者在传统的encoder-decoder模型中增加静态图注意力和动态图注意力机制。给定用户的一段输入,该模型从常识知识图谱中检索出相关的子图,进行静态图注意力编码,进而增强对用户输入的语义理解。然后在生成的过程中,模型通过动态的图注意力机制与检索出来的知识图谱以及其中的三元组进行交互。与之前的方法相比,本模型是把一个知识图谱看作一个整体,而不是单独的使用图谱中三元组。paper linkcode link
本文是来自于AAAI 2019关于在任务型对话中引入个性化的文章,主要通过用户profile建模来实现个性化回答和语义消歧。
基于Attention的RNN模型在联合意图识别(ID)和槽位填充(SF)上实现最好性能(其ID和SF的attention权重独立)。本文提出slot gate结构,其关注于学习intent和slot attention向量之间的关系,通过全局优化获得更好的semantic frame。通过在ATIS和Snips数据集实验,相比于attention模型semantic frame准确率提升了4.2%。 paper linkcode link
本文是Deep Dyna-Q Integrating Planning for Task-Completion Dialogue Policy Learning 团队的续作,主要解决的是原始DDQ模型对world model生成的simulated dialogues质量好坏的严重依赖,通过引入一个区分真实对话和模拟对话的判别器,进而提高DDQ模型的鲁棒性和有效性。paper linkcode link
本文是来自于SIGdial的一篇文章,主要研究的是LU和DST的联合建模,在不影响准确率的前提下提高了计算效率,同时在训练阶段引入了Scheduled Sampling,亦是创新点。本篇文章是作者一系列关于LU和DST的最新作,可结合之前两篇对比来看(参见Reference)。paper linkdataset link
SLU是任务型对话系统的基础,本文提出了一种基于对话历史建模的SLU模型,通过RNN对对话上下文进行建模,进而辅助对当前句子的理解,并且可以用于DST(对话状态追踪)。paper linkdataset link
本文介绍了一种新的语言表征模型 BERT——来自 Transformer 的双向编码器表征。与最近的语言表征模型不同,BERT 旨在基于所有层的左、右语境来预训练深度双向表征。BERT 是首个在大批句子层面和 token 层面任务中取得当前最优性能的基于微调的表征模型,其性能超越许多使用任务特定架构的系统,刷新了 11 项 NLP 任务的当前最优性能记录。paper linkcode link
本文提出了一种新的通过与真实用户交互来学习对话策略的方法Deep Dyna-Q,与之前的工作相比,只需要少量的真实对话数据,通过world model对用户建模,结合model-free和model-based,该方法能够高效的学习对话策略。