Neural Response Generation with Meta-Words
本文提出用meta-word来表示输入和回复间的关系,基于meta-word的架构,诸如情感对话生成、个性化对话生成等热点问题都可通过该论文提出的框架解决。ACL2019 paper link
本文提出用meta-word来表示输入和回复间的关系,基于meta-word的架构,诸如情感对话生成、个性化对话生成等热点问题都可通过该论文提出的框架解决。ACL2019 paper link
本文解决的是嵌套命名实体识别问题,提出了基于head-driven phrase structures的方法ARN,并且针对于无额外anchor word标注的数据集提出了bag loss。 ACL2019 paper linkcode link
本文提出了正则化的多任务学习框架SpaceFusion,通过结构化隐变量空间联合优化多样性和相关性。NAACL2019 paper linkcode link
本文主要研究的是结合语言模型预训练和多任务学习获取文本表示,在多个公开数据集上取得了最好的效果,同时在领域迁移实验中也取得了很好的泛化能力。ACL2019 paper linkcode link
本文提出了基于多层记忆网络的对话生成模型,创新点在于将context memory和KB memory分隔开,并且以一种分层的结构表示KB memory,以符合KB结果中自然的层次关系,使得模型可以支持非连续的对话(用户引用之前历史提过的KB结果),在entity F1和BLEU上远远超过之前的模型(Mem2Seq等)。 paper linkcode link
本文研究的是对话系统中的SLU任务,论文重点关注于对话中不同出现时间的上下文信息,即考虑对话时间的影响,同时增加了说话者的身份特征。NAACL2019 paper link)code link
本文深入研究了预训练词表征所学习到的语言学知识以及可迁移性,通过大量的对比实验分析ELMo, GPT, BERT等预训练词表征的影响,得出一些有意义的结论。 NAACL2019 paper link
本文定义了数据增强DA的通用结构,并且针对于SLU任务提出了Joint Language Understanding Variational Autoencoder (JLUVA)模型,在此基础上分析了各种VAE采样的方法。AAAI2019 paper link
本文主要解决的是SLU(Spoken Language Understanding)的跨语言迁移,即针对于同一领域从高资源语言SLU迁移到低资源语言SLU,同时构建了一个英语、西班牙语、泰语的平行语料。NAACL2019 paper linkdataset link
本文主要总结检索式对话系统中回复选择的模型方法,从基于编码的方法和基于匹配的方法两方面介绍,重点突出最新的一些进展,总体来说,多表征交互融合的方法基本上是SOTA。