Linguistic Knowledge and Transferability of Contextual Representations
本文深入研究了预训练词表征所学习到的语言学知识以及可迁移性,通过大量的对比实验分析ELMo, GPT, BERT等预训练词表征的影响,得出一些有意义的结论。 NAACL2019 paper link
本文深入研究了预训练词表征所学习到的语言学知识以及可迁移性,通过大量的对比实验分析ELMo, GPT, BERT等预训练词表征的影响,得出一些有意义的结论。 NAACL2019 paper link
本文定义了数据增强DA的通用结构,并且针对于SLU任务提出了Joint Language Understanding Variational Autoencoder (JLUVA)模型,在此基础上分析了各种VAE采样的方法。AAAI2019 paper link
本文主要解决的是SLU(Spoken Language Understanding)的跨语言迁移,即针对于同一领域从高资源语言SLU迁移到低资源语言SLU,同时构建了一个英语、西班牙语、泰语的平行语料。NAACL2019 paper linkdataset link
本文主要总结检索式对话系统中回复选择的模型方法,从基于编码的方法和基于匹配的方法两方面介绍,重点突出最新的一些进展,总体来说,多表征交互融合的方法基本上是SOTA。
本文来自于AAAI2019,主要研究的是自然语言理解领域迁移的问题,与传统的序列标注模型不同的是,作者使用了slot描述信息来辅助多个领域之间的迁移,在10个领域的数据集上取得了最优的效果。 paper link
本文是ACL2017上的文章,主要研究对话生成多样性问题,作者提出了基于条件变分自编码器CVAE的对话生成模型,借助于隐变量学习回复的概率分布,同时还引入了回复的diaact信息作为外部语言知识。针对于带RNN decoder的VAE模型训练过程中存在的vanishing latent variable problem,作者引入了一种附加 bag loss。与基线模型相比,本文提出的模型在生成回复的多样性方面有明显提升。 paper linkcode link
本文来自于AAAI2019,主要研究的是迁移学习在序列标注任务上的应用,仅仅基于source data训练的source model迁移到新的target data(与source data相比,增加了标签的类别,而领域不变),而不直接使用source data来迁移,实验结果证明迁移学习在新标签类别和之前已有的标签类别上都取得了不错的效果。 paper linkcode link
本文是FAIR发表于EMNLP2018上的文章,主要提出了一个基于Reddit的大规模开放域对话数据集,附带大量的用户个性,实验证明用户个性有助于提高对话系统的性能;同时,基于本数据集的预训练模型也有助于各种任务(FAIR的另一篇文章Wizard of Wikipedia Knowledge-powered conversational agents 使用了基于本数据集的预训练Transformer Encoder)。 paper link
本文是FAIR发表于ICLR2019上的文章,主要提出了一个基于Wikipedia背景知识的开放域对话数据集以及两个基线模型。 paper linkdataset&&code link
本文主要研究的是开放域对话系统,使用后验知识分布来指导知识选择过程,以生成包含更多有效信息的回复。 paper link