0
Linguistic Knowledge and Transferability of Contextual Representations
本文深入研究了预训练词表征所学习到的语言学知识以及可迁移性,通过大量的对比实验分析ELMo, GPT, BERT等预训练词表征的影响,得出一些有意义的结论。 NAACL2019 paper link
本文深入研究了预训练词表征所学习到的语言学知识以及可迁移性,通过大量的对比实验分析ELMo, GPT, BERT等预训练词表征的影响,得出一些有意义的结论。 NAACL2019 paper link
本文定义了数据增强DA的通用结构,并且针对于SLU任务提出了Joint Language Understanding Variational Autoencoder (JLUVA)模型,在此基础上分析了各种VAE采样的方法。AAAI2019 paper link
本文主要解决的是SLU(Spoken Language Understanding)的跨语言迁移,即针对于同一领域从高资源语言SLU迁移到低资源语言SLU,同时构建了一个英语、西班牙语、泰语的平行语料。NAACL2019 paper linkdataset link