Deep contextualized word representations
本文提出了ELMo(深度上下文词表示)模型,它是由AI2开发的,并在NAACL 2018上被评为最佳论文。在ELMo中,嵌入基于一个双层的双向语言模型(biLM)的内部状态计算,ELMo也是因此得名的:Embeddings from Language Models(来自语言模型的嵌入)。paper linkcode link
本文提出了ELMo(深度上下文词表示)模型,它是由AI2开发的,并在NAACL 2018上被评为最佳论文。在ELMo中,嵌入基于一个双层的双向语言模型(biLM)的内部状态计算,ELMo也是因此得名的:Embeddings from Language Models(来自语言模型的嵌入)。paper linkcode link
来自Google Research的一篇文章,在这篇文章中作者们提出了一种通用句子编码器,相比于传统的word embedding,该编码器在多个不同的NLP任务上都取得了更好的准确率,可以用来做迁移学习。paper linkcode link
来自Google的一篇神经翻译的文章,在这篇文章中作者们抛弃了传统Encoder-Decoder中经典的卷积和循环结构,仅保留了attention的结构,在减少了训练成本的同时在数个数据集上取得了最优的BLEU.paper link
来自Google的一篇神经翻译的文章,在这篇文章中作者们抛弃了传统Encoder-Decoder中经典的卷积和循环结构,仅保留了attention的结构,在减少了训练成本的同时在数个数据集上取得了最优的BLEU.paper link
Model overview and combinations, Dynamic memory networks. CS224n lecture 16.
A brief introduction to Maluuba’s Frames dataset. It is designed to help drive research that enables truly conversational agents that can support decision-making in complex settings. The dataset contains natural and complex dialogues with users considering different options, comparing packages, and progressively building rich descriptions through conversation.