Tag: Transformer

0

Attention is all you need

来自Google的一篇神经翻译的文章,在这篇文章中作者们抛弃了传统Encoder-Decoder中经典的卷积和循环结构,仅保留了attention的结构,在减少了训练成本的同时在数个数据集上取得了最优的BLEU.paper link

0

Attention is all you need

来自Google的一篇神经翻译的文章,在这篇文章中作者们抛弃了传统Encoder-Decoder中经典的卷积和循环结构,仅保留了attention的结构,在减少了训练成本的同时在数个数据集上取得了最优的BLEU.paper link