Adversarial Active Learning for Sequence Labeling and Generation
本文发表在IJCAI2018上,主要是关于active learning在序列问题上的应用,现有的active learning方法大多依赖于基于概率的分类器,而这些方法不适合于序列问题(标签序列的空间太大),作者提出了一种基于adversarial learning的框架解决了该问题。 paper
本文发表在IJCAI2018上,主要是关于active learning在序列问题上的应用,现有的active learning方法大多依赖于基于概率的分类器,而这些方法不适合于序列问题(标签序列的空间太大),作者提出了一种基于adversarial learning的框架解决了该问题。 paper
本文是FAIR发表于ICIR2019上关于轻量卷积和动态卷积的文章,轻量卷积借鉴于深度可分离卷积,在此基础上提出动态卷积,实验结果证明本文提出的两种卷积方式性能不亚于以Transformer为代表的self-attention,可以应用到更多的自然语言处理任务。 papercode
本文是来自于AAAI2019的一篇关于句子语义匹配的文章,提出了Dynamic Re-read Network(DRr-Net),核心是通过多次计算注意力,每一次计算可以获取最重要的词信息,从而得到一句话的动态表征,结合句子的静态表征和动态表征来得到相似度。 paper link
本文主要研究的是融合情感的开放域对话系统,在seq2seq的基础上增加了VAD (Valence, Arousal and Dominance)编码,引入了情感注意力机制来建模否定词和加强词的影响,使用加权交叉熵损失函数来鼓励模型生成包含情感的词。AAAI2019 paper link
本文是来自于FAIR的一篇关于个性化chitchat对话系统数据集PERSONA-CHAT的论文,发表于ACL2018,论文主要是创建了一个全新的带有对话双方个性的对话数据集,并提供了一些基线模型。基于此数据集,在NIPS2018上举行了 ConvAI2 评测。 paper linkdataset link
本文是文本风格迁移问题的一个尝试,提出了两个模型,核心点在于如何从文本中分离内容特征和风格特征,作者使用了对抗网络来解决这个问题。同时作者建立了paper-news、positive-negative review两个数据集,提出了文本风格迁移两个指标:transfer strength、content preservation,实验证明,与auto-encoder相比,作者提出的模型在内容保存度上接近,在风格迁移度上大幅提高。paper link
本文提出了一个端到端的基于memory network和指针网络的对话生成模型,结合多跳注意力机制和指针网络,从对话历史和词汇表中生成回复。ACL2018paper linkcode link
这两篇文章分别来自 DSTC7 评测任务1 Sentence Selection 中排名第一和第二的团队,阿里巴巴达摩院以及Palo Alto研究中心。该任务重点关注了面向目标的对话系统中的回复选择问题,参赛者需要结合给定的对话片段在给出的一组候选回复中选择最符合的一个应答。这两个模型分别属于多轮对话的回复选择中基于序列的方法和基于层次的方法。Sequential Attention-based Network for Noetic End-to-End Response SelectionComparison of Transfer-Learning Approaches for Response Selection in Multi-Turn Conversations
本文主要研究的是将情感融入到开放域对话生成中,模型主要包含:对情感进行编码,捕获隐式地情感状态变化,使用显式地外部情感词汇;实验证明本文提出的模型(ECM)在生成内容和情感上都取得了一定的效果。paper linkcode link
本文是ACL2018上的文章,主要研究对话领域选择回复的问题,作者提出了DAM模型,主要通过stacked self-attention获取不同维度的表征,从而得到self-attention matching matrix和cross-attention matching matrix,取得了不错的效果。paper linkcode link