Category: NLP
A Robust Adversarial Training Approach to Machine Reading Comprehension
本文从阅读理解模型自身出发,利用对抗的思路自动发现对抗样本,从而有针对性地加强模型的鲁棒性。 paper: https://drive.google.com/open?id=1lWlaRQvSW8orUwmIM5HRRKtp_K2gQKessource: AAAI 2020
A Survey of Zero-Shot Learning:Settings, Methods, and Applications
零样本学习方法(ZSL,Zero-shot Learning)是学术界重要的前沿研究分支之一。尽管大量科研相关人员已经标注了很多标准数据集,但就算著名如ImageNet,在其千万级数据集中也不过分为21841个类别,现实世界中已经标注的数据仍然只占少数,且有诸多场景如疾病图像数据难以大量获取。故研究在目标域无标注数据情况下如何进行有效的学习并进行预测非常有意义。本文对ZSL问题做了明确的定义,根据模型训练过程中数据的使用方式将ZSL问题分为三类,并且描述了现有工作中标签语义空间的几种建模方法,最后给出了若干有代表性的ZSL方法。 paper: https://drive.google.com/open?id=1mX1l3AhXz20gIajLjCRso6JMZWLRIxTBsource: ACM Trans.
Cross-Domain NER using Cross-Domain Language Modeling
本文通过未标注文本引入语言建模任务来辅助 NER 领域自适应任务,使用参数生成网络建模跨领域和跨任务,分别得到任务向量和领域向量,实验证明在监督和无监督领域适应上都取得很好的效果。 paper: https://drive.google.com/open?id=1gb0lN7tp0-enXYj1OuLDLPoDGryLWkL_source: ACL 2019 long papercode: https://github.com/jiachenwestlake/Cross-Domain_NER
Text-to-Text Generation
Bottom-Up Abstractive Summarization EMNLP 2018,https://github.com/sebastianGehrmann/bottom-up-summary 本文研究生成式摘要任务,目前性能比较好的模型是指针生成式的端到端模型PGN,虽然这些端到端模型能够产生比较流畅的摘要,但在内容选择方面,即决定总结什么内容方面,与完全抽取式的模型相比,却显得
Reading Turn by Turn:Hierarchical Attention Architecture for Spoken Dialogue Comprehension
本文研究的是对话阅读理解问题,提出了层次注意力结构(turn-level+word-level)来促进对话理解。实验证明了本文采用的turn-based的建模方式优于utterance-based,并且在长对话以及包含未知实体的对话中(论文称之为out-of-distribution)优势更加明显。 paper: https://drive.google.com/open?id=17nTPUASgBGx7g3GDRyHbyvqzRdlm4xa9source: ACL 2019 short paper