Category: NLU
Energy-based Out-of-distribution Detection
作者提出了一个用energy score检测OOD的统一框架,其既可以用于预训练网络分类器作为scoring fuction,也可以作为一个trainable cost function来微调分类模型。
Cross-Domain NER using Cross-Domain Language Modeling
本文通过未标注文本引入语言建模任务来辅助 NER 领域自适应任务,使用参数生成网络建模跨领域和跨任务,分别得到任务向量和领域向量,实验证明在监督和无监督领域适应上都取得很好的效果。 paper: https://drive.google.com/open?id=1gb0lN7tp0-enXYj1OuLDLPoDGryLWkL_source: ACL 2019 long papercode: https://github.com/jiachenwestlake/Cross-Domain_NER
Sequence-to-Nuggets Nested Entity Mention Detection via Anchor-Region Networks
本文解决的是嵌套命名实体识别问题,提出了基于head-driven phrase structures的方法ARN,并且针对于无额外anchor word标注的数据集提出了bag loss。 ACL2019 paper linkcode link
Decay-Function-Free Time-Aware Attention to Context and Speaker Indicator for Spoken Language Understanding
本文研究的是对话系统中的SLU任务,论文重点关注于对话中不同出现时间的上下文信息,即考虑对话时间的影响,同时增加了说话者的身份特征。NAACL2019 paper link)code link
Cross-Lingual Transfer Learning for Multilingual Task Oriented Dialog
本文主要解决的是SLU(Spoken Language Understanding)的跨语言迁移,即针对于同一领域从高资源语言SLU迁移到低资源语言SLU,同时构建了一个英语、西班牙语、泰语的平行语料。NAACL2019 paper linkdataset link
Zero-Shot Adaptive Transfer for Conversational Language Understanding
本文来自于AAAI2019,主要研究的是自然语言理解领域迁移的问题,与传统的序列标注模型不同的是,作者使用了slot描述信息来辅助多个领域之间的迁移,在10个领域的数据集上取得了最优的效果。 paper link
Slot-Gated Modeling for Joint Slot Filling and Intent Prediction
基于Attention的RNN模型在联合意图识别(ID)和槽位填充(SF)上实现最好性能(其ID和SF的attention权重独立)。本文提出slot gate结构,其关注于学习intent和slot attention向量之间的关系,通过全局优化获得更好的semantic frame。通过在ATIS和Snips数据集实验,相比于attention模型semantic frame准确率提升了4.2%。 paper linkcode link
An Efficient Approach to Encoding Context for Spoken Language Understanding
SLU是任务型对话系统的基础,本文提出了一种基于对话历史建模的SLU模型,通过RNN对对话上下文进行建模,进而辅助对当前句子的理解,并且可以用于DST(对话状态追踪)。paper linkdataset link