Tag: NLU

0

A Novel Bi-directional Interrelated Model for Joint Intent Detection and Slot Filling

本文研究的是联合意图识别和序列标注问题,在slot-gate基础上综合考虑ID->SF和SF->ID两方面的影响,同时提出了一种多重交互的机制来增强两个任务之间的联系,在ATIS和Snips公开数据集上取得了很好的效果。 paper: https://drive.google.com/open?id=13fCcaL87EMYgDq6R_mH5a56LqSQ2axglsource: ACL 2019 short papercode: https://github.com/ZephyrChenzf/SF-ID-Network-For-NLU

0

Slot-Gated Modeling for Joint Slot Filling and Intent Prediction

基于Attention的RNN模型在联合意图识别(ID)和槽位填充(SF)上实现最好性能(其ID和SF的attention权重独立)。本文提出slot gate结构,其关注于学习intent和slot attention向量之间的关系,通过全局优化获得更好的semantic frame。通过在ATIS和Snips数据集实验,相比于attention模型semantic frame准确率提升了4.2%。 paper linkcode link

0

Multi-task learning for Joint Language Understanding and Dialogue State Tracking

本文是来自于SIGdial的一篇文章,主要研究的是LU和DST的联合建模,在不影响准确率的前提下提高了计算效率,同时在训练阶段引入了Scheduled Sampling,亦是创新点。本篇文章是作者一系列关于LU和DST的最新作,可结合之前两篇对比来看(参见Reference)。paper linkdataset link