本工作被ACL2020接受。在这个工作中,我们首先提出了一种用于文本的新的data augmentation的方式,TMix。 TMix通过在hidden space中对于不同的training samples做linear interpolation生成新的training data用于训练。基于TMix与consistency training,我们进一步提出新的用于文本分类的半监督模型,MixText。 MixText在labeled data十分有限的情况下,显著的提升了分类准确率。例如每类仅需要10个labeled sentence既可以在AG News上达到88.4%的准确率。并且我们开源了我们的代码:https: //github.com/GT-SALT/MixText 。
播放:91次,课程ID:5075636
本工作被ACL2020接受。在这个工作中,我们首先提出了一种用于文本的新的data augmentation的方式,TMix。 TMix通过在hidden space中对于不同的training samples做linear interpolation生成新的training data用于训练。基于TMix与consistency training,我们进一步提出新的用于文本分类的半监督模型,MixText。 MixText在labeled data十分有限的情况下,显著的提升了分类准确率。例如每类仅需要10个labeled sentence既可以在AG News上达到88.4%的准确率。并且我们开源了我们的代码:https: //github.com/GT-SALT/MixText 。
No list
佐治亚理工学院 PhD in CS,导师为Diyi Yang。主要研究方向为自然语言处理和机器学习,已在相关领域的国际顶级会议如ACL, NAACL, AAAI等发表多篇论文。