(Paper Weekly05) TextFooler: A Strong Baseline for Natural Language Attack

(先吐槽一下,为啥NLP文章老喜欢强调strong baseline这一点…是有什么执念吗?)

太长不看版:

通过让模型接触到人工生成的对抗样本可以提高其在文本任务上的表现,这是广泛共识。本文提出的生成方式简单有效,先计算每个词的“重要性”,再去掉stop words。之后对于每个词进行替换尝试,尝试方法就是直接将词和vocabulary中的其他所有词计算相似度,选择能够使得分类结果发生变化的词。

陈沁宇
陈沁宇
Master Student@PKU

My research interests include natural language processing, machine learning and recommender systems.