自然语言处理中的注意力机制研究综述*
石磊,王毅,成颖,魏瑞斌

Review of Attention Mechanism in Natural Language Processing
Shi Lei,Wang Yi,Cheng Ying,Wei Ruibin
表3 部分机器阅读理解模型在SQuAD数据集上的表现
Table 3 The Performance of Machine Reading Comprehension Models on SQuAD
作者 模型 Exact Match(%) F1(%) 注意力
Wang等[43] Match-LSTM 64.7 73.7
Xiong等[44] DCN 66.2 75.9 协同注意力
Seo等[17] BiDAF 68.0 77.3 双向注意力
Gong等[45] Ruminating Reader 70.6 79.5 双向多跳注意力
Wang等[42] R-Net 72.3 80.7 Self-Matching注意力
Peters等[46] BiDAF+Self-Attention 72.1 81.1 双向注意力+自注意力
Liu等[47] PhaseCond 72.6 81.4 K2Q+自注意力
Yu等[48] QANet 76.2 84.6 协同注意力+自注意力
Wang等[49] SLQA+ 80.4 87.0 协同注意力+自注意力