Advanced Search

数据分析与知识发现, 2019, 3(8): 53-61 doi: 10.11925/infotech.2096-3467.2018.1198

研究论文

基于主动学习的科技论文句子功能识别研究 *

陈果,,1,2, 许天祥1

1南京理工大学经济管理学院 南京 210094

2江苏省社会公共安全科技协同创新中心 南京 210094

Sentence Function Recognition Based on Active Learning

Chen Guo,,1,2, Xu Tianxiang1

1School of Economics and Management, Nanjing University of Science and Technology, Nanjing 210094, China

2Jiangsu Science and Technology Collaborative Innovation Center of Social Public Safety, Nanjing 210094, China

通讯作者: 陈果, ORCID: 0000-0003-2873-1051, E-mail:delphi1987@qq.com

收稿日期: 2018-10-29   修回日期: 2019-02-26   网络出版日期: 2019-08-25

基金资助: *本文系国家社会科学基金青年项目“领域分析视角下的科技词汇语义挖掘与知识演化研究”的研究成果 之一.  16CTQ024

Received: 2018-10-29   Revised: 2019-02-26   Online: 2019-08-25

摘要

【目的】为降低对人工标注语料的依赖, 探索利用主动学习方法, 充分结合现成的结构化摘要和有针对性的少量人工标注, 以获得具有更好泛化能力的句子功能分类模型, 识别文献句子功能类型(如表述研究的目的、方法、结论等)。【方法】以结构化摘要功能句为初始语料训练SVM、CNN、Bi-LSTM三种初始分类器, 再展开主动学习: 对大量无标签普通摘要句子进行功能预测, 自动筛选不确定性高的样例提请人工标注, 标注结果用于优化初始分类器, 迭代进行主动学习, 以提高分类器在新任务场景下的泛化性能。【结果】在图书情报学科文献集上实验表明, 开展主动学习可取得较好的句子功能分类效果, 准确率、召回率、F1值达84.65%、84.49%、84.57%, 较主动学习前分别提升3.25%、3.24%、3.25%。【局限】为避免大量的人工语料标注工作, 仅做了5次迭代。【结论】主动学习方法善于发现新任务场景下未标注语料与已有现成训练语料的差异, 有针对性地降低人工标注成本, 以提升基本模型的泛化能力。后续可进一步扩展应用于其他场景下(如引文、全文)的句子功能识别。

关键词: 结构化摘要 ; 句子功能识别 ; 主动学习 ; 短文本分类

Abstract

[Objective] This paper uses active learning methods, structured abstracts and a few annotations to create a classification model for sentence functions, aiming to reduce the dependence on manually labeled corpus. [Methods] First, we trained the SVM, CNN and Bi-LSTM classifiers with structured function sentences from abstracts. With the help of active learning techniques, we predicted the function of a large number of unlabeled common abstract sentences. Third, we automatically identified uncertain samples for manual annotation, which were used to optimize the initial classifier. Finally, we used active learning to improve the performance of classifiers. [Results] We examined the new method with Library and Information Science literature. The precision, recall, and F1 values were 84.65%, 84.49%, and 84.57%, which were 3.25%, 3.24%, and 3.25% higher than those of the traditional methods. [Limitations] We only conducted five iterations to avoid massive work of manual corpus annotation. [Conclusions] Active learning method could effectively discover the difference between unlabeled corpus and existing training corpus, which also reduces the manual labeling costs. The proposed method might be used in citation and full text analysis.

Keywords: Structured Abstract ; Sentence Function Recognition ; Active Learning ; Short Text Classification

PDF (1017KB) 元数据 多维度评价 相关文章 导出 EndNote| Ris| Bibtex  收藏本文

本文引用格式

陈果, 许天祥. 基于主动学习的科技论文句子功能识别研究 *. 数据分析与知识发现[J], 2019, 3(8): 53-61 doi:10.11925/infotech.2096-3467.2018.1198

Chen Guo. Sentence Function Recognition Based on Active Learning. Data Analysis and Knowledge Discovery[J], 2019, 3(8): 53-61 doi:10.11925/infotech.2096-3467.2018.1198

1 引 言

科技文本内容的分析和利用一直是情报学研究的关键问题。随着科技文献全文本可获得性的提高和文本分析技术的不断完善, 传统以篇章为对象的粗粒度知识分析已逐渐深入到以文本章节[1]、句子[2]为对象的细粒度知识分析。科技文本的表述具有目的性, 在篇章层面表现为各章节具有不同功能[1], 更细粒度的层面则表现为句子的功能差异, 这些功能通常与描述论文研究目的、所用理论方法、所得结论等相关, 因此可将具有这些特定描述功能的句子称为功能句。摘要是一种典型的功能句集合, 有研究表明, 科技论文通常采用信息型摘要, 其描述内容主要包括研究背景、目的、方法、结果和结论等5个方面[3]

句子是完整表述知识内容的最基本单元[4], 其功能识别是科技文本细粒度知识抽取、挖掘和利用的基础。句子功能识别技术实质上是一个文本分类问题, 这就要求有充足的类别标注数据作为训练集。例如, 在引文句的引用意图识别上, 已有研究多以人工标注数据为语料库开展训练, 时间成本和标注效率难以保障[5]。结构化摘要中包含研究目的、方法、结果、局限和结论等功能句, 可作为现成的训练数据, 但其数量较少, 在一定程度上不足以支撑相关模型的有效训练。此外, 将基于结构化摘要学习到的分类模型迁移到其他句子功能识别时, 必然存在泛化能力受限的问题。以普通摘要功能句识别为例, 结构化摘要与其具有一定相似性, 但普通摘要的非规范化撰写导致其行文与结构化摘要存在差异。因此, 如何降低标注成本并提升领域的泛化能力是需要解决的关键问题。

本文将主动学习的思想[6]应用于科技文献句子功能识别中。鉴于科技文本语句功能识别的应用场景至少包括普通摘要、引文句、特定章节中语句乃至全文句子, 而目前又很少有研究围绕上述问题展开, 本文以普通摘要语句功能识别为场景展开研究。根据量化的结果分析实验效果, 探究主动学习在相近任务场景下提升基本分类模型泛化能力的可行性, 同时为后续开展更多场景下科技文本语句功能识别工作提供借鉴。

2 相关研究

2.1 短文本分类

短文本分类的具体流程上与传统文本分类相同, 但短文本存在严重的特征稀疏性问题, 通常需要依据外部资源或内部语义关联对其进行扩展[7]。Fan等提出挖掘文本中词语共现关系以构建特征共现集合, 从而对短文本的特征进行扩展[8]。Kim等以维基百科为工具构建扩展词表, 以辅助短文本分类[9]。Chen等通过将短文本的TF-IDF特征与LDA多粒度主题分布特征进行拼接, 达到对短文本扩展的目的[10]。Dai等提出基于AP算法聚类对短文本进行扩展[11]。此外, 伴随神经网络的兴起, 循环神经网络、卷积神经网络等也在短文本分类任务上取得显著成果[12]。吴鹏等利用Bi-LSTM模型从海量短文本中判别网民的负面情感, 取得显著效果[13]。王东波等基于Bi-LSTM模型展开先秦典籍问句自动分类研究, 调和平均值达94.78%[14]。王盛玉等基于词注意力卷积神经网络模型展开文本情感分类研究, 较传统机器学习方法准确率提升2%[15]

2.2 科技文献句子功能识别

引文句功能识别是引文类型识别研究的一个重要方面。Teufel等从情感倾向的角度将引文划分为12个小类并将其折叠成4个大类: 指出缺点、相互比较、赞同/利用以及中性, 以此为依据使用KNN算法识别引文类型[16]。Dong等将引文功能分为背景、基本概念、技术基础、比较4类, 使用BayesNet、SMV和Naïve Bayes三种分类算法集成策略进行引文功能识别[17]

句子功能识别是自动文摘中的基础工作。Teufel等基于人工标注功能句语料学习不同类型功能句的特征, 并将句子功能分类结果应用于抽取式自动文摘生成[18]。Abu-Jbara等提出一种利用引文句子功能类型抽取摘要候选句的方法, 在人工标注背景、问题陈述、方法、结果和局限等句子功能类型的语料基础上, 训练线性内核SVM分类器, 实验证明由此生成的摘要更加接近人工生成的结果[19]。许红波使用TAC2014数据集, 将引文及其上下文论点分为假设、方法、结果、影响和讨论等5种功能类型, 基于CNN-non-static识别准确率达79.91%, 用以辅助生成学术文献摘要[20]

在摘要句功能类型识别方面, McKnight等以MedLine论文摘要为数据源, 标注背景介绍、研究方法、实验结果以及研究结论4种功能句标签, 分别在线性分类器和SVM分类器下进行实验, 发现SVM效果更好[21]。华秀丽等以2010年ACL 200篇长文的摘要为研究对象, 将其划分为背景知识、论文主题、研究方法和实验结果4种功能, 提出一种两阶段的细粒度摘要功能句识别方法, 实验结果证明此方法可取得较好的效果[22]。王东波等以情报学领域期刊中的结构化摘要为研究对象, 对比4种分类模型在句子功能识别中的性能, 发现SVM效果优于长短期记忆网络, 而LSTM-CRF和RNN-CRF的效果又优于SVM[23]

3 基于主动学习的普通摘要句子功能识别流程

传统的基于训练语料所进行的监督学习, 是从标记的训练数据中推断出一个有分类功能的机器学习模型, 其中, 准确找寻类别数据集间的决策边界十分重要。但在标注语料有限和涉及领域泛化的情况下, 决策边界的判别效果有待商榷。鉴于此, 待考虑的解决方案有三类:

(1) 自训练半监督学习[24]。在有限的标记数据上, 经多次迭代逐步将无标签数据转为标注数据以扩大语料。该方案存在两个问题: 一是高置信度样本信息量相对较少; 二是分类器经多次迭代容易造成错误累积[25]

(2) 迁移学习[26]。该方案能够有效解决领域迁移问题, 但需要源领域为目标领域提供大量已标注语料[27]

(3) 主动学习[28]。其实现流程如图1[29]所示, 在少量已标注语料上训练出初始分类器, 继而利用学习算法主动地提出一些标注请求, 从未标注样本集中筛选出有价值的的数据提请人工标注, 再将标注结果加入原训练集继续训练, 重复该过程多次迭代优化后得到最终的分类器。

图1

图1   主动学习流程[29]


主动学习方案在少量标注语料情况下, 通过筛选源领域中最有价值的样本进行标记, 既可降低人工标注成本, 又可提高已标注语料的领域泛化能力[28]。因此, 本文采用主动学习策略开展实验探索。

结合已有相关研究和主动学习思想, 本文提出基于主动学习的科技论文句子功能识别方法, 以普通摘要语句功能识别为场景, 具体流程如图2所示。

图2

图2   基于主动学习的普通摘要语句功能识别流程


(1) 从科技论文题录数据获取结构化摘要和普通摘要, 随机选择少量普通摘要句子进行人工标注作为最终测试集。剩余大量普通摘要作为未标注语料;

(2) 以结构化摘要为初始训练集训练出初始分类器, 进而对未标注语料进行句子功能类别预测;

(3) 根据主动学习策略筛选出需要人工标注的样本补充到上一次训练集中, 再次进行训练以优化分类器;

(4) 不断迭代步骤(3), 直到满足迭代终止条件得到最终分类器;

(5) 利用测试集评估该分类器在完全普通摘要句子下的分类效果。

鉴于实验中数据处理方法、分类训练各环节的技术方案选择与具体实验场景相关, 涉及到的技术方案细节将在实验部分进行讨论, 以便结合实际效果进行技术方案选择。

4 实 验

选用图书情报领域相关期刊为数据源, 以普通摘要语句功能识别为场景, 进行基于主动学习的科技论文语句功能识别实验。

4.1 数据处理

(1) 数据收集

从图书情报领域CSSCI收录期刊中人工筛选采用结构化摘要的期刊, 包括《图书情报工作》、《情报理论与实践》、《情报杂志》、《情报科学》、《图书馆学研究》、《现代图书情报技术》(2017年更名为《数据分析与知识发现》)及《图书馆论坛》。从上述期刊论文题录中导出结构化摘要作为初始训练语料, 截至2017年11月中旬共2 952条。此外, 从图书情报领域CSSCI收录期刊中获取普通摘要共64 868篇, 随机取800条作为测试语料, 其余64 068条作为未标注语料。

(2) 结构化标签提取及功能句类别确定

结构化摘要中功能标签均以“[]”或“【】”形式标注, 因此利用正则匹配共抽取14种结构化标签, 对应功能归类如表1所示。鉴于“局限”、“应用背景”和“文献范围”三种类型出现次数过少, 本次实验不作考虑。最终, 将待识别的句子功能类型确定为“目的/意义”、“方法/过程”和“结果/结论”三种。

表1   摘要结构化标签抽取与功能归类

功能类型结构化摘要标签
目的/意义目的/意义目的
方法/过程方法/过程过程/方法方法/内容方法过程
结果/结论结论/结果结果/结论结果结论
局限局限
应用背景应用背景
文献范围文献范围

新窗口打开| 下载CSV


(3) 训练集和测试集的构造依据表1, 可从2 952条结构化摘要中抽取出11 606条已归类句子。按照十折交叉验证方法, 取其中9份为训练集, 1份为验证集。随机选取800条普通摘要分句, 人工对各句标注“目的/意义”、“方法/过程”和“结果/结论”功能标签, 共得到1 451句有类别句子, 作为最终测试集。同时, 按照相同方式对其余64 068条普通摘要进行分句, 共得到81 204条子句, 作为未标注语料。

4.2 技术方案

(1) 支持向量机分类方案由于SVM分类仍是传统的机器学习流程, 故需要进行文本预处理、特征权重计算以及特征选择等操作。①文本预处理采用Jieba分词工具进行分词。在去停用词环节, 考虑到与传统短文本分类中基于语义选择特征词不同, 句子功能识别是基于语用的分类, 其特征词更多侧重于类似“首先”、“表明”等非概念性的连词、动词, 这些词在传统文本分类中多作为停用词被去除。因此, 仅在数字、标点基础上人工添加例如“的”、“了”、“是”等对分类无贡献的单字词, 以构成最终停用词表。②特征权重计算句子的向量化采用词袋模型, 为确定词语的加权方案, 笔者对布尔权重、词语频次、TF-IDF方案进行尝试, 发现布尔权重在结构化摘要功能句识别中效果最好, 因此后续实验中以布尔逻辑方案标识词语权重。此外, 有研究指出, 句子位置对判别摘要句功能类别有一定价值[30]。因此, 将句子位置信息作为句子向量化表示的一个重要维度, 计算方式为摘要句的出现位置与所在摘要总句子数的比值。③特征选择方法确定句子功能的特征词选择是后续分类的基础。在实践中, 不仅需要采用有效的特征选择方法, 还要确定合适的特征词数。常用的特征选择方法包括卡方检验(CHI)、文本频度(DF)、期望交叉熵(ECE)、信息增益(IG)、互信息(MI)、特征熵(TE)等[31]。为确定特征选择算法和特征词数, 以“RBF”内核SVM为分类器, 超参数“C”设为1.0, 通过Scikit-learn实现, 在结构化摘要语料上比较这6种主流特征提取算法, 对每种特征选择方法进行10次实验且每次设定不同特征词数量(100-1000之间)。在不考虑句子位置信息时, 各算法在不同特征词数下的分类整体准确率如图3所示, 可知信息增益方法在特征词数为405时分类准确率最高。因此, 后续实验采用信息增益作为特征选择方法, 特征词数为405。最终各类别选择的部分特征词示例如表2所示。

图3

图3   基于不同特征选择方法的分类准确率


表2   各类别特征选择结果示例

类别特征词
目的/意义重要旨在意义以期问题
方法/过程进行分析提供采用通过
结果/结论结果表明发现能够表明结果显示

新窗口打开| 下载CSV


(2) 神经网络分类方案

此阶段以文本中的字为基本单元, 针对大量普通摘要进行词嵌入向量表示学习。通过Python调用Gensim实现Word2Vec算法[32], 选择Skip-gram模型并设定窗口为5, 将摘要句中的字表示为100维的向量。

实验中, 分类模型采用CNN和Bi-LSTM两种, 通过Keras库实现。以词嵌入向量表示的文本观测序列为主输入, 通过Embedding层将其嵌入模型, 然后接入CNN或Bi-LSTM层用于挖掘文本中的深层特征信息, 继而以前文所得句子位置信息为辅助输入, 最终经两层隐藏层输出句子以One-Hot形式表示的功能标签。

(3) 主动学习优化方案

主动学习研究的关键问题是向专家提供标注数据的筛选过程。

由于普通摘要句子功能识别的本质是短文本分类问题, 分类算法通过结构化摘要句训练分类器, 继而对普通摘要测试集进行功能类别判定, 输出结果为句子属于“目的/意义”、“方法/过程”和“结果/结论”类别的概率, 根据概率最大原理判定其类别。因此, 笔者认为其中最大的两种类别概率相差越小, 对于分类器判定功能类别越模糊, 而这正是分类器需要完善之处, 即主动学习中需要引入专家标注的数据。

因此, 待标注数据的筛选过程聚焦于分类器对无标签普通摘要句的预测结果, 如果三个分类器判定某一句的分类概率中最大及次大的差值小于0.05, 则将其作为筛选结果由专家标注其正确的功能类别, 如果不属于以上功能类别则将其过滤。同时, 主动学习每次迭代标注200句功能句, 造成训练集增量式增加, 重新训练分类器并基于测试集检测其泛化能力。迭代上述过程, 直到分类器性能不再提升或满足一定条件停止。实验中, 句子功能识别效果评价指标采用准确率(Precision)、召回率(Recall)以及F1值。

4.3 实验结果及分析

实验分为三组: 实验(1)针对结构化摘要语句进行十折交叉验证, 探究利用结构化摘要是否可抽取出对语句功能识别有重要贡献的特征集, 结合句子位置信息效果; 实验(2)利用基于结构化摘要训练的分类器, 进行普通摘要语句功能识别测试, 探究基于结构化摘要训练的分类器迁移到非规范化撰写的普通摘要语句功能识别的可行性; 实验(3)使用本文基于主动学习的方法对普通摘要语句功能进行识别, 探究加入主动学习优化方案效果提升情况。

(1) 结构化摘要句子功能训练十折交叉验证结果分析

对训练集(总句子数为11 606)进行十折交叉验证, 结果如表3所示。可知SVM、CNN和Bi-LSTM分类器的准确率、召回率以及F1值均在90%以上。此外, 实验结果优于文献[23]达到的效果, 以SVM最为明显, 可以看出在选定合适的特征、特征维度并结合句子位置信息时, 传统的SVM分类器在结构化摘要句子功能识别性能上与神经网络方法相当。因此, 利用结构化摘要抽取出的特征集结合句子位置信息在语句功能识别上可取得很好的效果。

表3   结构化摘要句子功能训练十折交叉验证结果(%)

序号SVMCNNBi-LSTM
PRF1PRF1PRF1
191.6691.1291.3992.7592.4592.6091.9392.0792.00
291.8091.6291.7192.5692.5192.5393.0193.2093.10
391.2191.1291.1692.7392.6092.6693.1293.0793.09
490.9690.7790.8689.5091.4190.4493.6893.4893.58
592.3992.2192.2992.5492.5292.5394.3594.1994.27
691.1991.0591.1190.3090.3690.3293.3593.3893.36
790.1090.6290.3593.2393.1893.2093.8193.9793.89
891.8790.6891.2793.4193.2193.3193.2393.5293.37
991.3991.3691.3792.1191.1292.1192.2392.1392.18
1089.8889.9189.8991.0191.1191.0691.6891.4891.58
均值91.2491.0591.1492.0192.0592.0393.0493.0593.04

(注: 在多分类任务上, 最终的宏P、R、F1结果数值相近。后续表4、表5相同。)

新窗口打开| 下载CSV


(2) 普通摘要功能句识别测试结果分析

利用从结构化摘要语料上训练所得的三个初始分类器, 开展普通摘要功能句识别测试, 结果如表4所示。从总体来看, 三种分类器性能相近, 在三种评价指标上均达81%以上, 因此, 利用结构化摘要训练的分类器迁移到非规范化撰写的普通摘要语句功能识别上具有一定可行性。但远未达到在结构化摘要验证集上91%-93%的效果, 表明初始分类器的应用场景迁移到普通摘要这一新任务上时, 其泛化性能具有一定提升空间。

表4   普通摘要功能句识别测试结果(%)

方法PRF1
SVM81.6281.1981.40
CNN81.2181.1281.16
Bi-LSTM81.4081.2581.32

新窗口打开| 下载CSV


(3) 基于主动学习的普通摘要功能句识别测试结果分析

经过5轮迭代, 每轮人工对查询函数给出的200个样本进行标注后, 基于主动学习的普通摘要功能句识别测试结果如表5所示。可知, 三个分类器性能较实验(2)在准确率、召回率和F1值上每轮均有一定程度提升, Bi-LSTM效果最佳, 在准确率、召回率以及F1值上分别提升3.25%、3.24%、3.25%。此外, 各分类器不同迭代次数下的主动学习性能结果如图4所示。可知, 随着主动学习迭代批次的增加, 尽管在中间某次效果趋于稳定甚至略微下降, 但从整体趋势来看, 分类器的性能呈稳步提升。同时, 可观察到, 第一次迭代时折线变化趋势最大, 说明首次使用主动学习时三个分类器的识别效果优化最为明显, 可进一步证明加入主动学习的效用。总之, 本文基于主动学习的方案迁移应用到普通摘要语句功能识别上具有可行性。

表5   基于主动学习的普通摘要功能句识别测试结果(%)

迭代轮数SVMCNNBi-LSTM
PRF1PRF1PRF1
182.9481.2182.0781.8082.5782.1883.0782.2282.64
283.1483.1883.1682.8782.7082.7883.9083.8083.85
383.4683.4683.4682.8582.7082.7783.7083.3283.51
483.3783.3983.3883.3883.1883.2884.2983.9484.11
583.3183.3283.3183.9483.8083.8784.6584.4984.57

新窗口打开| 下载CSV


图4

图4   不同迭代次数下的各分类器主动学习性能结果


此外, 鉴于此仅为探究性实验, 目前仅做了5次迭代。尽管总体来讲分类器性能稳步提升, 但可预想随着主动学习迭代次数的增加, 识别效果将趋于稳定甚至略有下降, 原因如下:

(1) 训练语料和测试语料的差异性。本次实验训练语料最初为结构化摘要句子, 测试语料为非规范化撰写的普通摘要句子, 由于语料的天然差异性(例如, 对错分结果进行统计发现, 与结构化摘要不同, 普通摘要由于没有规范化的约束, 文章的目的、方法、结果等不同功能的句子不一定以句号分割, 容易出现多类别句子。), 测试结果达到一定极值将不再提升, 且永远不会优于验证结果;

(2) 数据噪声的累积。迭代初期, 分类器由于学习到主动学习提供的对分类有价值的信息, 性能稳步提升。但迭代中后期, 由于有用的信息已经学习接近完全, 主动学习中逐渐增加的文本噪声将会对分类器性能产生不好的影响, 从而导致分类效果略微下降。因此, 在实际应用中, 主动学习中合理的迭代次数及每次迭代中增量的设置值得后续进一步基于大规模语料展开实验及应用研究。

5 结 语

在面临新任务场景时, 包括深度学习在内的机器学习技术通常严重依赖于人工标注语料。现实中, 一些新的任务往往与已有任务具有部分相似性, 因而在一定程度上可以共享已有的标注语料。主动学习可以发现学习任务中人工标注收益最大的样本, 因此可以用于在共享已有任务中标注语料的前提下, 找出决定新老任务差异的样本提请人工标注。

本文针对科技论文句子功能识别问题, 在充分利用现成结构化摘要语料的基础上, 引入主动学习思想, 以突破文本分类依赖大量人工标注语料的瓶颈问题。以普通摘要语句功能识别为任务场景进行实验, 结果表明, 该方法能够使普通摘要语句功能识别效果得到明显提升, 说明在解决相似任务场景中语料缺失的问题, 主动学习策略具有可行性。因而该方法可迁移应用于其他更多非规范化场景(如引文、全文)的句子功能识别任务。

本文的研究主要侧重于识别摘要中的功能句。实质上, 句子功能识别在科技文献全文本分析中有更广泛的应用。例如, 对引文句的功能识别将有助于判断引用动机并测度引用贡献; 对不同段落中句子功能的识别将有助于定位科技文献研究内容的分布; 对全文中句子功能的识别有助于实现细粒度知识抽取和聚合利用。未来笔者将在这些方面开展进一步研究。

作者贡献声明

陈果: 提出研究思路, 论文修改定稿;

许天祥: 开展实验, 撰写论文。

利益冲突声明

所有作者声明不存在利益冲突关系。

支撑数据

支撑数据由作者自存储, E-mail: delphi1987@qq.com。

[1] 陈果, 许天祥. StructuredAbstract.txt. 结构化摘要数据集.

[2] 陈果, 许天祥. GeneralAbstract.txt. 普通摘要数据集.

参考文献

陆伟, 黄永, 程齐凯 .

学术文本的结构功能识别——功能框架及基于章节标题的识别

[J]. 情报学报, 2014,33(9):979-985.

[本文引用: 2]

( Lu Wei, Huang Yong, Cheng Qikai .

The Structure Function of Academic Text and Its Classification

[J]. Journal of the China Society for Scientific and Technical Information, 2014,33(9):979-985.)

[本文引用: 2]

唐晓波, 肖璐 .

基于单句粒度的微博主题挖掘研究

[J]. 情报学报, 2014,33(6):623-632.

[本文引用: 1]

( Tang Xiaobo, Xiao Lu .

Research of Micro-Blog Topics Mining Based on Sentence Granularity

[J]. Journal of the China Society for Scientific and Technical Information, 2014,33(6):623-632.)

[本文引用: 1]

段平 .

如何撰写科技论文英文信息型摘要

[J]. 大学英语, 2000(12):51-52.

[本文引用: 1]

( Duan Ping .

How to Write English Informative Abstract in Paper for Special Science and Technology

[J]. College English, 2000(12):51-52.)

[本文引用: 1]

郑彦宁, 化柏林 .

句子级知识抽取在情报学中的应用分析

[J]. 情报理论与实践, 2011,34(12):1-4.

[本文引用: 1]

( Zheng Yanning, Hua Bolin .

An Analysis of the Application of Sentence-Level Knowledge Extraction in Information Science

[J]. Information Studies:Theory & Application, 2011,34(12):1-4.)

[本文引用: 1]

王文娟, 马建霞, 陈春 , .

引文文本分类与实现方法研究综述

[J]. 图书情报工作, 2016,60(6):118-127.

[本文引用: 1]

( Wang Wenjuan, Ma Jianxia, Chen Chun , et al.

A Review of Citation Context Classifications and Implementation Methods

[J]. Library and Information Service, 2016,60(6):118-127.)

[本文引用: 1]

刘康, 钱旭, 王自强 .

主动学习算法综述

[J]. 计算机工程与应用, 2012,48(34):1-4, 22.

Magsci     [本文引用: 1]

主动学习算法作为构造有效训练集的方法,其目标是通过迭代抽样,寻找有利于提升分类效果的样本,进而减少分类训练集的大小,在有限的时间和资源的前提下,提高分类算法的效率。主动学习已成为模式识别、机器学习和数据挖掘领域的研究热点问题。介绍了主动学习的基本思想,一些最新研究成果及其算法分析,并提出和分析了有待进一步研究的问题。

( Liu Kang, Qian Xu, Wang Ziqiang .

Survey on Active Learning Algorithms

[J]. Computer Engineering and Applications, 2012,48(34):1-4, 22.)

Magsci     [本文引用: 1]

主动学习算法作为构造有效训练集的方法,其目标是通过迭代抽样,寻找有利于提升分类效果的样本,进而减少分类训练集的大小,在有限的时间和资源的前提下,提高分类算法的效率。主动学习已成为模式识别、机器学习和数据挖掘领域的研究热点问题。介绍了主动学习的基本思想,一些最新研究成果及其算法分析,并提出和分析了有待进一步研究的问题。

李湘东, 曹环, 丁丛 , .

利用《知网》和领域关键词集扩展方法的短文本分类研究

[J]. 现代图书情报技术, 2015(2):31-38.

[本文引用: 1]

( Li Xiangdong, Cao Huan, Ding Cong , et al.

Short-text Classification Based on HowNet and Domain Keyword Set Extension

[J]. New Technology of Library and Information Service, 2015(2):31-38.)

[本文引用: 1]

Fan X, Hu H .

Utilizing High-quality Feature Extension Mode to Classify Chinese Short-text

[J]. Journal of Networks, 2010,5(12):1417-1425.

[本文引用: 1]

Kim K, Chung B S, Choi Y , et al.

Language Independent Semantic Kernels for Short-Text Classification

[J]. Expert Systems with Applications, 2014,41(2):735-743.

[本文引用: 1]

Chen M, Jin X, Shen D.

Short Text Classification Improved by Learning Multi-Granularity Topics

[C]// Proceedings of the 22nd International Joint Conference on Artificial Intelligence. AAAI Press, 2011: 1776-1781.

[本文引用: 1]

Dai Z, Sun A, Liu X Y.

Crest: Cluster-based Representation Enrichment for Short Text Classification

[C]// Proceedings of the 2013 Pacific-Asia Conference on Knowledge Discovery and Data Mining. 2013: 256-267.

[本文引用: 1]

Young T, Hazarika D, Poria S , et al.

Recent Trends in Deep Learning Based Natural Language Processing

[J]. IEEE Computational Intelligence Magazine, 2018,13(3):55-75.

[本文引用: 1]

吴鹏, 应杨, 沈思 .

基于双向长短期记忆模型的网民负面情感分类研究

[J]. 情报学报, 2018,37(8):845-853.

[本文引用: 1]

( Wu Peng, Ying Yang, Shen Si .

Negative Emotions of Online Users’ Analysis Based on Bidirectional Long Short-Term Memory

[J]. Journal of the China Society for Scientific and Technical Information, 2018,37(8):845-853.)

[本文引用: 1]

王东波, 高瑞卿, 沈思 , .

基于深度学习的先秦典籍问句自动分类研究

[J]. 情报学报, 2018,37(11):1114-1122.

[本文引用: 1]

( Wang Dongbo, Gao Ruiqing, Shen Si , et al.

Deep Learning-Based Classification of Pre-Qin Classics Questions

[J]. Journal of the China Society for Scientific and Technical Information, 2018,37(11):1114-1122.)

[本文引用: 1]

王盛玉, 曾碧卿, 商齐 , .

基于词注意力卷积神经网络模型的情感分析研究

[J]. 中文信息学报, 2018,32(9):123-131.

[本文引用: 1]

( Wang Shengyu, Zeng Biqing, Shang Qi , et al.

Word Attention-based Convolutional Neural Networks for Sentiment Analysis

[J]. Journal of Chinese Information Processing, 2018,32(9):123-131.)

[本文引用: 1]

Teufel S, Siddharthan A, Dan T.

Automatic Classification of Citation Function

[C]// Proceedings of the 2006 Conference on Empirical Methods in Natural Language Processing. Association for Computational Linguistics, 2006: 103-110.

[本文引用: 1]

Dong C, Schäfer U.

Ensemble-style Self-training on Citation Classification

[C]// Proceedings of the 5th International Joint Conference on Natural Language Processing. 2011: 623-631.

[本文引用: 1]

Teufel S, Moens M .

Summarizing Scientific Articles: Experiments with Relevance and Rhetorical Status

[J]. Computational Linguistics, 2002,28(4):409-445.

[本文引用: 1]

Abu-Jbara A, Radev D.

Coherent Citation-Based Summarization of Scientific Papers

[C]// Proceedings of the 49th Annual Meeting of the Association for Computational Linguistics: Human Language Technologies. 2011: 500-509.

[本文引用: 1]

许红波 .

基于引文上下文的学术文献摘要方法研究

[D]. 西安: 西北农林科技大学, 2017.

[本文引用: 1]

( Xu Hongbo .

Citation-Context Based Academic Literature Summarization Method

[D]. Xi’an: Northwest A&F University, 2017.)

[本文引用: 1]

McKnight L, Srinivasan P .

Categorization of Sentence Types in Medical Abstracts

[J]. AMIA Annual Symposium Proceedings, 2003: 440-444.

[本文引用: 1]

华秀丽, 徐凡, 王中卿 , .

细粒度科技论文摘要句子分类方法

[J]. 计算机工程, 2012,38(14):138-140.

DOI:10.3969/j.issn.1000-3428.2012.14.041      Magsci     [本文引用: 1]

以科技论文摘要句子为研究对象,提出一种两阶段的细粒度句子分类方法,通过结合摘要内各个句子的位置、关键词和上下文信息,选择部分易于分辨语境类型的句子,将其作为种子样本训练获得分类模型。利用机器学习的方法对摘要句子的背景知识、论文主题、研究方法和实验结果进行自动分类。实验结果表明,该方法中的F度量值比其他细粒度分类方法平均高3%~5%。

( Hua Xiuli, Xu Fan, Wang Zhongqing , et al.

Fine-grained Classification Method for Abstract Sentence of Scientific Paper

[J]. Computer Engineering, 2012,38(14):138-140.)

DOI:10.3969/j.issn.1000-3428.2012.14.041      Magsci     [本文引用: 1]

以科技论文摘要句子为研究对象,提出一种两阶段的细粒度句子分类方法,通过结合摘要内各个句子的位置、关键词和上下文信息,选择部分易于分辨语境类型的句子,将其作为种子样本训练获得分类模型。利用机器学习的方法对摘要句子的背景知识、论文主题、研究方法和实验结果进行自动分类。实验结果表明,该方法中的F度量值比其他细粒度分类方法平均高3%~5%。

王东波, 陆昊翔, 周鑫 , .

面向摘要结构功能划分的模型性能比较研究

[J]. 图书情报工作, 2018,62(12):84-90.

[本文引用: 2]

( Wang Dongbo, Lu Haoxiang, Zhou Xin , et al.

A Comparative Study of Model Performances Facing Abstract Structure Function

[J]. Library and Information Service, 2018,62(12):84-90.)

[本文引用: 2]

Karlos S, Fazakis N, Kalleris K, et al.

An Incremental Self-Trained Ensemble Algorithm

[C]// Proceedings of the 2018 IEEE Conference on Evolving & Adaptive Intelligent Systems. IEEE, 2018: 1-8.

[本文引用: 1]

赵洪, 王芳 .

理论术语抽取的深度学习模型及自训练算法研究

[J]. 情报学报, 2018,37(9):923-938.

[本文引用: 1]

( Zhao Hong, Wang Fang .

A Deep Learning Model and Self-Training Algorithm for Theoretical Terms Extraction

[J]. Journal of the China Society for Scientific and Technical Information, 2018,37(9):923-938.)

[本文引用: 1]

Pan S J, Yang Q .

A Survey on Transfer Learning

[J]. IEEE Transactions on Knowledge & Data Engineering, 2009,22(10):1345-1359.

[本文引用: 1]

周清清, 章成志 .

基于迁移学习微博情绪分类研究——以H7N9微博为例

[J]. 情报学报, 2016,35(4):339-348.

[本文引用: 1]

( Zhou Qingqing, Zhang Chengzhi .

Microblog Emotion Classification Based on Transfer Learning——A Case Study of Microblogs About H7N9

[J]. Journal of the China Society for Scientific and Technical Information, 2016,35(4):339-348.)

[本文引用: 1]

Cohn D A, Ghahramani Z, Jordan M I .

Active Learning with Statistical Models

[J]. Journal of Artificial Intelligence Research, 1996,4(1):705-712.

[本文引用: 2]

主动学习[OL]. [2018-12-27].

URL     [本文引用: 2]

( Active Learning[OL]. [2018-12-27]. )

URL     [本文引用: 2]

Yamamoto Y, Takagi T.

A Sentence Classification System for Multi Biomedical Literature Summarization

[C]// Proceedings of the 21st International Conference on Data Engineering Workshops. IEEE, 2005: 1163.

[本文引用: 1]

陈涛, 谢阳群 .

文本分类中的特征降维方法综述

[J]. 情报学报, 2005,24(6):690-695.

[本文引用: 1]

( Chen Tao, Xie Yangqun .

Literature Review of Feature Dimension Reduction in Text Categorization

[J]. Journal of the China Society for Scientific and Technical Information, 2005,24(6):690-695.)

[本文引用: 1]

Mikolov T, Sutskever I, Chen K, et al.

Distributed Representations of Words and Phrases and Their Compositionality

[C]// Proceedings of the Neural Information Processing Systems 2013. 2013:3111-3119.

[本文引用: 1]

/

版权所有 © 2015 《数据分析与知识发现》编辑部
地址:北京市海淀区中关村北四环西路33号 邮编:100190
电话/传真:(010)82626611-6626,82624938
E-mail:jishu@mail.las.ac.cn