Advanced Search

数据分析与知识发现, 2020, 4(2/3): 223-230 doi: 10.11925/infotech.2096-3467.2019.0719

专辑

基于文本数据的过滤式与嵌入式样本选择算法*

刘书瑞, 田继东,,, 陈普春, 赖立, 宋国杰

西南石油大学理学院 成都 610500

New Sample Selection Algorithm with Textual Data

Liu Shurui, Tian Jidong,,, Chen Puchun, Lai Li, Song Guojie

School of Science, Southwest Petroleum University, Chengdu 610500, China

通讯作者: 田继东,ORCID:0000-0003-0619-4128,E-mail:746602272@qq.com

收稿日期: 2019-06-20   修回日期: 2019-07-26   网络出版日期: 2020-02-25

基金资助: *本文系国家自然基金项目“分数阶粘性地震波场的高精度有限差分算法研究”的研究成果之一.  41674141

Received: 2019-06-20   Revised: 2019-07-26   Online: 2020-02-25

摘要

【目的】 减少文本数据的训练数据量,缩短模型训练时间。【方法】 基于协方差估计,提出一种新的过滤式样本选择算法,并将数据的遗忘性研究成果应用到嵌入式样本选择算法中。【结果】 在中文阅读理解模型训练中,本文提出的算法至少可以减少模型训练时间50%。与经典的词频-逆文档频次算法相比,本文小批量协方差估计算法与遗忘算法在召回率、F评价指标上分别提升0.018、0.012与0.017、0.029。【局限】 训练数据减少,对模型的准确率评价指标有一定影响。【结论】 本文算法能减少模型的训练时间,提高评价指标,由于计算只与批次有关,故适用于大规模数据集的并行运算。

关键词: 样本选择 ; 协方差估计 ; 遗忘算法

Abstract

[Objective] This paper aims to reduce the amount of textual training data and shorten the training time of our models.[Methods] We proposed a new filtering algorithm for sample selection based on covariance estimator and then applied the data forgettable property to the embedded algorithm.[Results] In the training of model for Chinese reading comprehension, the two proposed algorithms reduced more than 50% training time. Compared with the Term Frequency-Inverse Document Frequency algorithm, our new algorithms increased the recall rate and F-score evaluation index by 0.018 and 0.012, 0.017 and 0.029, respectively.[Limitations] More training data is needed to improve the accuracy evaluation index of the model.[Conclusions] Our algorithms reduce model’s training time and improve the evaluation index. They are also suitable for large-scale data set paralleloperations.

Keywords: Sample Selection ; Covariance Estimator ; Forgetable Algorithm

PDF (815KB) 元数据 多维度评价 相关文章 导出 EndNote| Ris| Bibtex  收藏本文

本文引用格式

刘书瑞, 田继东, 陈普春, 赖立, 宋国杰. 基于文本数据的过滤式与嵌入式样本选择算法*. 数据分析与知识发现[J], 2020, 4(2/3): 223-230 doi:10.11925/infotech.2096-3467.2019.0719

Liu Shurui. New Sample Selection Algorithm with Textual Data. Data Analysis and Knowledge Discovery[J], 2020, 4(2/3): 223-230 doi:10.11925/infotech.2096-3467.2019.0719

1 引 言

随着大数据和机器学习在工业上的广泛应用,数据的产生与更新速度加快,数据量呈爆发式增长,数据中心的数据量从PB(1PB=240B),EB(1EB=250B)迈入ZB(1ZB=260B),YB(1YB=270B)[1]。然而数据质量参差不齐,甚至不乏错误的信息表述,如何在数据中选择出优质的数据训练模型对提高机器学习的效率十分重要。

2003年,Franc等[2]提出利用贪心算法(Greedy Kernel Principal Component Analysis,GKPCA)寻找表示训练数据的低维空间基向量,该算法在支持向量机(Support Vector Machine,SVM)中降低了分类器的复杂度,但该数据选择算法本身的时间复杂度达到O(nm3),其中n为训练集大小,m为基向量个数,不适用于大型数据集。

在统计机器翻译(Statistical Machine Translation,SMT)方面,Lü等[3]在SMT中使用词频-逆文档频次算法(Term Frequency-Inverse Document Frequency,TF-IDF)进行样本选择,发现从原数据中选择出相似数据进行训练可减小模型大小,同时不影响模型的性能。随后,Yasuda等[4]提出使用困惑度在SMT中进行样本选择,与Lü等[3]的模型相比,该模型压缩为原来的22%,且BLEU(Bilingual Evaluation Understudy)提高0.76%。Axelrod等[5]在SMT中提出使用交叉熵、不同语料的交叉熵差、源与目标语料库交叉熵差的和进行排序和样本选择,使得在数据量减少99%的情况下,BLEU增加1.8%,但其翻译模型的性能低于Lü等[3]的模型。

以上学者关于样本选择的大部分工作集中于分类任务。2017年,Chang等[6]提出,当任务相对简单时,选择复杂的数据效果更好,当验证和测试精度都不高时,更简单的样本可能会得到更好的性能。2018年,Katharopoulos等[7]通过对数据抽样加快神经网络的训练速度,降低了训练损失与测试误差,证明在神经网络的训练过程中并不是所有数据都同等重要。同年,Toneva等[8]在研究神经网络的单个分类任务训练中,探究数据的遗忘性对模型的影响,发现在图片分类任务中删除不容易被遗忘的数据,不影响分类器的泛化性能。该实验证实了训练数据的可选择性,使用更少的数据训练模型不影响模型的性能。

学者们在机器学习方面的研究工作,证实训练数据的子集选择不同,对模型产生的影响不同,选择合适的样本训练模型至关重要。样本选择算法大多应用于数据为图片的分类任务,对文本数据,尤其是中文文本,并未广泛应用。对此,本文探究过滤式与嵌入式算法在中文文本数据选择方面的应用,贡献如下:

(1)提出一种过滤式的小批量协方差估计样本选择算法;

(2)将遗忘数据的可选择性应用于中文文本数据的样本选择;

(3)将两种算法应用于中文阅读理解模型,并与经典的过滤式样本选择算法TF-IDF以及常用的随机扰动法进行对比,探究两种算法的有效性。

2 相关工作

2.1 机器阅读理解

人类的阅读理解往往不需要从整段文本中寻找答案,只需要某些片段就能回答问题。模拟人的这种思维模式,问答系统可以借助于机器处理自然语言。它是信息检索系统的一种高级形式,能用准确、简洁的自然语言回答用户用自然语言提出的问题。随着各种大型知识库的兴起,越来越多的学者关注基于知识的问答任务,如语义解析任务[9,10,11,12,13,14]和信息检索任务[15,16,17,18,19]。基于文档的问答(Document Base Question Answering,DBQA)活跃在国内外各种应用型竞赛中,如斯坦福大学基于SQuAD数据集展开的比赛、第6届泰迪杯智能阅读比赛等。

本文基于文档的机器阅读理解模型,聚焦智能交互文本阅读的应用,涉及深度学习、自然语言处理和信息检索,支持计算机帮助人类在大量文本中找到想要的答案,降低人们获取信息的成本。

2.2 词向量

基于神经网络模型的分布式表示对中文文本数据进行编码,利用谷歌在2013年推出的自然语言处理工具——Word2Vec(①https://code.google.com/archive/p/word2vec.),使用Skip-Gram模型定义数据的输入和输出,对维基百科中文语料库进行训练,得到维度为50的词向量(Word Embedding),使用该词向量对模型的文本数据进行编码。

2.3 过滤式与嵌入式样本选择算法

过滤式[20]方法对数据集进行样本选择,再训练模型,样本选择过程与模型训练无关。基于TF-IDF[3]的样本选择算法和随机扰动法[1],以及本文提出的小批量协方差估计样本选择算法,均为典型的过滤式算法。

嵌入式[20]方法是将样本选择的过程作为一部分,融入模型的训练过程中,两者在同一个优化过程中完成。引用Toneva等[8]对数据遗忘性的研究成果,将其应用到中文文本数据的嵌入式样本选择算法中。

3 过滤式小批量协方差估计样本选择算法

3.1 协方差估计

引入概率和统计学中协方差与样本协方差的概念。设神经网络的一个Batch的输入 X1,X2,···,Xmm个样本(不相互独立), Xi表示神经网络的一次输入,维度为 n, μiXi的期望, X¯i=xi1+xi2++xinn, XiXj的协方差定义[21]如公式(1)所示。

cov(Xi,Xj)=1nEp=1n(xip-μi)(xjp-μj)

协方差矩阵是一个 n阶方阵,其 i, j位置的元素是样本的第 i个和第 j个元素之间的协方差。由于样本期望 μi未知,考虑使用 XiXj协方差的无偏估计,即利用样本协方差 Sij估计其协方差[21],计算方法如公式(2)所示。

Sij=1(n-1)Ep=1n(xip-X¯i)(xjp-X¯j)

协方差矩阵的一般无偏估计协方差阵称为样本协方差矩阵,简称样本协差阵,即 i, j位置的元素是样本的第 i个和第 j个元素之间的样本协方差。

3.2 小批量协方差估计样本选择算法

在中文阅读理解模型中,使用BiLSTM网络,应用协方差估计样本选择算法,根据公式(2)分批次计算输入数据编码后的向量之间的样本协差阵,并对其进行排序分析,设定一个阈值(Threshold)为0.5,选择阈值范围内的数据作为神经网络的输入数据,示例如图1所示。

图1

图1   协方差估计样本选择算法应用示例

Fig.1   Example of Covariance Estimator Sample Selection Algorithm


对数据使用词向量进行编码,将词向量数据分批次计算其样本协差阵;在批次内按升序排序,取给定阈值范围内的数据作为神经网络的输入;分别将问题和答案输入两个BiLSTM网络,计算两个输出值的余弦相似度,根据相似度预测答案是否为正确答案。

由于协方差可度量两随机变量相关性的特点,可对数据之间的相似性进行排序。根据Lü等[3]算法的结论,选择相似数据,可保证模型拥有良好的泛化性,不影响模型性能。

4 基于遗忘事件的嵌入式样本选择算法

4.1 遗忘事件

引用Toneva等[8]对遗忘事件的定义。在神经网络训练过程中,给定数据集 D=(xi,yi)ii个数据对样本。定义 accit=1ŷti=yi, yi1,2,···k为一个指标变量,表示在迭代t步时,该样本是否被正确预测。若正确预测, accit值为1,反之为0,其中 ŷti=argmaxkp(yik|xi;θt)

accit>accit+1时,该样本经历一次遗忘,当 accitaccit+1时,该样本经历一次学习。令 t*为样本第一次经历学习时的迭代步数, t*<。对 t>t*,有 accit=1则称该样本为难忘事件,反之则称该样本为遗忘事件。

4.2 遗忘算法

根据训练样本的遗忘性,对样本进行选择,使用遗忘事件的样本训练模型,将基于遗忘事件的嵌入式样本选择算法简称为遗忘算法,其伪代码如下:

Initialize prev_acci = 0 ,i∈D

Initialize forgetting T[i]= 0 ,i∈D

Initialize num_epoch= k

Initialize train_sample= []

While not training done do

for j in range(num_epoch) do

B ~D #B 为一个batch

for example i ∈B do

compute acci

if prev_acci > acci then

T[i]= T[i] +1

prev_acci = acci

#根据Batch的梯度,更新网络

if T[i] > len(num_epoch) do

train_sample.append(T[i])

Return train_sample

在预训练过程中,记录每个样本的遗忘情况,删掉从未发生遗忘的样本,将剩下的样本重新训练模型。也就是删掉神经网络很容易学习到的样本,针对不易学习的样本进行训练,这样既删减了数据,又在一定程度上不影响神经网络的性能。

从人类行为学方面解释,对很容易记住的事情,少花时间学习,在比较难的任务上,多下功夫。

5 实验与分析

5.1 数据来源与处理

(1)选取中国全国大学生数学建模竞赛组织委员会主办的第6届泰迪杯数据挖掘大赛C题所给的训练数据train_data_complete.json(①http://www.tipdm.org/u/cms/www/201803/31234558ny2o.zip.),共477 019个<Q,A,T>三元组。

(2)选取2017年NLPCC(Natural Language Processing and Chinese Computing)Shared Task Sample Data的训练数据(②http://tcci.ccf.org.cn/conference/2017/task data.php.),共181 882个<Q,A,T>三元组。

(3)选取2018年百度数据集DuReader_v2.0中的FACT和DESCRIPTION数据(③http://ai.baidu.com/broad/download?dataset= dureader.),共80 485个<Q,A>二元组,其中每个问题的答案都为正确答案。

(4)设置三个随机数,在以上三个来源的数据集上分别随机选择5万个样本,为保证数据的连续性再选取每个样本的前一个样本和后两个样本,得到20万个样本,最后对选择出的样本去重,得到三个数据集,如表1所示。对每个数据集随机分割为训练集和测试集,比例为9∶1。

表1   本文数据集的描述

Table 1  Description of the Dataset

数据来源总样本数量(个)正样本数量(个)正样本数量/样本数量(%)
泰迪杯C题训练数据477 019127 32826.69%
NLPCC训练数据181 8829 1985.06%
百度 DuReader_v2.080 48580 485100.00%
以上三个数据集总计739 386217 01129.35%
随机数 1 数据集175 04251 50729.43%
随机数 2 数据集174 53751 50729.51%
随机数 3 数据集174 95552 00329.72%

新窗口打开| 下载CSV


5.2 评估指标

使用准确率(Accuracy)、召回率(Recall)和F1指标(F1-Score)作为模型的评估指标,检验问答系统模型的预测能力。准确率即模型预测正确的比例,召回率衡量正样本被预测准确的比例,可以反映出模型较多的信息,评估模型的能力较强[22]。F1是精确率(Precision)和召回率的调和平均。

Accuracy=tp+tnall_size
Precision=tptp+fp
Recall=tptp+fn
F1=2×Precision×RecallPrecision+Recall

其中, tp为对正样本正确预测数量, tn为对负样本正确预测数量, all_size为样本总数, fp为对负样本错误预测数量, fn为正样本的错误预测数量。

5.3 实验结果与分析

选择两种过滤式样本选择算法:基于文档的TF-IDF样本选择算法和设置随机种子选择样本的随机扰动算法,与本文所提两种算法进行对比实验。TF-IDF样本选择算法首先计算问答对的TF-IDF权重值,再选择权重值较小的阈值内样本进行模型训练。随机扰动算法使用随机种子,随机选择固定样本数量的训练集。

本文涉及的超参数以及实验环境如表2所示。

表2   超参数及实验环境配置数值

Table 2  Hyperparameters and Experimental Environment

参数取值
遗忘算法预训练epoch10
训练模型epoch30
Batchsize/协方差估计批量大小128
优化算法小批量随机梯度下降法
Dropout1.0
学习率0.1×0.5k(k为下降次数,取1,2,3)
句子最大词汇数100
显卡配置GTX 1080 四卡 E5 8核64GB

新窗口打开| 下载CSV


(1) 遗忘事件预训练结果展示

使用遗忘算法从样本中选择训练数据,与预训练中训练数据是否发生遗忘事件有关。若样本发生了遗忘事件,则被选择出来作为训练数据。设置epoch=10,得到三个数据集的遗忘事件量与学习事件量的比率如图2所示。

图2

图2   不同数据集遗忘事件量与学习事件量对比

Fig.2   The Amounts of Forgot Events and Learned Events in Different Datasets


可以看到,在三个随机选取的数据集里面,接近66%的数据都很容易被神经网络学习,只有34%左右的数据需被选择出来训练样本。

(2) 实验结果与分析

①随机扰动、TD-IDF、小批量协方差估计在样本选择中遗弃的数据量与阈值有关,由于随机扰动为给定样本数量的随机样本,其参考价值不大,故探究不同阈值对TD-IDF、小批量协方差估计的Accuracy、Recall、F1指标的影响。以随机数1数据集为例,如表3所示。

表3   不同阈值对TD-IDF、小批量协方差估计样本选择算法评价指标的影响

Table 3  Influence of Different Thresholds on Evaluation Indexes of TF-IDF and the Small Batchsize Covariance Estimator Sample Selection Algorithm

算法阈值AccuracyRecallF1
TF-IDF0.40.7930.7250.615
0.50.7950.7400.628
0.60.8020.7400.638
0.70.8020.7000.571
小批量协方差估计0.40.7960.7330.623
0.50.7930.7430.638
0.60.8050.7350.607
0.70.8030.7000.572

新窗口打开| 下载CSV


其中,阈值为0.4表示选择40%的数据作为训练数据,其余数据丢弃,阈值越小,丢弃数据越多。三个指标在阈值为0.5、0.6达到较高值。同时遗忘算法的训练数据量为34%的数据,故综合模型的有效性以及与遗忘算法的一致性,取阈值为0.5。

②对比使用不同算法的模型所需时间,当阈值取0.5,训练数据为随机数1数据集时,不同算法的使用时间和对应模型训练时间如图3所示。

图3

图3   样本选择算法使用时间与模型训练时间对比

Fig.3   Time Comparison Between the Sample Selection Algorithm and Model Training


图3中整个柱长为整体所用时间,小数为算法使用时间与整体所用时间的比例。可以看到随机扰动的算法使用时间最短,遗忘算法的使用时间最长。遗忘算法的使用时间与epoch密切相关,一般来说,模型所需要迭代的epoch越大,其使用时间相对来说会变短。TF-IDF与小批量协方差估计的整体所用时间相差1 328 s,约占不使用任何算法使用时间的16%。同时,可以看到使用样本选择算法后,与不使用任何算法的模型相比,训练时间至少减少一半。

当训练数据为大规模数据集时,由于TF-IDF计算的IDF与整体数据有关,耗时将会陡然增加,而小批量协方差估计方法可以使用并行计算,不同批次计算的样本协差阵互不影响。故对于大规模数据集的模型训练,小批量协方差估计算法在时间上占一定优势。

③使用Accuracy、Recall、F1对实验结果进行评估。在三个随机数据集上分别进行训练和测试,比较不使用任何算法、随机扰动、TD-IDF、小批量协方差估计以及遗忘算法5种情况下模型的三个评价指标,探究过滤式小批量协方差估计算法和嵌入式遗忘算法,对中文智能阅读理解模型性能的影响。结果如表4图4所示。

表4   不同样本选择算法的评价指标对比

Table 4  Evaluation Indexes of Different Sample Selection Algorithms

算法数据集AccuracyRecallF1
不使用任何算法随机数 10.8020.7500.653
随机数 20.8150.7450.644
随机数 30.8190.7550.660
随机扰动随机数 10.7860.7310.623
随机数 20.8050.7140.597
随机数 30.8040.7110.587
TF-IDF随机数 10.7950.7400.628
随机数 20.8040.7070.585
随机数 30.8050.7060.585
遗忘算法随机数 10.7970.7400.637
随机数 20.8050.7140.579
随机数 30.8000.7360.631
小批量协方差估计随机数 10.7930.7430.638
随机数 20.7940.7290.623
随机数 30.7980.7370.623

新窗口打开| 下载CSV


图4

图4   不同样本选择算法的F1分数对比

Fig.4   F1 Scores of Different Sample Selection Algorithms


可以看出,小批量协方差估计的F1和Recall在三个数据集上均领先随机扰动和TD-IDF。在随机数1的数据集上,小批量协方差估计使用50%的数据集训练模型,与使用完整数据集的模型相比,F1指标仅相差0.015说明该算法对正样本的预测较为准确。

遗忘算法在三个数据集上,与随机扰动和TD-IDF相比,Recall指标表现优异,同时在1、2数据集上Accuracy指标达到三个算法里面最大值,在1、3数据集上,F1表现优于随机扰动和TD-IDF。综合来看,遗忘算法在使用最少训练数据的情况下,各指标表现优异,对答案的预测较为准确。

综上,面向大规模数据集的模型训练,使用小批量协方差估计的样本选择算法,可以减少模型训练时间,同时对模型的性能影响不大,且对正样本的预测最为准确。当模型训练需要迭代多次时,在对模型性能影响最小的情况下,基于遗忘算法的样本选择算法可以在很大程度上减少训练数据量与训练时间。

6 结 语

本文使用过滤式小批量协方差估计算法和嵌入式遗忘算法,对中文文本数据进行处理。小批量协方差估计算法对输入的词向量数据分批次计算其样本协差阵,通过排序选择相似数据进行训练。遗忘算法在模型预训练过程中记录样本的遗忘性,丢弃从未遗忘过的样本。当训练样本集规模较大时,小批量协方差估计算法的运算速度相对较快;当训练的epoch较大时,遗忘算法在运算时间可以接受的情况下,能减少66%的训练数据量。与其他算法相比,小批量协方差估计算法和遗忘算法的Accuracy、Recall、F1指标均占优势,且几乎不影响模型性能,同时能减少一半的模型训练时间。

小批量协方差估计样本选择算法利用词向量可表示样本的相似性进行样本选择,但如果训练数据为图像,如何应用该算法是未来研究的重要问题之一,同时在其他数据类型中是否有更好的表现也需要进一步验证。

作者贡献声明:

刘书瑞:提出研究思路,设计研究方案,实验分析;

田继东:论文起草与修改;

陈普春:实验分析,论文修改;

赖 立:采集、清洗和分析数据;

宋国杰:论文最终版本修订。

利益冲突声明:

所有作者声明不存在利益冲突关系。

支撑数据:

支撑数据由作者自存储,E-mail: tinnarey@qq.com。

[1] 刘书瑞.train.txt.训练数据.

[2] 刘书瑞.test.txt.测试数据.

[3] 刘书瑞.result.txt.训练结果.

参考文献

刘艺, 曹建军, 刁兴春 , .

特征选择稳定性研究综述

[J]. 软件学报, 2018,29(9):2559-2579.

[本文引用: 2]

( Liu Yi, Cao Jianjun, Diao Xingchun , et al.

Survey on Stability of Feature Selection

[J]. Journal of Software, 2018,29(9):2559-2579.)

[本文引用: 2]

Franc V, Hlaváč V .

Greedy Algorithm for a Training Set Reduction in the Kernel Methods

[C]// Proceedings of the 10th International Conference on Computer Analysis of Images and Patterns, Groningen, The Netherlands. Berlin Heidelberg:Springer-Verlag, 2003: 426-433.

[本文引用: 1]

Y, Huang J, Liu Q .

Improving Statistical Machine Translation Performance by Training Data Selection and Optimization

[C]// Proceedings of the 2007 Joint Conference on Empirical Methods in Natural Language Processing and Computational Natural Language Learning (EMNLP-CoNLL),Prague, Czech Republic. 2007: 343-350.

[本文引用: 5]

Yasuda K, Zhang R, Yamamoto H , et al.

Method of Selecting Training Data to Build a Compact and Efficient Translation Model

[C]// Proceedings of the 3rd International Joint Conference on Natural Language Processing,Hyderabad, India. 2008: 343-350.

[本文引用: 1]

Axelrod A, He X, Gao J .

Domain Adaptation via Pseudo In-domain Data Selection

[C]// Proceedings of the 2011 Conference on Empirical Methods in Natural Language Processing, Edinburgh, United Kingdom. 2011: 355-362.

[本文引用: 1]

Chang H S, Learned-Miller E ,

McCallum A. Active Bias: Training More Accurate Neural Networks by Emphasizing High Variance Samples

[C]// Proceedings of the 31st International Conference on Neural Information Processing Systems, Long Beach, CA, USA. 2017: 1002-1012.

[本文引用: 1]

Katharopoulos A, Fleuret F .

Not All Samples are Created Equal: Deep Learning with Importance Sampling

[OL]. arXiv Preprint, arXiv:1803.00942.

[本文引用: 1]

Toneva M, Sordoni A, Combes R T , et al.

An Empirical Study of Example Forgetting During Deep Neural Network Learning

[OL]. arXiv Preprint, arXiv: 1812.05159.

[本文引用: 3]

Yang M C, Duan N, Zhou M , et al.

Joint Relational Embeddings for Knowledge-Based Question Answering

[C]//Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing (EMNLP), Doha, Qatar. 2014: 645-650.

[本文引用: 1]

Wang Y, Berant J, Liang P .

Building a Semantic Parser Overnight

[C]// Proceedings of the 53rd Annual Meeting of the Association for Computational Linguistics and the 7th International Joint Conference on Natural Language Processing, Beijing,China. 2015: 1332-1342.

[本文引用: 1]

Pasupat P, Liang P .

Compositional Semantic Parsing on Semi-Structured Tables

[OL]. arXiv Preprint, arXiv: 1508.00305.

[本文引用: 1]

Kwiatkowski T, Choi E, Artzi Y , et al.

Scaling Semantic Parsers with On-the-fly Ontology Matching

[C]// Proceedings of the 2013 Conference on Empirical Methods in Natural Language Processing, Seattle, WA, USA. 2013: 1545-1556.

[本文引用: 1]

王彦, 左春, 曾炼 .

旅游自动应答语义模型分析与实践

[J]. 计算机系统应用, 2017,26(2):18-24.

[本文引用: 1]

( Wang Yan, Zuo Chun, Zeng Lian .

Analysis and Practice of Semantic Model in Tourism Auto-Answering System

[J]. Computer Systems & Applications, 2017,26(2):18-24.)

[本文引用: 1]

Bao J, Duan N, Zhou M , et al.

Knowledge-based Question Answering as Machine Translation

[C]// Proceedings of the 52nd Annual Meeting of the Association for Computational Linguistics, Baltimore, Maryland, USA. 2014: 967-976.

[本文引用: 1]

Yih S W, Chang M, He X , et al.

Semantic Parsing via Staged Query Graph Generation: Question Answering with Knowledge Base

[C]// Proceedings of the Joint Conference of the 53rd Annual Meeting of the ACL and the 7th International Joint Conference on Natural Language Processing, Beijing, China. 2015: 1321-1331.

[本文引用: 1]

Yao X .

Lean Question Answering over Freebase from Scratch

[C]// Proceedings of the 2015 Conference of the North American Chapter of the Association for Computational Linguistics: Demonstrations, Denver, Colorado, USA. 2015: 66-70.

[本文引用: 1]

仇瑜, 程力 , Daniyal Alghazzawi .

特定领域问答系统中基于语义检索的非事实型问题研究

[J]. 北京大学学报:自然科学版, 2019,55(1):55-64.

[本文引用: 1]

( Qiu Yu, Cheng Li, Daniyal Alghazzawi .

Semantic Search on Non-Factoid Questions for Domain-Specific Question Answering Systems

[J]. Acta Scientiarum Naturalium Universitatis Pekinensis, 2019,55(1):55-64.)

[本文引用: 1]

Dong L, Wei F, Zhou M , et al.

Question Answering over Freebase with Multi-Column Convolutional Neural Networks

[C]// Proceedings of the 53rd Annual Meeting of the Association for Computational Linguistics and the 7th International Joint Conference on Natural Language Processing, Beijing, China. 2015: 260-269.

[本文引用: 1]

张越, 杨沐昀, 郑德权 , .

面向问答系统的信息检索自动评价方法

[J]. 智能计算机与应用, 2019,9(2):262-268.

[本文引用: 1]

( Zhang Yue, Yang Muyun, Zheng Dequan , et al.

Derive MAP-Like Metrics from Content Overlap for IR in QA System

[J]. Intelligent Computer and Applications, 2019,9(2):262-268.)

[本文引用: 1]

周志华 . 机器学习[M]. 北京: 清华大学出版社, 2016: 247-252.

[本文引用: 2]

( Zhou Zhihua. Machine Learning[M]. Beijing: Tsinghua University Press, 2016: 247-252.)

[本文引用: 2]

安德森 . 多元特定领域问答系统中基于语义检索的非事实型问题研究分析导论[M]. 张润楚, 程轶译.第3版.北京:人民邮电出版社, 2010: 53-56.

[本文引用: 2]

( Anderson T W. . An Introdution to Multivariate Statistical Analysis[M]. Translated by Zhang Runchu, Cheng Yi. The 3rd Edition. Beijing: The People’s Posts and Telecommunications Press, 2010: 53-56.)

[本文引用: 2]

王泳, 胡包钢 .

应用统计方法综合评估核函数分类能力的研究

[J]. 计算机学报, 2008,31(6):942-952.

[本文引用: 1]

( Wang Yong, Hu Baogang .

A Study on Integrated Evaluating Kernel Classification Performance Using Statistical Methods

[J]. Chinese Journal of Computers, 2008,31(6):942-952.)

[本文引用: 1]

/

版权所有 © 2015 《数据分析与知识发现》编辑部
地址:北京市海淀区中关村北四环西路33号 邮编:100190
电话/传真:(010)82626611-6626,82624938
E-mail:jishu@mail.las.ac.cn