论文被引频次标准化方法述评
陈仕吉1, 史丽文1, 李冬梅2, 左文革1
1.中国农业大学图书馆 北京 100193
2.中国农业大学发展规划处 北京 100193
摘要

论文被引频次是引文分析中最具代表性的指标,通常被认为是学术影响力的标志。由于被引频次受学科领域、文献类型、出版时间等因素的影响,因此被引频次需要标准化处理以实现跨学科或跨领域的比较。阐述典型的被引频次标准化方法,并进一步分析和讨论标准化引文指标的实际应用。

关键词: 引文分析; 被引频次; 相对影响指标; 百分位数; 指标标准化
Review on Normalization Methods of Citation Counts
Chen Shiji1, Shi Liwen1, Li Dongmei2, Zuo Wenge1
1.China Agricultural University Library, Beijing 100193, China
2.Development Planning Department, China Agricultural University, Beijing 100193, China
Abstract

Citation counts is the most representative indicator in citation analysis,which is also used in research performance as an indicator of the impact. Since citation counts is sensitive on field, document type and publish year, it needs normalize for the cross-field comparison. In this paper,various methods of citation counts normalization are demonstrated and some problems on citation indicator in practice are also discussed.

Keyword: Citation analysis; Citation counts; Relative impact indicator; Percentiles Normalization of indicator
1 引 言

引文分析目前已成为各类研究实体(科学家、研究小组、实验室、研究所、院系、大学等)绩效评价的一种重要文献计量工具和方法,其广泛应用于科学家、研究小组、实验室、研究所、院系、大学甚至国家(或地区)的研究绩效评价。引文分析的结果在科技奖励、人才引进、岗位聘任及考核中往往扮演着重要的角色。因此,引文分析结果的准确性和公正性日益重要。

被引频次是引文分析用于绩效评价中最具代表性的指标,通常被看作学术影响力的重要标志,它会受到学科领域、文献类型、出版时间等因素的影响。

(1)某些学科或研究领域中论文的平均被引频次明显地高于其他一些学科或领域,如分子生物学学科的论文平均被引频次远高于数学学科的论文平均被引频次;

(2)论文发表时间越早其被引频次一般也越高;

(3)论文的类型也会对论文的被引频次造成影响,如Review类型论文一般会比Article类型论文的被引频次高。

因此,论文的原始被引频次和平均被引频次并不能有效地评价不同学科研究实体的学术影响力或研究绩效。

为了克服被引频次的不足,论文被引频次需要进行标准化处理,以消除学科等因素带来的差异性。论文发表时间和论文类型两个因素比较容易处理,只需选择相同文献类型和相同发表年代的论文进行比较即可。相对而言,学科背景因素的处理要复杂得多,因为不同的国家或地区,甚至不同的数据库都存在不同学科分类体系,而且学科分类本身就是一个较为复杂的问题。被引频次标准化过程中的学科背景因素一般称为参照标准(Reference Standard)。常见的参照标准是固定的学科分类体系。英国的RAE(Research Assessment Exercise)制定了UoAs(Units of Assessment),即学科分类目录,用于英国大学或科学机构的绩效评价需要[ 1]。Glanzel等[ 2]把227个JCR(Journal Citation Report)主题类分别组合成60个学科分类和12个大学科领域,以此为基础来评价比利时的研究绩效。荷兰莱顿大学CWTS(Centre for Science and Technology Studies)的Crown Indicator就直接采用JCR主题类作为被引频次标准化的参照标准[ 3]。除采用固定的学科分类体系外,根据论文的参考文献、引证文献或期刊等生成的相关文献记录(Related Records)也可以作为论文的参照标准。Schubert 等[ 4]在评测研究绩效时利用论文所属期刊作为参照标准来计算相对影响指标,并进一步探索利用Web of Science中的Relation Records来构建论文的参照标准[ 5]

虽然参照标准存在多种选择,但最常用的还是JCR主题类。参照标准的确定为被引频次的标准化奠定了基础,从而可以支持不同学科或领域间论文质量的比较。目前,被引频次标准化方法主要有三种,即相对影响指标(Relative Impact Indicator)、百分位数(Percentiles)和引文分数统计(Fractional Counting of Citations)。

2 相对影响指标
2.1 典型的相对影响指标实现方式及指标

相对影响指标是目前最常用的被引频次标准化方法,以论文被引频次与其期望被引频次的比值作为衡量论文价值的标准,其中期望被引频次指参照标准中所有论文的平均被引频次。一般来说,如果相对影响指标的值大于1则说明研究实体的研究水平高于该学科领域或世界的平均研究水平;反之则低于该学科领域或世界的平均研究水平。相对影响指标的实现方式主要有RS(Ratio of Sums)和MR(Mean of Ratios)两种[ 6]。RS方式先求出研究实体论文集的平均被引频次,然后再除以对应参照标准的期望被引频次以获得相对影响指标。这类方式典型的指标有RCR(Relative Citation Rate)[ 4]、NMCR(Normalised Mean Citation Rate)[ 2]、RW(Relative Subfield Citedness)[ 7]、CPP/JCSm[ 3]和CPP/FCSm[ 3]等。MR方式则是先通过论文的被引频次除以对应参照标准的期望被引频次获得每篇论文的相对被引频次,而后再求其平均相对被引频次获得相对影响指标。这类方式典型的指标有RPCR(Relative Paper Citation Rate)[ 6]和MNCS(Mean Normalized Citation Score,即CWTS提出的用于替代CPP/FCSm的新“Crown Indicator”)指标[ 8]表1列出各种典型相对影响指标的计算方法,可以看出,参照标准主要以论文所属期刊集和JCR主题类为主,其中JCR主题类的应用相当广泛。

相对影响指标两种实现方式孰优孰劣仍处于争论之中,特别以CPP/FCSm指标为代表的RS类型指标最近受到了质疑[ 7, 9, 10, 11, 12, 13, 14, 15, 16, 17]。 Opthof等[ 12]、Lundberg[ 18] 以CWTS Crown Indicator为例指出RS方式是在评测论文集的平均被引频次水平上进行的,这种计算方法的缺点是不能平等地对待每篇论文,而会偏袒那些被引频次高或发表时间较早的论文。Waltman等[ 8]进一步提出CPP/FCSm指标可以看成一种带权重的MNCS指标,并且CPP/FCSm也可以改写为MR形式,但与MNCS不同的是不同论文获取相对被引频次时有不同的权重,如下所示:

CPP/FCSm=wi (1)

wi= (2)

Vinkler[ 6]则认为MR方式在数学意义上是合理的,但在绩效评价实践中RS方式更合理一些,因为MR容易造成发表在期刊水平较低的论文获得相对较高的相对影响指标。对同一学科而言,MNCS和CPP/FCSm并没有区别,但研究实体的论文一般来说分布在

表1 典型相对影响指标计算方法对比

多个学科领域。假如研究实体的论文分布在p个学科,每个学科分布的论文数记为cp,学科的期望被引频次为FCSm(fp),那么MNCS也可以改写成RS形式,如下所示[ 6]:

MNCS= (3)

如果有两个待测的研究机构,其中一个机构的论文集中发表在期望被引频次较低的学科领域,而另一个机构的论文较多发表在期望被引频次较高的领域,那么前一个机构完全有可能获得比后一机构更高的相对影响指标值,尽管实际上后一机构的研究绩效有可能更高一些。从公式(3)很容易可以推断出这种可能性,而基于RS方式的CPP/FCSm指标并不存在这种问题。

Seglen[ 19]的研究表明无论是学科领域、期刊还是科学家的论文,其被引频次并不呈正态分布,而是呈偏态分布,用平均被引频次来衡量研究绩效并不能代表被引频次的分布特征。Lundberg[ 18]提出对论文被引频次取自然对数,再用Z-Score进行标准化处理后的分布更接近正态分布。Bornmann[ 20]则认为应该用分布来描述被引频次而不是用算术平均值,他提出结合Whisker Diagram箱图(Box Plot)和带Gini系数的Lorenz曲线(Lorenz curves with Gini Coefficients)来描述研究实体的研究绩效。Radicchi等[ 21]等研究发现不同学科的论文被引频次除以其学科期望被引频次后获得的分布曲线是一致的,他把这种现象称为Universality of Citation Distribution。Waltman等[ 22]、Bornmann等[ 23]进一步验证了这种现象。Radicchi等[ 21]的研究说明基于算术平均的相对影响指标用于评测研究绩效也有一定的合理性。被引频次的偏态分布表明,研究实体所获得的被引频次主要是由少部分论文贡献的,而平均被引频次同样受高被引论文的影响较大。就绩效评价而言,研究绩效本来应该集中体现在高被引论文上,而且绩效评价也并不一定非要反映出被引频次分布内涵。因此,从这个角度来看,基于算术平均值的绩效评价方法还是有一定道理,至少在很长一段时间内仍然会被广泛采用。

2.2 相对影响指标的应用分析

相对影响指标在实际应用中存在一定困难。首先,如何选择合适的学科分类体系是个问题。Zitt等[ 24]探索了在不同层次水平的学科(或领域)对相对引用指标的影响。结果表明,相对引用指标对不同层次的学科领域是敏感的。 Adams等[ 25]进一步以英国各研究机构为基础验证了Zitt的结论。Glanzel等[ 2]认为机构的研究绩效评测比国家或地区的评测要精细得多,需要考虑引文指标的学科或领域层次问题;他将学科分为三个层次,第一个层次是JCR主题类,第二层次和第三层次分别为JCR主题类组合生成的60个学科和12大学科。Glanzel以NMCR指标为基础,通过对欧州100所大学的数据进行验证分析得出,60个领域的学科分类比较适用于机构的研究绩效评估。Opthof等[ 12]对JCR主题类作为参照标准有所质疑,认为JCR主题类存在大量的交叉重叠,主要是为方便检索而设置,用于研究绩效评测是不合适的。Rons[ 26]指出JCR主题类处理机构层次的绩效不会有太明显的问题,但如果涉及个人或研究小组的绩效评价,JCR主题类之间的交叉部分可能会对绩效指标值造成比较明显的影响,他进一步提出PBFN(Partition-Based Field Normalization)方法来避免这种情况。PBFN把评测论文中所涉及到的主题类重叠区域单独划分出来作为一个独立主题类来实现被引频次标准化,因而可以减少由于学科交叉带来的不确定性。总的来说,在相对影响指标的应用过程中,可根据研究实体的规模和层次来选择不同的学科分类体系。对国家或地区的绩效评价而言,选用由JCR主题类组合形成的大学科领域比较合适,如ESI(Essential Science Indicator)学科分类和RAE的UoAs;对于机构绩效评价而言,JCR主题类是一个不错的选择;而对于个人或研究小组而言,结合PBFN和JCR主题类的措施值得考虑。

学科或领域的引文数据一般来说难以获取。如CPP/JCSm指标计算涉及到期刊集的期望被引频次,这种数据并不能直接通过Web of Science获取,而需要根据期刊名从Web of Science检索在某个时间段的所有论文,下载后导入数据库并计算其引文数据而获得。研究实体涉及的期刊可能成百上千,因此,人工操作存在困难,需要设计相应的程序来完成此项工作。相对来说,获取以期刊为参照标准的期望被引频次比较简单,而获取JCR主题类的引文数据难度更大,因为每个JCR主题类及其引文数据量更大,处理起来更为复杂。因此,一般的机构很难计算各种相对影响指标。Cristian等[ 27]研究了期刊、JCR主题类和ESI分类下Cf(与MNCS指标类似的指标)和Top-5%指标的稳定性,结果发现JCR主题类和ESI分类两种学科分类计算的Cf指标呈显著相关性,因此可以用ESI学科分类代替JCR主题类,从而可以近似地计算相对影响指标。由于ESI学科分类的引文数据可以通过ESI数据库的Baseline直接获取,因而这种方法具有一定的实用性。利用ESI计算MNCS的具体过程如表2所示:

表2 利用ESI计算MNCS指标的示例

其中,ESI学科期望被引频次来源于ESI数据库3月份数据,表2中机构近5年的论文分别发表在Agricultural Sciences和Plant & Animal Science两个学科,利用公式(3)可以很容易计算机构的MNCS指标。此外,Vinkler提出的RW指标采用以期刊影响因子代替平均被引频次的做法。影响因子实际上也是一种平均被引频次,但它是通过期刊前两年发表的论文在统计当年的总被引频次除以该期刊在前两年内发表的论文总数获得的平均被引频次,与评测论文的平均被引频次严格意义上并不一致。因此,RW是一种近似的相对影响指标,只是JCR主题类中各期刊的影响因子很容易通过JCR直接获取。RW指标相对来说比较容易计算,在其他相对引用指标计算存在困难的情况下,也可以选择用RW指标来衡量研究实体的绩效。

3 百分位数
3.1 百分位数指标

在科学计量学专家讨论CWTS的Crown Indicator的合理性时,Bornmann[ 11, 16]提出百分位数用于绩效评估可能性,并指出百分位数可以不用考虑被引频次的分布情况。实际上,美国国家自然科学基金委员会(NSF)已开始采用百分位数来衡量各国科学研究实力[ 28]。具体的做法是把被引频次分为99th、95th-99th、90th-95th、 75th-90th、 50th-75th、Bottom-50th共6个百分位区段,其中99th指被引频次排在前1%的论文,Bottom-50th指被引频次排在50%以后的论文,95th-99th, 90th-95th, 75th-90th, 50th-75th分别指被引频次排在1%-5%、5%-10%、10%-25%和25%-50%之间的论文。根据各国论文在各百分位区间的分布情况,可以判断各国的研究绩效和实力。此外,Top-10%已经成为SCImago[ 29]和莱顿大学排行榜[ 30]的指标之一。

为了通过一个单一指标值来衡量研究实体的绩效情况,Bornmann等[ 11]进一步提出EV指标值,即对研究实体在各个百分位分布概率进行加权平均。EV指标值充分考虑了各种被引频次对研究绩效的贡献,并且不用考虑被引频次的算术平均。EV指标值计算公式如下[ 11]:

EV= x·p(x)(4)

其中,x为从1到k的离散随机变量(在这里用于表示被引频次的百分位分区,比如美国NSF的百分位各区段的x变量为1到6,如果论文被引频次处于Top-1%,那么x就为6,论文被引频次处于Top1%-Top5%之间,那么x为5,其他以此类推),p(x)为x出现的概率。每个研究实体的EV值可以和期望EV值(即随机分布时EV值)相比较来判断其研究绩效。期望EV值即各区段的百分位离散随机量加权平均值,比如美国NSF划分的6个百分位区段的期望EV值为:1×0.5+2×0.25+3×0.2+4×0.1+5×0.2+6×0.1=1.9。如果机构的EV值大于1.9,则表明研究实体的绩效高于平均水平。

Leydesdorff等[ 31]认为一般的研究机构很难获取JCR主题类的引文数据,利用JCR主题类作为学科背景的引文指标计算起来比较困难。因此,他们以研究机构发表论文集所属的期刊文献集为参照标准来试验百分位数的指标计算方法,把NSF的6个百分位区段扩展到100个百分位区段,并以阿姆斯特丹大学医学院的7位科学家为例,分别对6个百分位区段和100个百分位区段计算EV值,同时考虑论文数量进行了实证分析[ 31]。这种方法的优点是指标计算容易实现,并且可以计算误差范围以及不用考虑被引频次分布形态等。

3.2 百分位数的应用

目前,百分位数已逐渐成为绩效评估的一个重要指标。基于百分位的指标在具体应用过程中也存在相应的问题:

(1)百分位区段如何划分才合适。SCIMago[ 29]和CWTS Ranking[ 30]直接把Top-10%的论文比率作为一个计量指标。NSF则划分了1%、5%、10%、50%、75%和小于50%6个百分位等级,ESI划分了0.01%、0.1%、1%、10%、20%、50%和小于50%7个百分位等级[ 28]。当然,还可能有其他的百分位区段划分方法。

(2)如何获得研究实体在各个百分位区段的论文数及比例即百分位数。与相对影响指标的计算一样,百分位数计算也需要获取Web of Science中JCR主题类或其他学科分类的引文数据,有同样的难度。由于ESI数据库的Baseline部分提供了各ESI学科论文进入各百分位的最低阈值,因此也可以利用ESI数据库实现研究实体的百分位数计算。ESI数据库中的Baseline部分包括0.01%、0.1%、1%、10%、20%和50%共6个百分位等级的被引频次标准。由于0.01%和0.1%两个百分位等级对一般的科研机构而言过于苛刻,因此在实际应用中可以选用1%、10%、20%、50%和小于50%共5个百分位等级,分别表示为99th、99th-90th、90th-80th、80th-50th和Bottom-50th。根据百分位划分可以计算出随机分布情况下的期望EV值: EV=1×0.5+2×0.3+3×0.1+4×0.09+5×0.01=1.81,即如果某机构的EV超过1.81则表明该机构的研究超过平均水平。表3列出虚拟的两个研究小组在Agricultural Sciences的论文发表情况。

表3 基于ESI的百分位数计算(以研究小组在Agricultural Sciences发表的论文为例)

其中,n表示根据ESI Baseline标准进入Agricultural Sciences对应百分位的论文数,p为论文进入对应百分位的概率。表3后面写出研究小组的EV计算过程,其中研究小组1的EV值为2.419,研究小组2的EV值为1.879,这表明研究小组1的研究绩效超过了平均水平,而研究小组2和平均水平相当。

除相对影响指标和百分位数外,引文分数统计也是被引频次标准化的方法之一。引文分数统计可以通过引证文献的参考文献数量为基数来标准化引证文献对被引证文献(即参考文献)的贡献,从而可以一定程度上消除学科因素对被引频次的影响。引文分数统计由Small等[ 32]首次应用于共被引分析,用于平衡不同学科或领域论文共被引值的差异,Zitt等[ 33]进一步将其应用于期刊规范化。Leydesdorff等[ 17]认为引文分数统计也可以用来规范和标准化不同学科的论文引用频次,从而可以跨学科地比较论文的学术影响力。Zhou等[ 34]、Leydesdorff等[ 35]分别利用引文分数统计方法评测了清华大学27个院系的研究绩效和韩国7所大学的相对学术影响力。目前的绩效评价中引文分数统计应用较少。

4 结 语

被引频次标准化对研究实体的绩效评价具有重要意义,也为一些综合性指标如H指数的标准化奠定了基础。本文集中分析了常见的被引频次标准化方法,并进一步探讨了各种标准化指标在实际应用中存在的问题。总的来说,相对引用指标和百分位数在实际应用中的计算是有难度的,但可以采用一些变通或近似的计算方法,如利用ESI数据库或影响因子的计算方法。此外,相对影响指标和百分位数各有其优缺点,都能够从一些角度反映研究实体的研究绩效和学术影响力。在实际应用中,把相对影响指标和百分位数方法结合起来可能更能反映研究实体的绩效。

在实际工作中对研究实体绩效进行评价,应该结合多种计量指标,如论文数量、论文总被引频次等。被引频次除了体现研究质量外,还可能受到多种因素的影响,如期刊影响因子、合作者数量等。因此,被引频次(包括引文指标)只是研究绩效评价的一个重要参考,并不能完全取代其他的评价方法(如同行评议)。通常的做法是把引文指标与同行评议结合起来使用,把各种计量指标作为同行评议的重要补充,灵活地应用计量指标结果,为研究实体的绩效评价提供客观可靠的依据。正如国际信息计量学与科学计量学学会主席Ronald Rousseau指出:“科学计量学指标并不是要取代专家(评议),而是为了能够对研究工作进行观察和评论,从而使专家掌握足够的信息,形成根据更充分的意见,并在更高的信息集成水平上更具权威性”[ 36]

参考文献
[1] HEFCE. HEFCE : Publications : 1998 : Consultation 98/54 - Research Funding: Introduction of a Policy Factor[EB/OL]. [2012-02-13]. http://www.hefce.ac.uk/pubs/hefce/1998/98_54.htm. [本文引用:1]
[2] Glanzel W, Thijs B, Schubert A, et al. Subfield-specific Normalized Relative Indicators and a New Generation of Relational Charts: Methodological Foundations Illustrated on the Assessment of Institutional Research Performance[J]. Scientometrics, 2009, 78(1): 165-188. [本文引用:3] [JCR: 2.133]
[3] van Raan A F J. The Use of Bibliometric Analysis in Research Performance Assessment and Monitoring of Interdisciplinary Scientific Developments[J]. Assessment Theory and Practice, 2003, 1(12): 20-29. [本文引用:3]
[4] Schubert A, Braun T. Relative Indicators and Relational Charts for Comparative Assessment of Publication Output and Citation Impact[J]. Scientometrics, 1986, 9(5): 281-291. [本文引用:2] [JCR: 2.133]
[5] Schubert A, Braun T. Reference Stand ards for Citation Based Assessments[J]. Scientometrics, 1993, 26(1): 21-35. [本文引用:1] [JCR: 2.133]
[6] Vinkler P. The Case of Scientometricians with the “Absolute Relative” Impact Indicator[J]. Journal of Informetrics, 2012, 6(2): 254-264. [本文引用:4]
[7] Vinkler P. Model for Quantitative Selection of Relative Scientometric Impact Indicators[J]. Scientometrics, 1996, 36(2): 223-236. [本文引用:2] [JCR: 2.133]
[8] Waltman L, van Eck N J, van Leeuwen T N, et al. Towards a New Crown Indicator: Some Theoretical Considerations[J]. Journal of Informetrics, 2011, 5(1): 37-47. [本文引用:2]
[9] Leydesdorff L, Opthof T. Remaining Problems with the “New Crown Indicator” (MNCS) of the CWTS[J]. Journal of Informetrics, 2011, 5(1): 224-225. [本文引用:1]
[10] Gingras Y, Larivière V. There are Neither “King” nor “Crown” in Scientometrics: Comments on A Supposed “Alternative” Method of Normalization[J]. Journal of Informetrics, 2011, 5(1): 226-227. [本文引用:1]
[11] Bornmann L, Mutz R D. Further Steps Towards an Ideal Method of Measuring Citation Performance: The Avoidance of Citation (Ratio) Averages in Field-normalization[J]. Journal of Informetrics, 2011, 5(1): 228-230. [本文引用:4]
[12] Opthof T, Leydesdorff L. Caveats for the Journal and Field Normalizations in the CWTS (“Leiden”) Evaluations of Research Performance[J]. Journal of Informetrics, 2010, 4(3): 423-430. [本文引用:3]
[13] van Raan A F J, van Leeuwen T N, Visser M S, et al. Rivals for the Crown: Reply to Opthof and Leydesdorff[J]. Journal of Informetrics, 2010, 4(3): 431-435. [本文引用:1]
[14] Moed H F. CWTS Crown Indicator Measures Citation Impact of a Research Group’s Publication Oeuvre[J]. Journal of Informetrics, 2010, 4(3): 436-438. [本文引用:1]
[15] Spaan J A E. The Danger of Pseudoscience in Informetrics[J]. Journal of Informetrics, 2010, 4(3): 439-440. [本文引用:1]
[16] Bornmann L. Towards an Ideal Method of Measuring Research Performance: Some Comments to the Opthof and Leydesdorff (2010Paper[J]. Journal of Informetrics, 2010, 4(3): 441-443. [本文引用:2]
[17] Leydesdorff L, Opthof T. Normalization at the Field Level: Fractional Counting of Citations[J]. Journal of Informetrics, 2010, 4(4): 644-646. [本文引用:2]
[18] Lundberg J. Lifting the Crown—Citation Z—Score[J]. Journal of Informetrics, 2007, 1(2): 145-154. [本文引用:2]
[19] Seglen P O. The Skewness of Science[J]. Journal of the American Society for Information Science, 1992, 43(9): 628-638. [本文引用:1]
[20] Bornmann L, Mutz R, Neuhaus C, et al. Citation Counts for Research Evaluation: Stand ards of Good Practice for Analyzing Bibliometric Data and Presenting and Interpreting Results[J]. Ethics in Science and Environmental Politics, 2008(8): 93-102. [本文引用:1]
[21] Radicchi F, Fortunato S, Castellano C. Universality of Citation Distributions: Toward an Objective Measure of Scientific Impact[J]. Proceedings of the National Academy of Sciences of the United States of America, 2008, 105(45): 17268-17272. [本文引用:2] [JCR: 9.737]
[22] Waltman L, van Eck N J, van Raan A F J. Universality of Citation Distributions Revisited[J]. Journal of the American Society for Information Science and Technology, 2012, 63(1): 72-77. [本文引用:1] [JCR: 2.005]
[23] Bornmann L, Daniel H D. Universality of Citation Distributions-A Validation of Radicchiet al. ’s Relative Indicator cf = c/c0 at the Micro Level Using Data from Chemistry[J]. Journal of the American Society for Information Science and Technology, 2009, 60(8): 1664-1670. [本文引用:1] [JCR: 2.005]
[24] Zitt M, Ramanana-Rahary S, Bassecoulard E. Relativity of Citation Performance and Excellence Measures: From Cross-field to Cross-scale Effects of Field-normalisation[J]. Scientometrics, 2005, 63(2): 373-401. [本文引用:1] [JCR: 2.133]
[25] Adams J, Gurney K, Jackson L. Calibrating the Zoom-A Test of Zitt’s Hypothesis[J]. Scientometrics, 2008, 75(1): 81-95. [本文引用:1] [JCR: 2.133]
[26] Rons N. Partition-based Field Normalization: An Approach to Highly Specialized Publication Records[J]. Journal of Informetrics, 2012, 6(1): 1-10. [本文引用:1]
[27] Cristian C, Per A. The Effects and Their Stability of Field Normalization Baseline on Relative Performance with Respect to Citation Impact: A Case Study of 20 Natural Science Departments[J]. Journal of Informetrics, 2011, 5(1): 101-113. [本文引用:1]
[28] National Science Board. Science and Engineering Indicators: 2010[R]. Arlington, VA, USA: National Science Foundation, 2010. [本文引用:2]
[29] SCImago Research Group. SCIMago Institutions Rankings [EB/OL]. [2012-02-10]. http://www.scimagoir.com/pdf/sir_2011_world_report_ni.pdf. [本文引用:2]
[30] Centre for ScienceTechnology Studies, Leiden University, The Netherland s. Leiden Ranking [EB/OL]. [2012-02-10]. http://www.leidenranking.com/methodology.aspx. [本文引用:2]
[31] Leydesdorff L, Bornmann L, Mutz R, et al. Turning the Tables on Citation Analysis One More Time: Principles for Comparing Sets of Documents[J]. Journal of the American Society for Information Science and Technology, 2011, 62(7): 1370-1381. [本文引用:2] [JCR: 2.005]
[32] Small H, Sweeney E. Clustering the Science Citation Index? Using Co-citations I. A Comparison of Methods[J]. Scientometrics, 1985, 7(3-6): 391-409. [本文引用:1] [JCR: 2.133]
[33] Zitt M, Small H. Modifying the Journal Impact Factor by Fractional Citation Weighting: The Audience Factor[J]. Journal of the American Society for Information Science and Technology, 2008, 59(11): 1856-1860. [本文引用:1] [JCR: 2.005]
[34] Zhou P, Leydesdorff L. Fractional Counting of Citations in Research Evaluation: A Cross- and Interdisciplinary Assessment of the Tsinghua University in Beijing[J]. Journal of Informetrics, 2011, 5(3): 360-368. [本文引用:1]
[35] Leydesdorff L, Shin J C. How to Evaluate Universities in Terms of Their Relative Citation Impacts: Fractional Counting of Citations and the Normalization of Differences Among Disciplines[J]. Journal of the American Society for Information Science and Technology, 2011, 62(6): 1146-1155. [本文引用:1] [JCR: 2.005]
[36] Rousseau Ronald. 评价科研机构的文献计量学和经济计量学指标[A]. // 蒋国华. 科研评价与指标: 国际会议论文集[M]. 北京: 红旗出版社, 2000: 16-37.
(Rousseau Ronald. Bibliometrics and Econometric Indicators for the Evaluation of Scientific Institutes[A]. //Jiang Guohua. Scientific Research Evaluation and Indicators: Proceeding of the International Conference[M]. Beijing: Red Flag Press, 2000: 16-37. ) [本文引用:1]