[目的/意义]摘要作为学术论文中能够简明扼要地说明研究目的、研究方法和最终结论的陈述部分,具有较高的探究价值和意义。[方法/过程]选取长短期记忆网络(Long Short-Term Memory)、支持向量机(Support Vector Machine)、LSTM-CRF和CNN-CRF 4种模型,对3 672篇情报学领域的期刊论文进行摘要划分识别研究。[结果/结论]长短期记忆网络模型识别F值最高为69.15%,LSTM-CRF神经网络模型最高F值为88.76%,RNN-CRF模型最高F值达到89.10%,支持向量机分类器分类宏观F值最高为72.04%。该实验结果对图书情报领域的学术论文结构功能划分实验模型选取有较高的参考价值。
[Purpose/significance] Abstract can explain concisely the research purposes, research methods and the final part of the statement, which is of high exploration value and significance.[Method/process] In this paper, four short-term memory networks (long short-term memory, support vector machine, LSTM-CRF and CNN-CRF) were selected to summarize the journal articles of 3672 CNKI databases.[Result/conclusion] The long-term memory network model identifies the highest F value of 69.15%, the maximum F value of LSTM-CRF neural network model is 88.76%, and the highest F value of RNN-CRF model is 89.10%. The highest support vector machine classifier classification macro F value is 72.04%. The experimental results have a high reference value for the selection of the experimental model of the functional structure of academic dissertation in the field of library and information science.
[1] 刘雅琴, 蒋菡, 苏亚志. 科技论文摘要写作中的一些问题及辨析[J]. 现代情报, 2004, 24(1):178.
[2] CUNDALL P A,STRACK O D L. A discrete numerical model for granular assembilies[J].Geotechnique,1979,29(1):47-65.
[3] 陆伟, 黄永, 程齐凯,等. 学术文本的结构功能识别功能框架及基于章节标题的识别[J]. 情报学报, 2014(9):979-985.
[4] 黄永, 陆伟, 程齐凯. 学术文本的结构功能识别——基于章节内容的识别[J]. 情报学报, 2016, 35(3):530-538.
[5] 黄永, 陆伟, 程齐凯,等.学术文本的结构功能识别——基于段落的识别[J]. 情报学报,2016,35(5):530-538.
[6] 崔建明, 刘建明, 廖周宇. 基于SVM算法的文本分类技术研究[J]. 计算机仿真, 2013, 30(2):299-302.
[7] 程健一, 关毅, 何彬. 基于SVM和CRF双层分类器的英文电子病历去隐私化[J]. 智能计算机与应用, 2016, 6(6):17-19.
[8] 胡新辰. 基于LSTM的语义关系分类研究[D]. 哈尔滨:哈尔滨工业大学, 2015.
[9] 任智慧, 徐浩煜, 封松林,等. 基于LSTM网络的序列标注中文分词法[J]. 计算机应用研究, 2017, 34(5):1321-1324.
[10] 张子睿, 刘云清. 基于BI-LSTM-CRF模型的中文分词法[J]. 长春理工大学学报(自然科学版), 2017, 40(4):87-92.
[11] CHIU J P C, NICHOLS E. Named entity recognition with bidirectional LSTM-CNNs[J]. Transactions of the Association for Computational Linguistics, 2016,10(4):357-370.
[12] HOCHREITER S, SCHMIDHUBER J. Long short-term memory[J]. Neural computation, 1997, 9(8):1735-1780.
[13] LAFFERTY J D, MCCALLUM A, PEREIRA F C N. Conditional random fields:probabilistic models for segmenting and labeling sequence data[C]//Eighteenth international conference on machine learning. San Francisco:Morgan Kaufmann Publishers Inc.,2001:282-289.
[14] KARPATHY A, JOHNSON J, FEI F L. Visualizing and understanding recurrent networks[EB/OL].[2017-10-12].https://arxiv.org/abs/1506.02078v22015.
[15] CORTES C, VAPNIK V. Support-Vector networks[J]. Machine learning, 1995, 20(3):273-297.
[16] 刘华煜. 基于支持向量机的机器学习研究[D]. 大庆:大庆石油学院, 2005.
[17] 唐明, 朱磊, 邹显春. 基于Word2Vec的一种文档向量表示[J]. 计算机科学, 2016, 43(6):214-217.
[18] 黄承慧, 印鉴, 侯昉. 一种结合词项语义信息和TF-IDF方法的文本相似度量方法[J]. 计算机学报, 2011, 34(5):856-864.
[19] 廖健, 王素格, 李德玉,等. 基于增强字向量的微博观点句情感极性分类方法[J]. 郑州大学学报(理学版), 2017, 49(1):39-44.
[20] 牛晓太. 基于KNN算法和10折交叉验证法的支持向量选取算法[J]. 华中师范大学学报:自然科学版, 2014, 48(3):335-338.
[21] ABADI M, AGARWAL A, BARHAM P, et al. TensorFlow:large-scale machine learning on heterogeneous distributed systems[EB/OL].[2017-11-12].https://arXiv:1603.04467.
[22] SU C T, YANG C H. Feature selection for the SVM:an application to hypertension diagnosis[J]. Expert systems with applications, 2008, 34(1):754-763.