通信学报 ›› 2018, Vol. 39 ›› Issue (2): 53-64.doi: 10.11959/j.issn.1000-436x.2018024

• 学术论文 • 上一篇    下一篇

结合全局向量特征的神经网络依存句法分析模型

王衡军1,司念文1(),宋玉龙2,单义栋1   

  1. 1 解放军信息工程大学三院,河南 郑州 450001
    2 73671部队,安徽 六安 237000
  • 修回日期:2017-12-08 出版日期:2018-02-01 发布日期:2018-03-28
  • 作者简介:王衡军(1973-),男,湖南衡阳人,解放军信息工程大学副教授、硕士生导师,主要研究方向为机器学习、自然语言处理和信息安全。|司念文(1992-),男,湖北襄阳人,解放军信息工程大学硕士生,主要研究方向为机器学习、自然语言处理。|宋玉龙(1995-),男,安徽阜阳人,73671部队助理工程师,主要研究方向为网络与信息安全。|单义栋(1988-),男,山东乳山人,解放军信息工程大学硕士生,主要研究方向为自然语言处理。

Neural network model for dependency parsing incorporating global vector feature

Hengjun WANG1,Nianwen SI1(),Yulong SONG2,Yidong SHAN1   

  1. 1 The Third Institute,PLA Information Engineering University,Zhengzhou 450001,China
    2 73671 Army,Luan 237000,China
  • Revised:2017-12-08 Online:2018-02-01 Published:2018-03-28

摘要:

利用时序型长短时记忆(LSTM,long short term memory)网络和分片池化的卷积神经网络(CNN,convolutional neural network),分别提取词向量特征和全局向量特征,将2类特征结合输入前馈网络中进行训练;模型训练中,采用基于概率的训练方法。与改进前的模型相比,该模型能够更多地关注句子的全局特征;相较于最大化间隔训练算法,所提训练方法更充分地利用所有可能的依存句法树进行参数更新。为了验证该模型的性能,在宾州中文树库(CTB5,Chinese Penn Treebank 5)上进行实验,结果表明,与已有的仅使用LSTM或CNN的句法分析模型相比,该模型在保证一定效率的同时,能够有效提升依存分析准确率。

关键词: 依存句法分析, 图模型, 长短时记忆网络, 卷积神经网络, 特征

Abstract:

LSTM and piecewise CNN were utilized to extract word vector features and global vector features,respectively.Then the two features were input to feed forward network for training.In model training,the probabilistic training method was adopted.Compared with the original dependency paring model,the proposed model focused more on global features,and used all potential dependency trees to update model parameters.Experiments on Chinese Penn Treebank 5 (CTB5) dataset show that,compared with the parsing model using LSTM or CNN only,the proposed model not only remains the relatively low model complexity,but also achieves higher accuracies.

Key words: dependency parsing, graph-based model, long short-term memory network, convolutional neural network,feature

中图分类号: 

No Suggested Reading articles found!