Neural summarization by extracting sentences and words
1
2016
... 文本摘要有多种分类方法,按照摘要方法划分可以分为抽取式摘要[1]方法和生成式摘要[2]方法.抽取式摘要方法通过抽取文档中的句子生成摘要,通过对文档中句子的得分进行计算,得分代表重要性程度,得分越高代表句子越重要,然后通过依次选取得分最高的若干个句子组成摘要,摘要的长度取决于压缩率.生成式摘要方法不是单纯地利用原文档中的单词或短语组成摘要,而是从原文档中获取主要思想后以不同的表达方式将其表达出来.生成式摘要方法为了传达原文档的主要观点,可以重复使用原文档中的短语和语句,但总体上来说,摘要需要用作者自己的话来概括表达.生成式摘要方法需要利用自然语言理解技术对原文档进行语法语义的分析,然后对信息进行融合,通过自然语言生成的技术生成新的文本摘要. ...
Diversity driven attention model for query-based abstractive summarization
1
2017
... 文本摘要有多种分类方法,按照摘要方法划分可以分为抽取式摘要[1]方法和生成式摘要[2]方法.抽取式摘要方法通过抽取文档中的句子生成摘要,通过对文档中句子的得分进行计算,得分代表重要性程度,得分越高代表句子越重要,然后通过依次选取得分最高的若干个句子组成摘要,摘要的长度取决于压缩率.生成式摘要方法不是单纯地利用原文档中的单词或短语组成摘要,而是从原文档中获取主要思想后以不同的表达方式将其表达出来.生成式摘要方法为了传达原文档的主要观点,可以重复使用原文档中的短语和语句,但总体上来说,摘要需要用作者自己的话来概括表达.生成式摘要方法需要利用自然语言理解技术对原文档进行语法语义的分析,然后对信息进行融合,通过自然语言生成的技术生成新的文本摘要. ...
Deep recurrent generative decoder for abstractive text summarization
1
2017
... 按照文档数量划分,可以分为单文档摘要[3]方法和多文档摘要[4]方法.单文档摘要方法是指针对单个文档,对其内容进行抽取总结生成摘要;多文档摘要方法是指从包含多份文档的文档集合中生成一份能够概括这些文档中心内容的摘要. ...
Abstractive multi-document summarization via phrase selection and merging
1
2015
... 按照文档数量划分,可以分为单文档摘要[3]方法和多文档摘要[4]方法.单文档摘要方法是指针对单个文档,对其内容进行抽取总结生成摘要;多文档摘要方法是指从包含多份文档的文档集合中生成一份能够概括这些文档中心内容的摘要. ...
Using supervised bigram-based ilp for extractive summarization
1
2013
... 按照文本摘要的学习方法可分为有监督[5]方法和无监督[6]方法.有监督方法需要从文件中选取主要内容作为训练数据,大量的注释和标签数据是学习所需要的.这些文本摘要的系统在句子层面被理解为一个二分类问题,其中,属于摘要的句子称为正样本,不属于摘要的句子称为负样本.机器学习中的支持向量机(SVM,support vector machine)和神经网络也会用到这样分类的方法.无监督[7,8]的文本摘要系统不需要任何训练数据,它们仅通过对文档进行检索即可生成摘要. ...
A graph based conceptual mining model for abstractive text summarization
1
2016
... 按照文本摘要的学习方法可分为有监督[5]方法和无监督[6]方法.有监督方法需要从文件中选取主要内容作为训练数据,大量的注释和标签数据是学习所需要的.这些文本摘要的系统在句子层面被理解为一个二分类问题,其中,属于摘要的句子称为正样本,不属于摘要的句子称为负样本.机器学习中的支持向量机(SVM,support vector machine)和神经网络也会用到这样分类的方法.无监督[7,8]的文本摘要系统不需要任何训练数据,它们仅通过对文档进行检索即可生成摘要. ...
Sgrank:combining statistical and graphical methods to improve the state of the art in unsupervised keyphrase extraction
1
2015
... 按照文本摘要的学习方法可分为有监督[5]方法和无监督[6]方法.有监督方法需要从文件中选取主要内容作为训练数据,大量的注释和标签数据是学习所需要的.这些文本摘要的系统在句子层面被理解为一个二分类问题,其中,属于摘要的句子称为正样本,不属于摘要的句子称为负样本.机器学习中的支持向量机(SVM,support vector machine)和神经网络也会用到这样分类的方法.无监督[7,8]的文本摘要系统不需要任何训练数据,它们仅通过对文档进行检索即可生成摘要. ...
Position Rank:an unsupervised approach to keyphrase extraction from scholarly documents
1
2017
... 按照文本摘要的学习方法可分为有监督[5]方法和无监督[6]方法.有监督方法需要从文件中选取主要内容作为训练数据,大量的注释和标签数据是学习所需要的.这些文本摘要的系统在句子层面被理解为一个二分类问题,其中,属于摘要的句子称为正样本,不属于摘要的句子称为负样本.机器学习中的支持向量机(SVM,support vector machine)和神经网络也会用到这样分类的方法.无监督[7,8]的文本摘要系统不需要任何训练数据,它们仅通过对文档进行检索即可生成摘要. ...
The automatic creation of literature abstracts
1
1958
... 抽取式文本摘要方法的关键问题是从原文档中抽取出重要性高的若干句子[9].研究初期是以统计学为支撑,统计学的方法是基于统计特征,如词频、句子中心性(即与其他句子的相似性)、句子位置、句子与标题的相似性、句子的相对长度等统计特征来生成摘要的.首先使用“词频”这一简单的文本特征对文档的重要句子和词组进行抽取生成,根据经验可知,除去停用词以外,文中出现频率越高的单词,其重要性也就越高.根据单词的词频高低分别设置相应的词权重,词频越高,对应的权重也就越高;句子的权重是组成句子单词的权重之和.然后从文档中抽取权重高的单词和句子组成摘要,这就是简单的基于词频的文本摘要方法. ...
Machine-made index for technical literature—an experiment
1
1958
... 句子在段落中的位置对句子的重要性影响很大,根据经验可知,一个段落的首尾句成为概括段落中心思想主题句的概率比其他位置句子的概率要高.Baxendale等[10]从句子位置的特征出发,通过计算文档段落首尾句能够概括主题的主题句概率,选取得分最高的若干句子生成文本摘要.Edmundson等[11]在研究中也指出,线索词(如“几乎不”“不可能”等类似的特定词汇)对句子重要性也起到了一定的影响作用.他们将词频、句子位置、线索词、标题词等多个特征组合起来作为衡量句子重要性的综合指标,在质量上取得了一定的改善. ...
New methods in automatic extracting
1
1969
... 句子在段落中的位置对句子的重要性影响很大,根据经验可知,一个段落的首尾句成为概括段落中心思想主题句的概率比其他位置句子的概率要高.Baxendale等[10]从句子位置的特征出发,通过计算文档段落首尾句能够概括主题的主题句概率,选取得分最高的若干句子生成文本摘要.Edmundson等[11]在研究中也指出,线索词(如“几乎不”“不可能”等类似的特定词汇)对句子重要性也起到了一定的影响作用.他们将词频、句子位置、线索词、标题词等多个特征组合起来作为衡量句子重要性的综合指标,在质量上取得了一定的改善. ...
On the construction of effective vocabularies for information retrieval
1
1973
... 其他著名的方法有 TF-IDF(词频−逆向文件频率),它是由Salon最先提出的[12],这种统计的方法通过词频和逆向文件频率共同评估一个词在一个文件集或语料库中的重要程度,字词的重要性随着它在文件中出现的次数成正比增加,但同时会随着它在语料库中出现的频率成反比下降.利用 TF-IDF 生成文本摘要的基本思路是通过背景语料统计出各个词的 TF-IDF 值,将其作为重要性得分的权值,接着根据各个词的 TF-IDF 值累加求和计算得到段落中各个句子的TF-IDF值,将其作为该句的重要性得分,然后将句子按照重要性得分排序,依据文本摘要的大小依次选取重要性得分从高到低的若干个句子组成摘要.这种算法在词频算法的基础上引入一个逆文档因子,它能够有效地区分出高频无效词,在一定基础上改进了一般词频算法.其后,基于 TF-IDF 的方法被广泛应用于单词的重要性识别[13,14,15,16]. ...
TFIDF 算法研究综述
1
2009
... 其他著名的方法有 TF-IDF(词频−逆向文件频率),它是由Salon最先提出的[12],这种统计的方法通过词频和逆向文件频率共同评估一个词在一个文件集或语料库中的重要程度,字词的重要性随着它在文件中出现的次数成正比增加,但同时会随着它在语料库中出现的频率成反比下降.利用 TF-IDF 生成文本摘要的基本思路是通过背景语料统计出各个词的 TF-IDF 值,将其作为重要性得分的权值,接着根据各个词的 TF-IDF 值累加求和计算得到段落中各个句子的TF-IDF值,将其作为该句的重要性得分,然后将句子按照重要性得分排序,依据文本摘要的大小依次选取重要性得分从高到低的若干个句子组成摘要.这种算法在词频算法的基础上引入一个逆文档因子,它能够有效地区分出高频无效词,在一定基础上改进了一般词频算法.其后,基于 TF-IDF 的方法被广泛应用于单词的重要性识别[13,14,15,16]. ...
TFIDF 算法研究综述
1
2009
... 其他著名的方法有 TF-IDF(词频−逆向文件频率),它是由Salon最先提出的[12],这种统计的方法通过词频和逆向文件频率共同评估一个词在一个文件集或语料库中的重要程度,字词的重要性随着它在文件中出现的次数成正比增加,但同时会随着它在语料库中出现的频率成反比下降.利用 TF-IDF 生成文本摘要的基本思路是通过背景语料统计出各个词的 TF-IDF 值,将其作为重要性得分的权值,接着根据各个词的 TF-IDF 值累加求和计算得到段落中各个句子的TF-IDF值,将其作为该句的重要性得分,然后将句子按照重要性得分排序,依据文本摘要的大小依次选取重要性得分从高到低的若干个句子组成摘要.这种算法在词频算法的基础上引入一个逆文档因子,它能够有效地区分出高频无效词,在一定基础上改进了一般词频算法.其后,基于 TF-IDF 的方法被广泛应用于单词的重要性识别[13,14,15,16]. ...
一种基于 TFIDF 方法的中文关键词抽取算法
1
2008
... 其他著名的方法有 TF-IDF(词频−逆向文件频率),它是由Salon最先提出的[12],这种统计的方法通过词频和逆向文件频率共同评估一个词在一个文件集或语料库中的重要程度,字词的重要性随着它在文件中出现的次数成正比增加,但同时会随着它在语料库中出现的频率成反比下降.利用 TF-IDF 生成文本摘要的基本思路是通过背景语料统计出各个词的 TF-IDF 值,将其作为重要性得分的权值,接着根据各个词的 TF-IDF 值累加求和计算得到段落中各个句子的TF-IDF值,将其作为该句的重要性得分,然后将句子按照重要性得分排序,依据文本摘要的大小依次选取重要性得分从高到低的若干个句子组成摘要.这种算法在词频算法的基础上引入一个逆文档因子,它能够有效地区分出高频无效词,在一定基础上改进了一般词频算法.其后,基于 TF-IDF 的方法被广泛应用于单词的重要性识别[13,14,15,16]. ...
一种基于 TFIDF 方法的中文关键词抽取算法
1
2008
... 其他著名的方法有 TF-IDF(词频−逆向文件频率),它是由Salon最先提出的[12],这种统计的方法通过词频和逆向文件频率共同评估一个词在一个文件集或语料库中的重要程度,字词的重要性随着它在文件中出现的次数成正比增加,但同时会随着它在语料库中出现的频率成反比下降.利用 TF-IDF 生成文本摘要的基本思路是通过背景语料统计出各个词的 TF-IDF 值,将其作为重要性得分的权值,接着根据各个词的 TF-IDF 值累加求和计算得到段落中各个句子的TF-IDF值,将其作为该句的重要性得分,然后将句子按照重要性得分排序,依据文本摘要的大小依次选取重要性得分从高到低的若干个句子组成摘要.这种算法在词频算法的基础上引入一个逆文档因子,它能够有效地区分出高频无效词,在一定基础上改进了一般词频算法.其后,基于 TF-IDF 的方法被广泛应用于单词的重要性识别[13,14,15,16]. ...
An improved text feature weighting algorithm based on TFIDF
1
2011
... 其他著名的方法有 TF-IDF(词频−逆向文件频率),它是由Salon最先提出的[12],这种统计的方法通过词频和逆向文件频率共同评估一个词在一个文件集或语料库中的重要程度,字词的重要性随着它在文件中出现的次数成正比增加,但同时会随着它在语料库中出现的频率成反比下降.利用 TF-IDF 生成文本摘要的基本思路是通过背景语料统计出各个词的 TF-IDF 值,将其作为重要性得分的权值,接着根据各个词的 TF-IDF 值累加求和计算得到段落中各个句子的TF-IDF值,将其作为该句的重要性得分,然后将句子按照重要性得分排序,依据文本摘要的大小依次选取重要性得分从高到低的若干个句子组成摘要.这种算法在词频算法的基础上引入一个逆文档因子,它能够有效地区分出高频无效词,在一定基础上改进了一般词频算法.其后,基于 TF-IDF 的方法被广泛应用于单词的重要性识别[13,14,15,16]. ...
一种改进的 TFIDF 网页关键词提取方法
1
2011
... 其他著名的方法有 TF-IDF(词频−逆向文件频率),它是由Salon最先提出的[12],这种统计的方法通过词频和逆向文件频率共同评估一个词在一个文件集或语料库中的重要程度,字词的重要性随着它在文件中出现的次数成正比增加,但同时会随着它在语料库中出现的频率成反比下降.利用 TF-IDF 生成文本摘要的基本思路是通过背景语料统计出各个词的 TF-IDF 值,将其作为重要性得分的权值,接着根据各个词的 TF-IDF 值累加求和计算得到段落中各个句子的TF-IDF值,将其作为该句的重要性得分,然后将句子按照重要性得分排序,依据文本摘要的大小依次选取重要性得分从高到低的若干个句子组成摘要.这种算法在词频算法的基础上引入一个逆文档因子,它能够有效地区分出高频无效词,在一定基础上改进了一般词频算法.其后,基于 TF-IDF 的方法被广泛应用于单词的重要性识别[13,14,15,16]. ...
一种改进的 TFIDF 网页关键词提取方法
1
2011
... 其他著名的方法有 TF-IDF(词频−逆向文件频率),它是由Salon最先提出的[12],这种统计的方法通过词频和逆向文件频率共同评估一个词在一个文件集或语料库中的重要程度,字词的重要性随着它在文件中出现的次数成正比增加,但同时会随着它在语料库中出现的频率成反比下降.利用 TF-IDF 生成文本摘要的基本思路是通过背景语料统计出各个词的 TF-IDF 值,将其作为重要性得分的权值,接着根据各个词的 TF-IDF 值累加求和计算得到段落中各个句子的TF-IDF值,将其作为该句的重要性得分,然后将句子按照重要性得分排序,依据文本摘要的大小依次选取重要性得分从高到低的若干个句子组成摘要.这种算法在词频算法的基础上引入一个逆文档因子,它能够有效地区分出高频无效词,在一定基础上改进了一般词频算法.其后,基于 TF-IDF 的方法被广泛应用于单词的重要性识别[13,14,15,16]. ...
Kp-miner:participation in semeval-2
1
2010
... El-Beltagy等[17]提出了提取关键词性能最好的系统 SemEval2010,它利用词频等统计特征过滤不可能是关键词的短语,然后结合 TF-IDF 模型减小对特殊词的影响,并对候选短语进行排序选出文摘句.Danesh等[18]基于统计启发式算法(如TF-IDF分数和文档中短语的第一个位置)的组合计算每个短语的初始权重. 然后将短语及其初始权重联合,基于图表的算法产生候选关键词的最终排序.Florescu等[19]在Danesh等的基础上进行了改进,它不仅仅考虑文中每个词在句子中首次出现的位置,还将每个单词在句子中出现的所有位置信息进行聚合来计算相应的词权重,进一步改进统计学特征中词句位置因素对其重要性的影响,在一定程度上改良了文本摘要的质量水平.Padmalahari 等[20]综合统计特征和语言特征对句子赋予权重,使用连续阈值从给定的输入文本文档中找出重要句子构成文本摘要,摘要质量得到了有效提升. ...
Sgrank:combining statistical and graphical methods to improve the state of the art in unsupervised keyphrase extraction
1
2015
... El-Beltagy等[17]提出了提取关键词性能最好的系统 SemEval2010,它利用词频等统计特征过滤不可能是关键词的短语,然后结合 TF-IDF 模型减小对特殊词的影响,并对候选短语进行排序选出文摘句.Danesh等[18]基于统计启发式算法(如TF-IDF分数和文档中短语的第一个位置)的组合计算每个短语的初始权重. 然后将短语及其初始权重联合,基于图表的算法产生候选关键词的最终排序.Florescu等[19]在Danesh等的基础上进行了改进,它不仅仅考虑文中每个词在句子中首次出现的位置,还将每个单词在句子中出现的所有位置信息进行聚合来计算相应的词权重,进一步改进统计学特征中词句位置因素对其重要性的影响,在一定程度上改良了文本摘要的质量水平.Padmalahari 等[20]综合统计特征和语言特征对句子赋予权重,使用连续阈值从给定的输入文本文档中找出重要句子构成文本摘要,摘要质量得到了有效提升. ...
Position Rank:an unsupervised approach to keyphrase extraction from scholarly documents
1
2017
... El-Beltagy等[17]提出了提取关键词性能最好的系统 SemEval2010,它利用词频等统计特征过滤不可能是关键词的短语,然后结合 TF-IDF 模型减小对特殊词的影响,并对候选短语进行排序选出文摘句.Danesh等[18]基于统计启发式算法(如TF-IDF分数和文档中短语的第一个位置)的组合计算每个短语的初始权重. 然后将短语及其初始权重联合,基于图表的算法产生候选关键词的最终排序.Florescu等[19]在Danesh等的基础上进行了改进,它不仅仅考虑文中每个词在句子中首次出现的位置,还将每个单词在句子中出现的所有位置信息进行聚合来计算相应的词权重,进一步改进统计学特征中词句位置因素对其重要性的影响,在一定程度上改良了文本摘要的质量水平.Padmalahari 等[20]综合统计特征和语言特征对句子赋予权重,使用连续阈值从给定的输入文本文档中找出重要句子构成文本摘要,摘要质量得到了有效提升. ...
Automatic text summarization with statistical and linguistic features using successive thresholds
1
2014
... El-Beltagy等[17]提出了提取关键词性能最好的系统 SemEval2010,它利用词频等统计特征过滤不可能是关键词的短语,然后结合 TF-IDF 模型减小对特殊词的影响,并对候选短语进行排序选出文摘句.Danesh等[18]基于统计启发式算法(如TF-IDF分数和文档中短语的第一个位置)的组合计算每个短语的初始权重. 然后将短语及其初始权重联合,基于图表的算法产生候选关键词的最终排序.Florescu等[19]在Danesh等的基础上进行了改进,它不仅仅考虑文中每个词在句子中首次出现的位置,还将每个单词在句子中出现的所有位置信息进行聚合来计算相应的词权重,进一步改进统计学特征中词句位置因素对其重要性的影响,在一定程度上改良了文本摘要的质量水平.Padmalahari 等[20]综合统计特征和语言特征对句子赋予权重,使用连续阈值从给定的输入文本文档中找出重要句子构成文本摘要,摘要质量得到了有效提升. ...
Word Net:a lexical database for English
2
1995
... 1995 年,Miller[21]提出了利用生成词汇链的方法来生成摘要,这种方法主要通过对文章的内容进行自然语言分析处理来生成摘要.首先选定候选词的集合,然后根据词汇链之间的相关程度,为每一个候选词选择相应的词汇链,如果候选词与该词汇链之间的相关程度比较高,则将候选词添加到该词汇链中.最后依据词汇链的长度与一致性对其进行综合评分,通过一些启发式方法选取若干词汇链生成最后所需要的摘要.Barzilay等[22]基于词汇链的摘要方法做出了创新改进,不再用单个词作为分析单元,而是通过WordNet[21,23]、词性标注工具等对词义进行分析,将原文档中与某个主题相关的词汇集合起来,构成词汇链,词汇链重要性表达式如下. ...
... [21,23]、词性标注工具等对词义进行分析,将原文档中与某个主题相关的词汇集合起来,构成词汇链,词汇链重要性表达式如下. ...
Using lexical chains for text summarization
1
1999
... 1995 年,Miller[21]提出了利用生成词汇链的方法来生成摘要,这种方法主要通过对文章的内容进行自然语言分析处理来生成摘要.首先选定候选词的集合,然后根据词汇链之间的相关程度,为每一个候选词选择相应的词汇链,如果候选词与该词汇链之间的相关程度比较高,则将候选词添加到该词汇链中.最后依据词汇链的长度与一致性对其进行综合评分,通过一些启发式方法选取若干词汇链生成最后所需要的摘要.Barzilay等[22]基于词汇链的摘要方法做出了创新改进,不再用单个词作为分析单元,而是通过WordNet[21,23]、词性标注工具等对词义进行分析,将原文档中与某个主题相关的词汇集合起来,构成词汇链,词汇链重要性表达式如下. ...
Summarizing long historical documents using significance and utility calculation using Word Net
1
2017
... 1995 年,Miller[21]提出了利用生成词汇链的方法来生成摘要,这种方法主要通过对文章的内容进行自然语言分析处理来生成摘要.首先选定候选词的集合,然后根据词汇链之间的相关程度,为每一个候选词选择相应的词汇链,如果候选词与该词汇链之间的相关程度比较高,则将候选词添加到该词汇链中.最后依据词汇链的长度与一致性对其进行综合评分,通过一些启发式方法选取若干词汇链生成最后所需要的摘要.Barzilay等[22]基于词汇链的摘要方法做出了创新改进,不再用单个词作为分析单元,而是通过WordNet[21,23]、词性标注工具等对词义进行分析,将原文档中与某个主题相关的词汇集合起来,构成词汇链,词汇链重要性表达式如下. ...
Efficient text summarization using lexical chains
1
2000
... 选择出强词汇链.确定强词汇链后,通过制定的3 条启发式的规则,为每一个强词汇链抽取一个句子形成最后的摘要.在此基础上,后来还提出了结合修辞结构、修辞学理论等一系列方法对词汇链方法进行改进[24,25,26].由于传统的词汇链只考虑名词而忽略其他语法部分的信息导致准确率较低,Hou等[27]在此基础上做了进一步改进优化,分别引入谓词和形容词(副词)的词汇链,三者一起构成全息词汇链(holographic lexical chain)用于中文文本摘要,准确率取得了显著性的提高.Lynn等[28]通过对常规的词汇链进行增强改进,引入文本中关键词的3个不同文本特征来产生更好的文本相关信息,取得了良好的提升效果. ...
Automatic text summarization using lexical chains:algorithms and experiments
1
2004
... 选择出强词汇链.确定强词汇链后,通过制定的3 条启发式的规则,为每一个强词汇链抽取一个句子形成最后的摘要.在此基础上,后来还提出了结合修辞结构、修辞学理论等一系列方法对词汇链方法进行改进[24,25,26].由于传统的词汇链只考虑名词而忽略其他语法部分的信息导致准确率较低,Hou等[27]在此基础上做了进一步改进优化,分别引入谓词和形容词(副词)的词汇链,三者一起构成全息词汇链(holographic lexical chain)用于中文文本摘要,准确率取得了显著性的提高.Lynn等[28]通过对常规的词汇链进行增强改进,引入文本中关键词的3个不同文本特征来产生更好的文本相关信息,取得了良好的提升效果. ...
Automated text summarization base on lexicales chain and graph using of wordnet and wikipedia knowledge base
1
2012
... 选择出强词汇链.确定强词汇链后,通过制定的3 条启发式的规则,为每一个强词汇链抽取一个句子形成最后的摘要.在此基础上,后来还提出了结合修辞结构、修辞学理论等一系列方法对词汇链方法进行改进[24,25,26].由于传统的词汇链只考虑名词而忽略其他语法部分的信息导致准确率较低,Hou等[27]在此基础上做了进一步改进优化,分别引入谓词和形容词(副词)的词汇链,三者一起构成全息词汇链(holographic lexical chain)用于中文文本摘要,准确率取得了显著性的提高.Lynn等[28]通过对常规的词汇链进行增强改进,引入文本中关键词的3个不同文本特征来产生更好的文本相关信息,取得了良好的提升效果. ...
Holographic lexical chain and its application in chinese text summarization
1
2017
... 选择出强词汇链.确定强词汇链后,通过制定的3 条启发式的规则,为每一个强词汇链抽取一个句子形成最后的摘要.在此基础上,后来还提出了结合修辞结构、修辞学理论等一系列方法对词汇链方法进行改进[24,25,26].由于传统的词汇链只考虑名词而忽略其他语法部分的信息导致准确率较低,Hou等[27]在此基础上做了进一步改进优化,分别引入谓词和形容词(副词)的词汇链,三者一起构成全息词汇链(holographic lexical chain)用于中文文本摘要,准确率取得了显著性的提高.Lynn等[28]通过对常规的词汇链进行增强改进,引入文本中关键词的3个不同文本特征来产生更好的文本相关信息,取得了良好的提升效果. ...
An improved method of automatic text summarization for Web contents using lexical chain with semantic-related terms
1
2018
... 选择出强词汇链.确定强词汇链后,通过制定的3 条启发式的规则,为每一个强词汇链抽取一个句子形成最后的摘要.在此基础上,后来还提出了结合修辞结构、修辞学理论等一系列方法对词汇链方法进行改进[24,25,26].由于传统的词汇链只考虑名词而忽略其他语法部分的信息导致准确率较低,Hou等[27]在此基础上做了进一步改进优化,分别引入谓词和形容词(副词)的词汇链,三者一起构成全息词汇链(holographic lexical chain)用于中文文本摘要,准确率取得了显著性的提高.Lynn等[28]通过对常规的词汇链进行增强改进,引入文本中关键词的3个不同文本特征来产生更好的文本相关信息,取得了良好的提升效果. ...
An approach to automatic text summarization using Word Net
1
2014
... 基于WordNet语义词典对单词的语义进行分析的方法,通过Lesk算法从特定的情景中找到单词的实际意思[29],接着使用简化Lesk算法分别分析文本中所有句子的权重,并根据其权重按降序排列.然后根据给定的摘要比例,从有序列表中选择特定数量的句子生成摘要.虽然此类方法基于词的全局性和语义关系等多种属性来判断句子的重要性,改进了简单统计方法未充分利用词间关系、词义关系等特征的不足,但由于受限于当时的技术,该方法对原文档的分析还停留在比较浅的层面. ...
The Page Rank citation ranking:bringing order to the Web
1
1999
... 互联网网页上的文档具有较松散且涉及主题较多的结构特点,在此基础上,研究出了一些专门针对生成网页文档摘要的自动摘要技术,就是基于图排序的文本摘要的方法.基于图排序的文本摘要生成的主要方法是通过把文章分成若干个段落或句子的集合,每个集合对应一个图的顶点,集合之间的关系对应边,最后通过图排序的算法(如PageRank[30]、HITS[31]等)计算各个顶点最后的得分,然后依据得分高低生成文本摘要. ...
The Web as a graph:measurements,models,and methods
1
1999
... 互联网网页上的文档具有较松散且涉及主题较多的结构特点,在此基础上,研究出了一些专门针对生成网页文档摘要的自动摘要技术,就是基于图排序的文本摘要的方法.基于图排序的文本摘要生成的主要方法是通过把文章分成若干个段落或句子的集合,每个集合对应一个图的顶点,集合之间的关系对应边,最后通过图排序的算法(如PageRank[30]、HITS[31]等)计算各个顶点最后的得分,然后依据得分高低生成文本摘要. ...
Graph-based ranking algorithms for sentence extraction,applied to text summarization
1
2004
... 最先,Mihalcea[32]使用PageRank算法及其改进的算法 TextRank 提取关键词和关键句子来生成文档摘要.在这个方法中,他们将单词或句子作为图的顶点,将词或句子之间的相似度作为图顶点之间的连边.句子之间的相似度单纯由句子之间内容重叠部分的多少决定,相似度通过计算2 个句子之间共同单词的数量得到.对于提取关键句子的部分,由于考虑到长句所包含的信息量大,覆盖的内容较多,导致长句得分普遍比短句高,因此对长句进行相应的惩罚,将计算的得分值除去句子的长度得到相似度值,即边的权值.当2个顶点之间相似度大于零时,则存在一条边将2个顶点连接起来,边的权值也就是顶点之间的相似度数值;当2个顶点之间相似度为零时,则顶点之间不存在连边的关系.几种基本的图模型包括有向无权图、有向加权图、无向加权图、无向无权图.对于有向图,边的方向是依据文档句子的顺序,对于所有的图,边的权值都是句子或词之间的相似度.基于这些图模型,依据PageRank、HITS以及TextRank等算法对句子的得分进行计算,按照句子得分的高低选择合适数量的句子生成摘要.Wan等[33]将TextRank扩展到SingleRank,通过在可变大小w≥2的窗口中共同出现的单词之间引入加权边.ExpandRank中包含类似的相邻文档以计算更准确字共现信息.Gollapalli 等[34]扩展了 ExpandRank,整合来自引用网络的信息来研究关键词的提取,取得了超越当前最先进基线的良好实验效果. ...
Single document keyphrase extraction using neighborhood knowledge
1
2008
... 最先,Mihalcea[32]使用PageRank算法及其改进的算法 TextRank 提取关键词和关键句子来生成文档摘要.在这个方法中,他们将单词或句子作为图的顶点,将词或句子之间的相似度作为图顶点之间的连边.句子之间的相似度单纯由句子之间内容重叠部分的多少决定,相似度通过计算2 个句子之间共同单词的数量得到.对于提取关键句子的部分,由于考虑到长句所包含的信息量大,覆盖的内容较多,导致长句得分普遍比短句高,因此对长句进行相应的惩罚,将计算的得分值除去句子的长度得到相似度值,即边的权值.当2个顶点之间相似度大于零时,则存在一条边将2个顶点连接起来,边的权值也就是顶点之间的相似度数值;当2个顶点之间相似度为零时,则顶点之间不存在连边的关系.几种基本的图模型包括有向无权图、有向加权图、无向加权图、无向无权图.对于有向图,边的方向是依据文档句子的顺序,对于所有的图,边的权值都是句子或词之间的相似度.基于这些图模型,依据PageRank、HITS以及TextRank等算法对句子的得分进行计算,按照句子得分的高低选择合适数量的句子生成摘要.Wan等[33]将TextRank扩展到SingleRank,通过在可变大小w≥2的窗口中共同出现的单词之间引入加权边.ExpandRank中包含类似的相邻文档以计算更准确字共现信息.Gollapalli 等[34]扩展了 ExpandRank,整合来自引用网络的信息来研究关键词的提取,取得了超越当前最先进基线的良好实验效果. ...
Extracting keyphrases from research papers using citation networks
1
2014
... 最先,Mihalcea[32]使用PageRank算法及其改进的算法 TextRank 提取关键词和关键句子来生成文档摘要.在这个方法中,他们将单词或句子作为图的顶点,将词或句子之间的相似度作为图顶点之间的连边.句子之间的相似度单纯由句子之间内容重叠部分的多少决定,相似度通过计算2 个句子之间共同单词的数量得到.对于提取关键句子的部分,由于考虑到长句所包含的信息量大,覆盖的内容较多,导致长句得分普遍比短句高,因此对长句进行相应的惩罚,将计算的得分值除去句子的长度得到相似度值,即边的权值.当2个顶点之间相似度大于零时,则存在一条边将2个顶点连接起来,边的权值也就是顶点之间的相似度数值;当2个顶点之间相似度为零时,则顶点之间不存在连边的关系.几种基本的图模型包括有向无权图、有向加权图、无向加权图、无向无权图.对于有向图,边的方向是依据文档句子的顺序,对于所有的图,边的权值都是句子或词之间的相似度.基于这些图模型,依据PageRank、HITS以及TextRank等算法对句子的得分进行计算,按照句子得分的高低选择合适数量的句子生成摘要.Wan等[33]将TextRank扩展到SingleRank,通过在可变大小w≥2的窗口中共同出现的单词之间引入加权边.ExpandRank中包含类似的相邻文档以计算更准确字共现信息.Gollapalli 等[34]扩展了 ExpandRank,整合来自引用网络的信息来研究关键词的提取,取得了超越当前最先进基线的良好实验效果. ...
Abstractive text summarization based on improved semantic graph approach
1
2018
... Khan 等[35]提出了一种多文档生成式摘要的改进语义图排序算法,它是从源文档中以图节点表示的方式构建谓词变元结构(PAS,predicate argument structures)的句子语义结构,图边代表相似性权重,根据PAS语义相似度计算相似性权重,用改进的图排序算法对重要图节点排序,从中选取排名高的 PAS 生成摘要句子.Al-Khassawneh 等[36]提出了一种基于混合图的单文档抽取摘要技术,将余弦相似度(sim1)、Jaccard相似度(sim2)、基于词对齐的相似度(sim3)和基于窗口的相似性度量(sim4)4种不同的相似性度量结合创新了一种混合相似函数来用于计算图的权重,一定程度上改良了单纯基于TextRank字内容重叠计算权重的不足.其他图排序算法[37,38,39]都是基于各种方法计算图节点的权重,通过筛选出重要性程度高的节点来生成摘要,都在一定程度上提高了摘要的质量. ...
Improving triangle-graph based text summarization using hybrid similarity function
1
2017
... Khan 等[35]提出了一种多文档生成式摘要的改进语义图排序算法,它是从源文档中以图节点表示的方式构建谓词变元结构(PAS,predicate argument structures)的句子语义结构,图边代表相似性权重,根据PAS语义相似度计算相似性权重,用改进的图排序算法对重要图节点排序,从中选取排名高的 PAS 生成摘要句子.Al-Khassawneh 等[36]提出了一种基于混合图的单文档抽取摘要技术,将余弦相似度(sim1)、Jaccard相似度(sim2)、基于词对齐的相似度(sim3)和基于窗口的相似性度量(sim4)4种不同的相似性度量结合创新了一种混合相似函数来用于计算图的权重,一定程度上改良了单纯基于TextRank字内容重叠计算权重的不足.其他图排序算法[37,38,39]都是基于各种方法计算图节点的权重,通过筛选出重要性程度高的节点来生成摘要,都在一定程度上提高了摘要的质量. ...
A document-sensitive graph model for multi-document summarization
1
2010
... Khan 等[35]提出了一种多文档生成式摘要的改进语义图排序算法,它是从源文档中以图节点表示的方式构建谓词变元结构(PAS,predicate argument structures)的句子语义结构,图边代表相似性权重,根据PAS语义相似度计算相似性权重,用改进的图排序算法对重要图节点排序,从中选取排名高的 PAS 生成摘要句子.Al-Khassawneh 等[36]提出了一种基于混合图的单文档抽取摘要技术,将余弦相似度(sim1)、Jaccard相似度(sim2)、基于词对齐的相似度(sim3)和基于窗口的相似性度量(sim4)4种不同的相似性度量结合创新了一种混合相似函数来用于计算图的权重,一定程度上改良了单纯基于TextRank字内容重叠计算权重的不足.其他图排序算法[37,38,39]都是基于各种方法计算图节点的权重,通过筛选出重要性程度高的节点来生成摘要,都在一定程度上提高了摘要的质量. ...
Weighted graph model based sentence clustering and ranking for document summarization
1
2011
... Khan 等[35]提出了一种多文档生成式摘要的改进语义图排序算法,它是从源文档中以图节点表示的方式构建谓词变元结构(PAS,predicate argument structures)的句子语义结构,图边代表相似性权重,根据PAS语义相似度计算相似性权重,用改进的图排序算法对重要图节点排序,从中选取排名高的 PAS 生成摘要句子.Al-Khassawneh 等[36]提出了一种基于混合图的单文档抽取摘要技术,将余弦相似度(sim1)、Jaccard相似度(sim2)、基于词对齐的相似度(sim3)和基于窗口的相似性度量(sim4)4种不同的相似性度量结合创新了一种混合相似函数来用于计算图的权重,一定程度上改良了单纯基于TextRank字内容重叠计算权重的不足.其他图排序算法[37,38,39]都是基于各种方法计算图节点的权重,通过筛选出重要性程度高的节点来生成摘要,都在一定程度上提高了摘要的质量. ...
TSGVi:a graph-based summarization system for Vietnamese documents
1
2012
... Khan 等[35]提出了一种多文档生成式摘要的改进语义图排序算法,它是从源文档中以图节点表示的方式构建谓词变元结构(PAS,predicate argument structures)的句子语义结构,图边代表相似性权重,根据PAS语义相似度计算相似性权重,用改进的图排序算法对重要图节点排序,从中选取排名高的 PAS 生成摘要句子.Al-Khassawneh 等[36]提出了一种基于混合图的单文档抽取摘要技术,将余弦相似度(sim1)、Jaccard相似度(sim2)、基于词对齐的相似度(sim3)和基于窗口的相似性度量(sim4)4种不同的相似性度量结合创新了一种混合相似函数来用于计算图的权重,一定程度上改良了单纯基于TextRank字内容重叠计算权重的不足.其他图排序算法[37,38,39]都是基于各种方法计算图节点的权重,通过筛选出重要性程度高的节点来生成摘要,都在一定程度上提高了摘要的质量. ...
一种基于词共现图的文档自动摘要研究
1
2005
... 耿焕同等[40]利用句子之间的共同词汇,在节点关系图的基础上提出了一种基于词共现图的文本摘要生成的方法,并将条件概率的概念引入词共现矩阵中,用以构造词共现矩阵.该方法通过词共现图形成的主题信息以及不同主题之间的连接特征信息自动提取生成摘要. ...
一种基于词共现图的文档自动摘要研究
1
2005
... 耿焕同等[40]利用句子之间的共同词汇,在节点关系图的基础上提出了一种基于词共现图的文本摘要生成的方法,并将条件概率的概念引入词共现矩阵中,用以构造词共现矩阵.该方法通过词共现图形成的主题信息以及不同主题之间的连接特征信息自动提取生成摘要. ...
A modification to graph based approach for extraction based automatic text summarization
1
2018
... 基于PageRank、HITS以及TextRank[41]改进的图排序算法都是无监督的,它具有简单、语言弱相关及同时适合单文本和多文本等众多优点,无需手动标注数据集,相比有监督或半监督的深度学习的文本摘要方法,节省了一定的时间和人力.虽然它具有语言独立、不需要大量语料训练、节约时间等优点,但是由于无监督学习方法还没有充分挖掘和利用数据之间的关系,所以虽然文本摘要的效果和质量有所提升,但是对数据利用不够充分,存在局限性,之后的基于有监督、半监督学习的文本摘要方法对数据进行了合理利用,相比无监督方法有显著的性能提升. ...
Text summarization using unsupervised deep learning
1
2017
... 机器学习的方法很好地利用了计算机强大的计算性能[42,43],借助统计学的知识理论,对海量的文本信息进行高效合理的建模,能够挖掘出隐藏在海量文本信息中的隐藏属性.这些机器学习的方法中使用较为广泛的有朴素贝叶斯算法[44,45]、隐马尔可夫算法[46]、决策树算法[47]等. ...
What is relevant in a text document? an interpretable machine learning approach
1
2017
... 机器学习的方法很好地利用了计算机强大的计算性能[42,43],借助统计学的知识理论,对海量的文本信息进行高效合理的建模,能够挖掘出隐藏在海量文本信息中的隐藏属性.这些机器学习的方法中使用较为广泛的有朴素贝叶斯算法[44,45]、隐马尔可夫算法[46]、决策树算法[47]等. ...
An optimization text summarization method based on naive bayes and topic word for single syllable language
1
2014
... 机器学习的方法很好地利用了计算机强大的计算性能[42,43],借助统计学的知识理论,对海量的文本信息进行高效合理的建模,能够挖掘出隐藏在海量文本信息中的隐藏属性.这些机器学习的方法中使用较为广泛的有朴素贝叶斯算法[44,45]、隐马尔可夫算法[46]、决策树算法[47]等. ...
Automatic text document summarization based on machine learning
1
2015
... 机器学习的方法很好地利用了计算机强大的计算性能[42,43],借助统计学的知识理论,对海量的文本信息进行高效合理的建模,能够挖掘出隐藏在海量文本信息中的隐藏属性.这些机器学习的方法中使用较为广泛的有朴素贝叶斯算法[44,45]、隐马尔可夫算法[46]、决策树算法[47]等. ...
Learning to generate coherent summary with discriminative hidden semi-markov model
1
2014
... 机器学习的方法很好地利用了计算机强大的计算性能[42,43],借助统计学的知识理论,对海量的文本信息进行高效合理的建模,能够挖掘出隐藏在海量文本信息中的隐藏属性.这些机器学习的方法中使用较为广泛的有朴素贝叶斯算法[44,45]、隐马尔可夫算法[46]、决策树算法[47]等. ...
A brief survey of text mining:classification,clustering and extraction techniques
1
2017
... 机器学习的方法很好地利用了计算机强大的计算性能[42,43],借助统计学的知识理论,对海量的文本信息进行高效合理的建模,能够挖掘出隐藏在海量文本信息中的隐藏属性.这些机器学习的方法中使用较为广泛的有朴素贝叶斯算法[44,45]、隐马尔可夫算法[46]、决策树算法[47]等. ...
A trainable document summarizer
1
1995
... Kupiec等[48]首次将统计机器学习的方法应用于文本摘要领域,他们选取了主题词特征、大写词特征、线索短语特征、句子长度特征、段落特征五大类特征,并认为这些特征之间是相互独立互不影响的.该方法在21种科技期刊中随机选择了188 篇文章进行人工撰写摘要作为训练所需的语料,使用贝叶斯分类的方法训练得到一个分类器用以给句子的重要性进行评分.Kupiec提出了一种通过朴素贝叶斯分类模型的新方法判定文档中的某一个句子是否应该被选取作为摘要.在他提出的方法中,假设 s 是其中某一个句子,S 是组成摘要的句子的集合,是文本中的k个特征,假设这些特征两两之间是相互独立的,表达式如下. ...
Text summarization via hidden markov models
1
2001
... Conroy 等[49]提出了隐马尔可夫模型的摘要算法,该算法通过使用文档中的一些特征(如句子位置、句内词数以及句子中词语与文档中词语的相似度等)来计算句子得分,然后依据句子得分生成文本摘要.Lin 等[50]假设用于生成摘要的文档的各种特征之间是相互的,他们提出了决策树的算法来替代之前提出的贝叶斯分类模型来对句子进行评分,从中依次选取评分最高的若干句子生成摘要. ...
Training a selection function for extraction
1
1999
... Conroy 等[49]提出了隐马尔可夫模型的摘要算法,该算法通过使用文档中的一些特征(如句子位置、句内词数以及句子中词语与文档中词语的相似度等)来计算句子得分,然后依据句子得分生成文本摘要.Lin 等[50]假设用于生成摘要的文档的各种特征之间是相互的,他们提出了决策树的算法来替代之前提出的贝叶斯分类模型来对句子进行评分,从中依次选取评分最高的若干句子生成摘要. ...
A fast learning algorithm for deep belief nets
1
2006
... 深度学习是利用多层感知器结构对非线性信息进行处理的一种学习方法.Hinton等[51]首先提出了深度置信网络和相应的高效学习算法,该算法具有无监督学习的能力,降低了对人工的依赖,可以较为高效地进行训练,之后深度学习发展都是在此基础上进行改进的. ...
Semantic specialisation of distributional word vector spaces using monolingual and cross-lingual constraints
1
2017
... 要将自然语言处理的问题转化成为一个机器学习的问题,首先需要让机器能够理解自然语言,所以第一步就是将自然语言转化为机器可以理解的语言,于是想到将它进行符号数学化,为了能表示多维特征,增强其泛化能力,想到用向量对其进行表示,因此也就引出了对词向量[52,53]、句向量的研究[54].但是词向量和句向量的生成仍然具有一定的难度,将文本中不同单词、句子用词向量或句向量进行唯一的表示,这样可以方便其在自然语言处理过程中进行各种操作变换和计算.虽然现在看来将文本中的词、句转化成唯一对应的词、句向量还具有相当大的难度,但由于其在自然语言理解中是关键的一步,因此这将是今后研究中亟待解决的问题和重点研究的方向之一. ...
Paragraph vector representation based on word to vector and CNN learning
1
2018
... 要将自然语言处理的问题转化成为一个机器学习的问题,首先需要让机器能够理解自然语言,所以第一步就是将自然语言转化为机器可以理解的语言,于是想到将它进行符号数学化,为了能表示多维特征,增强其泛化能力,想到用向量对其进行表示,因此也就引出了对词向量[52,53]、句向量的研究[54].但是词向量和句向量的生成仍然具有一定的难度,将文本中不同单词、句子用词向量或句向量进行唯一的表示,这样可以方便其在自然语言处理过程中进行各种操作变换和计算.虽然现在看来将文本中的词、句转化成唯一对应的词、句向量还具有相当大的难度,但由于其在自然语言理解中是关键的一步,因此这将是今后研究中亟待解决的问题和重点研究的方向之一. ...
Sentence vector model based on implicit word vector expression
1
2018
... 要将自然语言处理的问题转化成为一个机器学习的问题,首先需要让机器能够理解自然语言,所以第一步就是将自然语言转化为机器可以理解的语言,于是想到将它进行符号数学化,为了能表示多维特征,增强其泛化能力,想到用向量对其进行表示,因此也就引出了对词向量[52,53]、句向量的研究[54].但是词向量和句向量的生成仍然具有一定的难度,将文本中不同单词、句子用词向量或句向量进行唯一的表示,这样可以方便其在自然语言处理过程中进行各种操作变换和计算.虽然现在看来将文本中的词、句转化成唯一对应的词、句向量还具有相当大的难度,但由于其在自然语言理解中是关键的一步,因此这将是今后研究中亟待解决的问题和重点研究的方向之一. ...
Sequence to sequence learning with neural networks
1
2014
... Seqence-to-Sequence模型[55]广泛应用于机器翻译、语音识别、视频图片处理、文本摘要等多个领域.现在最新的一些基于深度学习研究文本摘要生成方法的也都是基于这个模型进行的.基于Seqence-to-Sequence模型的文本摘要需要解决的问题是从原文本到摘要文本的映射问题.摘要相对于原文具有大量的信息损失,而且摘要长度并不会依赖于原文本的长度,所以,如何用简短精炼的文字概括描述一段长文本是文本摘要需要解决的问题.最先是基于递归神经网络(RNN)的Seqence-to-Sequence模型用于文本摘要起到了一定的效果[56],之后考虑到RNN具有长程依赖性,为了减小长程依赖性,提出了基于长短时记忆网络(LSTM)的Seqence-to-Sequence模型用于文本摘要的生成.考虑到句子中的某些特定词或特定词性的词更具有影响句子中心意思的作用,引入了广泛应用于机器翻译中的注意力机制(attention mechanism)[57]对句子的不同部分赋予不同的偏重,即权重.Rush 等[57]在这个基础上提出基于注意力模型的生成式文本摘要,在DUC-2004数据集上显示出了优良的性能提升.Rush 等首次将深度学习应用于文本摘要的生成,他们基于Seqence-to-Sequence模型,将卷积模型应用于对原文档进行编码,然后利用上下文之间的注意力前馈神经网络生成摘要,在当时取得了很好的效果.Chopra等[58]同样利用卷积模型对原文档进行编码,但使用递归神经网络作为解码器解码输出,取得良好的改进效果,大大提高了文本摘要的质量.Ramesh 等[59]将综合的 RNN[58]和 attention 机制的Seqence-to-Sequence模型用于生成文本摘要[60],在文本摘要的准确性和可读性上取得了很大的提高.See 等[61]利用注意力模型相对分心机制来缓解重复出现的冗余词句的权重,降低注意力权值大小达到去除冗余信息的效果,从而大大提高了文本摘要的新颖性.2016年,谷歌也开源了基于TensorFlow[62]的一个自动摘要模块 Textsum,该模块也是利用Seqence-to-Sequence模型,基于深度学习的方法自动生成新闻标题,在质量和准确度上都取得了良好的效果.Sutskever等[63]考虑到RNN具有长程依赖性,为了减轻长程依赖的影响,将RNN用LSTM网络进行了替换,在此基础上取得了良好的改进.最近Facebook尝试把CNN引入自然语言处理中,由于CNN不能处理变长的序列,在这之前CNN都只应用于图片视频领域的处理,恰巧Seqence-to-Sequence模型可以很好地处理变长序列问题,所以综合CNN与Seqence-to-Sequence模型, Gehring 等[64]提出了基于 CNN 的 Seqence-to- Sequence模型,成功应用于机器翻译领域,取得了比之前模型应用更优的结果,准确度超过了之前其他的所有模型.这同样也是一个启示,是否能够将基于CNN的Seqence-to-Sequence模型成功应用到文本摘要的领域取得最优的结果?这也是接下来要研究的一个问题.Liu [65]将广泛应用于图像领域的生成对抗网络(GAN,generative adversarial networks)[66]借用于文本摘要领域取得了显著成效,提出了一种生成式文本摘要的生成对抗过程,在这个过程中,同时训练一个生成模型G和一个判别模型D.生成器通过文本的输入来预测生成摘要,判别器则试图将机器生成的摘要与真实摘要进行区分.在这个博弈过程中,双方不断提高性能,最后利用训练得到的生成器生成与真实摘要基本吻合的机器摘要. ...
Sequence-to-sequence rnns for text summarization
1
2016
... Seqence-to-Sequence模型[55]广泛应用于机器翻译、语音识别、视频图片处理、文本摘要等多个领域.现在最新的一些基于深度学习研究文本摘要生成方法的也都是基于这个模型进行的.基于Seqence-to-Sequence模型的文本摘要需要解决的问题是从原文本到摘要文本的映射问题.摘要相对于原文具有大量的信息损失,而且摘要长度并不会依赖于原文本的长度,所以,如何用简短精炼的文字概括描述一段长文本是文本摘要需要解决的问题.最先是基于递归神经网络(RNN)的Seqence-to-Sequence模型用于文本摘要起到了一定的效果[56],之后考虑到RNN具有长程依赖性,为了减小长程依赖性,提出了基于长短时记忆网络(LSTM)的Seqence-to-Sequence模型用于文本摘要的生成.考虑到句子中的某些特定词或特定词性的词更具有影响句子中心意思的作用,引入了广泛应用于机器翻译中的注意力机制(attention mechanism)[57]对句子的不同部分赋予不同的偏重,即权重.Rush 等[57]在这个基础上提出基于注意力模型的生成式文本摘要,在DUC-2004数据集上显示出了优良的性能提升.Rush 等首次将深度学习应用于文本摘要的生成,他们基于Seqence-to-Sequence模型,将卷积模型应用于对原文档进行编码,然后利用上下文之间的注意力前馈神经网络生成摘要,在当时取得了很好的效果.Chopra等[58]同样利用卷积模型对原文档进行编码,但使用递归神经网络作为解码器解码输出,取得良好的改进效果,大大提高了文本摘要的质量.Ramesh 等[59]将综合的 RNN[58]和 attention 机制的Seqence-to-Sequence模型用于生成文本摘要[60],在文本摘要的准确性和可读性上取得了很大的提高.See 等[61]利用注意力模型相对分心机制来缓解重复出现的冗余词句的权重,降低注意力权值大小达到去除冗余信息的效果,从而大大提高了文本摘要的新颖性.2016年,谷歌也开源了基于TensorFlow[62]的一个自动摘要模块 Textsum,该模块也是利用Seqence-to-Sequence模型,基于深度学习的方法自动生成新闻标题,在质量和准确度上都取得了良好的效果.Sutskever等[63]考虑到RNN具有长程依赖性,为了减轻长程依赖的影响,将RNN用LSTM网络进行了替换,在此基础上取得了良好的改进.最近Facebook尝试把CNN引入自然语言处理中,由于CNN不能处理变长的序列,在这之前CNN都只应用于图片视频领域的处理,恰巧Seqence-to-Sequence模型可以很好地处理变长序列问题,所以综合CNN与Seqence-to-Sequence模型, Gehring 等[64]提出了基于 CNN 的 Seqence-to- Sequence模型,成功应用于机器翻译领域,取得了比之前模型应用更优的结果,准确度超过了之前其他的所有模型.这同样也是一个启示,是否能够将基于CNN的Seqence-to-Sequence模型成功应用到文本摘要的领域取得最优的结果?这也是接下来要研究的一个问题.Liu [65]将广泛应用于图像领域的生成对抗网络(GAN,generative adversarial networks)[66]借用于文本摘要领域取得了显著成效,提出了一种生成式文本摘要的生成对抗过程,在这个过程中,同时训练一个生成模型G和一个判别模型D.生成器通过文本的输入来预测生成摘要,判别器则试图将机器生成的摘要与真实摘要进行区分.在这个博弈过程中,双方不断提高性能,最后利用训练得到的生成器生成与真实摘要基本吻合的机器摘要. ...
A neural attention model for abstractive sentence summarization
2
2015
... Seqence-to-Sequence模型[55]广泛应用于机器翻译、语音识别、视频图片处理、文本摘要等多个领域.现在最新的一些基于深度学习研究文本摘要生成方法的也都是基于这个模型进行的.基于Seqence-to-Sequence模型的文本摘要需要解决的问题是从原文本到摘要文本的映射问题.摘要相对于原文具有大量的信息损失,而且摘要长度并不会依赖于原文本的长度,所以,如何用简短精炼的文字概括描述一段长文本是文本摘要需要解决的问题.最先是基于递归神经网络(RNN)的Seqence-to-Sequence模型用于文本摘要起到了一定的效果[56],之后考虑到RNN具有长程依赖性,为了减小长程依赖性,提出了基于长短时记忆网络(LSTM)的Seqence-to-Sequence模型用于文本摘要的生成.考虑到句子中的某些特定词或特定词性的词更具有影响句子中心意思的作用,引入了广泛应用于机器翻译中的注意力机制(attention mechanism)[57]对句子的不同部分赋予不同的偏重,即权重.Rush 等[57]在这个基础上提出基于注意力模型的生成式文本摘要,在DUC-2004数据集上显示出了优良的性能提升.Rush 等首次将深度学习应用于文本摘要的生成,他们基于Seqence-to-Sequence模型,将卷积模型应用于对原文档进行编码,然后利用上下文之间的注意力前馈神经网络生成摘要,在当时取得了很好的效果.Chopra等[58]同样利用卷积模型对原文档进行编码,但使用递归神经网络作为解码器解码输出,取得良好的改进效果,大大提高了文本摘要的质量.Ramesh 等[59]将综合的 RNN[58]和 attention 机制的Seqence-to-Sequence模型用于生成文本摘要[60],在文本摘要的准确性和可读性上取得了很大的提高.See 等[61]利用注意力模型相对分心机制来缓解重复出现的冗余词句的权重,降低注意力权值大小达到去除冗余信息的效果,从而大大提高了文本摘要的新颖性.2016年,谷歌也开源了基于TensorFlow[62]的一个自动摘要模块 Textsum,该模块也是利用Seqence-to-Sequence模型,基于深度学习的方法自动生成新闻标题,在质量和准确度上都取得了良好的效果.Sutskever等[63]考虑到RNN具有长程依赖性,为了减轻长程依赖的影响,将RNN用LSTM网络进行了替换,在此基础上取得了良好的改进.最近Facebook尝试把CNN引入自然语言处理中,由于CNN不能处理变长的序列,在这之前CNN都只应用于图片视频领域的处理,恰巧Seqence-to-Sequence模型可以很好地处理变长序列问题,所以综合CNN与Seqence-to-Sequence模型, Gehring 等[64]提出了基于 CNN 的 Seqence-to- Sequence模型,成功应用于机器翻译领域,取得了比之前模型应用更优的结果,准确度超过了之前其他的所有模型.这同样也是一个启示,是否能够将基于CNN的Seqence-to-Sequence模型成功应用到文本摘要的领域取得最优的结果?这也是接下来要研究的一个问题.Liu [65]将广泛应用于图像领域的生成对抗网络(GAN,generative adversarial networks)[66]借用于文本摘要领域取得了显著成效,提出了一种生成式文本摘要的生成对抗过程,在这个过程中,同时训练一个生成模型G和一个判别模型D.生成器通过文本的输入来预测生成摘要,判别器则试图将机器生成的摘要与真实摘要进行区分.在这个博弈过程中,双方不断提高性能,最后利用训练得到的生成器生成与真实摘要基本吻合的机器摘要. ...
... [57]在这个基础上提出基于注意力模型的生成式文本摘要,在DUC-2004数据集上显示出了优良的性能提升.Rush 等首次将深度学习应用于文本摘要的生成,他们基于Seqence-to-Sequence模型,将卷积模型应用于对原文档进行编码,然后利用上下文之间的注意力前馈神经网络生成摘要,在当时取得了很好的效果.Chopra等[58]同样利用卷积模型对原文档进行编码,但使用递归神经网络作为解码器解码输出,取得良好的改进效果,大大提高了文本摘要的质量.Ramesh 等[59]将综合的 RNN[58]和 attention 机制的Seqence-to-Sequence模型用于生成文本摘要[60],在文本摘要的准确性和可读性上取得了很大的提高.See 等[61]利用注意力模型相对分心机制来缓解重复出现的冗余词句的权重,降低注意力权值大小达到去除冗余信息的效果,从而大大提高了文本摘要的新颖性.2016年,谷歌也开源了基于TensorFlow[62]的一个自动摘要模块 Textsum,该模块也是利用Seqence-to-Sequence模型,基于深度学习的方法自动生成新闻标题,在质量和准确度上都取得了良好的效果.Sutskever等[63]考虑到RNN具有长程依赖性,为了减轻长程依赖的影响,将RNN用LSTM网络进行了替换,在此基础上取得了良好的改进.最近Facebook尝试把CNN引入自然语言处理中,由于CNN不能处理变长的序列,在这之前CNN都只应用于图片视频领域的处理,恰巧Seqence-to-Sequence模型可以很好地处理变长序列问题,所以综合CNN与Seqence-to-Sequence模型, Gehring 等[64]提出了基于 CNN 的 Seqence-to- Sequence模型,成功应用于机器翻译领域,取得了比之前模型应用更优的结果,准确度超过了之前其他的所有模型.这同样也是一个启示,是否能够将基于CNN的Seqence-to-Sequence模型成功应用到文本摘要的领域取得最优的结果?这也是接下来要研究的一个问题.Liu [65]将广泛应用于图像领域的生成对抗网络(GAN,generative adversarial networks)[66]借用于文本摘要领域取得了显著成效,提出了一种生成式文本摘要的生成对抗过程,在这个过程中,同时训练一个生成模型G和一个判别模型D.生成器通过文本的输入来预测生成摘要,判别器则试图将机器生成的摘要与真实摘要进行区分.在这个博弈过程中,双方不断提高性能,最后利用训练得到的生成器生成与真实摘要基本吻合的机器摘要. ...
Abstractive sentence summarization with attentive recurrent neural networks
2
2016
... Seqence-to-Sequence模型[55]广泛应用于机器翻译、语音识别、视频图片处理、文本摘要等多个领域.现在最新的一些基于深度学习研究文本摘要生成方法的也都是基于这个模型进行的.基于Seqence-to-Sequence模型的文本摘要需要解决的问题是从原文本到摘要文本的映射问题.摘要相对于原文具有大量的信息损失,而且摘要长度并不会依赖于原文本的长度,所以,如何用简短精炼的文字概括描述一段长文本是文本摘要需要解决的问题.最先是基于递归神经网络(RNN)的Seqence-to-Sequence模型用于文本摘要起到了一定的效果[56],之后考虑到RNN具有长程依赖性,为了减小长程依赖性,提出了基于长短时记忆网络(LSTM)的Seqence-to-Sequence模型用于文本摘要的生成.考虑到句子中的某些特定词或特定词性的词更具有影响句子中心意思的作用,引入了广泛应用于机器翻译中的注意力机制(attention mechanism)[57]对句子的不同部分赋予不同的偏重,即权重.Rush 等[57]在这个基础上提出基于注意力模型的生成式文本摘要,在DUC-2004数据集上显示出了优良的性能提升.Rush 等首次将深度学习应用于文本摘要的生成,他们基于Seqence-to-Sequence模型,将卷积模型应用于对原文档进行编码,然后利用上下文之间的注意力前馈神经网络生成摘要,在当时取得了很好的效果.Chopra等[58]同样利用卷积模型对原文档进行编码,但使用递归神经网络作为解码器解码输出,取得良好的改进效果,大大提高了文本摘要的质量.Ramesh 等[59]将综合的 RNN[58]和 attention 机制的Seqence-to-Sequence模型用于生成文本摘要[60],在文本摘要的准确性和可读性上取得了很大的提高.See 等[61]利用注意力模型相对分心机制来缓解重复出现的冗余词句的权重,降低注意力权值大小达到去除冗余信息的效果,从而大大提高了文本摘要的新颖性.2016年,谷歌也开源了基于TensorFlow[62]的一个自动摘要模块 Textsum,该模块也是利用Seqence-to-Sequence模型,基于深度学习的方法自动生成新闻标题,在质量和准确度上都取得了良好的效果.Sutskever等[63]考虑到RNN具有长程依赖性,为了减轻长程依赖的影响,将RNN用LSTM网络进行了替换,在此基础上取得了良好的改进.最近Facebook尝试把CNN引入自然语言处理中,由于CNN不能处理变长的序列,在这之前CNN都只应用于图片视频领域的处理,恰巧Seqence-to-Sequence模型可以很好地处理变长序列问题,所以综合CNN与Seqence-to-Sequence模型, Gehring 等[64]提出了基于 CNN 的 Seqence-to- Sequence模型,成功应用于机器翻译领域,取得了比之前模型应用更优的结果,准确度超过了之前其他的所有模型.这同样也是一个启示,是否能够将基于CNN的Seqence-to-Sequence模型成功应用到文本摘要的领域取得最优的结果?这也是接下来要研究的一个问题.Liu [65]将广泛应用于图像领域的生成对抗网络(GAN,generative adversarial networks)[66]借用于文本摘要领域取得了显著成效,提出了一种生成式文本摘要的生成对抗过程,在这个过程中,同时训练一个生成模型G和一个判别模型D.生成器通过文本的输入来预测生成摘要,判别器则试图将机器生成的摘要与真实摘要进行区分.在这个博弈过程中,双方不断提高性能,最后利用训练得到的生成器生成与真实摘要基本吻合的机器摘要. ...
... [58]和 attention 机制的Seqence-to-Sequence模型用于生成文本摘要[60],在文本摘要的准确性和可读性上取得了很大的提高.See 等[61]利用注意力模型相对分心机制来缓解重复出现的冗余词句的权重,降低注意力权值大小达到去除冗余信息的效果,从而大大提高了文本摘要的新颖性.2016年,谷歌也开源了基于TensorFlow[62]的一个自动摘要模块 Textsum,该模块也是利用Seqence-to-Sequence模型,基于深度学习的方法自动生成新闻标题,在质量和准确度上都取得了良好的效果.Sutskever等[63]考虑到RNN具有长程依赖性,为了减轻长程依赖的影响,将RNN用LSTM网络进行了替换,在此基础上取得了良好的改进.最近Facebook尝试把CNN引入自然语言处理中,由于CNN不能处理变长的序列,在这之前CNN都只应用于图片视频领域的处理,恰巧Seqence-to-Sequence模型可以很好地处理变长序列问题,所以综合CNN与Seqence-to-Sequence模型, Gehring 等[64]提出了基于 CNN 的 Seqence-to- Sequence模型,成功应用于机器翻译领域,取得了比之前模型应用更优的结果,准确度超过了之前其他的所有模型.这同样也是一个启示,是否能够将基于CNN的Seqence-to-Sequence模型成功应用到文本摘要的领域取得最优的结果?这也是接下来要研究的一个问题.Liu [65]将广泛应用于图像领域的生成对抗网络(GAN,generative adversarial networks)[66]借用于文本摘要领域取得了显著成效,提出了一种生成式文本摘要的生成对抗过程,在这个过程中,同时训练一个生成模型G和一个判别模型D.生成器通过文本的输入来预测生成摘要,判别器则试图将机器生成的摘要与真实摘要进行区分.在这个博弈过程中,双方不断提高性能,最后利用训练得到的生成器生成与真实摘要基本吻合的机器摘要. ...
Abstractive text summarization using sequence-to-sequence RNNS and beyond
1
2016
... Seqence-to-Sequence模型[55]广泛应用于机器翻译、语音识别、视频图片处理、文本摘要等多个领域.现在最新的一些基于深度学习研究文本摘要生成方法的也都是基于这个模型进行的.基于Seqence-to-Sequence模型的文本摘要需要解决的问题是从原文本到摘要文本的映射问题.摘要相对于原文具有大量的信息损失,而且摘要长度并不会依赖于原文本的长度,所以,如何用简短精炼的文字概括描述一段长文本是文本摘要需要解决的问题.最先是基于递归神经网络(RNN)的Seqence-to-Sequence模型用于文本摘要起到了一定的效果[56],之后考虑到RNN具有长程依赖性,为了减小长程依赖性,提出了基于长短时记忆网络(LSTM)的Seqence-to-Sequence模型用于文本摘要的生成.考虑到句子中的某些特定词或特定词性的词更具有影响句子中心意思的作用,引入了广泛应用于机器翻译中的注意力机制(attention mechanism)[57]对句子的不同部分赋予不同的偏重,即权重.Rush 等[57]在这个基础上提出基于注意力模型的生成式文本摘要,在DUC-2004数据集上显示出了优良的性能提升.Rush 等首次将深度学习应用于文本摘要的生成,他们基于Seqence-to-Sequence模型,将卷积模型应用于对原文档进行编码,然后利用上下文之间的注意力前馈神经网络生成摘要,在当时取得了很好的效果.Chopra等[58]同样利用卷积模型对原文档进行编码,但使用递归神经网络作为解码器解码输出,取得良好的改进效果,大大提高了文本摘要的质量.Ramesh 等[59]将综合的 RNN[58]和 attention 机制的Seqence-to-Sequence模型用于生成文本摘要[60],在文本摘要的准确性和可读性上取得了很大的提高.See 等[61]利用注意力模型相对分心机制来缓解重复出现的冗余词句的权重,降低注意力权值大小达到去除冗余信息的效果,从而大大提高了文本摘要的新颖性.2016年,谷歌也开源了基于TensorFlow[62]的一个自动摘要模块 Textsum,该模块也是利用Seqence-to-Sequence模型,基于深度学习的方法自动生成新闻标题,在质量和准确度上都取得了良好的效果.Sutskever等[63]考虑到RNN具有长程依赖性,为了减轻长程依赖的影响,将RNN用LSTM网络进行了替换,在此基础上取得了良好的改进.最近Facebook尝试把CNN引入自然语言处理中,由于CNN不能处理变长的序列,在这之前CNN都只应用于图片视频领域的处理,恰巧Seqence-to-Sequence模型可以很好地处理变长序列问题,所以综合CNN与Seqence-to-Sequence模型, Gehring 等[64]提出了基于 CNN 的 Seqence-to- Sequence模型,成功应用于机器翻译领域,取得了比之前模型应用更优的结果,准确度超过了之前其他的所有模型.这同样也是一个启示,是否能够将基于CNN的Seqence-to-Sequence模型成功应用到文本摘要的领域取得最优的结果?这也是接下来要研究的一个问题.Liu [65]将广泛应用于图像领域的生成对抗网络(GAN,generative adversarial networks)[66]借用于文本摘要领域取得了显著成效,提出了一种生成式文本摘要的生成对抗过程,在这个过程中,同时训练一个生成模型G和一个判别模型D.生成器通过文本的输入来预测生成摘要,判别器则试图将机器生成的摘要与真实摘要进行区分.在这个博弈过程中,双方不断提高性能,最后利用训练得到的生成器生成与真实摘要基本吻合的机器摘要. ...
Attsum:Joint learning of focusing and summarization with neural attention
1
2016
... Seqence-to-Sequence模型[55]广泛应用于机器翻译、语音识别、视频图片处理、文本摘要等多个领域.现在最新的一些基于深度学习研究文本摘要生成方法的也都是基于这个模型进行的.基于Seqence-to-Sequence模型的文本摘要需要解决的问题是从原文本到摘要文本的映射问题.摘要相对于原文具有大量的信息损失,而且摘要长度并不会依赖于原文本的长度,所以,如何用简短精炼的文字概括描述一段长文本是文本摘要需要解决的问题.最先是基于递归神经网络(RNN)的Seqence-to-Sequence模型用于文本摘要起到了一定的效果[56],之后考虑到RNN具有长程依赖性,为了减小长程依赖性,提出了基于长短时记忆网络(LSTM)的Seqence-to-Sequence模型用于文本摘要的生成.考虑到句子中的某些特定词或特定词性的词更具有影响句子中心意思的作用,引入了广泛应用于机器翻译中的注意力机制(attention mechanism)[57]对句子的不同部分赋予不同的偏重,即权重.Rush 等[57]在这个基础上提出基于注意力模型的生成式文本摘要,在DUC-2004数据集上显示出了优良的性能提升.Rush 等首次将深度学习应用于文本摘要的生成,他们基于Seqence-to-Sequence模型,将卷积模型应用于对原文档进行编码,然后利用上下文之间的注意力前馈神经网络生成摘要,在当时取得了很好的效果.Chopra等[58]同样利用卷积模型对原文档进行编码,但使用递归神经网络作为解码器解码输出,取得良好的改进效果,大大提高了文本摘要的质量.Ramesh 等[59]将综合的 RNN[58]和 attention 机制的Seqence-to-Sequence模型用于生成文本摘要[60],在文本摘要的准确性和可读性上取得了很大的提高.See 等[61]利用注意力模型相对分心机制来缓解重复出现的冗余词句的权重,降低注意力权值大小达到去除冗余信息的效果,从而大大提高了文本摘要的新颖性.2016年,谷歌也开源了基于TensorFlow[62]的一个自动摘要模块 Textsum,该模块也是利用Seqence-to-Sequence模型,基于深度学习的方法自动生成新闻标题,在质量和准确度上都取得了良好的效果.Sutskever等[63]考虑到RNN具有长程依赖性,为了减轻长程依赖的影响,将RNN用LSTM网络进行了替换,在此基础上取得了良好的改进.最近Facebook尝试把CNN引入自然语言处理中,由于CNN不能处理变长的序列,在这之前CNN都只应用于图片视频领域的处理,恰巧Seqence-to-Sequence模型可以很好地处理变长序列问题,所以综合CNN与Seqence-to-Sequence模型, Gehring 等[64]提出了基于 CNN 的 Seqence-to- Sequence模型,成功应用于机器翻译领域,取得了比之前模型应用更优的结果,准确度超过了之前其他的所有模型.这同样也是一个启示,是否能够将基于CNN的Seqence-to-Sequence模型成功应用到文本摘要的领域取得最优的结果?这也是接下来要研究的一个问题.Liu [65]将广泛应用于图像领域的生成对抗网络(GAN,generative adversarial networks)[66]借用于文本摘要领域取得了显著成效,提出了一种生成式文本摘要的生成对抗过程,在这个过程中,同时训练一个生成模型G和一个判别模型D.生成器通过文本的输入来预测生成摘要,判别器则试图将机器生成的摘要与真实摘要进行区分.在这个博弈过程中,双方不断提高性能,最后利用训练得到的生成器生成与真实摘要基本吻合的机器摘要. ...
Get to the point:summarization with pointer-generator networks
1
2017
... Seqence-to-Sequence模型[55]广泛应用于机器翻译、语音识别、视频图片处理、文本摘要等多个领域.现在最新的一些基于深度学习研究文本摘要生成方法的也都是基于这个模型进行的.基于Seqence-to-Sequence模型的文本摘要需要解决的问题是从原文本到摘要文本的映射问题.摘要相对于原文具有大量的信息损失,而且摘要长度并不会依赖于原文本的长度,所以,如何用简短精炼的文字概括描述一段长文本是文本摘要需要解决的问题.最先是基于递归神经网络(RNN)的Seqence-to-Sequence模型用于文本摘要起到了一定的效果[56],之后考虑到RNN具有长程依赖性,为了减小长程依赖性,提出了基于长短时记忆网络(LSTM)的Seqence-to-Sequence模型用于文本摘要的生成.考虑到句子中的某些特定词或特定词性的词更具有影响句子中心意思的作用,引入了广泛应用于机器翻译中的注意力机制(attention mechanism)[57]对句子的不同部分赋予不同的偏重,即权重.Rush 等[57]在这个基础上提出基于注意力模型的生成式文本摘要,在DUC-2004数据集上显示出了优良的性能提升.Rush 等首次将深度学习应用于文本摘要的生成,他们基于Seqence-to-Sequence模型,将卷积模型应用于对原文档进行编码,然后利用上下文之间的注意力前馈神经网络生成摘要,在当时取得了很好的效果.Chopra等[58]同样利用卷积模型对原文档进行编码,但使用递归神经网络作为解码器解码输出,取得良好的改进效果,大大提高了文本摘要的质量.Ramesh 等[59]将综合的 RNN[58]和 attention 机制的Seqence-to-Sequence模型用于生成文本摘要[60],在文本摘要的准确性和可读性上取得了很大的提高.See 等[61]利用注意力模型相对分心机制来缓解重复出现的冗余词句的权重,降低注意力权值大小达到去除冗余信息的效果,从而大大提高了文本摘要的新颖性.2016年,谷歌也开源了基于TensorFlow[62]的一个自动摘要模块 Textsum,该模块也是利用Seqence-to-Sequence模型,基于深度学习的方法自动生成新闻标题,在质量和准确度上都取得了良好的效果.Sutskever等[63]考虑到RNN具有长程依赖性,为了减轻长程依赖的影响,将RNN用LSTM网络进行了替换,在此基础上取得了良好的改进.最近Facebook尝试把CNN引入自然语言处理中,由于CNN不能处理变长的序列,在这之前CNN都只应用于图片视频领域的处理,恰巧Seqence-to-Sequence模型可以很好地处理变长序列问题,所以综合CNN与Seqence-to-Sequence模型, Gehring 等[64]提出了基于 CNN 的 Seqence-to- Sequence模型,成功应用于机器翻译领域,取得了比之前模型应用更优的结果,准确度超过了之前其他的所有模型.这同样也是一个启示,是否能够将基于CNN的Seqence-to-Sequence模型成功应用到文本摘要的领域取得最优的结果?这也是接下来要研究的一个问题.Liu [65]将广泛应用于图像领域的生成对抗网络(GAN,generative adversarial networks)[66]借用于文本摘要领域取得了显著成效,提出了一种生成式文本摘要的生成对抗过程,在这个过程中,同时训练一个生成模型G和一个判别模型D.生成器通过文本的输入来预测生成摘要,判别器则试图将机器生成的摘要与真实摘要进行区分.在这个博弈过程中,双方不断提高性能,最后利用训练得到的生成器生成与真实摘要基本吻合的机器摘要. ...
Tensor Flow:a system for large-scale machine learning
1
2016
... Seqence-to-Sequence模型[55]广泛应用于机器翻译、语音识别、视频图片处理、文本摘要等多个领域.现在最新的一些基于深度学习研究文本摘要生成方法的也都是基于这个模型进行的.基于Seqence-to-Sequence模型的文本摘要需要解决的问题是从原文本到摘要文本的映射问题.摘要相对于原文具有大量的信息损失,而且摘要长度并不会依赖于原文本的长度,所以,如何用简短精炼的文字概括描述一段长文本是文本摘要需要解决的问题.最先是基于递归神经网络(RNN)的Seqence-to-Sequence模型用于文本摘要起到了一定的效果[56],之后考虑到RNN具有长程依赖性,为了减小长程依赖性,提出了基于长短时记忆网络(LSTM)的Seqence-to-Sequence模型用于文本摘要的生成.考虑到句子中的某些特定词或特定词性的词更具有影响句子中心意思的作用,引入了广泛应用于机器翻译中的注意力机制(attention mechanism)[57]对句子的不同部分赋予不同的偏重,即权重.Rush 等[57]在这个基础上提出基于注意力模型的生成式文本摘要,在DUC-2004数据集上显示出了优良的性能提升.Rush 等首次将深度学习应用于文本摘要的生成,他们基于Seqence-to-Sequence模型,将卷积模型应用于对原文档进行编码,然后利用上下文之间的注意力前馈神经网络生成摘要,在当时取得了很好的效果.Chopra等[58]同样利用卷积模型对原文档进行编码,但使用递归神经网络作为解码器解码输出,取得良好的改进效果,大大提高了文本摘要的质量.Ramesh 等[59]将综合的 RNN[58]和 attention 机制的Seqence-to-Sequence模型用于生成文本摘要[60],在文本摘要的准确性和可读性上取得了很大的提高.See 等[61]利用注意力模型相对分心机制来缓解重复出现的冗余词句的权重,降低注意力权值大小达到去除冗余信息的效果,从而大大提高了文本摘要的新颖性.2016年,谷歌也开源了基于TensorFlow[62]的一个自动摘要模块 Textsum,该模块也是利用Seqence-to-Sequence模型,基于深度学习的方法自动生成新闻标题,在质量和准确度上都取得了良好的效果.Sutskever等[63]考虑到RNN具有长程依赖性,为了减轻长程依赖的影响,将RNN用LSTM网络进行了替换,在此基础上取得了良好的改进.最近Facebook尝试把CNN引入自然语言处理中,由于CNN不能处理变长的序列,在这之前CNN都只应用于图片视频领域的处理,恰巧Seqence-to-Sequence模型可以很好地处理变长序列问题,所以综合CNN与Seqence-to-Sequence模型, Gehring 等[64]提出了基于 CNN 的 Seqence-to- Sequence模型,成功应用于机器翻译领域,取得了比之前模型应用更优的结果,准确度超过了之前其他的所有模型.这同样也是一个启示,是否能够将基于CNN的Seqence-to-Sequence模型成功应用到文本摘要的领域取得最优的结果?这也是接下来要研究的一个问题.Liu [65]将广泛应用于图像领域的生成对抗网络(GAN,generative adversarial networks)[66]借用于文本摘要领域取得了显著成效,提出了一种生成式文本摘要的生成对抗过程,在这个过程中,同时训练一个生成模型G和一个判别模型D.生成器通过文本的输入来预测生成摘要,判别器则试图将机器生成的摘要与真实摘要进行区分.在这个博弈过程中,双方不断提高性能,最后利用训练得到的生成器生成与真实摘要基本吻合的机器摘要. ...
Sequence to sequence learning with neural networks
1
2014
... Seqence-to-Sequence模型[55]广泛应用于机器翻译、语音识别、视频图片处理、文本摘要等多个领域.现在最新的一些基于深度学习研究文本摘要生成方法的也都是基于这个模型进行的.基于Seqence-to-Sequence模型的文本摘要需要解决的问题是从原文本到摘要文本的映射问题.摘要相对于原文具有大量的信息损失,而且摘要长度并不会依赖于原文本的长度,所以,如何用简短精炼的文字概括描述一段长文本是文本摘要需要解决的问题.最先是基于递归神经网络(RNN)的Seqence-to-Sequence模型用于文本摘要起到了一定的效果[56],之后考虑到RNN具有长程依赖性,为了减小长程依赖性,提出了基于长短时记忆网络(LSTM)的Seqence-to-Sequence模型用于文本摘要的生成.考虑到句子中的某些特定词或特定词性的词更具有影响句子中心意思的作用,引入了广泛应用于机器翻译中的注意力机制(attention mechanism)[57]对句子的不同部分赋予不同的偏重,即权重.Rush 等[57]在这个基础上提出基于注意力模型的生成式文本摘要,在DUC-2004数据集上显示出了优良的性能提升.Rush 等首次将深度学习应用于文本摘要的生成,他们基于Seqence-to-Sequence模型,将卷积模型应用于对原文档进行编码,然后利用上下文之间的注意力前馈神经网络生成摘要,在当时取得了很好的效果.Chopra等[58]同样利用卷积模型对原文档进行编码,但使用递归神经网络作为解码器解码输出,取得良好的改进效果,大大提高了文本摘要的质量.Ramesh 等[59]将综合的 RNN[58]和 attention 机制的Seqence-to-Sequence模型用于生成文本摘要[60],在文本摘要的准确性和可读性上取得了很大的提高.See 等[61]利用注意力模型相对分心机制来缓解重复出现的冗余词句的权重,降低注意力权值大小达到去除冗余信息的效果,从而大大提高了文本摘要的新颖性.2016年,谷歌也开源了基于TensorFlow[62]的一个自动摘要模块 Textsum,该模块也是利用Seqence-to-Sequence模型,基于深度学习的方法自动生成新闻标题,在质量和准确度上都取得了良好的效果.Sutskever等[63]考虑到RNN具有长程依赖性,为了减轻长程依赖的影响,将RNN用LSTM网络进行了替换,在此基础上取得了良好的改进.最近Facebook尝试把CNN引入自然语言处理中,由于CNN不能处理变长的序列,在这之前CNN都只应用于图片视频领域的处理,恰巧Seqence-to-Sequence模型可以很好地处理变长序列问题,所以综合CNN与Seqence-to-Sequence模型, Gehring 等[64]提出了基于 CNN 的 Seqence-to- Sequence模型,成功应用于机器翻译领域,取得了比之前模型应用更优的结果,准确度超过了之前其他的所有模型.这同样也是一个启示,是否能够将基于CNN的Seqence-to-Sequence模型成功应用到文本摘要的领域取得最优的结果?这也是接下来要研究的一个问题.Liu [65]将广泛应用于图像领域的生成对抗网络(GAN,generative adversarial networks)[66]借用于文本摘要领域取得了显著成效,提出了一种生成式文本摘要的生成对抗过程,在这个过程中,同时训练一个生成模型G和一个判别模型D.生成器通过文本的输入来预测生成摘要,判别器则试图将机器生成的摘要与真实摘要进行区分.在这个博弈过程中,双方不断提高性能,最后利用训练得到的生成器生成与真实摘要基本吻合的机器摘要. ...
Convolutional sequence to sequence learning
1
2017
... Seqence-to-Sequence模型[55]广泛应用于机器翻译、语音识别、视频图片处理、文本摘要等多个领域.现在最新的一些基于深度学习研究文本摘要生成方法的也都是基于这个模型进行的.基于Seqence-to-Sequence模型的文本摘要需要解决的问题是从原文本到摘要文本的映射问题.摘要相对于原文具有大量的信息损失,而且摘要长度并不会依赖于原文本的长度,所以,如何用简短精炼的文字概括描述一段长文本是文本摘要需要解决的问题.最先是基于递归神经网络(RNN)的Seqence-to-Sequence模型用于文本摘要起到了一定的效果[56],之后考虑到RNN具有长程依赖性,为了减小长程依赖性,提出了基于长短时记忆网络(LSTM)的Seqence-to-Sequence模型用于文本摘要的生成.考虑到句子中的某些特定词或特定词性的词更具有影响句子中心意思的作用,引入了广泛应用于机器翻译中的注意力机制(attention mechanism)[57]对句子的不同部分赋予不同的偏重,即权重.Rush 等[57]在这个基础上提出基于注意力模型的生成式文本摘要,在DUC-2004数据集上显示出了优良的性能提升.Rush 等首次将深度学习应用于文本摘要的生成,他们基于Seqence-to-Sequence模型,将卷积模型应用于对原文档进行编码,然后利用上下文之间的注意力前馈神经网络生成摘要,在当时取得了很好的效果.Chopra等[58]同样利用卷积模型对原文档进行编码,但使用递归神经网络作为解码器解码输出,取得良好的改进效果,大大提高了文本摘要的质量.Ramesh 等[59]将综合的 RNN[58]和 attention 机制的Seqence-to-Sequence模型用于生成文本摘要[60],在文本摘要的准确性和可读性上取得了很大的提高.See 等[61]利用注意力模型相对分心机制来缓解重复出现的冗余词句的权重,降低注意力权值大小达到去除冗余信息的效果,从而大大提高了文本摘要的新颖性.2016年,谷歌也开源了基于TensorFlow[62]的一个自动摘要模块 Textsum,该模块也是利用Seqence-to-Sequence模型,基于深度学习的方法自动生成新闻标题,在质量和准确度上都取得了良好的效果.Sutskever等[63]考虑到RNN具有长程依赖性,为了减轻长程依赖的影响,将RNN用LSTM网络进行了替换,在此基础上取得了良好的改进.最近Facebook尝试把CNN引入自然语言处理中,由于CNN不能处理变长的序列,在这之前CNN都只应用于图片视频领域的处理,恰巧Seqence-to-Sequence模型可以很好地处理变长序列问题,所以综合CNN与Seqence-to-Sequence模型, Gehring 等[64]提出了基于 CNN 的 Seqence-to- Sequence模型,成功应用于机器翻译领域,取得了比之前模型应用更优的结果,准确度超过了之前其他的所有模型.这同样也是一个启示,是否能够将基于CNN的Seqence-to-Sequence模型成功应用到文本摘要的领域取得最优的结果?这也是接下来要研究的一个问题.Liu [65]将广泛应用于图像领域的生成对抗网络(GAN,generative adversarial networks)[66]借用于文本摘要领域取得了显著成效,提出了一种生成式文本摘要的生成对抗过程,在这个过程中,同时训练一个生成模型G和一个判别模型D.生成器通过文本的输入来预测生成摘要,判别器则试图将机器生成的摘要与真实摘要进行区分.在这个博弈过程中,双方不断提高性能,最后利用训练得到的生成器生成与真实摘要基本吻合的机器摘要. ...
Generative adversarial network for abstractive text summarization
1
2017
... Seqence-to-Sequence模型[55]广泛应用于机器翻译、语音识别、视频图片处理、文本摘要等多个领域.现在最新的一些基于深度学习研究文本摘要生成方法的也都是基于这个模型进行的.基于Seqence-to-Sequence模型的文本摘要需要解决的问题是从原文本到摘要文本的映射问题.摘要相对于原文具有大量的信息损失,而且摘要长度并不会依赖于原文本的长度,所以,如何用简短精炼的文字概括描述一段长文本是文本摘要需要解决的问题.最先是基于递归神经网络(RNN)的Seqence-to-Sequence模型用于文本摘要起到了一定的效果[56],之后考虑到RNN具有长程依赖性,为了减小长程依赖性,提出了基于长短时记忆网络(LSTM)的Seqence-to-Sequence模型用于文本摘要的生成.考虑到句子中的某些特定词或特定词性的词更具有影响句子中心意思的作用,引入了广泛应用于机器翻译中的注意力机制(attention mechanism)[57]对句子的不同部分赋予不同的偏重,即权重.Rush 等[57]在这个基础上提出基于注意力模型的生成式文本摘要,在DUC-2004数据集上显示出了优良的性能提升.Rush 等首次将深度学习应用于文本摘要的生成,他们基于Seqence-to-Sequence模型,将卷积模型应用于对原文档进行编码,然后利用上下文之间的注意力前馈神经网络生成摘要,在当时取得了很好的效果.Chopra等[58]同样利用卷积模型对原文档进行编码,但使用递归神经网络作为解码器解码输出,取得良好的改进效果,大大提高了文本摘要的质量.Ramesh 等[59]将综合的 RNN[58]和 attention 机制的Seqence-to-Sequence模型用于生成文本摘要[60],在文本摘要的准确性和可读性上取得了很大的提高.See 等[61]利用注意力模型相对分心机制来缓解重复出现的冗余词句的权重,降低注意力权值大小达到去除冗余信息的效果,从而大大提高了文本摘要的新颖性.2016年,谷歌也开源了基于TensorFlow[62]的一个自动摘要模块 Textsum,该模块也是利用Seqence-to-Sequence模型,基于深度学习的方法自动生成新闻标题,在质量和准确度上都取得了良好的效果.Sutskever等[63]考虑到RNN具有长程依赖性,为了减轻长程依赖的影响,将RNN用LSTM网络进行了替换,在此基础上取得了良好的改进.最近Facebook尝试把CNN引入自然语言处理中,由于CNN不能处理变长的序列,在这之前CNN都只应用于图片视频领域的处理,恰巧Seqence-to-Sequence模型可以很好地处理变长序列问题,所以综合CNN与Seqence-to-Sequence模型, Gehring 等[64]提出了基于 CNN 的 Seqence-to- Sequence模型,成功应用于机器翻译领域,取得了比之前模型应用更优的结果,准确度超过了之前其他的所有模型.这同样也是一个启示,是否能够将基于CNN的Seqence-to-Sequence模型成功应用到文本摘要的领域取得最优的结果?这也是接下来要研究的一个问题.Liu [65]将广泛应用于图像领域的生成对抗网络(GAN,generative adversarial networks)[66]借用于文本摘要领域取得了显著成效,提出了一种生成式文本摘要的生成对抗过程,在这个过程中,同时训练一个生成模型G和一个判别模型D.生成器通过文本的输入来预测生成摘要,判别器则试图将机器生成的摘要与真实摘要进行区分.在这个博弈过程中,双方不断提高性能,最后利用训练得到的生成器生成与真实摘要基本吻合的机器摘要. ...
Generative adversarial nets
1
2014
... Seqence-to-Sequence模型[55]广泛应用于机器翻译、语音识别、视频图片处理、文本摘要等多个领域.现在最新的一些基于深度学习研究文本摘要生成方法的也都是基于这个模型进行的.基于Seqence-to-Sequence模型的文本摘要需要解决的问题是从原文本到摘要文本的映射问题.摘要相对于原文具有大量的信息损失,而且摘要长度并不会依赖于原文本的长度,所以,如何用简短精炼的文字概括描述一段长文本是文本摘要需要解决的问题.最先是基于递归神经网络(RNN)的Seqence-to-Sequence模型用于文本摘要起到了一定的效果[56],之后考虑到RNN具有长程依赖性,为了减小长程依赖性,提出了基于长短时记忆网络(LSTM)的Seqence-to-Sequence模型用于文本摘要的生成.考虑到句子中的某些特定词或特定词性的词更具有影响句子中心意思的作用,引入了广泛应用于机器翻译中的注意力机制(attention mechanism)[57]对句子的不同部分赋予不同的偏重,即权重.Rush 等[57]在这个基础上提出基于注意力模型的生成式文本摘要,在DUC-2004数据集上显示出了优良的性能提升.Rush 等首次将深度学习应用于文本摘要的生成,他们基于Seqence-to-Sequence模型,将卷积模型应用于对原文档进行编码,然后利用上下文之间的注意力前馈神经网络生成摘要,在当时取得了很好的效果.Chopra等[58]同样利用卷积模型对原文档进行编码,但使用递归神经网络作为解码器解码输出,取得良好的改进效果,大大提高了文本摘要的质量.Ramesh 等[59]将综合的 RNN[58]和 attention 机制的Seqence-to-Sequence模型用于生成文本摘要[60],在文本摘要的准确性和可读性上取得了很大的提高.See 等[61]利用注意力模型相对分心机制来缓解重复出现的冗余词句的权重,降低注意力权值大小达到去除冗余信息的效果,从而大大提高了文本摘要的新颖性.2016年,谷歌也开源了基于TensorFlow[62]的一个自动摘要模块 Textsum,该模块也是利用Seqence-to-Sequence模型,基于深度学习的方法自动生成新闻标题,在质量和准确度上都取得了良好的效果.Sutskever等[63]考虑到RNN具有长程依赖性,为了减轻长程依赖的影响,将RNN用LSTM网络进行了替换,在此基础上取得了良好的改进.最近Facebook尝试把CNN引入自然语言处理中,由于CNN不能处理变长的序列,在这之前CNN都只应用于图片视频领域的处理,恰巧Seqence-to-Sequence模型可以很好地处理变长序列问题,所以综合CNN与Seqence-to-Sequence模型, Gehring 等[64]提出了基于 CNN 的 Seqence-to- Sequence模型,成功应用于机器翻译领域,取得了比之前模型应用更优的结果,准确度超过了之前其他的所有模型.这同样也是一个启示,是否能够将基于CNN的Seqence-to-Sequence模型成功应用到文本摘要的领域取得最优的结果?这也是接下来要研究的一个问题.Liu [65]将广泛应用于图像领域的生成对抗网络(GAN,generative adversarial networks)[66]借用于文本摘要领域取得了显著成效,提出了一种生成式文本摘要的生成对抗过程,在这个过程中,同时训练一个生成模型G和一个判别模型D.生成器通过文本的输入来预测生成摘要,判别器则试图将机器生成的摘要与真实摘要进行区分.在这个博弈过程中,双方不断提高性能,最后利用训练得到的生成器生成与真实摘要基本吻合的机器摘要. ...
Abstractive document summarization with a graph-based attentional neural model
1
2017
... 最近,Tan 等[67]提出了一个基于图的注意力神经模型的生成式文本摘要,该文在回顾了基于神经网络的生成式文本摘要难点的基础上,提出了一种新颖的基于图注意力机制的模型框架.这里仍然使用被广泛应用于机器翻译和对话系统中的编码器解码器的框架,需要特别说明的是,这里使用的是一个分层的编码器解码器结构,并引入了基于图的注意力模型.编码器结构由字编码器和句编码器组成,字编码器将句子中的单词编码成句子表示,句编码器将文档中的句子编码成文档表示.这里用LSTM结构的变体作为字编码器和句编码器的网络结构.不同于一般的解码器结构,这里使用的是带注意力机制的分层解码器结构.在原始解码器模型中,生成的代表文档整体的语义向量c对于所有的输出,字是相同的,这就需要语义向量c作为整个输入序列的充分表示.这里引入了注意力机制,对解码器不同发生状态下不同部分的输入赋予了不同的注意力,减轻了需要记忆整个输入序列的负担.分层解码器中还利用了波束搜索的策略对句子中的重复现象进行缓解.最后基于图的抽取式摘要模型的TextRank(Mihalcea 和Tarau于2004年提出)[68]和LexRank(Erkan和Radev于2004年提出)[69]对文档中句子的重要性进行识别.基于这种改进的图注意力的神经模型的生成式文本摘要方法实现了相较先前神经摘要模型相当大的提升,效果甚至可以与最先进的抽取式摘要方法进行比较. ...
Textrank:bringing order into text
1
2004
... 最近,Tan 等[67]提出了一个基于图的注意力神经模型的生成式文本摘要,该文在回顾了基于神经网络的生成式文本摘要难点的基础上,提出了一种新颖的基于图注意力机制的模型框架.这里仍然使用被广泛应用于机器翻译和对话系统中的编码器解码器的框架,需要特别说明的是,这里使用的是一个分层的编码器解码器结构,并引入了基于图的注意力模型.编码器结构由字编码器和句编码器组成,字编码器将句子中的单词编码成句子表示,句编码器将文档中的句子编码成文档表示.这里用LSTM结构的变体作为字编码器和句编码器的网络结构.不同于一般的解码器结构,这里使用的是带注意力机制的分层解码器结构.在原始解码器模型中,生成的代表文档整体的语义向量c对于所有的输出,字是相同的,这就需要语义向量c作为整个输入序列的充分表示.这里引入了注意力机制,对解码器不同发生状态下不同部分的输入赋予了不同的注意力,减轻了需要记忆整个输入序列的负担.分层解码器中还利用了波束搜索的策略对句子中的重复现象进行缓解.最后基于图的抽取式摘要模型的TextRank(Mihalcea 和Tarau于2004年提出)[68]和LexRank(Erkan和Radev于2004年提出)[69]对文档中句子的重要性进行识别.基于这种改进的图注意力的神经模型的生成式文本摘要方法实现了相较先前神经摘要模型相当大的提升,效果甚至可以与最先进的抽取式摘要方法进行比较. ...
Lexrank:graph-based lexical centrality as salience in text summarization
1
2004
... 最近,Tan 等[67]提出了一个基于图的注意力神经模型的生成式文本摘要,该文在回顾了基于神经网络的生成式文本摘要难点的基础上,提出了一种新颖的基于图注意力机制的模型框架.这里仍然使用被广泛应用于机器翻译和对话系统中的编码器解码器的框架,需要特别说明的是,这里使用的是一个分层的编码器解码器结构,并引入了基于图的注意力模型.编码器结构由字编码器和句编码器组成,字编码器将句子中的单词编码成句子表示,句编码器将文档中的句子编码成文档表示.这里用LSTM结构的变体作为字编码器和句编码器的网络结构.不同于一般的解码器结构,这里使用的是带注意力机制的分层解码器结构.在原始解码器模型中,生成的代表文档整体的语义向量c对于所有的输出,字是相同的,这就需要语义向量c作为整个输入序列的充分表示.这里引入了注意力机制,对解码器不同发生状态下不同部分的输入赋予了不同的注意力,减轻了需要记忆整个输入序列的负担.分层解码器中还利用了波束搜索的策略对句子中的重复现象进行缓解.最后基于图的抽取式摘要模型的TextRank(Mihalcea 和Tarau于2004年提出)[68]和LexRank(Erkan和Radev于2004年提出)[69]对文档中句子的重要性进行识别.基于这种改进的图注意力的神经模型的生成式文本摘要方法实现了相较先前神经摘要模型相当大的提升,效果甚至可以与最先进的抽取式摘要方法进行比较. ...