Considering the difficulty of judging the mixed multiple sentimental polarities in a text,aspect-level sentiment analysis has become a hot research topic.Multiple sentiments of different targets when expressing multi-faceted in a sentence,it will cause problems such as feature overlap,which will have a negative impact on text sentiment classification.A capsule network-based model for aspect-level sentiment classification (SCACaps) was proposed.Sequential convolution was used to extract the features of context and aspect words separately,and an interactive attention mechanism was introduced to reduce the mutual influence on each other,and then the text feature representation was transmitted into the capsule network after reconstruction.The routing algorithm was optimized by introducing high-level capsule coefficients between the capsule layers,and the global parameters were shared in the entire iterative update process to save relatively complete text feature information.By comparing with multiple models,the SCACaps model has the best classification effect,and the SCACaps model also performs better in small sample learning.
XU Zhidong. Research on capsule network-based for aspect-level sentiment classification. Chinese Journal of Intelligent Science and Technology[J], 2020, 2(3): 284-292 doi:10.11959/j.issn.2096-6652.202031
Liu B[2]首先提出方面级情感分析,方面级情感分析属于一种细粒度情感分析,其针对单句文本中的不同方面产生不同的情感极性。近年来,方面级情感分类研究主要采用基于深度学习的方法进行特征提取,许多神经网络模型在情感分析领域取得了一定的效果。长短期记忆(long short-term memory,LSTM)神经网络及其相应变型双向长短期记忆(bi-directional long short-term memory, BiLSTM)神经网络[3]因具有灵活且简单的特点在方面级情感分析中被广泛使用。Wang Y Q等人[4]提出ATAE-LSTM模型,该模型通过LSTM进行方面嵌入和词语向量表示,利用方面语义信息搜寻文本中与方面词相关的位置的内容,通过注意力机制对词语与方面词之间的相互依赖关系进行建模,增强了方面嵌入的效果。Ma D H等人[5]考虑到上下文和方面词在向量表示中会相互影响,在ATAE-LSTM模型的基础上提出了交互注意力网络(interactive attention network,IAN)模型,通过注意力矩阵重新对上下文和方面词进行向量表示,实验效果有所提升。陈虹等人[6]在IAN模型的基础上提出Bi-IAN模型,借助BiLSTM模型从两个方向分别提取上下文和目标的语义信息,获得每个时间上下文和目标的隐藏表示,取得了较好的实验效果。
现有的深度学习方法在提取文本特征方面取得了一定的效果,但仍然存在如下问题:一方面,借助循环神经网络处理方面级情感的模型在一定程度上仍存在梯度消失、运行速度较慢等问题,而基于卷积神经网络(convolutional neural network, CNN)的模型在处理文本时序任务时也存在一定的困难;另一方面,传统的注意力机制仅考虑了句子中的一部分上下文信息,忽略了句子所传达的整体意义,在面对复杂句子时可能会引入噪声,进而影响对情感极性的预测。如在反讽句“也许这款笔记本销量的提高并不是因为它的性能吧”中,传统注意力机制会因“提高”预测此句为积极情感。为此,本文提出了基于胶囊网络的方面级情感分类模型(capsule network-based model for aspect-level sentiment classification,SCACaps),在胶囊层间传递参数的过程中,模型通过高层胶囊系数调整每个低层胶囊选择高层胶囊的概率,整个过程中全局共享参数。此外,通过序列卷积分别对上下文和方面词进行建模,借助交互注意力机制对它们的向量表示进行重构。在SemEval2014任务 4 数据集上验证模型的有效性,实验结果表明,SCACaps具有较好的分类效果。本文的主要贡献如下。
传统神经网络常用LSTM来解决文本时序性问题,但LSTM无法记忆完整的文本信息且计算较慢。CNN在图像处理方面具有出色的局部特征提取能力,因此相关研究人员逐渐将CNN应用到文本处理任务中,同时考虑文本序列的特点,对CNN进行变形,使其能够在特征提取时将文本中的所有词汇都考虑在内。Kim Y[7]首次提出 TextCNN(text-convolutional neural network)模型,针对句子级别进行情感分类,并取得了不错的分类效果。Xue W等人[8]借助门控单元从文本中抽取与方面相关的信息,结合 CNN 提出了 GCAE(gated convolutional network with aspect embedding)模型,取得了更高的正确率。韩建胜等人[9]提出一种基于双向时间卷积网络(bi-directional temporal convolutional network,Bi-TCN)的情感分析模型,该模型使用单向多层空洞因果卷积结构分别对文本进行前向和后向特征提取,将两个方向的序列特征融合后进行情感分类。高巍等人[10]提出一种基于序列卷积神经网络的情感分类模型,将因果卷积和扩张卷积结合,用卷积层代替全连接层,以改善网络特征选取的局限性。Fan F F 等人[11]提出MGAN模型,该模型分别使用了细粒度和粗粒度的注意力,进一步描述了方面和上下文单词之间的交互,取得了不错的效果。曾锋等人[12]通过双层注意力捕获不同单词和不同句子的重要性,利用双向循环神经网络获取更多的序列上下文依赖信息,进而进行情感极性预测。曾义夫等人[13]提出基于双记忆注意力的方面级别情感分类模型,借助循环神经网络的序列学习能力得到语句编码,并通过构造相应的注意力机制从语句编码中提取关于给定方面词的情感表达。
2.2 胶囊网络研究
胶囊网络[14,15]被提出后,逐渐在文本情感分类任务中被广泛使用,与传统神经元以标量值表示特征不同,其网络节点通过向量值表示文本中词汇的多属性特征,借助动态路由机制代替池化层结构进行参数传递。Chen Z等人[16]提出一个转换胶囊网络(transfer capsule network,TransCap)模型,该模型将句子级语义表示封装为来自方面级和文档级数据的语义胶囊,从而将非方面级情感转换为方面级情感进行分类。Xiao L Q等人[17]提出一种基于胶囊的多任务学习体系结构,利用胶囊特征聚类的优点,对网络中每个任务的特征进行聚类,减少了任务之间的干扰。胶囊网络可以抓取部分-部分、部分-整体的位置信息[18],从而获取文本的局部特征和整体情感极性之间的关系。杨云龙等人[19]借助门控循环单元(gated recurrent unit,GRU)捕捉文本上下文的全局特征,在初始胶囊层获取文本整体属性的向量化特征信息,通过主胶囊层进行特征组合,提出一种融合GRU和胶囊特征的情感分析模型G-Caps(gated recurrent unit-capsules)。王敏蕊等人[20]针对序列生成模型在多标签分类任务中易产生累积误差等问题,使用BiLSTM + Attention进行语义编码,利用动态路由结构进行解码,通过共享全局参数来减少误差累积,构建了基于动态路由的序列生成模型(sequence generation model based on dynamic routing,DR-SGM)。胶囊网络在文本处理任务中表现出较强的特征提取能力,越来越多的研究人员逐渐将其应用到跨领域文本处理任务中。林悦等人[21]提出利用目标领域的标记信息来改善模型适应能力的思想,并设计了额外的胶囊网络层促进目标领域的适应,构建了一个基于胶囊网络的跨领域情感分类模型。Zhang B W等人[22]通过胶囊网络对内在空间部分-整体关系进行编码,构成领域不变知识,从而将源领域和目标领域联系起来,此外,为了增强综合句子表示学习,模型还在胶囊网络中融入了语义规则,实现了跨领域文本的情感分析。在情感分析任务中,胶囊网络使用路由机制来生成高级特征,根据不同词汇被考虑的程度分配不同的耦合系数,通过聚类解决特征重叠的问题,但目前关于其被用于方面级情感分析的研究较少。
以 n 为窗口大小进行窗口滑动遍历,可得到l-n+1个特征,其中l为输入文本矩阵的长度,将特征进行组合可得到一个特征图。为了提取文本中不同的特征,使用m个卷积核得到 m 个特征图。将m个特征图拼接在一起可得到低层胶囊的输入矩阵 。 是经过卷积神经网络得到的特征图矩阵,其由m个列向量组成,每个列向量由不同卷积核提取得到,代表对同一文本的多角度特征,计算过程如下:
... Liu B[2]首先提出方面级情感分析,方面级情感分析属于一种细粒度情感分析,其针对单句文本中的不同方面产生不同的情感极性.近年来,方面级情感分类研究主要采用基于深度学习的方法进行特征提取,许多神经网络模型在情感分析领域取得了一定的效果.长短期记忆(long short-term memory,LSTM)神经网络及其相应变型双向长短期记忆(bi-directional long short-term memory, BiLSTM)神经网络[3]因具有灵活且简单的特点在方面级情感分析中被广泛使用.Wang Y Q等人[4]提出ATAE-LSTM模型,该模型通过LSTM进行方面嵌入和词语向量表示,利用方面语义信息搜寻文本中与方面词相关的位置的内容,通过注意力机制对词语与方面词之间的相互依赖关系进行建模,增强了方面嵌入的效果.Ma D H等人[5]考虑到上下文和方面词在向量表示中会相互影响,在ATAE-LSTM模型的基础上提出了交互注意力网络(interactive attention network,IAN)模型,通过注意力矩阵重新对上下文和方面词进行向量表示,实验效果有所提升.陈虹等人[6]在IAN模型的基础上提出Bi-IAN模型,借助BiLSTM模型从两个方向分别提取上下文和目标的语义信息,获得每个时间上下文和目标的隐藏表示,取得了较好的实验效果. ...
Stance detection with bidirectional conditional encoding
2
2016
... Liu B[2]首先提出方面级情感分析,方面级情感分析属于一种细粒度情感分析,其针对单句文本中的不同方面产生不同的情感极性.近年来,方面级情感分类研究主要采用基于深度学习的方法进行特征提取,许多神经网络模型在情感分析领域取得了一定的效果.长短期记忆(long short-term memory,LSTM)神经网络及其相应变型双向长短期记忆(bi-directional long short-term memory, BiLSTM)神经网络[3]因具有灵活且简单的特点在方面级情感分析中被广泛使用.Wang Y Q等人[4]提出ATAE-LSTM模型,该模型通过LSTM进行方面嵌入和词语向量表示,利用方面语义信息搜寻文本中与方面词相关的位置的内容,通过注意力机制对词语与方面词之间的相互依赖关系进行建模,增强了方面嵌入的效果.Ma D H等人[5]考虑到上下文和方面词在向量表示中会相互影响,在ATAE-LSTM模型的基础上提出了交互注意力网络(interactive attention network,IAN)模型,通过注意力矩阵重新对上下文和方面词进行向量表示,实验效果有所提升.陈虹等人[6]在IAN模型的基础上提出Bi-IAN模型,借助BiLSTM模型从两个方向分别提取上下文和目标的语义信息,获得每个时间上下文和目标的隐藏表示,取得了较好的实验效果. ...
Attention-based LSTM for aspect-level sentiment classification
2
2016
... Liu B[2]首先提出方面级情感分析,方面级情感分析属于一种细粒度情感分析,其针对单句文本中的不同方面产生不同的情感极性.近年来,方面级情感分类研究主要采用基于深度学习的方法进行特征提取,许多神经网络模型在情感分析领域取得了一定的效果.长短期记忆(long short-term memory,LSTM)神经网络及其相应变型双向长短期记忆(bi-directional long short-term memory, BiLSTM)神经网络[3]因具有灵活且简单的特点在方面级情感分析中被广泛使用.Wang Y Q等人[4]提出ATAE-LSTM模型,该模型通过LSTM进行方面嵌入和词语向量表示,利用方面语义信息搜寻文本中与方面词相关的位置的内容,通过注意力机制对词语与方面词之间的相互依赖关系进行建模,增强了方面嵌入的效果.Ma D H等人[5]考虑到上下文和方面词在向量表示中会相互影响,在ATAE-LSTM模型的基础上提出了交互注意力网络(interactive attention network,IAN)模型,通过注意力矩阵重新对上下文和方面词进行向量表示,实验效果有所提升.陈虹等人[6]在IAN模型的基础上提出Bi-IAN模型,借助BiLSTM模型从两个方向分别提取上下文和目标的语义信息,获得每个时间上下文和目标的隐藏表示,取得了较好的实验效果. ...
Interactive attention networks for aspect-level sentiment classification
2
2017
... Liu B[2]首先提出方面级情感分析,方面级情感分析属于一种细粒度情感分析,其针对单句文本中的不同方面产生不同的情感极性.近年来,方面级情感分类研究主要采用基于深度学习的方法进行特征提取,许多神经网络模型在情感分析领域取得了一定的效果.长短期记忆(long short-term memory,LSTM)神经网络及其相应变型双向长短期记忆(bi-directional long short-term memory, BiLSTM)神经网络[3]因具有灵活且简单的特点在方面级情感分析中被广泛使用.Wang Y Q等人[4]提出ATAE-LSTM模型,该模型通过LSTM进行方面嵌入和词语向量表示,利用方面语义信息搜寻文本中与方面词相关的位置的内容,通过注意力机制对词语与方面词之间的相互依赖关系进行建模,增强了方面嵌入的效果.Ma D H等人[5]考虑到上下文和方面词在向量表示中会相互影响,在ATAE-LSTM模型的基础上提出了交互注意力网络(interactive attention network,IAN)模型,通过注意力矩阵重新对上下文和方面词进行向量表示,实验效果有所提升.陈虹等人[6]在IAN模型的基础上提出Bi-IAN模型,借助BiLSTM模型从两个方向分别提取上下文和目标的语义信息,获得每个时间上下文和目标的隐藏表示,取得了较好的实验效果. ...
... Liu B[2]首先提出方面级情感分析,方面级情感分析属于一种细粒度情感分析,其针对单句文本中的不同方面产生不同的情感极性.近年来,方面级情感分类研究主要采用基于深度学习的方法进行特征提取,许多神经网络模型在情感分析领域取得了一定的效果.长短期记忆(long short-term memory,LSTM)神经网络及其相应变型双向长短期记忆(bi-directional long short-term memory, BiLSTM)神经网络[3]因具有灵活且简单的特点在方面级情感分析中被广泛使用.Wang Y Q等人[4]提出ATAE-LSTM模型,该模型通过LSTM进行方面嵌入和词语向量表示,利用方面语义信息搜寻文本中与方面词相关的位置的内容,通过注意力机制对词语与方面词之间的相互依赖关系进行建模,增强了方面嵌入的效果.Ma D H等人[5]考虑到上下文和方面词在向量表示中会相互影响,在ATAE-LSTM模型的基础上提出了交互注意力网络(interactive attention network,IAN)模型,通过注意力矩阵重新对上下文和方面词进行向量表示,实验效果有所提升.陈虹等人[6]在IAN模型的基础上提出Bi-IAN模型,借助BiLSTM模型从两个方向分别提取上下文和目标的语义信息,获得每个时间上下文和目标的隐藏表示,取得了较好的实验效果. ...
... Liu B[2]首先提出方面级情感分析,方面级情感分析属于一种细粒度情感分析,其针对单句文本中的不同方面产生不同的情感极性.近年来,方面级情感分类研究主要采用基于深度学习的方法进行特征提取,许多神经网络模型在情感分析领域取得了一定的效果.长短期记忆(long short-term memory,LSTM)神经网络及其相应变型双向长短期记忆(bi-directional long short-term memory, BiLSTM)神经网络[3]因具有灵活且简单的特点在方面级情感分析中被广泛使用.Wang Y Q等人[4]提出ATAE-LSTM模型,该模型通过LSTM进行方面嵌入和词语向量表示,利用方面语义信息搜寻文本中与方面词相关的位置的内容,通过注意力机制对词语与方面词之间的相互依赖关系进行建模,增强了方面嵌入的效果.Ma D H等人[5]考虑到上下文和方面词在向量表示中会相互影响,在ATAE-LSTM模型的基础上提出了交互注意力网络(interactive attention network,IAN)模型,通过注意力矩阵重新对上下文和方面词进行向量表示,实验效果有所提升.陈虹等人[6]在IAN模型的基础上提出Bi-IAN模型,借助BiLSTM模型从两个方向分别提取上下文和目标的语义信息,获得每个时间上下文和目标的隐藏表示,取得了较好的实验效果. ...
... 传统神经网络常用LSTM来解决文本时序性问题,但LSTM无法记忆完整的文本信息且计算较慢.CNN在图像处理方面具有出色的局部特征提取能力,因此相关研究人员逐渐将CNN应用到文本处理任务中,同时考虑文本序列的特点,对CNN进行变形,使其能够在特征提取时将文本中的所有词汇都考虑在内.Kim Y[7]首次提出 TextCNN(text-convolutional neural network)模型,针对句子级别进行情感分类,并取得了不错的分类效果.Xue W等人[8]借助门控单元从文本中抽取与方面相关的信息,结合 CNN 提出了 GCAE(gated convolutional network with aspect embedding)模型,取得了更高的正确率.韩建胜等人[9]提出一种基于双向时间卷积网络(bi-directional temporal convolutional network,Bi-TCN)的情感分析模型,该模型使用单向多层空洞因果卷积结构分别对文本进行前向和后向特征提取,将两个方向的序列特征融合后进行情感分类.高巍等人[10]提出一种基于序列卷积神经网络的情感分类模型,将因果卷积和扩张卷积结合,用卷积层代替全连接层,以改善网络特征选取的局限性.Fan F F 等人[11]提出MGAN模型,该模型分别使用了细粒度和粗粒度的注意力,进一步描述了方面和上下文单词之间的交互,取得了不错的效果.曾锋等人[12]通过双层注意力捕获不同单词和不同句子的重要性,利用双向循环神经网络获取更多的序列上下文依赖信息,进而进行情感极性预测.曾义夫等人[13]提出基于双记忆注意力的方面级别情感分类模型,借助循环神经网络的序列学习能力得到语句编码,并通过构造相应的注意力机制从语句编码中提取关于给定方面词的情感表达. ...
基于双层注意力循环神经网络的方面级情感分析
1
2019
... 传统神经网络常用LSTM来解决文本时序性问题,但LSTM无法记忆完整的文本信息且计算较慢.CNN在图像处理方面具有出色的局部特征提取能力,因此相关研究人员逐渐将CNN应用到文本处理任务中,同时考虑文本序列的特点,对CNN进行变形,使其能够在特征提取时将文本中的所有词汇都考虑在内.Kim Y[7]首次提出 TextCNN(text-convolutional neural network)模型,针对句子级别进行情感分类,并取得了不错的分类效果.Xue W等人[8]借助门控单元从文本中抽取与方面相关的信息,结合 CNN 提出了 GCAE(gated convolutional network with aspect embedding)模型,取得了更高的正确率.韩建胜等人[9]提出一种基于双向时间卷积网络(bi-directional temporal convolutional network,Bi-TCN)的情感分析模型,该模型使用单向多层空洞因果卷积结构分别对文本进行前向和后向特征提取,将两个方向的序列特征融合后进行情感分类.高巍等人[10]提出一种基于序列卷积神经网络的情感分类模型,将因果卷积和扩张卷积结合,用卷积层代替全连接层,以改善网络特征选取的局限性.Fan F F 等人[11]提出MGAN模型,该模型分别使用了细粒度和粗粒度的注意力,进一步描述了方面和上下文单词之间的交互,取得了不错的效果.曾锋等人[12]通过双层注意力捕获不同单词和不同句子的重要性,利用双向循环神经网络获取更多的序列上下文依赖信息,进而进行情感极性预测.曾义夫等人[13]提出基于双记忆注意力的方面级别情感分类模型,借助循环神经网络的序列学习能力得到语句编码,并通过构造相应的注意力机制从语句编码中提取关于给定方面词的情感表达. ...
基于双记忆注意力的方面级别情感分类模型
1
2019
... 传统神经网络常用LSTM来解决文本时序性问题,但LSTM无法记忆完整的文本信息且计算较慢.CNN在图像处理方面具有出色的局部特征提取能力,因此相关研究人员逐渐将CNN应用到文本处理任务中,同时考虑文本序列的特点,对CNN进行变形,使其能够在特征提取时将文本中的所有词汇都考虑在内.Kim Y[7]首次提出 TextCNN(text-convolutional neural network)模型,针对句子级别进行情感分类,并取得了不错的分类效果.Xue W等人[8]借助门控单元从文本中抽取与方面相关的信息,结合 CNN 提出了 GCAE(gated convolutional network with aspect embedding)模型,取得了更高的正确率.韩建胜等人[9]提出一种基于双向时间卷积网络(bi-directional temporal convolutional network,Bi-TCN)的情感分析模型,该模型使用单向多层空洞因果卷积结构分别对文本进行前向和后向特征提取,将两个方向的序列特征融合后进行情感分类.高巍等人[10]提出一种基于序列卷积神经网络的情感分类模型,将因果卷积和扩张卷积结合,用卷积层代替全连接层,以改善网络特征选取的局限性.Fan F F 等人[11]提出MGAN模型,该模型分别使用了细粒度和粗粒度的注意力,进一步描述了方面和上下文单词之间的交互,取得了不错的效果.曾锋等人[12]通过双层注意力捕获不同单词和不同句子的重要性,利用双向循环神经网络获取更多的序列上下文依赖信息,进而进行情感极性预测.曾义夫等人[13]提出基于双记忆注意力的方面级别情感分类模型,借助循环神经网络的序列学习能力得到语句编码,并通过构造相应的注意力机制从语句编码中提取关于给定方面词的情感表达. ...
基于双记忆注意力的方面级别情感分类模型
1
2019
... 传统神经网络常用LSTM来解决文本时序性问题,但LSTM无法记忆完整的文本信息且计算较慢.CNN在图像处理方面具有出色的局部特征提取能力,因此相关研究人员逐渐将CNN应用到文本处理任务中,同时考虑文本序列的特点,对CNN进行变形,使其能够在特征提取时将文本中的所有词汇都考虑在内.Kim Y[7]首次提出 TextCNN(text-convolutional neural network)模型,针对句子级别进行情感分类,并取得了不错的分类效果.Xue W等人[8]借助门控单元从文本中抽取与方面相关的信息,结合 CNN 提出了 GCAE(gated convolutional network with aspect embedding)模型,取得了更高的正确率.韩建胜等人[9]提出一种基于双向时间卷积网络(bi-directional temporal convolutional network,Bi-TCN)的情感分析模型,该模型使用单向多层空洞因果卷积结构分别对文本进行前向和后向特征提取,将两个方向的序列特征融合后进行情感分类.高巍等人[10]提出一种基于序列卷积神经网络的情感分类模型,将因果卷积和扩张卷积结合,用卷积层代替全连接层,以改善网络特征选取的局限性.Fan F F 等人[11]提出MGAN模型,该模型分别使用了细粒度和粗粒度的注意力,进一步描述了方面和上下文单词之间的交互,取得了不错的效果.曾锋等人[12]通过双层注意力捕获不同单词和不同句子的重要性,利用双向循环神经网络获取更多的序列上下文依赖信息,进而进行情感极性预测.曾义夫等人[13]提出基于双记忆注意力的方面级别情感分类模型,借助循环神经网络的序列学习能力得到语句编码,并通过构造相应的注意力机制从语句编码中提取关于给定方面词的情感表达. ...
Transforming auto-encoders
1
2012
... 胶囊网络[14,15]被提出后,逐渐在文本情感分类任务中被广泛使用,与传统神经元以标量值表示特征不同,其网络节点通过向量值表示文本中词汇的多属性特征,借助动态路由机制代替池化层结构进行参数传递.Chen Z等人[16]提出一个转换胶囊网络(transfer capsule network,TransCap)模型,该模型将句子级语义表示封装为来自方面级和文档级数据的语义胶囊,从而将非方面级情感转换为方面级情感进行分类.Xiao L Q等人[17]提出一种基于胶囊的多任务学习体系结构,利用胶囊特征聚类的优点,对网络中每个任务的特征进行聚类,减少了任务之间的干扰.胶囊网络可以抓取部分-部分、部分-整体的位置信息[18],从而获取文本的局部特征和整体情感极性之间的关系.杨云龙等人[19]借助门控循环单元(gated recurrent unit,GRU)捕捉文本上下文的全局特征,在初始胶囊层获取文本整体属性的向量化特征信息,通过主胶囊层进行特征组合,提出一种融合GRU和胶囊特征的情感分析模型G-Caps(gated recurrent unit-capsules).王敏蕊等人[20]针对序列生成模型在多标签分类任务中易产生累积误差等问题,使用BiLSTM + Attention进行语义编码,利用动态路由结构进行解码,通过共享全局参数来减少误差累积,构建了基于动态路由的序列生成模型(sequence generation model based on dynamic routing,DR-SGM).胶囊网络在文本处理任务中表现出较强的特征提取能力,越来越多的研究人员逐渐将其应用到跨领域文本处理任务中.林悦等人[21]提出利用目标领域的标记信息来改善模型适应能力的思想,并设计了额外的胶囊网络层促进目标领域的适应,构建了一个基于胶囊网络的跨领域情感分类模型.Zhang B W等人[22]通过胶囊网络对内在空间部分-整体关系进行编码,构成领域不变知识,从而将源领域和目标领域联系起来,此外,为了增强综合句子表示学习,模型还在胶囊网络中融入了语义规则,实现了跨领域文本的情感分析.在情感分析任务中,胶囊网络使用路由机制来生成高级特征,根据不同词汇被考虑的程度分配不同的耦合系数,通过聚类解决特征重叠的问题,但目前关于其被用于方面级情感分析的研究较少. ...
Matrix capsules with EM routing
1
2018
... 胶囊网络[14,15]被提出后,逐渐在文本情感分类任务中被广泛使用,与传统神经元以标量值表示特征不同,其网络节点通过向量值表示文本中词汇的多属性特征,借助动态路由机制代替池化层结构进行参数传递.Chen Z等人[16]提出一个转换胶囊网络(transfer capsule network,TransCap)模型,该模型将句子级语义表示封装为来自方面级和文档级数据的语义胶囊,从而将非方面级情感转换为方面级情感进行分类.Xiao L Q等人[17]提出一种基于胶囊的多任务学习体系结构,利用胶囊特征聚类的优点,对网络中每个任务的特征进行聚类,减少了任务之间的干扰.胶囊网络可以抓取部分-部分、部分-整体的位置信息[18],从而获取文本的局部特征和整体情感极性之间的关系.杨云龙等人[19]借助门控循环单元(gated recurrent unit,GRU)捕捉文本上下文的全局特征,在初始胶囊层获取文本整体属性的向量化特征信息,通过主胶囊层进行特征组合,提出一种融合GRU和胶囊特征的情感分析模型G-Caps(gated recurrent unit-capsules).王敏蕊等人[20]针对序列生成模型在多标签分类任务中易产生累积误差等问题,使用BiLSTM + Attention进行语义编码,利用动态路由结构进行解码,通过共享全局参数来减少误差累积,构建了基于动态路由的序列生成模型(sequence generation model based on dynamic routing,DR-SGM).胶囊网络在文本处理任务中表现出较强的特征提取能力,越来越多的研究人员逐渐将其应用到跨领域文本处理任务中.林悦等人[21]提出利用目标领域的标记信息来改善模型适应能力的思想,并设计了额外的胶囊网络层促进目标领域的适应,构建了一个基于胶囊网络的跨领域情感分类模型.Zhang B W等人[22]通过胶囊网络对内在空间部分-整体关系进行编码,构成领域不变知识,从而将源领域和目标领域联系起来,此外,为了增强综合句子表示学习,模型还在胶囊网络中融入了语义规则,实现了跨领域文本的情感分析.在情感分析任务中,胶囊网络使用路由机制来生成高级特征,根据不同词汇被考虑的程度分配不同的耦合系数,通过聚类解决特征重叠的问题,但目前关于其被用于方面级情感分析的研究较少. ...
Transfer capsule network for aspect level sentiment classification
1
2019
... 胶囊网络[14,15]被提出后,逐渐在文本情感分类任务中被广泛使用,与传统神经元以标量值表示特征不同,其网络节点通过向量值表示文本中词汇的多属性特征,借助动态路由机制代替池化层结构进行参数传递.Chen Z等人[16]提出一个转换胶囊网络(transfer capsule network,TransCap)模型,该模型将句子级语义表示封装为来自方面级和文档级数据的语义胶囊,从而将非方面级情感转换为方面级情感进行分类.Xiao L Q等人[17]提出一种基于胶囊的多任务学习体系结构,利用胶囊特征聚类的优点,对网络中每个任务的特征进行聚类,减少了任务之间的干扰.胶囊网络可以抓取部分-部分、部分-整体的位置信息[18],从而获取文本的局部特征和整体情感极性之间的关系.杨云龙等人[19]借助门控循环单元(gated recurrent unit,GRU)捕捉文本上下文的全局特征,在初始胶囊层获取文本整体属性的向量化特征信息,通过主胶囊层进行特征组合,提出一种融合GRU和胶囊特征的情感分析模型G-Caps(gated recurrent unit-capsules).王敏蕊等人[20]针对序列生成模型在多标签分类任务中易产生累积误差等问题,使用BiLSTM + Attention进行语义编码,利用动态路由结构进行解码,通过共享全局参数来减少误差累积,构建了基于动态路由的序列生成模型(sequence generation model based on dynamic routing,DR-SGM).胶囊网络在文本处理任务中表现出较强的特征提取能力,越来越多的研究人员逐渐将其应用到跨领域文本处理任务中.林悦等人[21]提出利用目标领域的标记信息来改善模型适应能力的思想,并设计了额外的胶囊网络层促进目标领域的适应,构建了一个基于胶囊网络的跨领域情感分类模型.Zhang B W等人[22]通过胶囊网络对内在空间部分-整体关系进行编码,构成领域不变知识,从而将源领域和目标领域联系起来,此外,为了增强综合句子表示学习,模型还在胶囊网络中融入了语义规则,实现了跨领域文本的情感分析.在情感分析任务中,胶囊网络使用路由机制来生成高级特征,根据不同词汇被考虑的程度分配不同的耦合系数,通过聚类解决特征重叠的问题,但目前关于其被用于方面级情感分析的研究较少. ...
Mcapsnet:capsule network for text with multi-task learning
1
2018
... 胶囊网络[14,15]被提出后,逐渐在文本情感分类任务中被广泛使用,与传统神经元以标量值表示特征不同,其网络节点通过向量值表示文本中词汇的多属性特征,借助动态路由机制代替池化层结构进行参数传递.Chen Z等人[16]提出一个转换胶囊网络(transfer capsule network,TransCap)模型,该模型将句子级语义表示封装为来自方面级和文档级数据的语义胶囊,从而将非方面级情感转换为方面级情感进行分类.Xiao L Q等人[17]提出一种基于胶囊的多任务学习体系结构,利用胶囊特征聚类的优点,对网络中每个任务的特征进行聚类,减少了任务之间的干扰.胶囊网络可以抓取部分-部分、部分-整体的位置信息[18],从而获取文本的局部特征和整体情感极性之间的关系.杨云龙等人[19]借助门控循环单元(gated recurrent unit,GRU)捕捉文本上下文的全局特征,在初始胶囊层获取文本整体属性的向量化特征信息,通过主胶囊层进行特征组合,提出一种融合GRU和胶囊特征的情感分析模型G-Caps(gated recurrent unit-capsules).王敏蕊等人[20]针对序列生成模型在多标签分类任务中易产生累积误差等问题,使用BiLSTM + Attention进行语义编码,利用动态路由结构进行解码,通过共享全局参数来减少误差累积,构建了基于动态路由的序列生成模型(sequence generation model based on dynamic routing,DR-SGM).胶囊网络在文本处理任务中表现出较强的特征提取能力,越来越多的研究人员逐渐将其应用到跨领域文本处理任务中.林悦等人[21]提出利用目标领域的标记信息来改善模型适应能力的思想,并设计了额外的胶囊网络层促进目标领域的适应,构建了一个基于胶囊网络的跨领域情感分类模型.Zhang B W等人[22]通过胶囊网络对内在空间部分-整体关系进行编码,构成领域不变知识,从而将源领域和目标领域联系起来,此外,为了增强综合句子表示学习,模型还在胶囊网络中融入了语义规则,实现了跨领域文本的情感分析.在情感分析任务中,胶囊网络使用路由机制来生成高级特征,根据不同词汇被考虑的程度分配不同的耦合系数,通过聚类解决特征重叠的问题,但目前关于其被用于方面级情感分析的研究较少. ...
Investigating capsule networks with dynamic routing for text classification
1
2018
... 胶囊网络[14,15]被提出后,逐渐在文本情感分类任务中被广泛使用,与传统神经元以标量值表示特征不同,其网络节点通过向量值表示文本中词汇的多属性特征,借助动态路由机制代替池化层结构进行参数传递.Chen Z等人[16]提出一个转换胶囊网络(transfer capsule network,TransCap)模型,该模型将句子级语义表示封装为来自方面级和文档级数据的语义胶囊,从而将非方面级情感转换为方面级情感进行分类.Xiao L Q等人[17]提出一种基于胶囊的多任务学习体系结构,利用胶囊特征聚类的优点,对网络中每个任务的特征进行聚类,减少了任务之间的干扰.胶囊网络可以抓取部分-部分、部分-整体的位置信息[18],从而获取文本的局部特征和整体情感极性之间的关系.杨云龙等人[19]借助门控循环单元(gated recurrent unit,GRU)捕捉文本上下文的全局特征,在初始胶囊层获取文本整体属性的向量化特征信息,通过主胶囊层进行特征组合,提出一种融合GRU和胶囊特征的情感分析模型G-Caps(gated recurrent unit-capsules).王敏蕊等人[20]针对序列生成模型在多标签分类任务中易产生累积误差等问题,使用BiLSTM + Attention进行语义编码,利用动态路由结构进行解码,通过共享全局参数来减少误差累积,构建了基于动态路由的序列生成模型(sequence generation model based on dynamic routing,DR-SGM).胶囊网络在文本处理任务中表现出较强的特征提取能力,越来越多的研究人员逐渐将其应用到跨领域文本处理任务中.林悦等人[21]提出利用目标领域的标记信息来改善模型适应能力的思想,并设计了额外的胶囊网络层促进目标领域的适应,构建了一个基于胶囊网络的跨领域情感分类模型.Zhang B W等人[22]通过胶囊网络对内在空间部分-整体关系进行编码,构成领域不变知识,从而将源领域和目标领域联系起来,此外,为了增强综合句子表示学习,模型还在胶囊网络中融入了语义规则,实现了跨领域文本的情感分析.在情感分析任务中,胶囊网络使用路由机制来生成高级特征,根据不同词汇被考虑的程度分配不同的耦合系数,通过聚类解决特征重叠的问题,但目前关于其被用于方面级情感分析的研究较少. ...
基于 GRU 和胶囊特征融合的文本情感分析
1
2020
... 胶囊网络[14,15]被提出后,逐渐在文本情感分类任务中被广泛使用,与传统神经元以标量值表示特征不同,其网络节点通过向量值表示文本中词汇的多属性特征,借助动态路由机制代替池化层结构进行参数传递.Chen Z等人[16]提出一个转换胶囊网络(transfer capsule network,TransCap)模型,该模型将句子级语义表示封装为来自方面级和文档级数据的语义胶囊,从而将非方面级情感转换为方面级情感进行分类.Xiao L Q等人[17]提出一种基于胶囊的多任务学习体系结构,利用胶囊特征聚类的优点,对网络中每个任务的特征进行聚类,减少了任务之间的干扰.胶囊网络可以抓取部分-部分、部分-整体的位置信息[18],从而获取文本的局部特征和整体情感极性之间的关系.杨云龙等人[19]借助门控循环单元(gated recurrent unit,GRU)捕捉文本上下文的全局特征,在初始胶囊层获取文本整体属性的向量化特征信息,通过主胶囊层进行特征组合,提出一种融合GRU和胶囊特征的情感分析模型G-Caps(gated recurrent unit-capsules).王敏蕊等人[20]针对序列生成模型在多标签分类任务中易产生累积误差等问题,使用BiLSTM + Attention进行语义编码,利用动态路由结构进行解码,通过共享全局参数来减少误差累积,构建了基于动态路由的序列生成模型(sequence generation model based on dynamic routing,DR-SGM).胶囊网络在文本处理任务中表现出较强的特征提取能力,越来越多的研究人员逐渐将其应用到跨领域文本处理任务中.林悦等人[21]提出利用目标领域的标记信息来改善模型适应能力的思想,并设计了额外的胶囊网络层促进目标领域的适应,构建了一个基于胶囊网络的跨领域情感分类模型.Zhang B W等人[22]通过胶囊网络对内在空间部分-整体关系进行编码,构成领域不变知识,从而将源领域和目标领域联系起来,此外,为了增强综合句子表示学习,模型还在胶囊网络中融入了语义规则,实现了跨领域文本的情感分析.在情感分析任务中,胶囊网络使用路由机制来生成高级特征,根据不同词汇被考虑的程度分配不同的耦合系数,通过聚类解决特征重叠的问题,但目前关于其被用于方面级情感分析的研究较少. ...
基于 GRU 和胶囊特征融合的文本情感分析
1
2020
... 胶囊网络[14,15]被提出后,逐渐在文本情感分类任务中被广泛使用,与传统神经元以标量值表示特征不同,其网络节点通过向量值表示文本中词汇的多属性特征,借助动态路由机制代替池化层结构进行参数传递.Chen Z等人[16]提出一个转换胶囊网络(transfer capsule network,TransCap)模型,该模型将句子级语义表示封装为来自方面级和文档级数据的语义胶囊,从而将非方面级情感转换为方面级情感进行分类.Xiao L Q等人[17]提出一种基于胶囊的多任务学习体系结构,利用胶囊特征聚类的优点,对网络中每个任务的特征进行聚类,减少了任务之间的干扰.胶囊网络可以抓取部分-部分、部分-整体的位置信息[18],从而获取文本的局部特征和整体情感极性之间的关系.杨云龙等人[19]借助门控循环单元(gated recurrent unit,GRU)捕捉文本上下文的全局特征,在初始胶囊层获取文本整体属性的向量化特征信息,通过主胶囊层进行特征组合,提出一种融合GRU和胶囊特征的情感分析模型G-Caps(gated recurrent unit-capsules).王敏蕊等人[20]针对序列生成模型在多标签分类任务中易产生累积误差等问题,使用BiLSTM + Attention进行语义编码,利用动态路由结构进行解码,通过共享全局参数来减少误差累积,构建了基于动态路由的序列生成模型(sequence generation model based on dynamic routing,DR-SGM).胶囊网络在文本处理任务中表现出较强的特征提取能力,越来越多的研究人员逐渐将其应用到跨领域文本处理任务中.林悦等人[21]提出利用目标领域的标记信息来改善模型适应能力的思想,并设计了额外的胶囊网络层促进目标领域的适应,构建了一个基于胶囊网络的跨领域情感分类模型.Zhang B W等人[22]通过胶囊网络对内在空间部分-整体关系进行编码,构成领域不变知识,从而将源领域和目标领域联系起来,此外,为了增强综合句子表示学习,模型还在胶囊网络中融入了语义规则,实现了跨领域文本的情感分析.在情感分析任务中,胶囊网络使用路由机制来生成高级特征,根据不同词汇被考虑的程度分配不同的耦合系数,通过聚类解决特征重叠的问题,但目前关于其被用于方面级情感分析的研究较少. ...
基于动态路由序列生成模型的多标签文本分类方法
1
2020
... 胶囊网络[14,15]被提出后,逐渐在文本情感分类任务中被广泛使用,与传统神经元以标量值表示特征不同,其网络节点通过向量值表示文本中词汇的多属性特征,借助动态路由机制代替池化层结构进行参数传递.Chen Z等人[16]提出一个转换胶囊网络(transfer capsule network,TransCap)模型,该模型将句子级语义表示封装为来自方面级和文档级数据的语义胶囊,从而将非方面级情感转换为方面级情感进行分类.Xiao L Q等人[17]提出一种基于胶囊的多任务学习体系结构,利用胶囊特征聚类的优点,对网络中每个任务的特征进行聚类,减少了任务之间的干扰.胶囊网络可以抓取部分-部分、部分-整体的位置信息[18],从而获取文本的局部特征和整体情感极性之间的关系.杨云龙等人[19]借助门控循环单元(gated recurrent unit,GRU)捕捉文本上下文的全局特征,在初始胶囊层获取文本整体属性的向量化特征信息,通过主胶囊层进行特征组合,提出一种融合GRU和胶囊特征的情感分析模型G-Caps(gated recurrent unit-capsules).王敏蕊等人[20]针对序列生成模型在多标签分类任务中易产生累积误差等问题,使用BiLSTM + Attention进行语义编码,利用动态路由结构进行解码,通过共享全局参数来减少误差累积,构建了基于动态路由的序列生成模型(sequence generation model based on dynamic routing,DR-SGM).胶囊网络在文本处理任务中表现出较强的特征提取能力,越来越多的研究人员逐渐将其应用到跨领域文本处理任务中.林悦等人[21]提出利用目标领域的标记信息来改善模型适应能力的思想,并设计了额外的胶囊网络层促进目标领域的适应,构建了一个基于胶囊网络的跨领域情感分类模型.Zhang B W等人[22]通过胶囊网络对内在空间部分-整体关系进行编码,构成领域不变知识,从而将源领域和目标领域联系起来,此外,为了增强综合句子表示学习,模型还在胶囊网络中融入了语义规则,实现了跨领域文本的情感分析.在情感分析任务中,胶囊网络使用路由机制来生成高级特征,根据不同词汇被考虑的程度分配不同的耦合系数,通过聚类解决特征重叠的问题,但目前关于其被用于方面级情感分析的研究较少. ...
基于动态路由序列生成模型的多标签文本分类方法
1
2020
... 胶囊网络[14,15]被提出后,逐渐在文本情感分类任务中被广泛使用,与传统神经元以标量值表示特征不同,其网络节点通过向量值表示文本中词汇的多属性特征,借助动态路由机制代替池化层结构进行参数传递.Chen Z等人[16]提出一个转换胶囊网络(transfer capsule network,TransCap)模型,该模型将句子级语义表示封装为来自方面级和文档级数据的语义胶囊,从而将非方面级情感转换为方面级情感进行分类.Xiao L Q等人[17]提出一种基于胶囊的多任务学习体系结构,利用胶囊特征聚类的优点,对网络中每个任务的特征进行聚类,减少了任务之间的干扰.胶囊网络可以抓取部分-部分、部分-整体的位置信息[18],从而获取文本的局部特征和整体情感极性之间的关系.杨云龙等人[19]借助门控循环单元(gated recurrent unit,GRU)捕捉文本上下文的全局特征,在初始胶囊层获取文本整体属性的向量化特征信息,通过主胶囊层进行特征组合,提出一种融合GRU和胶囊特征的情感分析模型G-Caps(gated recurrent unit-capsules).王敏蕊等人[20]针对序列生成模型在多标签分类任务中易产生累积误差等问题,使用BiLSTM + Attention进行语义编码,利用动态路由结构进行解码,通过共享全局参数来减少误差累积,构建了基于动态路由的序列生成模型(sequence generation model based on dynamic routing,DR-SGM).胶囊网络在文本处理任务中表现出较强的特征提取能力,越来越多的研究人员逐渐将其应用到跨领域文本处理任务中.林悦等人[21]提出利用目标领域的标记信息来改善模型适应能力的思想,并设计了额外的胶囊网络层促进目标领域的适应,构建了一个基于胶囊网络的跨领域情感分类模型.Zhang B W等人[22]通过胶囊网络对内在空间部分-整体关系进行编码,构成领域不变知识,从而将源领域和目标领域联系起来,此外,为了增强综合句子表示学习,模型还在胶囊网络中融入了语义规则,实现了跨领域文本的情感分析.在情感分析任务中,胶囊网络使用路由机制来生成高级特征,根据不同词汇被考虑的程度分配不同的耦合系数,通过聚类解决特征重叠的问题,但目前关于其被用于方面级情感分析的研究较少. ...
基于胶囊网络的跨领域情感分类方法
1
2019
... 胶囊网络[14,15]被提出后,逐渐在文本情感分类任务中被广泛使用,与传统神经元以标量值表示特征不同,其网络节点通过向量值表示文本中词汇的多属性特征,借助动态路由机制代替池化层结构进行参数传递.Chen Z等人[16]提出一个转换胶囊网络(transfer capsule network,TransCap)模型,该模型将句子级语义表示封装为来自方面级和文档级数据的语义胶囊,从而将非方面级情感转换为方面级情感进行分类.Xiao L Q等人[17]提出一种基于胶囊的多任务学习体系结构,利用胶囊特征聚类的优点,对网络中每个任务的特征进行聚类,减少了任务之间的干扰.胶囊网络可以抓取部分-部分、部分-整体的位置信息[18],从而获取文本的局部特征和整体情感极性之间的关系.杨云龙等人[19]借助门控循环单元(gated recurrent unit,GRU)捕捉文本上下文的全局特征,在初始胶囊层获取文本整体属性的向量化特征信息,通过主胶囊层进行特征组合,提出一种融合GRU和胶囊特征的情感分析模型G-Caps(gated recurrent unit-capsules).王敏蕊等人[20]针对序列生成模型在多标签分类任务中易产生累积误差等问题,使用BiLSTM + Attention进行语义编码,利用动态路由结构进行解码,通过共享全局参数来减少误差累积,构建了基于动态路由的序列生成模型(sequence generation model based on dynamic routing,DR-SGM).胶囊网络在文本处理任务中表现出较强的特征提取能力,越来越多的研究人员逐渐将其应用到跨领域文本处理任务中.林悦等人[21]提出利用目标领域的标记信息来改善模型适应能力的思想,并设计了额外的胶囊网络层促进目标领域的适应,构建了一个基于胶囊网络的跨领域情感分类模型.Zhang B W等人[22]通过胶囊网络对内在空间部分-整体关系进行编码,构成领域不变知识,从而将源领域和目标领域联系起来,此外,为了增强综合句子表示学习,模型还在胶囊网络中融入了语义规则,实现了跨领域文本的情感分析.在情感分析任务中,胶囊网络使用路由机制来生成高级特征,根据不同词汇被考虑的程度分配不同的耦合系数,通过聚类解决特征重叠的问题,但目前关于其被用于方面级情感分析的研究较少. ...
基于胶囊网络的跨领域情感分类方法
1
2019
... 胶囊网络[14,15]被提出后,逐渐在文本情感分类任务中被广泛使用,与传统神经元以标量值表示特征不同,其网络节点通过向量值表示文本中词汇的多属性特征,借助动态路由机制代替池化层结构进行参数传递.Chen Z等人[16]提出一个转换胶囊网络(transfer capsule network,TransCap)模型,该模型将句子级语义表示封装为来自方面级和文档级数据的语义胶囊,从而将非方面级情感转换为方面级情感进行分类.Xiao L Q等人[17]提出一种基于胶囊的多任务学习体系结构,利用胶囊特征聚类的优点,对网络中每个任务的特征进行聚类,减少了任务之间的干扰.胶囊网络可以抓取部分-部分、部分-整体的位置信息[18],从而获取文本的局部特征和整体情感极性之间的关系.杨云龙等人[19]借助门控循环单元(gated recurrent unit,GRU)捕捉文本上下文的全局特征,在初始胶囊层获取文本整体属性的向量化特征信息,通过主胶囊层进行特征组合,提出一种融合GRU和胶囊特征的情感分析模型G-Caps(gated recurrent unit-capsules).王敏蕊等人[20]针对序列生成模型在多标签分类任务中易产生累积误差等问题,使用BiLSTM + Attention进行语义编码,利用动态路由结构进行解码,通过共享全局参数来减少误差累积,构建了基于动态路由的序列生成模型(sequence generation model based on dynamic routing,DR-SGM).胶囊网络在文本处理任务中表现出较强的特征提取能力,越来越多的研究人员逐渐将其应用到跨领域文本处理任务中.林悦等人[21]提出利用目标领域的标记信息来改善模型适应能力的思想,并设计了额外的胶囊网络层促进目标领域的适应,构建了一个基于胶囊网络的跨领域情感分类模型.Zhang B W等人[22]通过胶囊网络对内在空间部分-整体关系进行编码,构成领域不变知识,从而将源领域和目标领域联系起来,此外,为了增强综合句子表示学习,模型还在胶囊网络中融入了语义规则,实现了跨领域文本的情感分析.在情感分析任务中,胶囊网络使用路由机制来生成高级特征,根据不同词汇被考虑的程度分配不同的耦合系数,通过聚类解决特征重叠的问题,但目前关于其被用于方面级情感分析的研究较少. ...
Cross-domain sentiment classification by capsule network with semantic rules
1
2018
... 胶囊网络[14,15]被提出后,逐渐在文本情感分类任务中被广泛使用,与传统神经元以标量值表示特征不同,其网络节点通过向量值表示文本中词汇的多属性特征,借助动态路由机制代替池化层结构进行参数传递.Chen Z等人[16]提出一个转换胶囊网络(transfer capsule network,TransCap)模型,该模型将句子级语义表示封装为来自方面级和文档级数据的语义胶囊,从而将非方面级情感转换为方面级情感进行分类.Xiao L Q等人[17]提出一种基于胶囊的多任务学习体系结构,利用胶囊特征聚类的优点,对网络中每个任务的特征进行聚类,减少了任务之间的干扰.胶囊网络可以抓取部分-部分、部分-整体的位置信息[18],从而获取文本的局部特征和整体情感极性之间的关系.杨云龙等人[19]借助门控循环单元(gated recurrent unit,GRU)捕捉文本上下文的全局特征,在初始胶囊层获取文本整体属性的向量化特征信息,通过主胶囊层进行特征组合,提出一种融合GRU和胶囊特征的情感分析模型G-Caps(gated recurrent unit-capsules).王敏蕊等人[20]针对序列生成模型在多标签分类任务中易产生累积误差等问题,使用BiLSTM + Attention进行语义编码,利用动态路由结构进行解码,通过共享全局参数来减少误差累积,构建了基于动态路由的序列生成模型(sequence generation model based on dynamic routing,DR-SGM).胶囊网络在文本处理任务中表现出较强的特征提取能力,越来越多的研究人员逐渐将其应用到跨领域文本处理任务中.林悦等人[21]提出利用目标领域的标记信息来改善模型适应能力的思想,并设计了额外的胶囊网络层促进目标领域的适应,构建了一个基于胶囊网络的跨领域情感分类模型.Zhang B W等人[22]通过胶囊网络对内在空间部分-整体关系进行编码,构成领域不变知识,从而将源领域和目标领域联系起来,此外,为了增强综合句子表示学习,模型还在胶囊网络中融入了语义规则,实现了跨领域文本的情感分析.在情感分析任务中,胶囊网络使用路由机制来生成高级特征,根据不同词汇被考虑的程度分配不同的耦合系数,通过聚类解决特征重叠的问题,但目前关于其被用于方面级情感分析的研究较少. ...