当前位置: 首页 > news >正文

Syntax-Aware Aspect-Level Sentiment Classification with PWCN 论文阅读笔记

一、作者

Chen Zhang, Qiuchi Li, and Dawei Song. 2019. Syntax-Aware Aspect-Level Sentiment Classification with Proximity-Weighted Convolution Network. In Proceedings of the 42nd International ACM SIGIR Conference on Research and Development in Information Retrieval (SIGIR’19). Association for Computing Machinery, New York, NY, USA, 1145–1148. https://doi.org/10.1145/3331184.3331351

二、背景

在方面级情感分析任务中,对方面及其上下文的语义相关性进行建模一直是一个巨大的挑战。

LSTM 与注意力机制和记忆网络的结合在一定程度上提高了对于方面和上下文之间的语义交互的建模能力,但这些方法往往会忽视句子中的句法关系,比如对于句子 Its size is ideal and the weight is acceptable.,传统的基于语义相关性方法很大可能会将 ideal 描述为 acceptable ,但从句法的角度分析,二者是没有直接联系的。同时,现有的句法分析往往聚焦于单词级别的分析,在处理短语组成的上下文时便会显得捉襟见肘。

三、创新点

为了解决上述局限性,作者提出了一个新的 ABSA 框架,该框架利用方面与其上下文之间的句法关系,基于 LSTM 在 N 元语法(n-gram)的级别上聚合特征。同时受位置机制(position mechanism)的启发,该框架利用邻近权重(proximity weight,上下文词与方面词的句法接近度)来确定上下文词在句子中的重要性。然后邻近权重会被集成到卷积网络中以捕获 N 元句法信息,称为邻近加权卷积网络(Proximity-Weighted Convolution Network)。最后,通过最大池化来选择最重要的特征进行预测。

四、具体实现

模型总体结构如上图所示。一个长度为 n 的句子可以表示为 S={w0,w1,⋯,wτ,wτ+1,⋯,wτ+m−1,⋯,wn−1}\mathbf{S} = \{w_0, w_1, \cdots, w_\tau, w_{\tau + 1}, \cdots, w_{\tau + m - 1}, \cdots, w_{n - 1}\}S={w0,w1,,wτ,wτ+1,,wτ+m1,,wn1},其中 τ\tauτ 代表方面术语的起始 token,然后通过词嵌入得到单词向量 V={e0,⋯,en−1}\mathbf{V} = \{e_0, \cdots, e_{n-1}\}V={e0,,en1},再通过双向LSTM得到隐藏状态向量 H=h0,⋯,hn−1\mathbf{H} = {h_0, \cdots, h_{n - 1}}H=h0,,hn1

1.邻近权重

作者在模型中将句法依赖信息形式化为临近权重,用于描述上下文词与方面词之间的接近程度。依照此思路,作者通过位置邻近依赖邻近,分别对上下文词和方面术语之间的句法依赖进行了建模。

a.位置邻近

位置邻近很容易理解,通常情况下,一个方面词的上下文词更可能在该方面词周围,因此作者将句子中的单词位置信息视为近似的句法邻近度量,位置邻近权重的计算公式如下:

很显然,位置邻近权重会随着上下文词与方面词之间距离的增加而相应减少。

b.依赖邻近

依赖邻近基于句子的句法依存树。对于给定的句子,首先通过spaCy工具构建其句法依存树,然后计算每个单词与方面词之间的依存距离(即每个单词与方面词在依存树中的最短路径长度),对于多词方面短语,考虑对于对于方面边界的最短距离,而对于多句法树的情况,需要手动将其他句法树中的距离设定为句子长度的一半。该距离会被存储到 d={d0,d1,⋯,dτ,dτ+1,⋯,dτ+m−1,⋯,dn−1}\mathbf{d} = \{d_0, d_1, \cdots, d_\tau, d_{\tau + 1}, \cdots, d_{\tau + m - 1}, \cdots, d_{n - 1}\}d={d0,d1,,dτ,dτ+1,,dτ+m1,,dn1}中。最后,根据 d\mathbf{d}d 即可计算依赖邻近权重,计算过程如下:

2.邻近加权卷积

邻近加权卷积的本质是在长度为 l 的卷积核上的一维卷积,同时会在卷积计算之前分配邻近权重,从而得到的句子中第 i 个词的邻近加权表示 ri=pihir_i = p_ih_iri=pihi。此外,作者还对句子进行了零填充以确保卷积操作输入的句子和输出的句子具有相同的长度。

卷积操作可以表示为 qi=max⁡(Wc⊤[ri−t⊕⋯⊕ri⊕⋯⊕ri+t]+bc,0)q_{i}=\max \left(\mathbf{W}_{c}^{\top}\left[r_{i-t} \oplus \cdots \oplus r_{i} \oplus \cdots \oplus r_{i+t}\right]+b_{c}, 0\right)qi=max(Wc[ritriri+t]+bc,0),其中 t=⌊l2⌋t = \lfloor \frac{l}{2} \rfloort=2lWc\mathbf{W}_{c}Wcbcb_cbc 分别为为卷积核的权重和偏置。由于只有少数卷积层的输出特征对分类有指导意义,因此还要通过最大池化来获最显著的特征 qsq_sqs。最后 qsq_sqs会被送到全连接层,通过 softmax 归一化以获得情感极性的分布。

模型的训练采用标准的梯度下降算法,采用交叉熵损失函数以及 L2L_2L2 正则化。

五、实验

作者采用了 Laptop(Pontiki et al., 2014)和 Restaurant(Pontiki et al., 2014)两个数据集作为实验数据集。

作者对 PWCN-Pos(位置邻近的 PWCN)和 PWCN-Dep(依赖邻近的 PWCN)分别进行了实验,对比的模型除了 LSTMRAMIANTNet-LF以外,还包括两个模型变体 Att-PWCN-Pos(邻近权重会乘以归一化后的注意力权重,用来验证句法依赖与语义相关性是否可以相互结合)和 Point-PWCN-Pos(l 元语法被转化为一元语法以验证 N 元语法的有效性)。

作者对三次随机初始化后的实验结果进行了平均,最终的结果如下图所示:

实验结果也表明句法依赖方法的效果优于语义相关性的方法。

http://www.lryc.cn/news/8678.html

相关文章:

  • hadoop考试应急
  • 【React】Hooks
  • 升级Room引发的惨案!!
  • RPC框架:一文带你搞懂RPC
  • 电子招标采购系统源码—企业战略布局下的采购寻源
  • P16 激活函数与Loss 的梯度
  • ThinkPHP5美食商城系统
  • Vue3 - $refs 使用教程,父组件调用获取子组件数据和方法(setup() / <script setup>)
  • 华为OD机试 - 众数和中位数(Python)| 真题+思路+考点+代码+岗位
  • 一眼万年的 Keychron 无线机械键盘
  • 自动化测试高频面试题(含答案)
  • 3、按键扫描检测处理
  • 集中式存储和分布式存储
  • 【机器学习数据集】如何获得机器学习的练习数据?
  • 【编程实践】使用 Kotlin HTTP 框架 Fuel 实现 GET,POST 接口 kittinunf.fuel【极简教程】
  • 大数据DataX(一):DataX的框架设计和插件体系
  • 软考高级信息系统项目管理师系列之十一:项目进度管理
  • vue2版本《后台管理模式》(下)
  • 软考中级-程序设计语言
  • Sphinx : 高性能SQL全文检索引擎
  • ansible实战应用系列教程6:管理ansible变量
  • java8新特性Stream流中anyMatch和allMatch和noneMatch的区别详解
  • 双网卡(有线和wifi)同时连接内网和外网
  • 如何赋能智能运维,迈出数字化黑匣子第一步?
  • 消息称索尼计划为PS5推出两款蓝牙耳机,Find My蓝牙耳机用途广
  • 状态管理VueX
  • i.MX8MP平台开发分享(clock篇)- PLL14xx驱动
  • 课程规范性要求
  • 华为OD机试 - 优秀学员统计(Python)| 真题+思路+考点+代码+岗位
  • 布林线(BOLL)计算公式详解,开口收口代表什么