当前位置: 首页 > news >正文

GADBench Revisiting and Benchmarking Supervised Graph Anomaly Detection

Neurips 23
推荐指数: #paper/⭐⭐⭐
领域:图异常检测

胡言乱语:

neurips 的benchmark模块的文章总能给人一些启发性的理解,这篇的insight真有意思。个人感兴趣的地方会加粗。此外,这篇文章和腾讯AIlab合作,有腾讯背书

文章的背景

缺陷

  1. 缺乏有监督GAD benchmark
    1. 缺乏树集成与GNN之间的比较研究
    1. 缺乏对大数据集的探索
  2. 发现

    1. 有邻居聚合的数集成比大部分模型的性能都好
    1. 大部分的标准数据集都不适合GAD task
    1. 针对GAD进行针对性设计的GNN需要超参微调才能取得满意的性能
  3. 我们的贡献

    1. 提出了GADBench
      10.2. 使用公平和严格的比较方法

相关工作

GAD的简介

GAD其实可以视为二分类问题。但是,仍然有下列的挑战:

  1. 异常节点通常是整个数据集的一小部分,这会导致数据的不平衡问题。
    1. 异常节点通常展现强异配性,这就需要对于传播函数的改造
    1. 异常节点倾向于掩盖其特征和链接,通过模仿图中的正常模式来无缝混合
  2. 本文涉及的方法:

  3. 文章配图
  4. 标准GNN即常见的GNN,
  5. specializedGNN

  6. specialized GNN通常需要专门的设计。
  7. 重点提及一下光谱GNN,光谱GNN提供了一个新的观点,将图形异常与高频频谱分布联系起来例如,BWGNN 应用Beta内核通过灵活且局部化的带通过滤器来管理较高频率的异常。AMNet 捕获低频和高频信号,自适应地积分不同频率的信号。
    10.### 有邻居集合的树集成
    h v i ( l ) = Aggregate { h v j ( l − 1 ) ∣ v i ∈ Neighbor ( v j ) } Score ⁡ ( v i ) = TreeEnsemble ( [ h v i 0 ∣ ∣ h v i 1 ∣ ∣ ⋯ ∣ ∣ h v i L ] ) . \begin{aligned} \boldsymbol{h}_{v_i}^{(l)}& =\text{Aggregate}\{\boldsymbol{h}_{v_j}^{(l-1)}|v_i\in\text{Neighbor}(v_j)\} \\ \operatorname{Score}(v_i)& =\text{TreeEnsemble}([\boldsymbol{h}_{v_i}^0||\boldsymbol{h}_{v_i}^1||\cdots||\boldsymbol{h}_{v_i}^L]). \end{aligned} hvi(l)Score(vi)=Aggregate{hvj(l1)viNeighbor(vj)}=TreeEnsemble([hvi0∣∣hvi1∣∣∣∣hviL]).
    AGGRATE可以是任何聚合函数,比如mean,max,polling。
    在GADBench中,我们利用Random Forest和XGboost实例化两个具有邻居聚合的新树集成基线,称为RF-Shape和XGB-Shape。

数据集介绍

文章配图

分割

全监督场景,我们一般使用4/2/4的划分,具体的划分见数据集介绍。对于半监督场景,在先前的研究中,经常采取1%或者5%,然而,因为图数目的变化,固定碧梨的训练模型可能导致训练集规模的据他差异。因此我们队所有的训练集进行标准化:一共100个标签,20异常标签,80正常节点。

Insight

文章配图

带有邻居聚合的树聚集成有着超强的性能

大部分标准GNN都不适合GAD

但是,有一个例外:GraphSage展现了优越的性能,甚至有时可以和专门设计的GNN比较。个人认为,GraphSAGE可以捕获自己和邻居的不同(GraphSAGE在聚合中将自身节点和邻居节点拼接在一起,这就意味着可以收货自己与周围节点的异同信息,这是其他标准GNN所不具备得

专门设计的GNN需要复杂的调参才可以取得满意的性能

异构图的增强可能只在部分数据集上起作用

文章配图
如图所示,异构图只在Yelp上有增强效果,在Amazon上比不过同配图

聚合层数对于数集成的影响

文章配图

为什么决策树的性能会更好?

文章配图
异常实例往往会形成多个分散的集群,并与正常实例相结合,这些实例属于RF-Shape和XGB-Shape的感性偏差类别,有利于复杂且不相交的决策边界。相比之下,由于GNN通常使用MLP作为最终层,因此它们往往会生成简单且连续的决策边界,这使得GNN在一些具有挑战性的GAD数据集上表现不佳。其实就是insights:用简单的MLP不行,得设计的更复杂。但是,异常检测脱胎与图神经网络,其比较本质上就是比较嵌入的良好程度,个人觉得GNN后接更复杂的分类损失,也可以取得像树集成类似的效果

分析数据集的影响

如数据集简介所示,所示,在GADB的10个数据集中,有3个数据集纯粹使用文本嵌入作为节点特征,而在其余7个数据集中,节点特征包含各种信息,例如数字、分类和时间特征的组合。值得注意的是,对于依赖于基于文本的特征的数据集–即Reddit、weibo和Question–GNN展示了与包括树集成在内的其他方法相比具有竞争力的性能。这可以归因于文本嵌入的性质:它们通常表示高维特征空间中的低维流形,其中维度往往高度相关。GNN可以同时处理所有这些维度,而单个决策树可能只考虑功能列的有限子集。相反,在其他7个具有低相关性的不同特征类型(例如,性别和年龄信息)的数据集中,具有邻居聚集的树集成通常表现出更好的性能。

http://www.lryc.cn/news/456272.html

相关文章:

  • 某象异形滑块99%准确率方案
  • CDN绕过学习
  • SpringBoot日常:redission的接入使用和源码解析
  • npm包管理深度探索:从基础到进阶全面教程!
  • 最新免费GPT4O和Midjourney
  • python操作OpenAI教程
  • 如何版本REST API:综合指南
  • Docker 环境下 Nginx 监控实战:使用 Prometheus 实现 Nginx 性能监控的完整部署指南
  • 网络安全-IPv4和IPv6的区别
  • 【移动端】事件基础
  • 软件测试比赛-学习
  • 力扣LeetCode-链表中的循环与递归使用
  • AFSim仿真系统 --- 系统简解_08 传感器与特征
  • 已经安装了qt,想添加mingw组件,包含gcc等
  • 数据库管理-第250期 深入浅出多主多活数据库技术- Cantian存储引擎(一)(20241009)
  • 信号用wire类型还是reg类型定义
  • 与鸿蒙同行,Java Solon v3.0 正式发布(向下兼容)
  • 数据驱动投资:AI在股票市场的应用
  • Tita使用小技巧:项目类型自定义,业务管理个性化
  • 国药准字:您购药的可靠指南
  • Python类学习(2)——未完待续
  • 微前端框架 qiankun 全面解析到源码实现
  • 初始化数据的正确方式?
  • Flutter平台嵌入器
  • 微信小程序——婚礼邀请函
  • WebRTC Connection Negotiate解决
  • Redis面试篇1
  • Debezium系列之:Debezium 3.0.0.Final发布
  • 一文解决jQuery表格插件DataTable导出PDF中文乱码问题
  • 使用pytorch进行迁移学习的两个步骤