打开APP
userphoto
未登录

开通VIP,畅享免费电子书等14项超值服

开通VIP
AAAI 2021:基于对比自监督学习的图分类

本文转自 MIND Laboratory微信公众号,原文地址

https://mp.weixin.qq.com/s/nB-hUPeiRcDiSd6uja6rUQ

Contrastive Self-supervised Learning for Graph Classification

论文地址:

https://arxiv.org/pdf/2009.05923.pdf

论文来源:AAAI 2021

1.论文介绍

图分类是一个重要的应用,在现实中,带标签的图数量很少,导致模型的过拟合。本文提出了两种对比自监督学习的方法来避免这种过拟合的现象。一种方法先是在无标签的数据集上做预训练,再在带标签的数据集上做微调。

另一种方法是同时进行监督的分类任务和无监督的对比学习任务。  

2.模型方法

在对比学习之前要先对图进行数据增强,本文使用了四种方法。删除节点和边以及增加节点和边。在增加节点时,从图中选择一个强连通的子图(1,3,4),删除掉所有边,加入一个新节点(5),将新节点与子图的所有点相连。

       每次数据增强时,从操作集中随机选择一个数据增强操作,经过t步迭代,最终得到一个增强后的图。如果两个图是由同一个图增强得到的,那么这两个图的标签应该相似。本文使用了一个图嵌入模块

和多层感知机
来生成隐藏表示。

是一对正样本对,
是负样本对的集合。损失函数为

表示余弦相似度。
是温度参数。

优化损失函数时,作者使用了MoCo的方法。一个队列中包含了一个增强后的图的集合,每次迭代将最近的一批图加入到队列中,最老的一批图出队。这些图使用动量编码器进行编码。给定一个增强后的图,如果与当前队列中的一个图来自同一个初始图,那么它们是正样本对,否则为负样本对。

本文提出了两种方法来避免过拟合。一种方法是在无标签的数据集上做预训练,再在带标签的数据集上做微调。

另一种方法同时进行监督任务和自监督任务。

优化问题表示为

D表示训练图,L表示标签,

表示编码器,分类任务和预测任务。
表示分类损失,
表示自监督学习损失,
是参数。

本文使用的图编码器是Hierarchical Graph Pooling with Structure Learning(HGP-SL),由图卷积和池化层构成,

3.实验结果

作者在多个数据集上与现有方法进行了比较

CSSL-Freeze表示预训练后直接用到分类任务中,不进行微调。

对不同的增强操作,作者也进行了比较

在CSSL-Reg方法中,不同的

也会导致不同的结果

4.总结

本文在图分类任务上使用了对比自监督学习的方法,提出了两种不同的方法,与现有方法相比,本文方法有效的避免了图分类过拟合的问题。

本站仅提供存储服务,所有内容均由用户发布,如发现有害或侵权内容,请点击举报
打开APP,阅读全文并永久保存 查看更多类似文章
猜你喜欢
类似文章
图自监督学习综述
伊利诺伊大学窦英通:基于图神经网络的欺诈检测
​WSDM 2023 | S2GAE: 简单而有效的自监督图自动编码器框架
深度学习模型那么多,科学研究选哪个? | 雷锋网
万字综述,GNN在NLP中的应用,建议收藏慢慢看
GCC:图上的Contrastive Coding | 作者带你读论文 (KDD 2020)
更多类似文章 >>
生活服务
热点新闻
分享 收藏 导长图 关注 下载文章
绑定账号成功
后续可登录账号畅享VIP特权!
如果VIP功能使用有故障,
可点击这里联系客服!

联系客服