位置: IT常识 - 正文

异构图神经网络 RGCN、RGAT、HAN、GNN-FILM + PyG实现(异构图神经网络 电影推荐)

编辑:rootadmin
异构图神经网络 RGCN、RGAT、HAN、GNN-FILM + PyG实现 背景

推荐整理分享异构图神经网络 RGCN、RGAT、HAN、GNN-FILM + PyG实现(异构图神经网络 电影推荐),希望有所帮助,仅作参考,欢迎阅读内容。

文章相关热门搜索词:异构图神经网络 问题,异构图神经网络推荐系统,异构图神经网络化学领域,异构图神经网络的应用,异构图神经网络推荐系统,异构图神经网络推荐系统,异构图神经网络的服装搭配系统,异构图神经网络异常点检测,内容如对您有帮助,希望把文章链接给更多的朋友!

ICDM 2022 : 大规模电商图上的风险商品检测,要求在一张异构图上跑点分类,由于是异常检测,正负样本数据集在1比10,记录一下初赛过程。

数据

过程

赛事官方开源了PyG实现的baseline,拿过来直接用于预处理数据了,将图结构进行预处理后得到pt文件,使用pt文件做后续处理:

graph = torch.load(dataset) //dataset = "xxx.pt"graph[type].x = [num_nodes , 256] 点数*特征维度graph[type].y = [num_nodes] 标签=labelgraph[type].num_nodes = 数量 graph[type].maps = id 离散化映射:针对不同的type重新从0开始记录id# 异构图特殊存边方式,需要指定两个点的种类和边的种类。graph[(source_type, edge_type, dest_type)].edge_index = (source,dest) [2, num_edges] # 借鉴GraphSage的邻居采样dataload,每次训练不使用整张图,可以分batchtrain_loader = NeighborLoader(graph, input_nodes=('要分类的type', train_idx), num_neighbors=[a] * b 往外采样b层,每层每种边a个,内存够a可以填-1 , shuffle=True, batch_size=128)for batch in train_loader():batch['item'].batch_size = 128batch['item'].x =[num, 256] 前batch_size个是要预测的点,其他为采样出来的点。batch['item'].y =[num] 前batch_size个是预测点的label,其他无用。batch = batch.to_homogeneous() 转化为同构图batch.x = [所有点数量, 256] batch.edge_idx = [2, 所有边数量] 记录所有边batch.edge_type = [所有边数量] 记录边的类型model(batch.x,batch.edge_index,batch.edge_type)RGCN

RGCN比较简单,其实就是借鉴GCN处理同构图的思路,将其运用到处理异构图上。

GCN的基本思想就是为了计算下一层i节点的embedding,拿出上一层和i相邻的节点和i节点本身的embedding,将这些embedding乘上对应的网络要学习的变化权重矩阵W,前面再乘上单位矩阵和归一化矩阵,每一层的W用同一个,类比卷积。

RGCN很简单,异构图不是有很多种边吗,我就把不同种类的边分开来,每种关系一张图,这样这张图上边都是一样的了,理所当然使用GCN共享W矩阵,求出这种关系下节点i的embedding,最后所有关系的embedding来个融合,随便加个权,来个relu激活一下完成。

from torch_geometric.nn import RGCNConvclass RGCN(torch.nn.Module): def __init__(self, in_channels, hidden_channels, out_channels, n_layers=2, dropout=0.5): super().__init__() self.convs = torch.nn.ModuleList() self.relu = F.relu self.dropout = dropout self.convs.append(RGCNConv(in_channels, hidden_channels, num_relations)) for i in range(n_layers - 2): self.convs.append(RGCNConv(hidden_channels, hidden_channels, num_relations)) self.convs.append(RGCNConv(hidden_channels, out_channels, num_relations)) def forward(self, x, edge_index, edge_type): for conv, norm in zip(self.convs, self.norms): x = norm(conv(x, edge_index, edge_type)) x = F.relu(x) x = F.dropout(x, p=self.dropout, training=self.training return xRGAT异构图神经网络 RGCN、RGAT、HAN、GNN-FILM + PyG实现(异构图神经网络 电影推荐)

由于RGCN每一层W都是固定的,不够灵活,所以加入attention机制,毕竟万物皆可attention。

先说一下GAT在GCN上的改动,在计算i节点的embedding时,还是拿出和它邻近的节点和它自己的embedding,对于每一个这样的节点j,将i,j节点的embedding拼接,变成两倍长度,然后算一个self-attention,好像就是一个单层前馈网络,就得到节点j相对于节点i的权重。

RGAT一样,在关系上下功夫,利用关系特征再算一个attention。 最后两者做融合 RGAT可以看成是RGCN进化版,在attention不起作用的时候会退化成RGCN。

但实战和RGCN不分伯仲,甚至在本次竞赛的场景中逊色于RGCN。原因见论文:

RGAT通过attention机制比较好的完成任务之后,很难在损失机制反馈的作用下找到那个把attention设置成归一化常数后效果更好的点。RGCN在一些任务上会通过记忆样本的方式提升效果,但是RGAT模型更复杂发生这种情况的概率更低。from torch_geometric.nn import RGATConvclass RGAT(torch.nn.Module): def __init__(self, in_channels, hidden_channels, out_channels, n_layers=2, n_heads=3): super().__init__() self.convs = torch.nn.ModuleList() self.relu = F.relu self.convs.append(RGATConv(in_channels, hidden_channels, num_relations, heads=n_heads, concat=False)) for i in range(n_layers - 2): self.convs.append(RGATConv(hidden_channels, hidden_channels, num_relations, heads=n_heads, concat=False)) self.convs.append(RGATConv(hidden_channels, hidden_channels, num_relations, heads=n_heads, concat=False)) self.lin1 = torch.nn.Linear(hidden_channels, out_channels) def forward(self, x, edge_index, edge_type): for i, conv in enumerate(self.convs): x = conv(x, edge_index, edge_type) x = x.relu_() x = F.dropout(x, p=0.2, training=self.training x = self.lin1(x) return xHeterogeneous Graph Attention Network (HAN HGAT)

根据专家经验设置多条matapath(路径):点、边、点、边、点…

针对不同的matapath,节点i针对路径拿到其所有邻居节点j。

1.点和点计算attention并求和。使用多头注意力机制。

2.所有关系要聚合时算一个attention,其中q,w,b共享。 实验中效果很差,可能是我matapath设置的不好吧,而且多头注意力训练时间也太久了,我RGCN一个epoch只要5min,它要480min。

from torch_geometric.nn import HANConvlabeld_class = 'item'class HAN(torch.nn.Module): def __init__(self, in_channels: Union[int, Dict[str, int]], out_channels: int, hidden_channels=16, heads=4, n_layers=2): super().__init__() self.convs = torch.nn.ModuleList() self.relu = F.relu self.convs.append(HANConv(in_channels, hidden_channels, heads=heads, dropout=0.6, metadata=metada)) for i in range(n_layers - 1): self.convs.append(HANConv(hidden_channels, hidden_channels, heads=heads, dropout=0.6, metadata=metada)) self.lin = torch.nn.Linear(hidden_channels, out_channels) def forward(self, x_dict, edge_index_dict): for i, conv in enumerate(self.convs): x_dict = conv(x_dict, edge_index_dict) x_dict = self.lin(x_dict[labeled_class]) return x_dict GNN-Film(线性特征调整)

对比RGCN,改动的点与RGAT类似,同样想使得权重有所变化。加入了一个简单的前馈网络: 优点在于他在算权重的时候,加了一个仿射变换,相当于是用神经网络去计算参数。再用b和y去作为权重调整embedding。

实验中效果出奇的好,训练快,效果超越RGCN。

class GNNFilm(torch.nn.Module): def __init__(self, in_channels, hidden_channels, out_channels, n_layers, dropout=0.5): super().__init__() self.dropout = dropout self.convs = torch.nn.ModuleList() self.convs.append(FiLMConv(in_channels, hidden_channels, num_relations)) for _ in range(n_layers - 1): self.convs.append(FiLMConv(hidden_channels, hidden_channels, num_relations)) self.norms = torch.nn.ModuleList() for _ in range(n_layers): self.norms.append(BatchNorm1d(hidden_channels)) self.lin_l = torch.nn.Sequential(OrderedDict([ ('lin1', Linear(hidden_channels, int(hidden_channels//4), bias=True)), ('lrelu', torch.nn.LeakyReLU(0.2)), ('lin2', Linear(int(hidden_channels//4),out_channels, bias=True))])) def forward(self, x, edge_index, edge_type): for conv, norm in zip(self.convs, self.norms): x = norm(conv(x, edge_index, edge_type)) x = F.dropout(x, p=self.dropout, training=self.training) x = self.lin_l(x) return x总结

RGCN、RGAT、GNN-FILM代码替换十分简单,训练代码完全不用动,只要改模型代码即可,完全可以三者都尝试效果,HAN慎用,效果太吃matapath的设置,训练时间还长,不值得。

本文链接地址:https://www.jiuchutong.com/zhishi/283704.html 转载请保留说明!

上一篇:口腔发炎怎么办(口腔发炎怎么办最快最有效的方法)

下一篇:亡灵节上点缀公墓的万寿菊,墨西哥米却肯州 (© Irwin Barrett/Design Pics/Alamy)(亡灵节mid)

  • 预收账款开票怎么做账
  • 一般纳税人金税盘抵税会计分录
  • 个人所得税怎么扣除标准
  • 公司减免社保到几月份
  • 对公转账房租怎么备注
  • 购买性支出和转移性支出财政职能发挥方面有何不同
  • 支付一次性劳务报酬怎么做账
  • 一般纳税人符合条件
  • 收到加工费普通发票怎么做账务处理
  • 出租房屋确认收入列简易计税还是销项税
  • 发票管理中的四流一致是指什么一致
  • 建筑工程外地预交税款后完工怎么办
  • 法人购买设备怎么入账
  • 海关进口关税专用缴款书可以抵扣增值税吗
  • 什么情况下需要写答
  • 个人独资企业所得税
  • 物业费需不需要物价局审批
  • 已预缴的城建税会计分录
  • 存货变卖残值取得的收益计入哪个科目
  • 公司注销清算债权委托另一股东处理
  • 员工意外伤害保险怎么买
  • bios术语
  • bios里面怎么设置中文
  • 银行承兑汇票的转让一般通过什么渠道
  • 商品售价有规定吗
  • 公司代缴社保公司吃亏吗
  • 给客户买的礼品怎么报销
  • 因有减免税款不退怎么办
  • 企业并购的基本方法有
  • 数据处理主要内容有哪些?
  • 场外期权会计核算
  • 契税计税依据及计算方式
  • 北海道的鱼
  • php如何实现
  • vue运行报错
  • java基础面试题选择题
  • vue3当中如何监听新增的属性
  • tomcat-juli
  • 《一文搞懂IoU发展历程》GIoU、DIoU、CIoU、EIoU、αIoU、SIoU
  • 如何网上添加办税员上海
  • 国税纳税申报表下载
  • 出口报关需要增税吗
  • 计提了年终奖还能冲回吗
  • 如何对php网站页面进行修改
  • sql2008安装出现以下错误
  • 劳务派遣工资是死的吗
  • 企业合并属于非企业吗
  • 刻章费用如何做账务处理
  • 开专票明细太多怎么开
  • 个体升一般纳税人的界限
  • sql服务如何自动启动
  • 库存现金挂账多久
  • 工程材料费发票没拿到是否能预提费用?
  • 小规模季度超过45万了怎么缴纳
  • 运动会活动奖品
  • 无形资产发生减值后怎么摊销
  • 房产税征收标准2020
  • 怎么打印税务登记证明备案表
  • 公司发放工作服怎么做账务处理
  • 主营业务成本工资计提吗
  • 公司的商务卡的作用
  • 工会经费主要用于什么服务岗位
  • 支付厂房租赁费现金流
  • mysql innode
  • mysql5.7压缩包
  • windowsandbox
  • 正版win10怎么用
  • Linux操作系统中怎么永久设置环境变量?
  • win70
  • win8应用商店下载
  • typescript尖括号
  • 创建ie浏览器
  • 可视化gradcam
  • linux哪些方法可以查看命令的详细信息
  • 原生js常用的方法
  • 安卓9api
  • python的读取和写入
  • jquery 判断对象是否为空
  • 国家税务总局郴州
  • 商品代码是啥
  • 免责声明:网站部分图片文字素材来源于网络,如有侵权,请及时告知,我们会第一时间删除,谢谢! 邮箱:opceo@qq.com

    鄂ICP备2023003026号

    网站地图: 企业信息 工商信息 财税知识 网络常识 编程技术

    友情链接: 武汉网站建设